Evgeny_CDАрхитектор (16.07.2014 12:47, просмотров: 101) ответил TimeZoneDefault на согласен. пока в технологии числогрызов для хендхелд и десктопов прорывов не ожидается, продавать будут возможности быстрой и большой памяти.
Все гораздо сложнее и многомернее. Есть несколько крайностей. Мало данных - мегаалгоритм, который по ним решает целевую задачу. Море данных - море простейших вычислителей, которые лопатят это море простейшими алгоритмами. И бесконечное количество вариаций между ними.
Фундаментальная засада состоит в ступенчато-логарифмической зависимости вау-эффекта. Т.е. до какого-то момента роста некоего условного ресурса (проц, память, скорость и т.д.) "всем пох", потом возникает ступенька - "Вау! Оно работает!", дальше логарифм "здорово, но", потом МОЖЕТ быть снова ступенька.
Основа проблемы в том, что ступеньки у производителей и юзров не совпадают. Чтобы сотики стали сегодняшним чудом, нужно было вложить 300 млрд бабла в R&D. Взяли его на рынке, делая всякие искусственные вау-горки - у юзеров вызывали вау-эффект искусственно, чтобы получить бабло на реальное достижение следующей вау-ступени.
Вопрос в том, получится ли такое с bigdata.