ВходНаше всё Теги codebook 无线电组件 Поиск Опросы Закон Суббота
20 апреля
703864 Топик полностью
Ксения (05.10.2016 21:59, просмотров: 74) ответил Зкспериментатор на Видеокарты умрут вместе с персональными компьютерами. Наиболее прозорливые уже сейчас оценивают возможности распределенных вычислений на ARM от смартфонов. В этой статье хттп://iopscience.iop.org/article/10.1088/1742-6596/681/1/012049/pdf
Экономичность гораздо более зависима от используемого техпроцесса (nm), нежели от архитектуры. На High-End конце кругом одни кэши и конвейееры, а потому система инструкций перестала играть заметную роль в производительности. А уж про экономичность и говорить не приходится. Между тем как Intel - рекордист по части миниатюризации техпроцесса, и потому опередить его кому-то будет очень сложно. Между тем, как война между CPU и GPU не только не утихает, но и все сильнее разгорается. Дело уже пахнет тем, что GPU-видеокарты обзаведутся собственными разъемами для Ethernet и USB, чтобы совсем отделиться от CPU и/или использовать последний исключительно, как периферийный контроллер. Тем более что по памяти такое отделение уже произошло. С другой стороны CPU (с подачи того же Intel'а) обзаводятся собственной встроенной видеосистемой. И если на 2-ом и 3-ей поколении Core-i это еще широко не пошло, то для Core-i 4-го поколения уже все материнские платы идут со разъемами под монитор. И дело движется к тому, чтобы вообще запретить вставлять видеокарту в материнку :), удалив у нее необходимые для этого слоты. Соответственно этому, число ядер у CPU растет, а том числе и специализированных (рассчитанных только на графические примитивы).