Только когда АРМ или чтото другое полезет в десктоп сполшной волной, Интел зачешется и сделает то что давно должен - выпустит 6-8-10+ ядер в десктоп, и выпилит видеоядро из рядо процессоров, ну не нужно оно дома для игрового ПК с дискретной видяхой, для офиса или печатной машинки дома вполне годится. Есть куча примеров, народ сидит на i5 760 и никуда не торопится (а прошло уже 3 поколения) потомучто разницы тупо нет, проще докупить SSD или в очередной раз заменить видяху.
Все не так просто как кажется. В моем представлении Intel напоминает старомодного дядюшку нагрянувшего в столичный центр из глубокой провинции. Он безукоризненно одет, чисто выбрит, но облачен в смокинг, в то время как давно уже носят потертые джинсы и мятые футболки. Объясню позицию. Интел не меняет концепцию ядра, ядро есть ALU + FPU, эта концепция исторически зародилась, ибо новая сущность рождалась в результате чисто математических действий. Если складывать результаты умножений значения функции на прирост аргумента, получите значение интеграла. Интеграл – новая сущность и для ее получения требуется много арифметических действия. Здесь нужен FPU. Современные задачи изменились, они уже не описываются в рамках строго формализованной логики, это есть задачи эвристические, задачи перебора и выбора, задачи, алгоритм которых описывается набором установленных правил поведения объекта. В этом направлении движется развитие техники, предположим, роботостроения. Сейчас эта аналогия с дядюшкой не очень чувствительна, пройдет несколько лет и ситуация станет нетерпимой. Кстати у AMD есть серьезный козырь – модульная организация процессора. Достаточно в модуле изменить соотношение ALU и FPU и создается подходящий для современных нужд процессор. В зависимости от этого соотношения можно производить процессоры для научно-технических задач, процессоры широкого профиля, игровые процессоры. Вот у Intel этого пока нет. Одно радует –Intel сильно жмет на нормы техпроцесса.
Эти отношения скорее описываются понятием интерфейсных отношений. К примеру, персональный компьютер представляется единой сущностью, но есть взаимосвязь множества условностей, описываемых термином - интерфейс взаимодействия устройств. Никакой математической формулой его не представить. Что касается больших данных, сложность только в их величине, алгоритмы обработки просты и давно существуют в в виде библиотек математических функций для видеокарт. Программисты неохотно их используют, дело в том, что среда исполнения имеет консольный характер, а программисты делают программы в виде обычного окна в интегрированной среде разработки. Хотя здесь и нет особых трудностей с переносом данных из программы windows.forms в консольную для обработки и обратный перенос результатов для отображения в графическом окне, тем не менее все это еще затруднительный момент, сдерживающий применение видеокарт в качестве расчетных устройств. Видимо , надо написать несколько примеров, показывающих легкую реализацию взаимодействия CPU и GPU.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 10
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения