Junior
Статус: Не в сети Регистрация: 11.01.2007 Откуда: Донецк, Украина
Аналоги этой платы уже давно существуют,только в них процессоры раздельно стоят,они служат для ускорения физики и рендринга. Интел просто хочет запихнуть все в одно ядро и добавить свойства видюхи.
Так как сейчас много людей занимается трех мерной графикой,спрос на них будет большой.
Для этих целей и инвидиа продвигает свою технологию CUDA.
Member
Статус: Не в сети Регистрация: 16.07.2006 Откуда: НОВОРОССИЙСК
Я так думаю что Интел тревожно засуетилась по поводу этой темы. потому что CUDA и ГФ8800 от НВидиа это и есть то что хочет предложить ч-з 3года Интел. Этот чип врядли принесёт какой то пользы в играх ровно как собаке пятая нога. То есть этот девайс для профзадач типа 3дМакс, Maya и.т.д. Если взять копнуть ещё глубже то получается ясная картинка, например НВидиа ГФ8800+CUDA+Gelato (Amaretto) и мы получаем полный аппаратный доступ к ресурсам видеокарты (которая от 10 до нескольких сотен раз мощнее нынешних ЦПУ) при Рендеринге в том-же 3Дмаксе + ещё ЦПУ т.е. ЦПУ+ГПУ. Нвидиа осталось только ЦПУ придумать и полностю 100% готовое решение для профрынка! С АМД всё понятно, у них есть АТИ и даже потоковый проц в лице старого R580. А теперь посчитайте на сколько R580 отсаёт от Г80 чтоб понять на сколько опережает ЦПУ. И до 10 года АТИ и Нвидиа выпустят не мало чудовищ на фоне которых нынепредлагаемый гибрид от Интел просто растворится.
Member
Статус: Не в сети Регистрация: 07.04.2005 Откуда: rus
Эта штука щщитает - если она будет щщитать достаточно быстро - можно будет на нем замолотить программный рендринг. А сейчас они уже думают над тем чтоб пересадить принцип построения картинки (в играх, как понимаю) на рей-трейсинг. Вот тебе и польза.
потому что CUDA и ГФ8800 от НВидиа это и есть то что хочет предложить ч-з 3года Интел.
Куда-Шмуда, все эти монстроидальные гигафлопсы идут лесом так как имеем нагромождение исполнительных устройств без продуманной процессорной архитектуры (впрочем, для рассчёта треугольников большего и не нужно). В результате в научных задачах (например, очень востребованный рассчёт преобразования Фурье) имее на 8800GTX уровень производительности Коры Е6600. http://forum.ixbt.com/topic.cgi?id=8:20973
Цитата:
которая от 10 до нескольких сотен раз мощнее нынешних ЦПУ
Только по количеству исполнительных устройств, которые, на большинстве задач, не возможно задействовать из-за общей "дохлости" архитектуры.
Цитата:
осталось только ЦПУ придумать и полностю 100% готовое решение для профрынка!
Вот это и есть главная проблема. Сделать массив из 128 одинаковых "сложителей/умножителей" гораздо легче, чем разработать сбалансированную многофункциональную процессорную архитектуру.
Цитата:
И до 10 года АТИ и Нвидиа выпустят не мало чудовищ на фоне которых нынепредлагаемый гибрид от Интел просто растворится.
Сильно сомневаюсь. У АТИ к этому времени разве что Fusion запланирован (просто GPU рядом с CPU на кристалле). Ну а честной интеграции ещё не известно сколько ждать. Larrabee же долже предложить (судя по презентации) "вменяемую" процессорную архитектуру на ряду с "кучей" гигафлопсов и графикой.
Дискретное видео от Intel: поддержка GDDR-5 и образцы в конце 2008 года
ну да, ну да, Intel за полтора года сделает то, что 4 года делали нвидиа (g80) и ати (R600)... эти при том, что весной только начали набирать штат инженеров для создания дискретной графики... сами верите в свои фанатские высказывания?
ну да, ну да, Intel за полтора года сделает то, что 4 года делали нвидиа (g80) и ати (R600)... эти при том, что весной только начали набирать штат инженеров для создания дискретной графики...
Откуда вы знаете когда началась разработка? Кто вам сказал, что весной только начали набирать штат? Вам что - Интел напрямую докладывает? Надо же, и после этого мои высказывания называют фанатскими.
Diocilis
Цитата:
в настоящий момент сей девайс умеет выполнять только mul+add и всё.
Это вы попутали с 80-ядерным процессором. В Larrabee будут х86-совместимые ядра. Правда с "отрезанным" Out-Of-Order, но зато с полноценным разделяемым кэшем, нормальной архитектурой памяти и "вменяемым" набором инструкций. Плюс поддержка Double precision. Более того, Larrabee можно будет использовать как центральный процессор в системе (правда видимо у него будет "сомнительная" производительность в однопоточных задачах из-за отсутсвия ООО). Кстати, вы видели программу написанную под CUDA? Ужас какой-то. #77
Цитата:
с другой стороны, граф ядро Р600, например по мимо всего прочего, аппаратно умеет находить максимальное и минимальное значение, сложение умножение и извлечение квадратного корня, причем как с плавающей точкой, так и целочисленнное...
Да нет, как вычислитель он хорош, но как процессор - мало чего стоит. О чём говорить, если современные GPU не умеют даже такой элементарной, для CPU, операции как indirect write в память. И это далеко не единственный пример. Огромное число алгоритмов просто не поддаётся написанию под GPU.
Цитата:
но, согласитесь, имея на руках багаж разработчиков АТИ, амд-шникам будет проще создать нечто подобное, причем несколько раньше, чем смогут это сделать их заклятые друзья... И я практически уверен, что они эту возможность не упустят
Не знаю. Ссылки на прогнозы я привёл выше. Посмотрим кто успеет первым.
Либо я очень сильно заблуждаюсь, либо вы(оверклокеры, в частности автор статьи) допускаете довольно грубую ошибку в этой (и не только) статье. Поясню - на сколько я знаю, слово TERAFLOPS расшифровывается как TERA FLoating Operations Per Second, и оно не употребляется без буквы С на конце, а в этой статье, как и в некоорых других оно как раз так и употреблено:
Цитата:
Такая плата, по замыслу Intel, должна заниматься ускорением физики, обслуживать задачи "искусственного интеллекта" и ray tracing. Уровень быстродействия должен измеряться в терафлопах. Кстати, прототипы таких видеокарт действительно могут существовать, если верить осведомлённым источникам.
Member
Статус: Не в сети Регистрация: 16.08.2006 Откуда: Москва
Дорогие мои товарисЧи) а вы знаете что такое закон Амдала? так вот исходя из него при выполнении повседневных задач с 10-30% последовательных вычислений (это значт что остальные 90-70% параллелятся,а даже такое сегодя-редкость) мы получаем такую производительность: если одно ядро 100% то два-160-180%,восемь 300-400%,32 ядра- 450-700%. то есть кол-во ядер выросло в 32 раза а производительность ТЕОРЕТИЧЕСКИ в 4-7 раз. так что эта гонка ядер напоминает мне гонку частот времен пня 4)) прирост есть,но он все более и более кукурузный)) ах да,еще для примера. в схожих задачах 512 ядер дадут около 500-900% производительности относительно ОДНОГО ядра. при этом кол-во транзисторов то растет прямо пропорционально))) больше надежд на специализированые вычисления. тот же FUSION например только еще более специализированый.
_________________ Asus Gene V mATX, i7 3770K@4.5, SLI GTX Titan@1100Mhz, 8Gb-2000
Member
Статус: Не в сети Регистрация: 02.02.2007 Откуда: Казахстан
nipet сейчас будут гнаться за ядрами, потом может еще че нить придумают. А насчет прироста, то вообще то сама арх проц. команд не так уж и хорошо распаралеливается, то есть пока идет прирост в всяких там кодировании и т.п. хотя интел впроде на конференции показывала и "учила" как правильно ядрами пользоваться vtune показывали там кажется, про sse4 тоже не забыли.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 10
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения