Заметь, в 2008 году уже выйдут К8L 45нм..че ж ты думаешь, что Fusion будет юзать старые 65 нм?? При их применении в мобайл секторе площадь процессора имеет огромное значение, так что 45нм и ничто иное..
заметь, что еще нету 0.65нм....сама амд не объявляла сроки перехода на 0.45нм....встраивать будут прежде всего "офисное" видео, иначе размер чипа сделает его производство нерентабельным а цену заоблачной даже на 0.45нм.
Хых, 0.65нм ещё ни у кого нету и тем более 0.45нм.
54321 Я слышал про стандарт IEEE( Institute of Electrical and Electronics Engineers )-754 но IEE-754 это что-то новое. Сама NVidia нигде не говорит и не упоминает о поддержке IEEE-754. Что касается "высокоточных" вычислений на NVidia GPU, то спец. сайт поддерживаемый NVidia существует уже давно.
www.gpgpu.org Добавлено спустя 1 час, 11 минут, 54 секунды NVidia по поводу Fusion:
Jen-Hsun: Yep, but you still have two chips, unified memory. Maybe they’ll save a dollar, but they won’t change the world. http://blogs.mercurynews.com/aei/2006/1 ... nches.html
Заблокирован Статус: Не в сети Регистрация: 13.10.2006
TyyOx91
Цитата:
А теперь самое интересное. Пиковая производительность плавающей арифметики нового ускорителя превышает любой из доступных сейчас настольных процессоров. Вычисления производятся в стандарте IEE 754. Унифицированная шейдерная архитектура обладает гибкостью, достаточной для расчета не только физики в игровых приложениях, но и более серьезных задач - математического и физического моделирования, экономических и статистических моделей и расчетов. Распознавания образов, обработки изображений, научной графики, да мало ли какие еще задачи можно решить с помощью хорошего потокового процессора, с возможностью динамических ветвлений?
Что для этого надо? Поддержка со стороны приложений. А что надо для эффективной поддержки со стороны приложений? Правильно, удобный, ориентированный на вычисления API, который проживет дольше одного или двух поколений ускорителей и будет достаточно удобен для быстрой адаптации и разработки программ, перекладывающих вычисления на GPU.
Итак, фанфары! Теперь, с выходом G80, появился и такой API для чипов NVIDIA! CUDA (Compute Unified Device Architecture) - унифицированная вычислительная архитектура для различных задач, реализованная специальный SDK, API и компилятор С, а также как небольшие аппаратные закладки в G80 (некий специальный вычислительный режим, в котором данные обрабатываются по основному кругу диспетчер <-> шейдерный блок <-> кэш, без разделения их на классы пикселей, вершин и т.д.), судя по всему не потребовавшие практически никаких существенных изменений в архитектуре и коснувшиеся только некоторых «обходных» путей для данных в ускорителе.
Теперь, можно разрабатывать приложения, которые будут использовать (при наличии оного) подходящее аппаратное ускорение в лице G80 и последующих преемников, для различных интенсивных потоковых и векторных вычислений. В будущем мы попробуем коснуться этого вопроса в отдельной статье и измерить реальную производительность этого решения на типовых задачах. А пока отметим, что NVIDIA приводит цифры от 10х прироста (начиная!) и до нескольких сотен раз в зависимости от задачи при сравнении G80 c двухядерным Core2 duo на частоте 2.66 ГГц.
Основная прелесть такого решения - независимость от DX и от оборудования - программистам будет достаточно действовать в рамках SDK, не вдаваясь в детали реализации и компиляции. Им не придется учить шейдерную модель и писать отдельные графические шейдеры для своих вычислительных задач. А значит, это решение вполне может стать стандартом де-факто.
И да, прощайте отдельные физические ускорители от всяких третьих фирм
54321 Да я прочитал эту отсебятину. Впрочем посыпаю голову пеплом - в глубинах сайта nvidia.com нашёл упоминание о поддержке IEEE-754 precision. Но ни каких сравнений с Core 2 Duo не нашёл:
http://developer.nvidia.com/object/cuda.html А теперь простой подсчёт пиковых FLOPS.
8800GTX на частоте 575МГц :
3 * 128 * 1350 = 518 GFLOPs
QX6700:
8 * 4 * 2660 = 85 GFLOPs
Так что там не только в 100 раз, там даже в 10 раз не получается. И это на 32-битных FLOP-ах. Ну а 64-битных там не водится.
Member
Статус: Не в сети Регистрация: 15.09.2004 Откуда: Владивосток
Если интегрируют , то офисным компам больше ничего и ненадо, а топовые все равно внешние карты ставить будут а ресурс встроеного GPU будет использоваться для физики
Advanced member
Статус: Не в сети Регистрация: 16.12.2002 Откуда: TSC! | Москва
Ну, двойная точность, после того, как видео интегрируют в CPU - вопрос только потребности и времени.
А вот когда всё же это случится - тут вопрос. Вопрос прежде всего в том, кому такое нужно. Я уже сомневался некоторое время назад в том, что такие решения могут заменить дискретные ЦПУ/видео. Возможно, в некоторых сегментах, но вряд ли в большинстве машин, по крайней мере в нынешнем виде.
А вот если ядра реально СОЛЬЮТ, так что они станут не просто соседствовать и делить общую шину данных, а напрямую работать с одними данными, тогда скачок может быть очень большим - вопрос, сколько для этого нужно времени...
Member
Статус: Не в сети Регистрация: 31.08.2006 Откуда: Киев
вообще уже был процессор с интегрированным в ядро видео , звуком и контроллером памяти. CyrixMediaGX - судя по тому, что его никто не вспомнил - ерундовая, в целом-то идейка.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 6
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения