Advanced member
Статус: Не в сети Регистрация: 16.12.2002 Откуда: TSC! | Москва
Николай1979 Пока, скорее, как максимум. Но к 2009 всё может и измениться.
Сейчас более насущный вопрос - проблема паритета с Интел по производительности и цене на настольном и серверном рынках. Пока похоже скорее, что серверный сегмент AMD всё же отвоюет, а вот настольный - только если за счёт апгрейдов высокосовместимой платформы АМ2. Но в наше время этого мало, слишком мало...
Member
Статус: Не в сети Регистрация: 18.10.2004 Откуда: САО
Вадим_Андреев На самом деле если внимательно прочитать конец статьи, то станет понятно, что хотят сделать.
Это дополнительное (или несколько дополнительных) ядер не обязательно должны заменить видеокарту.
Они всего-лишь дополнение к ЦПУ в виде узкоспециализированных логических устройств.
Могут заменить собой как недорогую видеокарту, так и взять на себя рассчёт физики в играх или увеличить многократно скорость выполнения других тяжёлых вычислительних задач, используя специальное программное обеспечение.
Member
Статус: Не в сети Регистрация: 12.12.2006 Откуда: Сантк-Петербург
Вадим_Андреев писал(а):
Хоть убейте,но неповерю,что фьюжен когда-нибудь станет майнстримом или ТОПом....Ну никогда ничего хорошего не выйдет из комбинирования...
Здравствуй Вадим_Андреев! Давно тебя не видел и твоих мудрых мыслей=)
А можно поинтересоваться- идея встроенного контролера памяти- плохая и ничего из этого хорошего не вышло?
_________________ Религии врут, а бог непознаваем.
Так зачем париться?
Member
Статус: Не в сети Регистрация: 09.11.2006 Откуда: Укр., Горловка
Вадим_Андреев писал(а):
Ну никогда ничего хорошего не выйдет из комбинирования...
Хм... Так не считаю... Раньше вон как было - нужна была видюха, к ней - 3D- ускоритель, сетевуха, звуковая карта - все покупалось отдельно... А сейчас? Покупаешь мамку - а на ней все перечисленное + интегрированна видюха если пожелаешь. Да и производительность совершенно несопоставимая. Так что для мейн стрима Fusion самое то - а уже кому что более навороченное нужно - пусть собирают систему за 5000$. И при апгрейте покупаешь тока один камушек - проц и видюху одним махом меняешь - намного дешевле:)
И при апгрейте покупаешь тока один камушек - проц и видюху одним махом меняешь - намного дешевле
.. А вот интересно - частота у GPU будет независимая, или пропорциональная частоте проца?
А то прикольно - взял камушек более высокочастотный, а с ним и GPU пошустрее
_________________ Never cared for what they say
Never cared for games they play
Advanced member
Статус: Не в сети Регистрация: 16.12.2002 Откуда: TSC! | Москва
Вадим_Андреев Позволите объяснить достоинства схемы? Элементарно. Сегодня в чём основная проблема расчётов физики на GPU? Время доставки данных и результатов к и от видеокарты или ускорителя. Шины, задержки и проч. А тут, простите, одно ядро. Даже если первоначально это будут два самостоятельных ядра, они всё равно будут соединяться несравнимо быстрее, чем через PCI-E и память. Хотя бы через кэш L2/3, это в худшем случае.
Если скорость связи будет примерно соответствовать оной у блоков процессора, то вообще картина получается отличная - часть задач FPU перекладывается на видеомодуль, к тому же происходит экономия ресурсов, устраняется северный мост как класс для дешёвых систем, для дорогих может будет ещё поддержка дискретного видео, буде нужно. В последнем случае "внутриядерное" видео будет выполнять роль сопроцессора для потоковых вычислений.
Поэтому данный процессор будет как минимум пригоден для мэйнстрима. Топовые процессоры со временем тоже получат встроенное графическое-потоковое ядро, но заметно позже мобильного и low-end сегмента.
Ну неужели мы дождемся по настоящему быстрых процев, а то по скорость вычислений с плавающий запятой проц по сравнению с видюхой это черепаха Правда тут есть еще одна загвоздка- память. Если взять к примеру видюху, то там пропускная способность памяти более чем на порядок выше. Вообще для рендеринга, да и для других легкораспараллериваемых задач, использовать видеоядро(или лучше специализированные процессоры) самое то. Скорость просто офигенная выходит.
_________________ Весь вред от ламерства и тупости
.. А вот интересно - частота у GPU будет независимая, или пропорциональная частоте проца?
Если зависимая, допустим в раза меньше, то могут возникнуть ситуации, когда разгон ядра GPU будет ограничивать разгон классических ядер или наоборот, например как сейчас с ЦП и оперативкой(хотя сравнение не корректное)
Скорее всего частоты всех ядер будут полностью независимы.
Member
Статус: Не в сети Регистрация: 21.01.2007 Откуда: Санкт-Петербург
Цитата:
А можно поинтересоваться- идея встроенного контролера памяти- плохая и ничего из этого хорошего не вышло?
Она не оказалась революционной и не спасла К8 от Core 2 duo.Преимущество над чипсетным контроллером-мизерное.
Цитата:
Позволите объяснить достоинства схемы? Элементарно. Сегодня в чём основная проблема расчётов физики на GPU? Время доставки данных и результатов к и от видеокарты или ускорителя. Шины, задержки и проч. А тут, простите, одно ядро. Даже если первоначально это будут два самостоятельных ядра, они всё равно будут соединяться несравнимо быстрее, чем через PCI-E и память. Хотя бы через кэш L2/3, это в худшем случае. Если скорость связи будет примерно соответствовать оной у блоков процессора, то вообще картина получается отличная - часть задач FPU перекладывается на видеомодуль, к тому же происходит экономия ресурсов, устраняется северный мост как класс для дешёвых систем, для дорогих может будет ещё поддержка дискретного видео, буде нужно. В последнем случае "внутриядерное" видео будет выполнять роль сопроцессора для потоковых вычислений.
В чипсетах сейчас часто интегрируется видеокарта.От ней куда уж к памяти ближе-контроллер-то прям в чипсете!(Интел).Чего-то на ней не особо считают физику... И я не думаю,что встроеное ядро фьюжн прямо-таки разделает эту чипсетную видеокарту под орех... Плюс всё это дело нереально затормрзит остальное ядро и фьюжн будет иметь огромную площадь,невероятное тепловыделение и при этом проигрывать в стандартных задачах Селерону.
Junior
Статус: Не в сети Регистрация: 09.04.2007 Откуда: Москва
Вадим_Андреев писал(а):
В чипсетах сейчас часто интегрируется видеокарта.От ней куда уж к памяти ближе-контроллер-то прям в чипсете!(Интел).Чего-то на ней не особо считают физику... Wink И я не думаю,что встроеное ядро фьюжн прямо-таки разделает эту чипсетную видеокарту под орех... Плюс всё это дело нереально затормрзит остальное ядро и фьюжн будет иметь огромную площадь,невероятное тепловыделение и при этом проигрывать в стандартных задачах Селерону.
Не забудьте рассказать об этом инженерам АМД, а то они, дураки, идут по неправильному пути оказывается...
Member
Статус: Не в сети Регистрация: 18.10.2004 Откуда: САО
Вадим_Андреев Ты сам-то веришь в то, что пишешь?
1. встроенное видео сейчас работает с памятью через процессор и северный мост, так как само видео встроено в южный мост!
2. с чего встроенному логическому ядру тормозить центральный процессор...
3. видео серии 2600ХТ например потребляет вместе со всеми элементами на видеокарте всего 45 ватт, откуда "невероятное тепловыделение"...
4. при чём тут селерон вообще и какие-то стандартные задачи...
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 23
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения