*Cofradia Intel*
Статус: Не в сети Регистрация: 25.05.2004 Откуда: Саров
m.m.u
не всегда. Я умею объективно рассуждать и считать цифры. Если NV30 просирала, то она просирала по факту ,с этим ничего не сделает ни один фанат. Но пока G80 смотрится гораздо лучше с точки зрения инноваций, производительности и потребительских качеств
Member
Статус: Не в сети Регистрация: 10.02.2005 Откуда: Rishon , Israel
все равно , даже если R600 будет быстрее , чем G80 , будет смысл купить "простой" и "дешевый" 8800GTS и разогнать это по "самое не хочу" , да и DirectХ10 получить
он в отличие от топов и гонится лучше и стоит в полтора две раза меньше
Так что по любому R600 , как и G80 , не оптимальный выбор
8800GTS в разгоне сечас на уровне 8800GTХ или быстрее , так что в топах , как впрочем и всегда , смысла нет...
как в свое время это было с 7800ГТХ 512МБ , 7900ГТХ , 1950ХТХ и тд...
За разницу 5-10% переплачивать ИМХО не разумно
но сам жду выхода Р600 , так как это понизит цену 8800ГТС
Member
Статус: Не в сети Регистрация: 07.05.2006 Откуда: Беларусь, Брест
"проход. Это в два раза больше, чем у G80 с его 128 потоковыми процессорами. Это в два раза больше, чем у G80 с его 128 потоковыми процессорами."
Два раза одно и тоже предложение напечатано-подправьте плиз.
Member
Статус: Не в сети Регистрация: 16.10.2006 Откуда: ❤️💙🧡 Фото: 0
2 AndySP
Ты меня кажется не понял.....
Я хочу сказать, что поклонники ATI так говорят про R600, что он точно разорвет G80 на кусочки. Да вы откуда знаете, что он разорвет G80 и т.д. и т.п., а???
Может из вас кто-то работает в ATI???
Если да, то пусть покажет доказательство о быстродействии R600 над G80!!!
Вот муж моей систры работает в ATI. Конечно он программист, но если очень постараться, то смогу узнать реальные характеристики и его мнение про чипа R600 и про G80=)))
Просто интересно, что он думает. По моему он много полезного скажет чем мы сейчас. Конце-концов он же там работает=)
Да еще спрошу действительно ли R600 такой мощный как вы говорите или это просто пустые выдумки. Если честно, то я забыл про него, что он в ATI работает=)))
Обезательно спрошу, если честно, то мне тоже стало интересно=)
Жаль, что в Nvidia не кого знакомых нет=(
Если узнаю, то вы первыми узнаете подробные характеристики чипа R600=)
_________________ CPU: Intel Core i7 11700KF, RAM: Kingston FURY Renegade 32GB, SSD: Samsung 980 Pro 500GB / 860 Evo 1TB / 250GB, GPU: NVIDIA GeForce GTX 1070, OS: Windows 10 Pro
ИзгойHDR нормального в обливионе нет.... и Нвидия не умеет работать с HDR и сглаживанием одновременно
А улыбку я поставил просто так что ли ??? понятно что не поддерживает.. Вывод один что на данный момент есть игры в которых в разрешениях 1600-1200 - при включённом всём ( а это всё же HDR и сглаживание) карты пасуют.
Member
Статус: Не в сети Регистрация: 17.10.2006 Откуда: Koenig/Мытищи
masto писал(а):
Сильно хочу верить. Не то что бы фанат, но амд+ати, если захотят, смогут достойно ответить нвидии на её G80+...
Потенциально могут, но надо время, а по времени они уже отстали. Во-вторых нВидиа вложила 400 млн баксов в новый чип, думаю чтобы догнать надо вложить даже не столько же а больше и не в R600, а в R700. Даже для амд это непросто. Во-вторых внимательно посмотрел наконец-то тесты на хоботе G80 имеет все-таки впечатляющую мощь, догнать такого монстра будет ооочень непросто. особенно на старой архитектуре (модернизированной, но все же там много от R500). Что-то сомневаюсь я что R600 окажется быстрее. К тому же у G80 есть потенциальная возможность пересесть на новый 0.8 тех процесс и поставить GDDR4 и соответственно еще прибавить.
Вообще самое главное чтобы в среднем ценовом диапазоне было примерное равенство. Иначе придется опять жирафа брать.
Мне представляется, что для понимания и, следовательно, корректного сравнения двух архитектур, надо понимать, что они делаются не для сегодня, а для послезавтра. Если Вы будете делать их для завтра - пролетите. Применительно к этим картам это доказывается легко: до конца 2007 года карты на этих архитектурах (в т.ч. и планируемые шринки) не станут мэйнстримом, потому что:
(1) в DX9 их дешевые варианты будут больше по площади, чем существующие
(2) Vista вряд ли пойдет быстрее, чем XP (у многих еще 2000 стоит), плюс она хорошо работает со всем, начиная с 9600.
(3) игры под DX10 массово тоже не пойдут раньше (кому их продавать?).
(4) из за числа транзисторов они будут выгодны в мэйнстриме (а деньги дает именно он) только на 65нм.
Чего хотят производители: превращения ВК в сопроцессор более общего, чем раньше вида. Отсюда задачи (пока - заметим - побочные): обсчет физики, кодирование/декодирование, фильтрация. С этой точки зрения, у архитектуры ATI заметная фора (это я говорю, как человек, для которого GRID, GT, MPI и т.п. не пустые аббревиатуры). Чтобы понять это, попробуйте взять реализацию какого-нибудь алгоритма фильтрации, который хорошо параллелится, и разложить его по двум архитектурам (предполагая, что ATI R600 будет иметь 64 независимых АЛУ, способных на 4оп/такт, сидящих на сверхскоростной шине). Даже на текущей R580 это получится лучше, чем на G80! Если рассматривать наплатную память, как своеобразный кэш между RAM и шиной (а многие алгоритмы можно оптимизировать под это, как сейчас многие библиотеки учитывают размер кэша процессоров), то преимущество ATI становится еще больше (предсказуемое падение производительности на каждом этапе - проще оптимизировать). В случае nVidia архитектура заметно более жесткая и "неудобная".
Можно предположить, что у ATI есть некотрое преимущество в простоте масштабируемости. Если приведенные данные верны, то они смогли увеличить пропускную способность внутренней шины в 2 раза, т.е. у них уже есть 3 варианта этой шины (256, 512, 1024). С уменьшением техпроцесса оверхед по площади, занимаемой шиной, будет уменьшаться, а ее скорость - расти. Кстати, в перспективе, есть недостаток - шина должна быть шире памяти (почему - почитайте обзоры о R520 на том же iXBT). Судя по схеме G80, nVidia имеет более жестко связанные "строительные блоки" (возможно, потому как не хотят пока - это только предположение).
С другой стороны, с точки зрения требований графического ускорителя nVidia выглядит предпочтительнее, особенно с точки зрения текущего положения (хотя про графику мне сложнее судить - это не моя область). Так что положение, когда ATI слегка быстрее в супер-экстра-мега шейдерных приложениях, а nVidia - в остальных, наверное, останется.
Что касается "отстали-опередили" - это все разговоры в пользу бедных. Вспомните, что архитектуре R300 (которая на тот момент покрыла nVidia, как бык овцу) потребовалось два (!) года, чтобы заметно отразиться на рыночном положении ATI. А революционной архитектре NexGen - так и все 5 (это если уже с момента приобретения AMD считать). А если вспомнить, когда эти архитектуры рисовать начали?
Member
Статус: Не в сети Регистрация: 30.08.2005 Откуда: Отовсюду Фото: 21
Shakti
Цитата:
Вспомните, что архитектуре R300 (которая на тот момент покрыла nVidia, как бык овцу) потребовалось два (!) года
Угу, проблема лишь в том что после этого АTI, как бы это помягче... зажралась, поэтому и была куплена AMD. R300 по сути единственная архитектура которая удалась на славу, хотя по возможностям она с самого начала была довольно посредственная.
Member
Статус: Не в сети Регистрация: 04.11.2006 Откуда: ukr
Shakti
Цитата:
они делаются не для сегодня, а для послезавтра
R580 тоже делали не на вчера. Сколько было восторгов: скоро, скоро выйдут игры с упором на математику и уж там-то он порвет G71
Ну, выйдет кризис, какойнить дум4, хл3 и? Если они и будут работать на прошлом поколении, то G71 покажет 10 фпс, а R580 13.
За что боролись?
Я не говорю, что R600 будет хуже G80, инфы мало, а инкваер, иногда, ну очень ошибается
Member
Статус: Не в сети Регистрация: 12.08.2005 Откуда: Ростов-на-Дону
TheJudge писал(а):
D.K
ну равность весьма условная получается. По сути - R600 - это R580 с прикрученным DX10 и экстраполированым контроллером памяти и бОльшим количеством процов. AA и AF там видимо старые оставят. Лениво им в R&D еньги вкладывать
Если рассматривать простые задачи, то G80 будет впереди из за бОльшего количества ROP и, вероятно текстурников, а также почти 100% задействованию ресурсов
Если рассматривать тяжёлые задачи, то G80 опять рулит благодаря более гибкому распределению ресурсов, двум TFU на каждом TMU и более продвинутым ROPs
не пиши ерунды, какая практически r580??? На r600 совсем другая архитектура, и еще мало известно что в ней нового. Подождем анонса...
2zdubb R520 подвела технология. Ровно на полгода (о чем очень много писалось), чем ATI дал nVidia время обосноваться на рынке. Там, где игры с упором на математику, он рвет. Линейка R560/570/580 идет на уровне конкурента. В чем они ошиблись?
Кстати, если инквайр не ошибается, то вот это очень интересно (не знаю, почему это не отметили при переводе - это огромный рывок вперед):
Цитата:
The memory chips are arranged in a similar manner as on the G80, but each memory chip has its own 32-bit wide physical connection to the chip's RingBus memory interface.
Это означает, что масштабировение шины еще лучше, чем я предполагал. Фактически, можно запускать несколько не связанных (или слабо связанных) потоков вычислений одновременно, выделяя под каждый из них не только АЛУ, но и кусок полностью независимой от остальных АЛУ кусок памяти. Или делать память нужного размера с нужной ПСП. Даже если сейчас это не используется, потенциальные выгоды очевидны.
Member
Статус: Не в сети Регистрация: 04.11.2006 Откуда: ukr
Shakti
Цитата:
but each memory chip has its own 32-bit wide physical connection to the chip\'s RingBus memory interface.
Ничего особенного. В R520 на шине 4 ring stop-а, на каждый два 32-битных подключения к двум модулям памяти.
Теперь рингстопов будет восемь, микросхем памяти-то 16. Добавлено спустя 26 минут, 56 секунд Вот вам и гранулярность
Member
Статус: Не в сети Регистрация: 12.06.2006 Откуда: новая Москва Фото: 3
Н-да а какой проц. под ентого монстра нужен что бы он не простаивал. Добавлено спустя 4 минуты, 26 секунд Мощь это хорошо а как создать сбалансированную машину.
Можно открыть опрос - кто сильней - R600 или G80?? Чисто пальцем в небо, но как говориться кому как видиться?? Мерять можно по сумарным тестам, а через пол года и глянем кто был прав!
Моя ставка на 600, причем усредненая разница будет в районе 5-7%.
Member
Статус: Не в сети Регистрация: 06.10.2004 Откуда: Новая Москва Фото: 0
Цитата:
Сразу после открытия своих дверей CES 2007 показала новинки от многих компаний, включая от AMD, которая представила платы на основе графического процессора R600. Мы надеемся получить финальные спецификации уже в ближайшее время, однако, мы сомневаемся, что они будут сильно разниться с опубликованными ранее.
Длина платы, которая содержала графический процессор с инженерным именем "Голова Дракона" - R600 XTX составляет 30 см. На печатной плате были расположены 16 чипов, произведенные компанией Samsung, объемом по 32 Мб. К сожалению, пока невозможно подтвердить или опровергнуть какова шина памяти новинки. Мы думаем, что R600 будет общаться с памятью по 512-бит шине.
Увы, но показанная на CES ревизия платы еще еще не финальная, следовательно не стоит ожидать, что в ближайшее время эти видеокарты появятся в продаже. Впрочем, мы уже сообщали, что видеокарты на основе R600 задержаться до марта.
Member
Статус: Не в сети Регистрация: 27.11.2005 Откуда: Москва
Я nv не куплю за такие бабки хотя бы потому, что когда я вживую увидел картинку радика x1800xl у знакомого, своя 6600 показалась убогой. + неясные глюки с HD различной степени тяжести (зависания, рассыпание картинки на квадраты), опять же, качество этого HD... Отсутствие HDCP и т.д. и т.п. Даже если по производительности R600 будет проигрывать всеравно возьму его из-за качества картинки.
З.Ы. Из радеонов у меня был только один - 9200СЕ. Остальные - gf, так что в фанатстве не обвинять.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 27
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения