Member
Статус: Не в сети Регистрация: 14.10.2006 Откуда: Владивосток
Гм. Инересное исследование. На форуме не раз уже обсуждалось что гнать чип 8800 практически бесполезно все упирается в ЦП и память, а по мне лучше недостаток производительности ГП чем памяти ибо ядро намного лучше реагирует на вольтмод, особенно на новом техпроцессе А снижение ПСП у RV670 не изменит картины, учитывая GDDR4 мы не получим падения производительности вплоть до режимов 1600*1200 4АА/16AF по сравнению с R600. А вот если AMD на чипах RV670 реализовали АА, более эффективно чем на R600 то как раз в тяжёлых режимах где 512 бит и требовалось, мы всё равно не увидим разницы.
В результате - куча убитых енотов.
Member
Статус: Не в сети Регистрация: 31.07.2005 Откуда: Россия
Cootri писал(а):
Соответственно и в новых картах будет через ропы классический FSAA идти.
Тут отдельные фаны уже теоретическую базу под баг подогнали - http://forums.overclockers.ru/viewtopic.php?p=4252431#4252431. Как же так, АМД отказывается от прогрессивного и "позволяющего полнее и гибче использовать имеющиеся вычислительные ресурсы карта антиалиазинга" (С).
amdfan писал(а):
Он ляпнул нечто никак не подтверждая это и ни на кого не ссылаясь и никак внятно не мотивируя ,почему я должен верить такого рода высказывания?
Значит на ixbt перед Воробьёвым лебезим а за спиной можно и какашками покидатся? Знаете я куда скорее поверю ему, т.к. у него великолепная репутация в отличие от...
terran писал(а):
Поправьте, если ошибаюсь, но общая скорость текстурирования у R600 и 8800GTX приблизительно одинаковая
R600 - 16x750=11200 G80 - 32x575=18400 Не забывайте что шедерный домен у G80 работает на 1350Мгц.
terran писал(а):
если у ATI меньше текстурников, то они работают на гораздо большей частоте.
На чуть большей.
terran писал(а):
Так что то-на-то приблизительно и получается.
Получается разница более чем в 1.5 раза. И не в пользу R600
terran писал(а):
Другое дело, что AF и АА которые по технологии должны осуществляться текстурниками у ATI пока не осуществляется. Об этом уже здесь писали.
Уже и AF сюда приплели?
terran писал(а):
правильнее было бы оставить без изменения 512-бит шину, но поставить на неё дешевую и холодную GDDR3
А PCB на 512 бит значит теперь копейки стоит?
fly9969 писал(а):
Еще один плюс GDDR4-не меняя шины можно очень сильно повлиять на производительность видеокарты
Что мы и увидели на примере 2900XT/512 vs 2900XT/1024. Народ, когда на маркетинг прекратим покупатся?
Verus писал(а):
если память не изменяет, рекорд в 06-м марке принадлежит CF 2900XT
Видите ли какая проблема, видеокарту обычно покупают совсем не для того что бы в 3Д марк играть. А в играх расклад гораздо более иной.
Member
Статус: Не в сети Регистрация: 14.10.2006 Откуда: Владивосток
Guerilla писал(а):
1950pro в большинстве игр достаточно чего не скажу о 8600
И я про то же, люди в игры играют а не в марки.
Да и геморра с 8600 больше, а про качественные режимы коворить нечего.
Вот и ждём нормальный мидл, а не это ....
2600 вообще почти low, и получаем дыру с 100$ до 450$ на HD 2xxx серии
Advanced member
Статус: Не в сети Регистрация: 16.12.2002 Откуда: TSC! | Москва
cybernetik писал(а):
Что мы и увидели на примере 2900XT/512 vs 2900XT/1024.Народ, когда на маркетинг прекратим покупатся?
Не показатель. Там была 512-битная шина, ей действительно высокочастотная память не очень нужна, поэтому смена типа ничего не дала, правда, кое-где дал удвоенный объём. Здесь речь о 256-битной шине, ей замена типа памяти на более скоростной может дать достаточно.
Учим русский по красоте
Статус: Не в сети Регистрация: 30.12.2004 Откуда: у зайки яйки?
Цитата:
Мне кажется, смысл статьи не заключается в выяснении у "кого все же длиннее", а в адекватности того или иного компонента в системе(видеокарте).
Поэтому и нужно тестировать в таких режимах, где при снижении частоты памяти ФПС падает до неадекватного, а не там, где так и так приходится измерять искусственно, т.к. все равно в монитор упор.
Если нет нормального монитора для нужного разрешения, то можно выставить и фейком.
Насчет выводов - качественно так, но у 2900 выявился какой-то глюк с провалом на высокой частоте. Впрочем, возможно, в серьезном режиме результаты отличались бы.
Member
Статус: Не в сети Регистрация: 19.05.2007 Фото: 0
cybernetik,
Вы жжоте...
Перечитайте мои посты еще раз пожалуйста. Посмотрите, что я ответил klerik24-у. Никто и не собирался "вестись" на GDDR4 у 2900XT. А если цитируете когото, то не вырывайте отдельные фразы, смысл теряется и вы получаете возможность преподнести сказанное в удобном вам свете. Что я хотел сказать? Разработав один чип и шину можно сделать 2 продукта действительно разных по цене и производительности. И это будут не 1950Pro/GT, тут разгоном не поможешь. А поставить GDDR4 или 3, много ли здесь нужно вложить в разработку?
Advanced member
Статус: Не в сети Регистрация: 09.10.2003 Откуда: г. Сыктывкар
А помните, в момент появления R600 все ждали его скорую смену тем же самым, но более технологичным чипом на 65 или 55 нм? Ну вот и дождались. Просто сейчас наверно это уже мидл, а не хай Как раз на осень его и "планировали" первоначально
_________________ Самое главное - хорошее настроение (и охлаждение)
Хочется супер охлаждения для своего ноутбука? Заведи собаку!
Ну и как этот текст
" Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate."
подтверджает то что в чипе какая -то ошибка ?
Тут говорится что раз АА шейдерный то они думают либо какая-то ошибка в чипе либо , при определенных условиях , такой АА легче поддерживать в програмном виде, И что они "тяготеют" к первой версии, а не последней поскольку де потоковые процессоры дефицитный ресурс вот и вся мотивировка "ошибки в чипе"
Member
Статус: Не в сети Регистрация: 31.07.2005 Откуда: Россия
Разумеется, когда уже выпущены первые массовые партии чипа и всплывает проблема гораздо проще сделать программную затычку нежели готовить новую ревизию теряя время и деньги, в условиях когда нет ни первого ни второго и горят все сроки - нехай ПиАрщики зарплату отработают, пипл схавает (С).
исходя из ценового позиционирования 2950Pro - самый настоящий миддл, а посему вовсе и не должен составлять конкуренцию 8800GTX а вот на характеристики 2950XT очень интересно было бы посмотреть
По характеристикам сам 8800ГТС - миддл, просто продается по задранным ценам из-за отсутствия конкуренции. Появится 2950 - упадет цена на 8800
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 22
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения