Member
Статус: Не в сети Регистрация: 07.04.2005 Откуда: rus
На самом деле оптимизация шейдеров - это дело очень даже частое. Скажем так, обычно оптимизируется не совсем _код_шейдера_ а скорее он просто перекомпилируется соответствующим компилятором, который заточен под АТИ или НВ. Так что тут все в порядке. Шейдеры или их куски меняют все кому не лень. Или как вы думаете производительность повышается ? Помидитировали - и повысилась ... нет. Это в основном шейдеры. И поэтому продукты с новой архитектурой быстро наращивают производительность благодаря новым дровам. Теперь эта новая фишка АТИ с программируемым контроллером памяти ... Короче это ПОЛЕЗНЫЕ оптимизации, а не читинг. Читинг - это упрощение шейдера по сути... Добавлено спустя 6 минут, 2 секунды
Member
Статус: Не в сети Регистрация: 21.05.2005 Откуда: г. Ставрополь
Alex-scat писал(а):
Ото лишь бы чушь сказать. Протри глаза. Для сегодняшних игр хватит и 6800 GS но для завтрашних и 7800 GTX нехватит. А X1800 XL вполне хватит. И доказательств этому МАССА. А про цирк - не надо на личности пожалуйста ...
Дружище, мне 6800GS на годик хватит, я не фанат игр. А что касается цирка... На данной тобой ссылке выхвачены из статьи два графика, по ним нельзя делать выводы. Почитай всю статью на hardware.fr и учти, что слово "Moyenne" означает общие результаты по всем играм. В режиме HDR+4AA nVidia на многих играх не запускалась (видимо с дровами что-то), поэтому такие низкие результаты. Как видишь "бежать сливать обратно 7800" нет смысла, т.к. nVidia быстрее. 7800GTX 512Mb НАМНОГО быстрее X1800XT, а 7800GT в целом быстрее X1800XL, кроме режима 4AA - там паритет.
Jordan писал(а):
X800 GTO выглядит вполне достойно. Отсутствие поддержки SM 3.0, как получается по обсуждению, на сегодняшний день вещь довольно спорная. Хотя на перспективу при цене не отличающейся более чем на 15-20 долларов США я бы тоже предпочел 6800 GS.
Вот почитаю твою статью и выберу, что покупать. О том "нужны ли SM 3.0" спорят только владельцы X800 и их позиция вполне понятна. Я с ними не согласен, HDR+SM 3.0 это большой плюс, когда есть выбор. Собственно у X800GTO только два плюса - цена чуть ниже и отсуствие на рынке 6800GS. Если до НГ она не появится, то возьму GTO.
Member
Статус: Не в сети Регистрация: 16.09.2003 Откуда: Санкт-Петербург
ReDevil писал(а):
Дружище, мне 6800GS на годик хватит
А мне X800GTO. А вот через годик моно будет задуматься о покупке какой либо X1800GTO, как раз и новые игры под нее появяться(в этом году все вроде уже отстрелялись).
ReDevil писал(а):
HDR+SM 3.0 это большой плюс, когда есть выбор.
Угу . но "отстрелялись" они на этот раз без HDR+SM 3.0, а через год все равно карту менять, там и посмотрим. в отношении меня NVIDIA уже проиграла, ибо не успела сделать что либо приличное к выходу Quake и FEAR.
Member
Статус: Не в сети Регистрация: 06.03.2005 Фото: 41
Lost_Soul писал(а):
Статья интересная, написана довольно грамотно, если не считать упущений, вызванных, по моей полной уверенности, сильнейшим фанатизмом автора к Nvidia. Автор хотел скрыть это, но удается это ему довольно слабо.
Обвинения других в фанатизме заставляют подозревать вас в фанатизме к АТИ, причем яром и бескомпромиссном. Если бы Jordan был одинок в результатах... Аналогичная (и даже более трагичная)картина отставания Х1800ХЛ выяснена и тут: http://www.ferra.ru/online/video/26136/ Я надеюсь, вы не станете обзывать ferra.ru ламерским сайтом, а автора обвинять в фанатизме к nVidia ) Добавлено спустя 26 минут, 43 секунды
German Ivanov писал(а):
в отношении меня NVIDIA уже проиграла, ибо не успела сделать что либо приличное к выходу Quake и FEAR.
Поинтересуйтесь резалтами ссылочки чуть выше. Именно в Кваках и прочих играх с OpenGL преимущество карт nVidia просто обескураживающее для фанатов АТИ. Чтоб не обременять вас перерасходом трафика приведу:
Цитата:
Что же касается выступления новой линейки ATI, то тут уже знакомая нам картина: Radeon X1800XT проигрывает даже GeForce 7800GT, который относится к более низкой ценовой категории. Более того, показатели младшей версии, Radeon X1800XL, также оставляют двоякое впечатление: с одной стороны, проигрыш сопернику из NVIDIA в OpenGL уже малоудивителен, с другой – пусть и мизерное, но отставание от Radeon X850XT несколько удручает.- выделено мной
Member
Статус: Не в сети Регистрация: 21.05.2005 Откуда: г. Ставрополь
German Ivanov писал(а):
А мне X800GTO.А вот через годик моно будет задуматься о покупке какой либо X1800GTO.
Я с тобой полностью согласен. Ещё помесяца назад привлекательность X800GTO даже не обсуждалась и тем кто её взял жалеть нет смысла. Но сейчас, когда приходится выбирать между аналогичными продуктами ATI и Nvidia, последний выглядит предпочтительнее. Зачем брать видюшку без SM 3.0, когда можно взять такую же с ними? Пробежавшись по разным статьям можно сделать вывод, что слово "капитуляция" в сабжевой статье это, конечно, преувеличение. X1300 и X1600 - это да, капитуляция. А X1800XL вполне конкурентноспособна по сравнению с 7800GT. Но и обвинять автора в том, что он не выполнил свой долг тестера это, мягко говоря, неправильно. Дрова у ATI сырые, поэтому и такая неразбериха с результатами на разных сайтах, авторы обзоров здесь не виноваты. Будем надеяться, что через месячишко всё утрясётся и можно будет спокойно выбирать между равноценными продуктами.
Member
Статус: Не в сети Регистрация: 06.03.2005 Фото: 41
ReDevil писал(а):
Дрова у ATI сырые, поэтому и такая неразбериха с результатами на разных сайтах, авторы обзоров здесь не виноваты. Будем надеяться, что через месячишко всё утрясётся и можно будет спокойно выбирать между равноценными продуктами.
Вот это и настораживает. У АТИ постоянно почему-то разные срывы- то дрова сырые, то техпроцесс не утрясен, то Кросс-Файр не доделан. Я уже молчу про затянувшиеся выходы новых карт. Вы там как хотите, конечно, а мне до фонаря разборки фанатов того и другого. Мы (простые крестьяне) выбираем что подешевле и попроизводительней. То есть, на настоящий момент 7800, причем каким-то особым чутьем делаем это ДО выхода обзоров сравнения производительности. Добавлено спустя 11 минут, 39 секунд Alex-scat Призываю вас (и модеров тоже) прекратить безобразные оскорбления автора и карт 7800. Не они виноваты в том, что "новая линейка" от АТИ не оправдала ваших с нами ожиданий. Напишите лучше АТИ и выскажите им все, что о них думаете...
Advanced member
Статус: Не в сети Регистрация: 13.04.2003 Откуда: Салават
Olaff писал(а):
А что за новый шейдер в кваке?Где-нить можно почитать?
Код:
# Changed the code below to use .w rather than .x as the temporary. I also ensured all 3 component # values in the shader only write to .xyz rather than the full register. This fits better with # ATI hardware architecture and gives a healthy boost in performance.
Код:
# The below code is a good deal faster than using lookup tables. It is also faster to update # shader constants than changing textures in case variable specular exponent is desired in the # future.
Olaff писал(а):
неужели думовский шейдер не могли оптимизировать много людей из АТИ,а потом подсунуть оптимизированный вместо основного?
Да делали они чё-то. В частности замену texture lookup на constant specular exponent.
_________________ О браузерах без субъективизма http://people.overclockers.ru/GReY/16906/Obektivnyj_test_brauzerov
Member
Статус: Не в сети Регистрация: 07.04.2005 Откуда: rus
ReDevil писал(а):
HDR+SM 3.0 это большой плюс, когда есть выбор. Собственно у X800GTO только два плюса - цена чуть ниже и отсуствие на рынке 6800GS
И почему никто не спорит про HDR + AA? А надо бы уже т.к. на картах АТИ такое есть. Думаю на 1024 картинка с HDR+4xAA покрасивше будет выглядеть, чем на 1600 картинка с HDR без АА. А уж тормозов будет на порядок меньше ... Кстати HDR на 6800 Series просто ужасающе тормозит и т.к. геймплей сохраняется хоть как-то только на 1024 БЕЗ АА!!! (можно представить какое это уродство) - для 6800 серии HDR является лишь красивым словом. Так что быбирать между X800 и 6800 нужно не оперируя HDR - его НЕТ на обоих
Serga01net писал(а):
Более того, показатели младшей версии, Radeon X1800XL, также оставляют двоякое впечатление: с одной стороны, проигрыш сопернику из NVIDIA в OpenGL уже малоудивителен, с другой – пусть и мизерное, но отставание от Radeon X850XT несколько удручает.- выделено мной
Забей на это. X1800 XL гораздо сильнее X850 XT во ВСЕХ OpenGL играх (с 4хАА - остальное рассматривать нет смысла), а там, где он медленнее, тестировали фаны НВ и помешали X1800 XL воспользоваться фиксами к OpenGL играм, не важно каким способом.
ВСЕ статьи, где X1800 XL пои 4хАА по скорости сопоставим с предыдущим поколением СЧИТАТЬ НЕДЕЙСТВИТЕЛЬНЫМИ, т.к. он быстрее на 15-50% (с фиксом).
Люблю за это зарубежные обзоры - они выжимают максимум на данный момент из видух не зависимо от того, чьи они.
Member
Статус: Не в сети Регистрация: 07.04.2005 Откуда: rus
Вообще ставить 1000 МГц шины на X1800 XL АТИ никто не просил - дешевле это его не делает. Поставили бы 1200-1300 и тогда бы вопросов лишних ни у кого бы не возникало. Оверам по ходу все равно - они и так знают что 1500-1600 поставят, но для тестов смотрелось бы поубедительнее. Ведь не будут же в тестах писать что-то типа "т.к. память XL гонится в полтора раза мы сочли за грех не разогнать ее до 1400 МГц, а только после этого использовали в тестах" :)
В общем маркетологи АТИ испытывают трудности наравне с их программерами.
Заблокирован Статус: Не в сети Регистрация: 02.12.2003 Откуда: Moscow, Russia
Вчера не смог отправить постинг.
GReY
GReY писал(а):
И тут не могу согласиться - G70 жив только оптимизациями.
Мы вообще-то уже ближе к NV43 говорили, ну да ничего. Опять же, в сравнении 7800GT и 6600GT я никакого дополнительного криминала не заметил. Равно как и отсутствия оптимиаций на ATI.
GReY писал(а):
Неспроста у него перманентно пониженная точность фильтрации текстур
А это ещё что такое? Ты имеешь ввиду FP16/FP32?
GReY писал(а):
Откуда год, если чипы только с лета выпускаются?
С конца лета - массовое производство. Силикон был готов уже в прошлом году.
А вот природу прироста производительности ATI на некоторых OpenGL-играх ещё предстоит исследовать - вплоть до побитового сравнения.
German Ivanov
German Ivanov писал(а):
А в кваке и феар результаты недостоверны, почему именно мы уже не первую страницу говорим.
Как некрасиво.
Во-первых, фокусы с переименованиями, которые действуют и в WHQL-драйверах, - сугубо проблема ATI. Результаты были измерены такими, какими они и должны быть. Во-вторых, по Quake4 никакого опротестовывания дест не было вообще - просто GReY попросил протестировать ещё и его шейдер. И не более того.
Вторично предлагаю Вам в будущем подкреплять выводы о мнении точными цитатами, особенно, когда Вы говорите за "мы".
German Ivanov писал(а):
Вот я с месяц назад GTO и купил. Ждать новинок можно до посинения, все время все дешевеет так вообще без карты останешься.
Список уже выщедших игр, в которых максимальное качество на Х8х0/X7x0 не доступно в принципе и доступно как на 6600GT, так и на 6800GS:
no HDR-effect: FarCry 1.3 Splinter Cell: Chaos Theory Age of Empires 3 Serious Sam 2
no VT: IL2 Pacific Fighters Добавлено спустя 2 минуты, 42 секунды Alex-scat
Alex-scat писал(а):
И почему никто не спорит про HDR + AA? А надо бы уже т.к. на картах АТИ такое есть.
Нет, на новых картах ATI пока HDR не работает вообще. Для FarCry есть только девелоперский патч, которого нет в свободном доступе. И я не уверен, что его будут релизить.
Member
Статус: Не в сети Регистрация: 07.04.2005 Откуда: rus
Mikhail_P писал(а):
А это ещё что такое? Ты имеешь ввиду FP16/FP32?
Так. Вообще-то FP - это формат текстур (если кто не знал). Даже не текстур а цветовой компоненты. FP32 несуществует в природе. Чем FP16 крут - так это тем, что у него ОЧЕНЬ большой динамический диапазон. И видеокарты, способные оперировать с FP16 при рендринге - крутые видухи. Надо кому-то почитать вначале теорию, а уже потом доказывать что-то на форумах...
Mikhail_P писал(а):
С конца лета - массовое производство. Силикон был готов уже в прошлом году
В массовое производство последняя ревизия поступила в начале СЕНТЯБРЯ, и чипы датированны где-то серединой сентября. Силикон же был готов еще в 2004-м но то был не тот силикон ( если имеешь ввиду то, что набирало 11 000 в 3DMark2005 ). Кажется R580 готов был даже раньше, чем R520 ... Просто какая-то компания решила вначале поднять денег на R520, а потом, через полгода, на R580. Покупайте, мол, за полтысячи R520 а потом еще и R580 снова за полтысячи . Маркетинг, однако... ИМХО пожалуй есть смысел купить за 160$ какой-то GTO, разогнать его хорошенько. А потом в Январе-Феврале со свежими силами от GTO избавиться и взять R580. Что до 6800 GS так за 250$ сейчас видео нерентабельно покупать - слишком большая разница в цене между GTO и GS.
Mikhail_P писал(а):
Нет, на новых картах ATI пока HDR не работает вообще.
Да? А кто-то недавно говорил что:
ReDevil писал(а):
чти, что слово "Moyenne" означает общие результаты по всем играм. В режиме HDR+4AA nVidia на многих играх не запускалась (видимо с дровами что-то), поэтому такие низкие результаты
1. На НВ ВООБЩЕ НЕ МОЖЕТ запустится игра в HDR+4AA - у нее слишком убогая для сего архитектура доступа к памяти.
2. Как можно понять всеже МАССА игр идет на X1800 с HDR+4AA. Так что работает и горя не знает...
3. Если учесть, что на НВ запустилась только треть то у нее будет ~ 55 фпс. Но это у GTX и без 4xAA.
У GT будет ~43 против 31 у XL, но XL ГОРАЗДО тяжелее т.к. на нем "висит" еще и 4хАА, а HDR+4xAA создают колоссальную нагрузку на контроллер памяти.
Вывод очевиден - HDR у Х1800 XL пошустрее чем у 7800 GT. А если учесть, что по памяти XL до XT без проблем гонится, то из него можно будет выдавить 45 фпс в HDR+4xAA а это ого-го как здорово. 7800 GT такое и не снилось.
В итоге преимущество X1800 архитектуры над 7800 очевидно (при использовании HDR, конечно):
1. бОльшая скорость
2. возможность использования с АА
И оба эти преимущества настолько велики, что если нужно наилучшее качество вопрос выбора не стоит.
Member
Статус: Не в сети Регистрация: 16.09.2003 Откуда: Санкт-Петербург
Serga01net писал(а):
Именно в Кваках и прочих играх с OpenGL преимущество карт nVidia просто обескураживающее
Для начала необходимо оба гамеса настроить должным образом.
Serga01net писал(а):
но отставание от Radeon X850XT несколько удручает.- выделено мной
Повеселило, серьезно. Ты на самом деле считаешь что новый чип медленнее старого? Причем настолько медленнее чтобы перекрыть разницу в скорости памяти?
Serga01net писал(а):
Я надеюсь, вы не станете обзывать ferra.ru ламерским сайтом
"Как уже было отмечено в начале материала, на базе этого движка, помимо самого «DOOM3», уже выпущены «The Chronicles of Riddick» и «Quake4»," (c) обсуждаемая статья No comments:) Я бы OpenGl и с бодуна движком не назвал. Хотя похоже речь идет вовсе не об OpenGL... то DOOM3 Engine стал основой для таких маститых продуктов, как «DOOM3», «Chronicles of Riddick».... (с) там-же. занавес.
Цитата:
а автора обвинять в фанатизме к nVidia
Издеваемся? посмотри на ник автора материала для полной картины глянь эту ветку
В той же ветке мы и о роли HDR поговорили.
Serga01net писал(а):
причем каким-то особым чутьем делаем это ДО выхода обзоров сравнения производительности
Больше вопросов нет в народе это чутье и называется "фанатизм"
Serga01net писал(а):
Я уже молчу про затянувшиеся выходы новых карт
И не говори, со времени 9800SE(см свой профиль) прямо нечего выбрать.
Mikhail_P писал(а):
Во-первых, фокусы с переименованиями, которые действуют и в WHQL-драйверах, - сугубо проблема ATI
ты что действительно не понимаешь что дает преименование файла? Мы имеем два варианта: 1) Файл не переименован - тормоза из за неправильной оптимизации. 2) Файл переименован - мы вообще не используем оптимизаций (тормоза примерно на 20%) То есть оба варианта недостоверны(по вине программеров АТИ).
Mikhail_P писал(а):
Во-вторых, по Quake4 никакого опротестовывания дест не было вообще
Без одинаковых принудительных конфигов и отключения оптимизаций мы меряем среднюю температуру больных по больнице, а не производительность в игре.
Mikhail_P писал(а):
Список уже выщедших игр, в которых максимальное качество....
"Потому что, с одной стороны, игры с поддержкой SM3 уже есть, но вот игр, в которых наличие SM3 сказывается на качестве рендеринга, нам пока не попадалось. "(с) Андрей Воробьев,Данил Гридасов Бум оспаривать мнение своих любимых авторов? Я с ними солидарен ибо разницы на скринах не вижу, о чем мы уже говорили. А про OpenGL игры я вам уже подробно рассказывал и даже статью давал.
Advanced member
Статус: Не в сети Регистрация: 13.04.2003 Откуда: Салават
Jordan
А можно поинтересоваться, зачем делается вот это:
Цитата:
Вертикальная синхронизация (VSync) во время проведения тестов принудительно выключена в панели управления драйверов ForceWare и с помощью ATI Tray Tools.
?
Надеюсь, анизотропка и сглаживание в Application controlled остаётся?
_________________ О браузерах без субъективизма http://people.overclockers.ru/GReY/16906/Obektivnyj_test_brauzerov
Заблокирован Статус: Не в сети Регистрация: 02.12.2003 Откуда: Moscow, Russia
German Ivanov
German Ivanov писал(а):
ты что действительно не понимаешь что дает преименование файла?
Нет никаких предпосылок к такому выводу. Исходя из чего он был сделан?
German Ivanov писал(а):
1) Файл не переименован - тормоза из за неправильной оптимизации. 2) Файл переименован - мы вообще не используем оптимизаций (тормоза примерно на 20%) То есть оба варианта недостоверны(по вине программеров АТИ).
Мы не знаем, что ещё при этом творится с качеством, но ввиду того, что программерами ATI по умолчанию предлагается вариант 1, его использование имеет больший приоритет.
German Ivanov писал(а):
Без одинаковых принудительных конфигов и отключения оптимизаций мы меряем среднюю температуру больных по больнице, а не производительность в игре.
Без доказательств того, что конфиг _меняется_, а также при сохранении _одинаковых_ условий тестирования, под которые подпадает как включением оптимизаций на обеих картах, так и отключение оных, мы меряем именно производительность в игре.
German Ivanov писал(а):
"Потому что, с одной стороны, игры с поддержкой SM3 уже есть, но вот игр, в которых наличие SM3 сказывается на качестве рендеринга, нам пока не попадалось. "(с) Андрей Воробьев,Данил Гридасов
Цитаты давать Вы уже научились, спасибо. Но вот давать из _целиком_ пока не получается.
Напомню, что речь шла о:
Mikhail_P писал(а):
Список уже выщедших игр, в которых максимальное качество на Х8х0/X7x0 не доступно в принципе и доступно как на 6600GT, так и на 6800GS:
А не о SM3.0-играх, так что Ваша цитата не совсем к месту, а вот далее господа с iXBT пишут:
"С FP16-рендерингом вообще приключилась занимательная история: ни одна игра, использующая FP16-рендеринг на чипах NV4x+ на нашей видеокарте RX1800XT в режиме FP16 (то есть, при включении HDR), корректно не заработала."
И я в своем списке пометил, о каких именно эффектах идёт речь. Неужели Вы не понимаете, что со мной такие фокусы не прокатывают?
Насколько помню сами вы ничего не меряете, так что "мы" тут неправомерно. А по поводу остального не спорьте о вкусе цианистого калия с теми, кто его ел
Цитата:
А не о SM3.0-играх, т
Вполне к месту, ведь она описывает именно все "достоинства" даваемые SM3. Скажем так x800 в DirectX играх из за отсутствия SM 3.0 проигрывает линейке GF6 ровно столько же, сколько выигрывает у нее в Opengl играх от наличия OpenGL 2.0 против OpenGl 1.5 ... а именно ничего все это маркетинговые фишки, не имеющие сейчас реального применения.
Mikhail_P писал(а):
И я в своем списке пометил, о каких именно эффектах идёт речь
угу. именно эти эффекты и описываются общей фразой про SM30
Mikhail_P писал(а):
Неужели Вы не понимаете, что со мной такие фокусы не прокатывают?
А я и не для вас пишу, для людей которые начинают свято уверовать в то, что вы говорите(а вы всего лшь перепеваете чужие ошибки).
Так сказать добью лежачего А почему в этой статье, датированной неделей тому назад вы используете демки SS2 и FEAR. Ведь релизы уже давным давно вышли? Мне сказать или сами признаетесь?
Member
Статус: Не в сети Регистрация: 12.06.2004 Откуда: Кишинев
GReY Спасибо за информацию.
Насколько я понял,кваковский шейдер просто другой,а не модернизированный думовский.
Иначе его могли бы модернизировать атишные программисты.
И кто тут еще будет утверждать,что Кармак злыдень?Фор АТИ онли пишет шейдеры Шутка.
German Ivanov Без одинаковых принудительных конфигов Зачем?Если игра при запуске создает конфиг,в который потом нужно внести изменения настроек качества из меню самой игры,а не искать какие-то чудодейственные патчи Хумуса для АТИ и еще кого-нибудь для нвидиа.Есть ли у тебя доказательства благоволения игры к чипам одного из вендоров?
Member
Статус: Не в сети Регистрация: 16.09.2003 Откуда: Санкт-Петербург
Olaff писал(а):
Зачем?Если игра при запуске создает конфиг
В движке Q4 и Doom3 имеется более 600 параметров настроек, в меню же настроек самой игры их не более десятка из чего нетрудно сделать вывод что 10 настроек ты выставляешь сам, а остальные 590 игра ставит сама по своему выбору
Цитата:
в который потом нужно внести изменения настроек качества из меню самой игры
А ты попробуй найти в меню Settings скажем уровень анизотропной фильтрации.
Olaff писал(а):
Есть ли у тебя доказательства благоволения игры к чипам одного из вендоров?
Если ты выставишь в меню Ultra качество , а игра сочтет что твоя система для этого недостаточно крута, ультра качество выставлено не будет, хоть ты перекликайся меню в сеттингах(но в меню будет написано "ультра"). Одним из требований для ультры является например наличие 512 Мб набортной памяти на видеокарте.
Производитель чипа тут совершенно непричем, проблемой является автоподстройка качества изображения самой игрой а не привязка к вендору. Вот к примеру найдет она на твоей карте всего 64мб памяти как это было у Grey на его 6800 ну и догадайся с трех раз какое качество она тебе автоматом выставит? И какое качество она выставит скажем на X1800 которого вообще не было в природе когда создавалась эта игра.
А если вспомнить о том, что движок имеет свойство запоминать где-то(?) некоторые из однажды выставленных в консоли настроек то вообще труба. я лично очень долго гонял из системы параметр r_sb_ScreenSpaceShadow в конце концов плюнул и вписал его жестко в конфиг А если учесть что Q4 сбрасывала у меня настройки на дефолт при смене карты с GF6600GT на X800GTO и обратно то ситуация становится еще более интригующей.... Уловил о чем я?
Поэтому для тестирования типовые настройки кладем в autoexec.cfg (а лучше еще и в my.cfg вызываемый из autoexec.cfg командой exec "my.cfg" ибо по autoexec.cfg игра шарится и может его переписать, а вот на инклюды ей ума уже не хватает) и только тогда можно быть более ли менее уверенным что ты меряешь карты в одинаковых условиях.
Конфиг оптимизированный под максимальное качество на 256Mb картах можешь взятьна моей ПС Он подходит и к Doom3 и к Quake4. Я его регулярно правлю. Grey кстати глянь что по поводу него скажешь? да вот еще потестировал твой шейдер на отключенных оптимизациях. http://people.overclockers.ru/GI/record6
Добавлено спустя 7 минут, 23 секунды И в догонку, надеюсь профили игр драйверов ForceWare тестеры также не забывают убивать(а лучше сразу переименовать исполнимые файлы тестируемых игр), а то тоже можно легко намерить немерянное преимущество одних карт над другими
Добавлено спустя 18 минут, 4 секунды Мои дурные прогнозы начинают сбываться Будем надеяться что 7600 окажется 256 битной. Иначе она однозначно сольет X800GTO (ибо конвеерная формула у них вроде одинаковая http://users.erols.com/chare/video.htm)
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 23
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения