Member
Статус: Не в сети Регистрация: 10.03.2005 Фото: 93
PerformanceWANTED писал(а):
Рост производительности в 50% при переходе от GeForce 5/Radeon 9 к GeForce 6/Radeon X стал в 2004-м году ПРОРЫВОМ. До того момента, рост от поколения к поколению составлял стандартные 20%.
GeForce 2 GTS против GeForce 3 Ti500 - разница в 2 раза во многих играх была. GeForce 1 против RiveTnt2 Ultra - разница в 2-3 раза в том же Квейке 3. Не стоит делать заявления про прорывы, не делая экскурс в историю. Разница с 20% была когда НВидия меняли 3 Жираф на 4 и потом с 4 на 5. Там они по-полной облажались, да. А 6 серия не была никаким прорывом, т.к. просто она была хорошей на фоне ужасной 5 серии. Потом пошло все по накатанной до 8800Ultra, т.к. АТИ к тому времени оборзели и начали вставлять палки в колеса. Если бы не конкурент, НВидия вообще бы не чесалась, как сейчас, выпускают тормозные титаны, а толку никакого, приходится SLI громоздить.
Добавлено спустя 1 минуту 20 секунд:
Kopcheniy писал(а):
Вот смотрю опять на результаты в некоторых тестах (Far Cry III и Crysis 3) и возникает мысль - в AMD совсем не хотят оптимизировать драйвера для своих карт в этих играх? А то больно сильно отстают их видеокарты от аналогичных от Nvidia
АТИ не оптимизирует драйвера, их индусы просто чё-то пишут, лишь бы запускались игры.
Member
Статус: Не в сети Регистрация: 29.04.2005 Откуда: Екатеринбург
Kopcheniy, увы, тестировщики всегда субъективно тестируют, по большей частью. Часто же их спонсорами или заказчиками выступают магазины, которым важно продать новинки как можно быстрее, пока цены не устаканились. Притом, иногда тесты нормальные, но интерперетация необъективная, когда в тестируемой модели надо найти хоть что то хорошее, выделяющее среди других. А уж про пургу, которую гонит росамаха со своим " рейтингом привлекательности" и говорить нечего. Вот сделать точечную диаграмму для разрешения 1920*1080 в координатах цена-производительность ума нехватает, а лабуду с этим рейтингом- пожалуйста.
Последний раз редактировалось vl 27.11.2015 21:22, всего редактировалось 2 раз(а).
Moderator
Статус: Не в сети Регистрация: 27.07.2015
vl писал(а):
когда в тестируемой модели надо найти хоть что то хорошее, выделяющее среди других
Ну так нашли же. R9 380X = GTX 960 OC
vl писал(а):
тестировщики всегда субъективно тестируют, по большей частью
А как еще? У каждого обозревателя свои методы тестирования. Но по субъективному тесту автора можно вынести объективный результат, почему нет?
Добавлено спустя 5 минут 5 секунд:
Inqizitor писал(а):
АТИ не оптимизирует драйвера, их индусы просто чё-то пишут, лишь бы запускались игры
Ну почему же, в некоторых достаточно уже старых играх (Metro 2033, Aliens vs Predator) карты от AMD были в среднем на 10-15% быстрее своих прямых конкурентов. Да и в Company of Heroes II явно видна оптимизация под карты от AMD - R9 380X OC вовсю наступает на пятки GTX 970 на дефолтных частотах
Member
Статус: Не в сети Регистрация: 29.04.2005 Откуда: Екатеринбург
Kopcheniy писал(а):
Но по субъективному тесту автора можно вынести объективный результат, почему нет?
Применительно к видеокартам, у каждой архитектуры есть свои достоинства и недостатки и условиями тестирования можно повлиять на итоговые результаты. Подобрать сцены, включить или наоборот, выключить специфический режим , например "мантию" для радеонов или еще какую бяку учинить. Какая уж тут объективность.
Moderator
Статус: Не в сети Регистрация: 27.07.2015
Mokujin_82 писал(а):
в ФХД да но это временно, а в 1440р уже НЕТ! Дальше хуже привет оптимизация
Тогда ждем примерно таких системных требований через год-два:
Для комфортной игры в FullHD вам необходима видеокарта с 16 ГБ памяти
Добавлено спустя 2 минуты 2 секунды:
vl писал(а):
Применительно к видеокартам, у каждой архитектуры есть свои достоинства и недостатки и условиями тестирования можно повлиять на итоговые результаты
Тогда имеет смысл протестировать видеокарты на одном и том же стенде. Но это только при условии, что имеешь доступ ко всем видеокартам, которые показываешь во время тестов. А это нереально сложно. И еще сложнее как раз "перебрать" такую пачку результатов после этих самых тестов
vl писал(а):
например "мантию" для радеонов или еще какую бяку учинить
Ну так не включают же, это только в отдельных специфичных статьях
Member
Статус: Не в сети Регистрация: 29.04.2005 Откуда: Екатеринбург
Kopcheniy писал(а):
Посчитал правильно и взял за 100% 980. Какая разница? Могу и в рублях сказать - разница между GTX 970 и 980 примерно 10000 рублей, +/- 1 тысяча
Если GTX 970 стоит 24к, а 980- 36к, то разница 12к или 50% от цены 970-го. Теперь сравним прирост производительности : 15% http://www.computerbase.de/2015-11/rade ... 80_full_hd , так стоит ли 15% прирост производительости 50% повышения цены?
Добавлено спустя 2 минуты 19 секунд:
Kopcheniy писал(а):
Ну так не включают же, это только в отдельных специфичных статьях
Jordan в своих статьях включает "мантию" для радеонов, также как и нвидиевские фичи.
Moderator
Статус: Не в сети Регистрация: 27.07.2015
vl писал(а):
Если GTX 970 стоит 24к, а 980- 36к, то разница 12к или 50% от цены 970-го. Теперь сравним прирост производительности : 15% http://www.computerbase.de/2015-11/rade ... 80_full_hd , так стоит ли 15% прирост производительости 50% повышения цены?
И еще можно добавить тот момент, что разогнав GTX 970 - можно догнать (а в некоторых случаях и слегка перегнать) стоковую 980
Добавлено спустя 49 секунд:
vl писал(а):
Jordan в своих статьях включает "мантию" для радеонов, также как и нвидиевские фичи
А Феникс все так же умудряется включать FXAA на картах Radeon...
Member
Статус: Не в сети Регистрация: 10.03.2005 Фото: 93
PerformanceWANTED писал(а):
"6 Гб памяти - это круто", "HBM2 - это круто" - маркетологи AMD и nVIDIA прямо рыдают от счастья.
Как показал новый калофлдути - круто - это когда 32 гига на борту видеокарты. А когда всего 12 гиг - то фризы и лаги присутствуют, когда они заполняются. Поэтому рассказывать сказки, что "6 гиг памяти всем хватает" давайте в другом месте.
Moderator
Статус: Не в сети Регистрация: 27.07.2015
Inqizitor писал(а):
Как показал новый калофлдути - круто - это когда 32 гига на борту видеокарты. А когда всего 12 гиг - то фризы и лаги присутствуют, когда они заполняются
У меня другое предположение - Black Ops 3 просто даже оптимизировать не стали, "пустили в свободное плавание" в плане производительности
Заблокирован Статус: Не в сети Регистрация: 25.08.2015
vl писал(а):
Если GTX 970 стоит 24к, а 980- 36к, то разница 12к или 50% от цены 970-го. Теперь сравним прирост производительности : 15%
То есть я сейчас могу пойти в магазин купить GTX970 за 24к и играть? Или же мне все-таки придется купить ЦПУ, ОЗУ, МП, БП, ХДД и т.д.? Сдается мне, что чисто на одной видеокарте никакая игра не запуститься. Сравнивай целиком сборки, а не лоб в лоб видеокарты. То на то и выходит. При покупке системы на GTX980 система на 15% дороже, на столько и быстрее.
Member
Статус: Не в сети Регистрация: 10.03.2005 Фото: 93
Kopcheniy писал(а):
У меня другое предположение - Black Ops 3 просто даже оптимизировать не стали, "пустили в свободное плавание" в плане производительности
Фоллаут 4 у меня под 9 гиг жрет, еще несколько игр до 8 гиг жрут. Т.е. сейчас есть всего 2 игровые видеокарты - это Титан и Ати 390Х. Остальные - либо миддлы, либо устаревшие, в том числе 980Ti, т.к. 6 гиг всего на борту. Поэтому лепить на новый миддл 4 гига всего - это было фатальной ошибкой АТИ. Если бы 8 поставили хотя-бы - то я бы 380Х рекомендовал бы всем в качестве лоумиддла, а миддл уже 390Х (но цены за такое - чудовищные, т.к. по правде - именно 390Х должен был назваться 380Х и стоить $230. А уродец по имени Фура вообще не должен был родиться).
Moderator
Статус: Не в сети Регистрация: 27.07.2015
xbigseller писал(а):
То есть я сейчас могу пойти в магазин купить GTX970 за 24к и играть? Или же мне все-таки придется купить ЦПУ, ОЗУ, МП, БП, ХДД и т.д.?
Здесь имелось ввиду поменять какую-либо из старых видеокарт на одну из двух вышеперечисленных, большой процент пользователей так и делает
Добавлено спустя 2 минуты 22 секунды:
Inqizitor писал(а):
Т.е. сейчас есть всего 2 игровые видеокарты - это Титан и Ати 390Х
Насчет второй - это вряд ли, как уже было сказано - сил у самого GPU не хватит для обеспечения нормального кол-ва FPS в большинстве игр. А я думаю - 10-15 кадров по определению не могут считаться нормальным показателем, даже если загружает память не на 100%
Заблокирован Статус: Не в сети Регистрация: 25.08.2015
Kopcheniy писал(а):
Здесь имелось ввиду поменять какую-либо из старых видеокарт на одну из двух вышеперечисленных, большой процент пользователей так и делает
Ну тогда надо брать, что то из GT210, там намного круче цена/производительность. Ну или вообще на встроенном ядре сидеть. А что оно же бесплатное... Большинство пользователей меняют всю систему, в том числе и процессор. Например у парня стоит i5-750 + GTX680, менять эту видеокарту, на что то меньшее, чем GTX980 - маразм. Вот и будет парень менять все ибо процессор уже слабоват. 1 к 1 видеокарты никто не сравнивают, вернее сравнивают, но мягко говоря не самые умные, тем кому маркетологи уже промыли мозг.
Moderator
Статус: Не в сети Регистрация: 27.07.2015
xbigseller писал(а):
Например у парня стоит i5-750 + GTX680, менять эту видеокарту, на что то меньшее, чем GTX980 - маразм. Вот и будет парень менять все ибо процессор уже слабоват.
Все зависит от цены, с этой видеокарты можно пересесть и на GTX 780, прирост в 30-40% тоже будет ощутимым
xbigseller писал(а):
1 к 1 видеокарты никто не сравнивают, вернее сравнивают, но мягко говоря не самые умные, тем кому маркетологи уже промыли мозг
В большинстве случаев пользователь меняет только видеокарту и процессор, чуть реже мат.плату, поэтому сравнение 1 к 1 вполне уместно
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 23
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения