1080ti можно даунклокнуть до результатов gtx1080 в хевене/3дмарке/встроенных бенчах и можно в играх пойти сравнивать где по мониторингу 9гб+ используется.
У них разное количество ядер, ропов, текстурных юнитов и т.д, ничего ты таким даунлоком достоврено не установишь. Ну а просто мониторинг занятой памяти, как я уже писал, ни о чём не говорит. С rx480 более-менее неплохой пример. Но даже с двухкратной разницой в объёмах vram, значительная разница по кадровой частоте возникает только при "тяжёлых" настройках графония. gamersnexus gecid Понятно, что чем больше тем лучше, что недостаток памяти потенциально возможен, но, по факту, у нас нет методики тестирования игр на зависимость производительности от количества видеопамяти, просто потому-что мы не можем регулировать это самое количество. Ну а спекуляции вида: "1080ti можно даунклокнуть до результатов gtx1080" - тупо, несерьёзны.
а в какой стране популярен дви? и только дви в мониторах? в корпоративном сегменте обычные бюджетники до сих пор на вга. ещё нравится, когда продают мини пк с вга и дисплей портом. а дешевые мониторы с ипс матрицей с вга и хдми. колхозить адаптером все машины - не варик. т.ч. дви явно не наше все. пока это, увы - вга
Ну да, в бюджетный сегмент только 2080 и покупают. Ещё и кастомную воды собирают. Ага. Щас все бюджетные организации РФ выстроились в очередь на покупку 2080.
Member
Статус: Не в сети Регистрация: 22.03.2005 Откуда: Уфа Фото: 0
SINgle84 писал(а):
когда ж до людей допрет, что разница между разрешениями FHD и 4к составляет 100-300мб
когда ж до людей допрет, что разница в размере буфера кадра между разрешениями FHD и 4к - целых в 4 раза! Это то, что некоторым нужно под 120 раз в секунду обновлять. И по идее, чёткость и детализация ЛОДов текстур должна вырасти настолько же, чтобы сохранить ту же детальность, а не лицезреть крупные смазанные пиксели во весь экран у объектов вплотную к персонажу и настолько же увеличить дальность прорисовки. А по +100-300 МБ мы видим, что этого и близко нет. Т.е. 4к нам подсовывают "липовые". Наверное, такие разработчики считают, что замена fhd на 4к это лишь просто возможность сесть от монитора теперь подальше (а то я блин бедный мучился всё это время носом в экран...).
Member
Статус: Не в сети Регистрация: 11.06.2012 Откуда: ~∞
Keltis писал(а):
проверить это нельзя ибо старшие карты теперь имеют только одну цифру
Вегой фронтиром можно, если 16гб версия выйдет далеко вперёд относительно 8гб версии веги 64, то там и 2080 памяти будет мало.
ZltCity писал(а):
gecid
Отличный пример, в gwr4 уже 45% прироста (59/86фпс) в 1080p, есть повод так же растерять фпс в полтора раза в более высоких разрешениях, когда будет не хватать уже 8гб, а не 4гб как в этом тесте.
Заблокирован Статус: Не в сети Регистрация: 16.08.2018
Интуиция подсказывает, что эта новая технология RTX те же яйца, что и nVidia HairWorks, например. В стиле "убираем чёлку у Плотвы, получаем +15 FPS". Или разница будет как при различном виде ambient occlusion - разница в динамике едва заметна, за то -15% производительности. Только на новом поколении просадок будет меньше. Это и будет составлять разницу между 1080 Ti и 2080, да и та, вероятно будет в большей степени реализовываться за счёт оптимизации драйверов под RTX.
Отличный пример, в gwr4 уже 45% прироста (59/86фпс) в 1080p, есть повод так же растерять фпс в полтора раза в более высоких разрешениях, когда будет не хватать уже 8гб, а не 4гб как в этом тесте.
Пример хороший, но недостаточный. Разрешение экрана, выставленное в игре, напрямую влияет только на размер буфера/ов кадра. Их, конечно, может быть много и всяких разных, от парочки back буферов, в которые непосредственно производится рендеринг финального изображения, до целого набора разношёрстных буферов для экранных эффектов. У последних соответствие размера не всегда один к одному, часто достаточно половины от разрешения экрана, или даже четверти. Формат разный, опять же. И для них, в основном, не требуются lod'ы. Но, какой объём видеопамяти они занимают по сравнению с ресурсами игры, к примеру текстурами? Которые: не зависят от разрешения экрана и могут быть сильно больше, требуют хранения lod'ов(своих уменьшенных копий). И их дохрена. На одну условную бочку может быть до нескольких штук(цвет, нормали, что-нибудь для описания физической поверхности и т.д.) Ну и до кучи, туда же, в видеопамять, грузятся вершины моделей, каждая из которых состоит не только лишь из позиции(да дохрена атрибутов на самом деле), сотни и тысячи всяких констант(навроде матриц трансформации, но эт мелочь) и прочее. Мне видится сомнительным что разршение имеет исключительно влияние на потребление видеопамяти. Оно влияет, несомненно, и при переходе в 4К мы можем столкнуться с недостатком видеопамяти..а можем и не столкнуться. Методики тестирования то нет, ещё раз повторяю. Единственный способ получить достоверные результаты - тестировать игры с разными пресетами графики на разных разрешениях, но на одной модели ГП с разным объёмом памяти. Тест с rx480 валидный(хотя и не демонстрирует зависимость от разрешения, но вполне демонстрирует от настроек графики), но можно ли экстраполировать эти результаты на переход от 8Гб до 12/16Гб в новых поколениях видеокарт? Имхо нет, всё будет зависеть исключительно от игр и их наполнения.
Member
Статус: Не в сети Регистрация: 19.06.2015 Откуда: Оттуда Фото: 5
ZltCity писал(а):
Пример хороший, но недостаточный
Уже давно известно что если игра требует больше памяти чем есть в видеокарте то будет теряться производительность, еще когда были видеокарты типа gtx580 c 1.5 и 3gb памяти делали тесты, потом r9 290x с 4 и 8gb были тесты. В интернете все есть, нечего тут отсебятину придумывать.
_________________ Ryzen R7 3700X // ASUS CROSSHAIR VI HERO // Crucial BLS16G4D32AEST.M16FE 2x16 @ 3800 16-19-16-36-CR1 // ASUS ROG-STRIX-RXVEGA56-O8G-GAMING
Overhlopec
Статус: Не в сети Регистрация: 22.05.2006 Откуда: Москва
grigorovdmitriy Народ тут говорит что будет недоставать 8 ГБ. Где есть тесты между равными картами 8 ГБ VS 10-12-16 я таких не вижу. То что 1.5 ГБ сливало 3 Понятно также как 4 сольет 8. А 8 то почему должна сливать?
Я не понимаю почему все обращают внимание на тех.характеристики? Ведь у Turing другая архитектура , поэтому напрямую сравнивать технические характеристики некорректно. Только в рамках одной архитектуры можно сравнить количество унифицированных шейдерных блоков, текстурных блоков , ROP блоков и.т.д. для наглядности приведу пример : kepler gk110 , который был установлен на gtx 780ti имеет в 3 раза больше текстурных блоков , унифицированных блок чем у gtx 1066 , но при этом видеокарта на 35% слабее.
Member
Статус: Не в сети Регистрация: 11.06.2012 Откуда: ~∞
Mixrus писал(а):
8 Гб на всё хватает
gtx1080ti в среднем быстрее gtx1080 на ~30%, вот вышла новая игра которая 8гб+ жрёт в 1080p и сразу разрыв шаблона, +62%, в другой игре, где видеопамяти хватает, положенные 32% буста.
Member
Статус: Не в сети Регистрация: 17.02.2006 Откуда: Фурманов Ив.обл Фото: 40
Пока не выйдут новые консоли, игроделы и будут топтаться на месте, та что ещё на 2 года 8Гб достаточно, да и вендоры скорее всего выпустят удвоенные версии.
gtx1080ti в среднем быстрее gtx1080 на ~30%, вот вышла новая игра которая 8гб+ жрёт в 1080p и сразу разрыв шаблона, +62%, в другой игре, где видеопамяти хватает, положенные 32% буста.
Какая, какая игра вышла? а ничего, что это бета? беты и альфы могут хоть 20гб жрать, на то они и беты и альфы.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 8
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения