Member
Статус: Не в сети Регистрация: 17.06.2010 Откуда: Минск Фото: 100
Зря я упомянул матрицы . То что они разные это да, но мониторы одинаковые . Это одинаковые 8-битные мониторы, с одинаковым цветовым охватом. И то что матрицы разные не имеет ни какого значения. Acer не может ни какие 10 бит ни с какими FRC. Да и G-Sync не работает больше чем с 8 бит и вообще 10 битного контента нет. Всякие "про" программы для бородатых дизайнеров и обработки соответствующего контента не в счет. На overclock.net уже давно с этим разобрались. Лучше смотреть на финальные спеки и отзывы пользователей. При покупке PG279Q или XB271HU все сводится только к выбору внешнего вида.
_________________ Jetway V266B; Athlon XP 1600+; DDR 256MB; GIGABYTE GeForce2 MX 400/32MB; PSU 250W; Seagate 40GB; FDD Samsung; CD LG GCR-8520B; LG Flatron 795FT Plus
Member
Статус: Не в сети Регистрация: 17.05.2014 Откуда: Msk Фото: 30
Arengeta писал(а):
Значит плохо искали:
значит вы не прочитали сообщения в моем посте где эта тема уже обсуждалась https://3dnews.ru/923340 https://3dnews.ru/931211 Монитор ASUS PG279Q основан на только что вышедшей AHVA-матрице (относится к IPS-типу) производства AU Optronics, модель M270Q008 V0. Монитор Acer Predator XB1 основан на недавно вышедшей AHVA-матрице (относится к IPS-типу) производства AU Optronics, модель M270Q008 V0. но и с данными displayspecifications.com не все сходится, о чем я тоже писал ранее
Member
Статус: Не в сети Регистрация: 23.02.2017 Откуда: Москва
NeverT Пошерстите форум OCN и увидите что там больше информации, так же от обзорщиков есть посты, которые писали какая там матрица. Это даже видно по калибровке, 3% Adobe RGB разницы. В старых MG279Q и XB270HU стоят одинаковые матрицы, а в этих двух они совершенно разные.
Member
Статус: Не в сети Регистрация: 17.05.2014 Откуда: Msk Фото: 30
Arengeta писал(а):
Пошерстите форум OCN и увидите что там больше информации, так же от обзорщиков есть посты, которые писали какая там матрица. Это даже видно по калибровке, 3% Adobe RGB разницы.В старых MG279Q и XB270HU стоят одинаковые матрицы, а в этих двух они совершенно разные.
на любых форумах и в любых обзорах работают люди, которые могут ошибаться или просто не владеть информацией. если вас не смущает нестыковки в данных, это ваше право, я же предпочитаю думать головой, а не слепо доверять каким то ресурсам, тем более если на них уже есть нестыковки. пока нет данных от производителя, то данные от других ресурсов это "может быть". именно поэтому я и написал
NeverT писал(а):
не все так просто с матрицами, 100% инфы какая где нет, везде вопросы остаются
_________________ Jetway V266B; Athlon XP 1600+; DDR 256MB; GIGABYTE GeForce2 MX 400/32MB; PSU 250W; Seagate 40GB; FDD Samsung; CD LG GCR-8520B; LG Flatron 795FT Plus
Member
Статус: Не в сети Регистрация: 17.06.2010 Откуда: Минск Фото: 100
Я вот тут задумался. А зачем вообще нужен G-Sync и другие синки вообще? Ну правильно, что бы не было разрывов. Ок. А почему есть разрывы? Потому что экран обновляется построчно. А почему ЖК экраны обновляются построчно? Понятно ЭЛТ, там луч один, а экран большой и ему нужно бегать слева на право отрисовывая строку за строкой и так до самого низа, а потом все сначала. Но на ЖК нет ни какого луча. Все пиксели присутствуют на всем экране всегда и сразу, но они тоже построчно обновляются. Правда беглое гугление показало, что на ЖК экране строка из пикселей обновляется сразу целиком. То есть в горизонтальной линии скажем из 1920 пикселей, все эти пиксели меняют цвет синхронно, потом следующая линия и т.д.
Ну вы уже наверно поняли. А теперь внимание вопрос Почему все пиксели на всем ЖК экране не обновляются синхронно в один момент времени? Ведь если бы они все обновлялись синхронно, то разрывов не могло быть даже математически. Вообще такого понятия мы бы не знали. Мне кажется такое построчное обновление осталось из за каких то старых стандартов, для совместимости. Хотя может синхронное обновление технически очень дорого реализовать.
_________________ Jetway V266B; Athlon XP 1600+; DDR 256MB; GIGABYTE GeForce2 MX 400/32MB; PSU 250W; Seagate 40GB; FDD Samsung; CD LG GCR-8520B; LG Flatron 795FT Plus
Member
Статус: Не в сети Регистрация: 22.05.2004 Откуда: Санкт-Петербург Фото: 7
F22 g-sync как раз построчное обновление ускоряет.. то есть при 30фпс монитор будет иметь 30гц кадровой частоты, но скорость строчная будет как при 165гц - так оно у PG279q
Member
Статус: Не в сети Регистрация: 09.12.2008 Фото: 17
Привет! Кто-нибудь уже сталкивался с PG27UQ от ASUS? По ТТХ - монстр. Я честно говоря хотел бы такое же но в WQHD, есть на горизонте подобные?
_________________ Мы делили апельсин, много наших полегло... i-7 6700k@4,6Ghz, Asus z170 max viii ranger, 16 Gb kingston DDR4@2800, Asus Strix 1080Ti OC, DELL S2716DG.
Member
Статус: Не в сети Регистрация: 17.06.2010 Откуда: Минск Фото: 100
В Counter Strike GO тоже G-Sync не работает пока в настройках игры не включишь V-Sync. Имея G-Sync монитор можно не парится и во всех играх включать V-Sync.
_________________ Jetway V266B; Athlon XP 1600+; DDR 256MB; GIGABYTE GeForce2 MX 400/32MB; PSU 250W; Seagate 40GB; FDD Samsung; CD LG GCR-8520B; LG Flatron 795FT Plus
Member
Статус: Не в сети Регистрация: 22.05.2004 Откуда: Санкт-Петербург Фото: 7
я уже с декабря владею pg279q и наконец понял работу g-sync он работает в любом случае, если фпс укладывается в герцовку, то есть в игре может быть включен v-sync - но тогда игра будет активно синхронизироваться под изменяющуюся частоту монитора, что слегка (на 1мс) увеличит инпут лаг, v-sync в игре может быть выключен, и тогда g-sync будет работать при фпс менее 165, либо не будет при фпс более 165 (оно верно только для 165гц монитора разумеется)..
Значит самое простое, чтобы g-sync работал всегда:
устанавливаем RTSS - ставим ограничитель 160фпс, и загружаем его вместе с виндовс...и больше ничего делать не потребуется, просто запустить игру и всё
v-sync лучше всегда и везде отключать, g-sync работает совершенно прозрачно для самой игры - она просто выдаёт все кадры на которые способна, а монитор просто их отображает, идеально синхронизируясь, v-sync в эту картину никак не вписывается
ЗЫ можно использовать только RTSS, nvidia inspector например сильно увеличивает инпут лаг(он становится даже больше чем на классическом v-sync)
в игре может быть включен v-sync - но тогда игра будет активно синхронизироваться под изменяющуюся частоту монитора, что слегка (на 1мс) увеличит инпут лаг
Я замерял камерой в режиме slow motion 1200 fps, V-sync в среднем увеличивает лаг на 16 мс, но это только если герцовка упирается в потолок, если не упирается то на 3 мс.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 11
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения