АМД вообще на данный момент умеет выводить 10 бит на канал?
Да, и давно, вроде со времён HD7k. HDR в принципе это технология показа расширенного динамического диапазона. Но одно дело делать это на 10-бит мониках/телеках с расширенным цветовым охватом, и совсем другое - на 6/8-битном говне с задранной максимальной яркостью. В любом случае для этого в видео должны иметься определённые метаданные, по которым и работают эти самые tone mapping функции, преобразуя закодированную инфу о яркости к тому, что будет показано непосредственно на конкретном экране в зависимости от его характеристик. Новость собственно о том, что теперь это преобразование может делаться видеокарточкой на уровне дров, а не в самом телеке.
Member
Статус: Не в сети Регистрация: 02.04.2012 Откуда: Санкт-Петербург Фото: 4
[Game_Over] писал(а):
Кино, я так понимаю, нужно специальное с поддержкой, а вот как дела обстоят в играх, например?
На ПК поддерживает только Shadow Warrior 2, это пока первая игра с HDR. Не знаю, как там на мониторах с 10 бит цветом, но из-за ограничений HDMI 2.0 это дело можно посмотреть на ТВ только в ограниченном диапазоне (тобишь 4:2:0). На приставках больше десятка игр, по отзывам эффект от "так себе" до "вау". Кстати вроде игр на приставках даже больше с поддержкой HDR, чем вышло фильмов с поддержкой HDR.
lexx1191 писал(а):
амд 7850, 10бит при разрешение 1080р выводит и соответственно телек с ипс 10 бит матрица
Только последние телики могут воспроизвести 10 бит, в остальном даже если там 10 бит матрица, ограничены они 8 бит.
lexx1191 писал(а):
ну да, в начале 2000 годов, в играх применяли HDR где непоподя, засвечивая все подряд и теперь это будет в кино, нахрена? маркетологи деньги любят
Это не то, не путайте, это название графического эффекта, призванного симулировать HDR.
_________________ Чего недавно прошел: https://www.grouvee.com/user/xid/shelves/67845-recently-finished/
Member
Статус: Не в сети Регистрация: 02.02.2004 Откуда: Украина.
miklebat писал(а):
Про мощности ВК, которой надо будет пережёвывать 40 битное цветовое пространство, а не 32 битное.
Пережуют. ЭЛТ мониторы старые скорее всего еще бы и выдали все биты. А сейчас. а смысл сейчас в этой технологии при наличии по сути 6-ти битных матриц с извращениями?
А в чём сарказм то? Купил человек монитор за 50-60к в надежде на самое лучшее. Вот только картинка с HDR у него будет с запазданием, а на монике который вышел через полгода - нет. А пото Фрисинк3 - внезапно.
Самого лучшего за 50-60к все равно не купишь. Другое дело, что в случае с фрисинком ты не переплачиваешь за эту технологию, а если берешь монитор с гЭ-синком, то еще 100 бакарей придется сверху накинуть
Другое дело, что в случае с фрисинком ты не переплачиваешь за эту технологию, а если берешь монитор с гЭ-синком, то еще 100 бакарей придется сверху накинуть
Зато Gsync лучше
Цитата:
Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. If Nvidia’s adaptive refresh technology doesn’t suffer ghosting issues and delivers more consistent overall performance. It’s also worth noting that Nvidia video cards are currently the performance king.
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
Сильный_КАЗАХ обе технологии шлак ибо вносят инпут лаг да и для шутеров не годны, лучше вкладываться в развитие герцовки на 240Гц разрывов видно точно не будет и задержек так же не будет.
обе технологии шлак ибо вносят инпут лаг да и для шутеров не годны
Ложь и старые байки для тупиц, которые не могут тесты загуглить. А если вы заметите разницу инпут-лага в 2-10 мс, то вам напрямую в лаборатории, для исследований сверхчеловеческих способностей.
Инпут лаг составляет 10 мс при неоптимальных настройках, т.е заведомо кривых. А при ограничении фпс до 143 фпс (например в CS:GO) разница в инпут лаге = 0 мс .
Самая большая разница между Vsync Off и Gsync On в мс (и это при повторных прогонах, т.е берётся самый худший и лучший результат):
Battlefield 4: 5 мс
Crysis 3: 6 мс
CS:GO: 11 мс (с ограничением фпс, т.е Gsync толком не особо нужен).
Member
Статус: Не в сети Регистрация: 22.11.2013 Фото: 2
lexx1191 писал(а):
ну да, в начале 2000 годов, в играх применяли HDR где непоподя, засвечивая все подряд
Вы о чём вообще? вот - Half-Life 2: Lost Coast (2005г.) - Игра была выпущена для демонстрации новых технических возможностей (преимущественно High Dynamic Range) обновленного графического движка Source, которых не было в Half-Life 2 - с такими деньжищами Valve Corporation осилили один уровень - 10минут побегать - не было того о чём Вы пишите - "где непопадя" это нигде..
Последний раз редактировалось ioop 04.01.2017 14:00, всего редактировалось 1 раз.
Только от того, что одно яйцо зеленое оно лучше не станет
Выше результат обзора на тему того, что оно всё-таки лучше а фанатством вы будете обмазываться в другом месте
Цитата:
Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. If Nvidia’s adaptive refresh technology doesn’t suffer ghosting issues and delivers more consistent overall performance. It’s also worth noting that Nvidia video cards are currently the performance king.
Ныряйте в гугль, если не верите. Хотя судя по вашим постам, у вас туалетная бумага дома в логотипами нвидиа
Ой простите, я не заметил что у вас вся система на AMD то-то вы тут так распаляетесь. Надо же свой нехватку тугриков на intel/nv выбор отстаивать
Ладно, оставлю вас в покое, вам только это поможет
Member
Статус: Не в сети Регистрация: 22.11.2013 Фото: 2
BE@ST писал(а):
менять никто не заставляет
как не заставляют если с экрана монитора только и льётся инфа о том что у вас дома стоит никчемное барахло - старьё которое вчерашнее новьё - так всё вроде преподносится..
Member
Статус: Не в сети Регистрация: 22.11.2013 Фото: 2
BE@ST писал(а):
ПК это не место для инвестиций! А ведь вопрос весь в деньгах?
да как так - разумный компьютер за разумные деньги никто не отменял - платит каждый столько сколько считает нужным сейчас что бы получать удовольствие в будущем - инвестируешь в себя - на пике прогресса находятся ЕДИНИЦИ!!! - это ж какие деньги нужно потратить и много ли здесь таких кто это потянет - вот это как понимать?! - StrikeR(1268) из Steam к примеру.. - всем что ли в данном направлении надо следовать?!
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
Сильный_КАЗАХ писал(а):
Ложь и старые байки для тупиц, которые не могут тесты загуглить. А если вы заметите разницу инпут-лага в 2-10 мс, то вам напрямую в лаборатории, для исследований сверхчеловеческих способностей.
Инпут лаг составляет 10 мс при неоптимальных настройках, т.е заведомо кривых. А при ограничении фпс до 143 фпс (например в CS:GO) разница в инпут лаге = 0 мс .
Самая большая разница между Vsync Off и Gsync On в мс (и это при повторных прогонах, т.е берётся самый худший и лучший результат):
Battlefield 4: 5 мс Crysis 3: 6 мс CS:GO: 11 мс (с ограничением фпс, т.е Gsync толком не особо нужен).
Дальше сами осилите?
Чем Gsync лучше вам тоже обзоров из гугля покидать, или вы не овощ, и сами в состоянии найти их?
Мальчик, ты можешь здесь втирать что угодно но уже на 144Гц разрывов практически не видно, а на 240Гц тем более и нет вообще никаких задержек. И поверь если мы продолжим наш спор я ткну тебя лицом в пруфы, сейчас мне лениво их искать. И да еще 1 прикольный момент если работает любой синк от НВ или АМД то куча крутых технологий отключаются (которые реально работают).
Сильный_КАЗАХ писал(а):
И многие игры у вас пойдут в 240 фпс? Пробовали играть в игру которая идёт под 70 фпс, на мониторе 144? Риторический вопрос.
Ты видимо как раз сам не пробовал играть на 144Гц раз пишешь тут такую чушь.
Member
Статус: Не в сети Регистрация: 02.04.2012 Откуда: Санкт-Петербург Фото: 4
lexx1191 Принять сигнал 10бит многие телики могут, но вот показать - нет. Даже если есть в наличии 10 бит матрица. То же самое с герцами. У телика может быть 120Гц матрица, но теликов, которые показывают 120Гц при подключении к ПК - единицы. У меня вот тоже на телик можно пустить 10бит, но матрица восьмибитная.
А про HDR эффекты в играх и HDR как глубину цвета это вы знатно каши сварили...
_________________ Чего недавно прошел: https://www.grouvee.com/user/xid/shelves/67845-recently-finished/
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
striderbyhl2 писал(а):
Нет, ты вообще не понял. Битность и хдр вообще по разные стороны. Первое связано с цветом, второе с яркостью. И не нужно мешать всё в кучу.
А разве яркость нужна не для того чтобы увеличить кол-во оттенков цветов (т.е. сделать еще больше цветов, а хдр просто поваляет в разных участках экрана разные наборы яркости юзать)?
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 21
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения