Часовой пояс: UTC + 3 часа




Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 75 • Страница 3 из 4<  1  2  3  4  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 

Member
Статус: Не в сети
Регистрация: 12.10.2005
Airotciv писал(а):
АМД вообще на данный момент умеет выводить 10 бит на канал?

Да, и давно, вроде со времён HD7k.
HDR в принципе это технология показа расширенного динамического диапазона. Но одно дело делать это на 10-бит мониках/телеках с расширенным цветовым охватом, и совсем другое - на 6/8-битном говне с задранной максимальной яркостью. В любом случае для этого в видео должны иметься определённые метаданные, по которым и работают эти самые tone mapping функции, преобразуя закодированную инфу о яркости к тому, что будет показано непосредственно на конкретном экране в зависимости от его характеристик. Новость собственно о том, что теперь это преобразование может делаться видеокарточкой на уровне дров, а не в самом телеке.



Партнер
 

Member
Статус: Не в сети
Регистрация: 02.04.2012
Откуда: Санкт-Петербург
Фото: 4
[Game_Over] писал(а):
Кино, я так понимаю, нужно специальное с поддержкой, а вот как дела обстоят в играх, например?

На ПК поддерживает только Shadow Warrior 2, это пока первая игра с HDR. Не знаю, как там на мониторах с 10 бит цветом, но из-за ограничений HDMI 2.0 это дело можно посмотреть на ТВ только в ограниченном диапазоне (тобишь 4:2:0).
На приставках больше десятка игр, по отзывам эффект от "так себе" до "вау". Кстати вроде игр на приставках даже больше с поддержкой HDR, чем вышло фильмов с поддержкой HDR.

lexx1191 писал(а):
амд 7850, 10бит при разрешение 1080р выводит и соответственно телек с ипс 10 бит матрица

Только последние телики могут воспроизвести 10 бит, в остальном даже если там 10 бит матрица, ограничены они 8 бит.

lexx1191 писал(а):
ну да, в начале 2000 годов, в играх применяли HDR где непоподя, засвечивая все подряд и теперь это будет в кино, нахрена? маркетологи деньги любят

Это не то, не путайте, это название графического эффекта, призванного симулировать HDR.

_________________
Чего недавно прошел: https://www.grouvee.com/user/xid/shelves/67845-recently-finished/


 

Member
Статус: Не в сети
Регистрация: 20.04.2012
Фото: 15
xid писал(а):
Только последние телики могут воспроизвести 10 бит, в остальном даже если там 10 бит матрица, ограничены они 8 бит.

вообще-то нет, так как телек сообщает свои данные видеокарты и тот выводит режимы которые с телеком совместимы

xid писал(а):
Это не то, не путайте, это название графического эффекта, призванного симулировать HDR.

не путаю, можете в крупных магазах глянут реализацию hdr


 

Member
Статус: Не в сети
Регистрация: 02.02.2004
Откуда: Украина.
miklebat писал(а):
Про мощности ВК, которой надо будет пережёвывать 40 битное цветовое пространство, а не 32 битное.

Пережуют. ЭЛТ мониторы старые скорее всего еще бы и выдали все биты. А сейчас. а смысл сейчас в этой технологии при наличии по сути 6-ти битных матриц с извращениями?


 

Member
Статус: Не в сети
Регистрация: 13.03.2014
NightMiRe писал(а):
А в чём сарказм то? Купил человек монитор за 50-60к в надежде на самое лучшее. Вот только картинка с HDR у него будет с запазданием, а на монике который вышел через полгода - нет. А пото Фрисинк3 - внезапно.

Самого лучшего за 50-60к все равно не купишь. Другое дело, что в случае с фрисинком ты не переплачиваешь за эту технологию, а если берешь монитор с гЭ-синком, то еще 100 бакарей придется сверху накинуть

_________________
Что тупишь , у тебя интол ? 007deniska ©


 

Member
Статус: Не в сети
Регистрация: 23.10.2016
BSS91 писал(а):
Другое дело, что в случае с фрисинком ты не переплачиваешь за эту технологию, а если берешь монитор с гЭ-синком, то еще 100 бакарей придется сверху накинуть

Зато Gsync лучше :D
Цитата:
Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. If Nvidia’s adaptive refresh technology doesn’t suffer ghosting issues and delivers more consistent overall performance. It’s also worth noting that Nvidia video cards are currently the performance king.


 

Member
Статус: Не в сети
Регистрация: 05.08.2011
Откуда: Санкт-Петербург
Фото: 21
Сильный_КАЗАХ обе технологии шлак ибо вносят инпут лаг да и для шутеров не годны, лучше вкладываться в развитие герцовки на 240Гц разрывов видно точно не будет и задержек так же не будет.

_________________
R7 9800x3d / 64Gb Corsair 6200CL30 / HERO X670E / RTX 5090 WB / D5Next + 2xSR2 420 MP радиатора


 

Member
Статус: Не в сети
Регистрация: 13.03.2014
Сильный_КАЗАХ писал(а):
Зато Gsync лучше

да те же фаберже, только вид с другой стороны + еще и бабосы за это просят. Все в духе Хуанга :)

_________________
Что тупишь , у тебя интол ? 007deniska ©


 

Member
Статус: Не в сети
Регистрация: 23.10.2016
Airotciv писал(а):
обе технологии шлак ибо вносят инпут лаг да и для шутеров не годны

Ложь и старые байки для тупиц, которые не могут тесты загуглить. А если вы заметите разницу инпут-лага в 2-10 мс, то вам напрямую в лаборатории, для исследований сверхчеловеческих способностей.

Инпут лаг составляет 10 мс при неоптимальных настройках, т.е заведомо кривых. А при ограничении фпс до 143 фпс (например в CS:GO) разница в инпут лаге = 0 мс ;) .

Самая большая разница между Vsync Off и Gsync On в мс (и это при повторных прогонах, т.е берётся самый худший и лучший результат):
  • Battlefield 4: 5 мс
  • Crysis 3: 6 мс
  • CS:GO: 11 мс (с ограничением фпс, т.е Gsync толком не особо нужен).
Дальше сами осилите?

Чем Gsync лучше вам тоже обзоров из гугля покидать, или вы не овощ, и сами в состоянии найти их?


Airotciv писал(а):
лучше вкладываться в развитие герцовки на 240Гц разрывов видно точно не будет и задержек так же не будет.

И многие игры у вас пойдут в 240 фпс? Пробовали играть в игру которая идёт под 70 фпс, на мониторе 144?
Риторический вопрос.


BSS91 писал(а):
да те же фаберже, только вид с другой стороны + еще и бабосы за это просят. Все в духе Хуанга

Только одни яйца лучше, а другие догоняют :crazy:


Последний раз редактировалось Сильный_КАЗАХ 05.01.2017 11:39, всего редактировалось 1 раз.

 

Member
Статус: Не в сети
Регистрация: 22.11.2013
Фото: 2
lexx1191 писал(а):
ну да, в начале 2000 годов, в играх применяли HDR где непоподя, засвечивая все подряд

Вы о чём вообще? вот - Half-Life 2: Lost Coast (2005г.) - Игра была выпущена для демонстрации новых технических возможностей (преимущественно High Dynamic Range) обновленного графического движка Source, которых не было в Half-Life 2 - с такими деньжищами Valve Corporation осилили один уровень - 10минут побегать - не было того о чём Вы пишите - "где непопадя" это нигде..


Последний раз редактировалось ioop 04.01.2017 14:00, всего редактировалось 1 раз.

 

Member
Статус: Не в сети
Регистрация: 13.03.2014
Сильный_КАЗАХ писал(а):
Только одни яйца лучше, а другие догоняют

Только от того, что одно яйцо зеленое оно лучше не станет :lol:

_________________
Что тупишь , у тебя интол ? 007deniska ©


 

Member
Статус: Не в сети
Регистрация: 23.10.2016
BSS91 писал(а):
Только от того, что одно яйцо зеленое оно лучше не станет

Выше результат обзора на тему того, что оно всё-таки лучше :rofl: а фанатством вы будете обмазываться в другом месте :)

Цитата:
Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. If Nvidia’s adaptive refresh technology doesn’t suffer ghosting issues and delivers more consistent overall performance. It’s also worth noting that Nvidia video cards are currently the performance king.

Ныряйте в гугль, если не верите. Хотя судя по вашим постам, у вас туалетная бумага дома в логотипами нвидиа


Ой простите, я не заметил что у вас вся система на AMD :haha: то-то вы тут так распаляетесь. Надо же свой нехватку тугриков на intel/nv выбор отстаивать :D
Ладно, оставлю вас в покое, вам только это поможет
#77


 

Member
Статус: Не в сети
Регистрация: 22.11.2013
Фото: 2
BE@ST писал(а):
менять никто не заставляет

как не заставляют если с экрана монитора только и льётся инфа о том что у вас дома стоит никчемное барахло - старьё которое вчерашнее новьё - так всё вроде преподносится..


 

Member
Статус: Не в сети
Регистрация: 23.10.2016
ioop писал(а):
как не заставляют если с экрана монитора только и льётся инфа о том что у вас дома стоит никчемное барахло

Это для легко манипулируемых овощей :) Гораздо адекватнее будет посмотреть тесты, и подумать - "А оно мне надо?".


 

Member
Статус: Не в сети
Регистрация: 22.11.2013
Фото: 2
BE@ST писал(а):
ПК это не место для инвестиций! А ведь вопрос весь в деньгах?

да как так - разумный компьютер за разумные деньги никто не отменял - платит каждый столько сколько считает нужным сейчас что бы получать удовольствие в будущем - инвестируешь в себя - на пике прогресса находятся ЕДИНИЦИ!!! - это ж какие деньги нужно потратить и много ли здесь таких кто это потянет - вот это как понимать?! - StrikeR(1268) из Steam к примеру.. - всем что ли в данном направлении надо следовать?!


 

Member
Статус: Не в сети
Регистрация: 05.08.2011
Откуда: Санкт-Петербург
Фото: 21
Сильный_КАЗАХ писал(а):
Ложь и старые байки для тупиц, которые не могут тесты загуглить. А если вы заметите разницу инпут-лага в 2-10 мс, то вам напрямую в лаборатории, для исследований сверхчеловеческих способностей.

Инпут лаг составляет 10 мс при неоптимальных настройках, т.е заведомо кривых. А при ограничении фпс до 143 фпс (например в CS:GO) разница в инпут лаге = 0 мс ;) .

Самая большая разница между Vsync Off и Gsync On в мс (и это при повторных прогонах, т.е берётся самый худший и лучший результат):

Battlefield 4: 5 мс
Crysis 3: 6 мс
CS:GO: 11 мс (с ограничением фпс, т.е Gsync толком не особо нужен).

Дальше сами осилите?

Чем Gsync лучше вам тоже обзоров из гугля покидать, или вы не овощ, и сами в состоянии найти их?

Мальчик, ты можешь здесь втирать что угодно но уже на 144Гц разрывов практически не видно, а на 240Гц тем более и нет вообще никаких задержек. И поверь если мы продолжим наш спор я ткну тебя лицом в пруфы, сейчас мне лениво их искать. И да еще 1 прикольный момент если работает любой синк от НВ или АМД то куча крутых технологий отключаются (которые реально работают).
Сильный_КАЗАХ писал(а):
И многие игры у вас пойдут в 240 фпс? Пробовали играть в игру которая идёт под 70 фпс, на мониторе 144?
Риторический вопрос.
Ты видимо как раз сам не пробовал играть на 144Гц раз пишешь тут такую чушь.

_________________
R7 9800x3d / 64Gb Corsair 6200CL30 / HERO X670E / RTX 5090 WB / D5Next + 2xSR2 420 MP радиатора


 

Member
Статус: Не в сети
Регистрация: 28.03.2005
denisis писал(а):
Я так понял

Нет, ты вообще не понял. Битность и хдр вообще по разные стороны. Первое связано с цветом, второе с яркостью. И не нужно мешать всё в кучу.

_________________
Core i5 4690k@4.5Ghz | ASUS STRIX GTX 970 3.5G @1450 | Gigabyte GA-Z97X-Gaming 5 | 16 GB ddr3 @1866 | Corsair CX650 |


 

Member
Статус: Не в сети
Регистрация: 02.04.2012
Откуда: Санкт-Петербург
Фото: 4
lexx1191
Принять сигнал 10бит многие телики могут, но вот показать - нет. Даже если есть в наличии 10 бит матрица. То же самое с герцами. У телика может быть 120Гц матрица, но теликов, которые показывают 120Гц при подключении к ПК - единицы.
У меня вот тоже на телик можно пустить 10бит, но матрица восьмибитная.

А про HDR эффекты в играх и HDR как глубину цвета это вы знатно каши сварили...

_________________
Чего недавно прошел: https://www.grouvee.com/user/xid/shelves/67845-recently-finished/


 

Member
Статус: Не в сети
Регистрация: 05.08.2011
Откуда: Санкт-Петербург
Фото: 21
striderbyhl2 писал(а):
Нет, ты вообще не понял. Битность и хдр вообще по разные стороны. Первое связано с цветом, второе с яркостью. И не нужно мешать всё в кучу.

А разве яркость нужна не для того чтобы увеличить кол-во оттенков цветов (т.е. сделать еще больше цветов, а хдр просто поваляет в разных участках экрана разные наборы яркости юзать)?

_________________
R7 9800x3d / 64Gb Corsair 6200CL30 / HERO X670E / RTX 5090 WB / D5Next + 2xSR2 420 MP радиатора


 

Member
Статус: Не в сети
Регистрация: 02.02.2004
Откуда: Украина.
Airotciv писал(а):
А разве яркость нужна не для того чтобы увеличить кол-во оттенков цветов

В принципе нет. Яркость только позволит чуть лучше эти цвета разглядеть, но не более того.

Airotciv писал(а):
а хдр просто поваляет в разных участках экрана разные наборы яркости юзать

и будет 6 бит матрица+2бита дизеринг и +2бита повышенная подсветка. Затраты почти не растут, а продавать можно как что-то крутое.


Последний раз редактировалось Alexsandr 04.01.2017 17:56, всего редактировалось 1 раз.

Показать сообщения за:  Поле сортировки  
Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 75 • Страница 3 из 4<  1  2  3  4  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 21


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan