Общий смысл такой, что дело не в представлении графики на мониторе, а в её преобразованиях в видеопроцессоре. Такую высокую глубину цвета вводят специально, чтобы в результате множества математических преобразований итог был высокого качества.
24-бит цвет с точки зрения максимального охвата цветовой гаммы вовсе не идеален, и каждое преобразование пикселя, путём, допустим, шейдерных обработок, за каждый этап будет накладывать погрешности. Которые при такой "низкой" глубине цвета будут накапливаться в геометрической прогрессии..
Чтоб было понятнее, можно привести аналогию с цифровой обработкой звука. Можно сказать, что разницы между 48 кГц и 96 нет на слух, но в профессиональных студиях проводят мастеринг и вообще работают с 96 кГц. Зачем? Всё так же, чтобы в результате многочисленных преобразований не потерять необходимую точность цифровых данных.
Последний раз редактировалось SkyMaster 21.12.2005 3:52, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 21.06.2004 Откуда: Санкт-Петербург
boshetunmai писал(а):
Трудно сказать... Ведь фотки, сделанные в 24бит цвете, даже после печати (с её ограничениями по диапазону) выглядят вполне естественно...
Ну это как сказать. У дешевых аппаратов ситуация еще хуже, там 24 бита в личном восприятии фотоаппарата и после преобразований и коррекций цветов - которые, понятно, еще срезают биты (хотя по идее, их можно выполнять с цветом большей битности и потом опять гнать в 24, но я не уверен, что так делают). Честно говоря, хороших результатов них я еще не видел У дорогих, где можно получить результат в RAW, этих потерь удается избежать.
А естественно выглядят, думаю, просто из-за аналоговых эффектов смазывания, вылезающих при печати. В любой точке печатается не точно заданный цвет, а +-дельта. Эта дельта больше разницы между цветами. Отпечаток из минилаба не годится как тест числа цветов, различаемых человеком
boshetunmai писал(а):
тоесть один бит на двухкратное увеличение диапазона...
Вот только где этот бит возьмешь? Понятно, что перехода 24->32 бит хватило бы для разницы контрастности монитора 500-1000:1 и плазмы (10000:1, вроде), но ведь эти 32 бита данных надо же где-то хранить, передовать, стандарт иметь... Вот новые цифровые стандарты, пришедшие на смену DVI (уже разработаны и потихонечку начинают использоваться) такое поддерживают?
Member
Статус: Не в сети Регистрация: 16.02.2005 Откуда: г. Москва, ЮВАО
SkyMasterMosga Охренеть... Пожалуйста, хотябы одну ссылку на какой-нибудь авторитетный ресурс, подтверждающий ваши слова...
Нашел в нете еще вот такое мнение:
Цитата:
Что касается 64-х битного цвета, кол-во цветов, так же как и 32-х битный цвет, он не влияет абсолютно. Если помнишь, 32-х битный отличается от 24-х битного и 16-и битного цвета присутствием составляющий прозрачности. Так вот, 64-х битный цвет помимо составляющией прозрачности имеет ещё и составляющую освещённости.
На сайтах nVidia и ATi ничего подобного не нашел...
Истина где-то рядом...
Добавлено спустя 1 час, 19 минут, 40 секунд Интересную статью нашел на русскоязычном сайте MSI.
В ней утверждается, что 64 и 128-битный цвет с плавающей точкой применяется еще со времен GeForce FX...
Это все в некоторой степени разъясняет. 64/128-битное представление цвета применяется в видеокартах только в процессе рендеринга.
К видеокарте информация о цвете поступает в 32-битном целочисленном представлении. Затем в эту информацию дописывается нулевая дробная часть для каждого канала. Дописывается она с целью избежания ошибок при рендеринге. Производится рендеринг и на выходе информация о цвете снова округляется до целочисленного значения...
Возражения/дополнения есть?
Member
Статус: Не в сети Регистрация: 21.04.2004 Откуда: РБ Могилев
Интервью Кармака было года 4 назад - он говорил что при помощи 64 битного цвета некоторые эффекиы прсто будут реалистичнее и не будут заметны переходы между цветами. А монитор конечно столько не отображает...
Advanced guest
Статус: Не в сети Регистрация: 03.12.2004
SkyMaster писал(а):
Общий смысл такой, что дело не в представлении графики на мониторе, а в её преобразованиях в видеопроцессоре. Такую высокую глубину цвета вводят специально, чтобы в результате множества математических преобразований итог был высокого качества. 24-бит цвет с точки зрения максимального охвата цветовой гаммы вовсе не идеален, и каждое преобразование пикселя, путём, допустим, шейдерных обработок, за каждый этап будет накладывать погрешности. Которые при такой "низкой" глубине цвета будут накапливаться в геометрической прогрессии..
Именно так.
boshetunmai писал(а):
В ней утверждается, что 64 и 128-битный цвет с плавающей точкой применяется еще со времен GeForce FX...
Так и есть. Но только со времен GF6xxx промежуточные результаты в текстурах или буфере кадра можно хранить в 64-битном цвете, причем с плавающей запятой. До этого в целочисленном 32-битном. Хотя во временных регистрах такого ограничения не было, но их ведь не напасешься на весь процесс рендеринга.
Подводя итог:
1. карты с первыми шейдерами все считали, хранили и рисовали в 32-битном цвете. куча накапливаемых ошибок и бандинг (видимые границы перехода цвета вместо лавного градиента) на любом более-менее сложном шейдере.
2. карты со вторыми шейдерами все считали со 128-битной точностью (не все и не всегда, но это уже другая история...), но хранили и выводили в 32 битах. заметные ошибки уже накапливались только при сложном многопроходном рендеринге
3. карты с третьими шейдерами (на самом деле это чистое совпадение, прямой связи с третьими шейдерами нет) уже и хранят все в 64 битах, включая буфер кадра (у некоторых оппортунистов только в буфере кадра, но это тоже другая история...), и лишь последнее преобразование для вывода на монитор делается в 32-битный цвет.
Вся эта байда называется HDR и UT2007 со своим UE3 тут вовсе не пионер.
_________________ Да не убивайся ты так! Ты же так никогда не убьёшься.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 12
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения