Внимание!!!! Драйвера версий 167.хх, 169.хх, 17х.хх НЕ ИМЕЮТ разделения 2D/3D частот. На видеокартах с управлением вращением вентилятора средствами драйвера (серия 8600 и ниже) - отсутствует управление вращением для 2D/3D режимов. Это не БАГ программы- это особенность драйверов. Решение проблемы есть в справке к программе. Читайте документацию!!!!!!!!!!!!
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Здравствуйте!
Сегодня глянул в NVIDIA VGA BIOS information и увидел там такой пункт: $1100030005 Thermal diode offset : 18.060°C
Может мне кто подсказать, какого рода смещение имеется ввиду?
Это параметр калибровки термодиода графического процессора. Встроенный в графические процессоры NV43/NV47 термодиод измеряет температуру не в градусах а в относительных единицах от нуля до 255. Реальная температура определяется домножением этой относительной величины на thermal diode gain (т.е. на "вес" в градусах одной относительной единицы) и последующим сложением этой величины с thermal diode offset (т.е. с минимальной температурой, которую термодиод умеет считывать).
Member
Статус: Не в сети Регистрация: 15.09.2005 Откуда: Вятка
Unwinder
Сперва, пользуясь случаем, отвешу Вам низкий поклон! [Надоели уже Вам, наверное, эти благодарности ] Чем больше смотрю на нее, тем больше уважения к автору!
Во-первых.
Цитата:
Это параметр калибровки термодиода графического процессора.
Понятно, получается так: отображаемая температура = результат с термодиода * thermal diode gain + thermal diode offset.
В этом случае возникает вопрос (думается, избитый, но вразумительного ответа я не встретил). Насколько корректным можно считать отображение температуры таким? Т.е., понятно, что динамика изменения температуры должна передаваться верно, но вот насколько верными можно считать смещение <Thermal Diode Offset> и коэффициент <Thermal Diode Gain>? Или же все зависите лишь от конкретной модели карточки, и истинные показания можно узнать лишь экспериментально?
Во-вторых. Со всем, что было интересно, я разобрался. Кроме одного. Пресетов/профилей. 1. Правильно ли я понял, что когда нажимаешь "scan registry for existing profiles", то сканируется реестр на наличие профилей под игры/приложения, которые [профили] в реестр "засовывает" драйвер? А в этих профилях оптимальные (с т.з. создателей драйверов) настройки OGL и DX под конкретные приложения. Когда в RivaTuner'е выбирается какой-то профиль, то эти настройки, соответственно, активируются. P.S. Пробовал прогнать 3D Mark 2005 с профилем под него. Результат -5 попок. В чем фишка таких готовых профилей я так и не понял.
2. Теперь пресеты. Это, насколько я понимаю, наборы настроек реестра, которые можно создавать только вручную, ну, или как вариант, использовать готовые настройки из папки "presets"?
Я все правильно понимаю или все не так?
Почему я интересовался этими вопросами (п. 1 и п. 2)? Просто хотелось в Launcher'e сделать ярлыки для игр так, чтобы не только можно было задать параметры разгона, управления вентилятором, цветовой схемы, разрешения дисплея и т.п., но и задать нужные параметры OGL или DX, используя для это интерфес самого RivaTuner'a. Но если я все правильно понял, то сделать это нельзя. Точнее можно, но не через интерфейс программы, а лишь создав вручную пресет.
В общем, если мой вопрос не верх глупости , то очень хотелось бы узнать, правильно ли я все понял.
Member
Статус: Не в сети Регистрация: 16.09.2004 Откуда: Chelyabinsk
A_Artem Про пресеты: ты сам их создаешь _лапками_ (файлы *.rtp) с нужными тебе настройками OGL и/или D3D. А потом в лунчере можешь их подгрузить для нужного приложения. В Риве, кстати, есть уже набор пресетов для настройки на макс. быстродействия, качества и некоторых игр (спец.настройки, удаляющие глючность).
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Unwinder
Сперва, пользуясь случаем, отвешу Вам низкий поклон! [Надоели уже Вам, наверное, эти благодарности ] Чем больше смотрю на нее, тем больше уважения к автору!
Спасибо на добром слове
A_Artem писал(а):
Во-первых.
Цитата:
Это параметр калибровки термодиода графического процессора.
Понятно, получается так: отображаемая температура = результат с термодиода * thermal diode gain + thermal diode offset.
В этом случае возникает вопрос (думается, избитый, но вразумительного ответа я не встретил). Насколько корректным можно считать отображение температуры таким? Т.е., понятно, что динамика изменения температуры должна передаваться верно, но вот насколько верными можно считать смещение <Thermal Diode Offset> и коэффициент <Thermal Diode Gain>? Или же все зависите лишь от конкретной модели карточки, и истинные показания можно узнать лишь экспериментально?
Если быть уже совсем точным, то результат с термодиода * thermal diode gain + thermal diode offset. это не отображаемая температура, а чистая температура термодиода. При отображении к ней ещё добавляется и величина thermal compensation (тоже присутствует в отчёте). Данное значение харрактеризует поправку на показания температуры с учётом расположения точки замера температуры, т.е. thermal compensation присутствует как для карт с встроенным термодиодом (NV43/NV47/NV49 и т.д.), так и для карт, снимающих температуру с внешнего сенсора (к примеру, NV35 / NV40). Для карт с термодиодом эти три величины являются постоянными (поскольку температуру меряет сам графический процессор) и определяются исключительно типом графического процессора на этапе его производства / тестирования. Для карт без термодиода от модели (точнее от типа используемого на ней сенсора) зависит величина thermal compensation.
A_Artem писал(а):
Во-вторых. Со всем, что было интересно, я разобрался. Кроме одного. Пресетов/профилей. 1. Правильно ли я понял, что когда нажимаешь "scan registry for existing profiles", то сканируется реестр на наличие профилей под игры/приложения, которые [профили] в реестр "засовывает" драйвер?
Да, всё верно.
A_Artem писал(а):
А в этих профилях оптимальные (с т.з. создателей драйверов) настройки OGL и DX под конкретные приложения.
Да. С небольшим уточнением: в профилях, поставляемым вместе с драйвером, оптимизации под те или иные приложения присутствуют только для SLI систем. Для не-SLI систем в профилях присутствуют только настройки для обхода тех или иных проблем приложений (например, для ограничения размера строки OpenGL extension для некоторых игр на движке Q3).
A_Artem писал(а):
Когда в RivaTuner'е выбирается какой-то профиль, то эти настройки, соответственно, активируются.
Нет. Когда в RT выбирается тот-или иной профиль, RT позволяет его _редактировать_. Для активизации профиля выбирать его необязательно. Семейство драйверов ForceWare обучено технологии автоматического использования профиля под нужное 3D приложение (т.е. если в реестре присутствуют персональные 3D настройки для quake3.exe, драйвер автоматически _сам_ будет использовать их).
A_Artem писал(а):
P.S. Пробовал прогнать 3D Mark 2005 с профилем под него. Результат -5 попок. В чем фишка таких готовых профилей я так и не понял.
Cм. выше. Профиль для 3DMark2005 - SLI профиль.
A_Artem писал(а):
2. Теперь пресеты. Это, насколько я понимаю, наборы настроек реестра, которые можно создавать только вручную, ну, или как вариант, использовать готовые настройки из папки "presets"? Я все правильно понимаю или все не так?
Вцелом да, но пресеты необязательно создавать вручную. Закладка PowerUser - это редактор пресетов. Никто не мешает Вам настроить драйвер под нужное приложение, зайтем зайти в PowerUser и создать пресет нажав кнопку "Save selected entries to preset".
A_Artem писал(а):
Почему я интересовался этими вопросами (п. 1 и п. 2)? Просто хотелось в Launcher'e сделать ярлыки для игр так, чтобы не только можно было задать параметры разгона, управления вентилятором, цветовой схемы, разрешения дисплея и т.п., но и задать нужные параметры OGL или DX, используя для это интерфес самого RivaTuner'a. Но если я все правильно понял, то сделать это нельзя. Точнее можно, но не через интерфейс программы, а лишь создав вручную пресет.
Member
Статус: Не в сети Регистрация: 15.09.2005 Откуда: Вятка
Unwinder Ух, развернутый ответ! Теперь почти все (по кр. мере то, что было нужно) стало ясно. Спасибо!
Цитата:
Если быть уже совсем точным, то результат с термодиода * thermal diode gain + thermal diode offset. это не отображаемая температура, а чистая температура термодиода.
Цитата:
Для карт с термодиодом эти три величины являются постоянными (поскольку температуру меряет сам графический процессор) и определяются исключительно типом графического процессора на этапе его производства / тестирования. Для карт без термодиода от модели (точнее от типа используемого на ней сенсора) зависит величина thermal compensation.
Отсюда можно сделать вывод, что все карты на видеочипе NV43 А4, например, должны быть "откалиброваны" одинаково... И, стало быть, если я вижу у себя максимальную температуру (при стандартном охлаждении) 58 С, а кто-то 85 С, то это говорит о лишь о том, что у меня охлаждение лучше?
Насчет пресетов и профилей все уяснил. Не думал, что дрова такие умные.
Если не коммерческая тайна, то откуда такие глубокие познания в архитектуре видеоадаптеров и драйверов к ним? Только интернет или какие-то "привилегированные" источники, недоступные каждому желающему?
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Отсюда можно сделать вывод, что все карты на видеочипе NV43 А4, например, должны быть "откалиброваны" одинаково... И, стало быть, если я вижу у себя максимальную температуру (при стандартном охлаждении) 58 С, а кто-то 85 С, то это говорит о лишь о том, что у меня охлаждение лучше?
Если принять вовнимание что на обоих сравниваемых картах температуры считываются с термодиода и на обоих картах не подправлен BIOS (все три параметра калибровки задны там) - то да. Если сравниваются показания термодиода на одном NV43 с показаниями установленного производителем дополнительного внешнего сенсора на другой карте - нет. К примеру, дополнительный сенсор, умеющий считывать темепратуру ядра (не с термодиода!) и температуру окружения ставит на свои карты ASUS и Gigabyte.
Цитата:
Если не коммерческая тайна, то откуда такие глубокие познания в архитектуре видеоадаптеров и драйверов к ним? Только интернет или какие-то "привилегированные" источники, недоступные каждому желающему?
Никакой коммерческой тайны. Немного терпения, дизассемблер + анализ устройства драйверов / BIOS - самые лучшие источники информации, доступные каждому.
Member
Статус: Не в сети Регистрация: 15.09.2005 Откуда: Вятка
Unwinder Спасибо за ответы! СтОящих вопросов пока больше нет. Ждем RC16. Добавлено спустя 3 часа, 6 минут, 44 секунды Меня продожает распирать любопыство... Попытаюсь его удовлетворить.
Цитата:
$1100020000 VID bitmask : 00000011b $1100020100 Voltage level 0 : 1.10V, VID 00000000b $1100020101 Voltage level 1 : 1.20V, VID 00000001b $1100020102 Voltage level 2 : 1.30V, VID 00000010b $1100020103 Voltage level 3 : 1.40V, VID 00000011b
Я правильно понимаю, что видеокарту можно заставить подать напряжение на ядро всего в 1.1 В? Если да, то можно будет снизить частоту для 2D, понизить тепловыделение, электропотребление... В конце концов, удовлетворить свой интерес!!!
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Unwinder Спасибо за ответы! СтОящих вопросов пока больше нет. Ждем RC16. Добавлено спустя 3 часа, 6 минут, 44 секунды Меня продожает распирать любопыство... Попытаюсь его удовлетворить.
Цитата:
$1100020000 VID bitmask : 00000011b $1100020100 Voltage level 0 : 1.10V, VID 00000000b $1100020101 Voltage level 1 : 1.20V, VID 00000001b $1100020102 Voltage level 2 : 1.30V, VID 00000010b $1100020103 Voltage level 3 : 1.40V, VID 00000011b
Я правильно понимаю, что видеокарту можно заставить подать напряжение на ядро всего в 1.1 В? Если да, то можно будет снизить частоту для 2D, понизить тепловыделение, электропотребление... В конце концов, удовлетворить свой интерес!!!
Да, можно. В GUI RT принципиально нет и не будет управления напряжением из соображений безопасности (FAQ объясняет почему), но тем не менее напряжение можно понизить с помощью редакторов BIOS (NiBiToR, NBM).
Member
Статус: Не в сети Регистрация: 15.09.2005 Откуда: Вятка
Unwinder писал(а):
Да, можно. В GUI RT принципиально нет и не будет управления напряжением из соображений безопасности (FAQ объясняет почему), но тем не менее напряжение можно понизить с помощью редакторов BIOS (NiBiToR, NBM).
Да, я читал FAQ. Я ведь не прошу ввести такую "фичу" в RivaTuner'e. Просто хотел убедиться, что это, действительно, так.
Только одна мысль мне не дает покоя. Зачем было инженерам NVIDIA ставить напряжение в 2D в 1.3 В? Почему было бы не поставить 1.1 В или 1.2 В и снизить частоту до 150-200 МГц?
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Unwinder писал(а):
Да, можно. В GUI RT принципиально нет и не будет управления напряжением из соображений безопасности (FAQ объясняет почему), но тем не менее напряжение можно понизить с помощью редакторов BIOS (NiBiToR, NBM).
Да, я читал FAQ. Я ведь не прошу ввести такую "фичу" в RivaTuner'e. Просто хотел убедиться, что это, действительно, так.
Только одна мысль мне не дает покоя. Зачем было инженерам NVIDIA ставить напряжение в 2D в 1.3 В? Почему было бы не поставить 1.1 В или 1.2 В и снизить частоту до 150-200 МГц?
Учитывайте что в 2D режиме графический процессор не полностью бездействует, это всё-таки GUI операционной системы, и GPU акселлерирует блочные операции с битмапами (к примеру, при скроллировании окошек) и много других GDI'шных вещей (рисование линий, заливка и и.д.).
Member
Статус: Не в сети Регистрация: 15.09.2005 Откуда: Вятка
Unwinder писал(а):
Учитывайте что в 2D режиме графический процессор не полностью бездействует, это всё-таки GUI операционной системы, и GPU акселлерирует блочные операции с битмапами (к примеру, при скроллировании окошек) и много других GDI'шных вещей (рисование линий, заливка и и.д.).
Ну, на общем уровне, я это представляю. Просто, мне кажется, для этих целей хватило бы 150 МГц (на разрешение 1280х1024, по крайней мере)...
Ладно, хоть и познавательно, но не буду углубляться в эту тему - ибо оффтоп.
Добавлено спустя 4 минуты, 5 секунд Прошу у людей из темы по 6600GT выложить NVIDIA VGA BIOS Information. У двоих из тех, кто откликнулся, нет параметров Thermal diode offset и Thermal diode gain. Так же указаны лишь: $1100020000 VID bitmask : 00000011b $1100020100 Voltage level 0 : 1.30V, VID 00000000b $1100020101 Voltage level 1 : 1.40V, VID 00000011b.
Дело в версии утилиты или в самом БИОСе не прошиты эти параметры?
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Добавлено спустя 4 минуты, 5 секунд Прошу у людей из темы по 6600GT выложить NVIDIA VGA BIOS Information. У двоих из тех, кто откликнулся, нет параметров Thermal diode offset и Thermal diode gain. Так же указаны лишь: $1100020000 VID bitmask : 00000011b $1100020100 Voltage level 0 : 1.30V, VID 00000000b $1100020101 Voltage level 1 : 1.40V, VID 00000011b.
Дело в версии утилиты или в самом БИОСе не прошиты эти параметры?
В версии. Только не в версии программы, а в версии BIOS.
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
A_Artem писал(а):
Unwinder писал(а):
В версии. Только не в версии программы, а в версии BIOS.
Но если этих параметров не зашито в BIOS, то как тогда формируется отображаемая температура?
Загляните в плагин NVThermalDiode, отвечающий за чтение температур с термодиода NV43/NV47. Его код открыт и всегда можно посмотреть как оно работает. По умолчанию (т.е. если параметры калибровки не переопределены в BIOS) драйвер использует предопределённые значения. Для NV43 они равны:
Подскажите, пожалуйста, как пользоваться ключом "EmulateEDIDfromFile".
(Проблема с видеокартой FX5700 и проектором по DVI.)
Я сохранил EDID своего проектора в бинарный файл (размер 128 байт). В шестнадцатеричном редакторе подправил в файле название монитора для теста. В параметре EmulateEDIDfromFile указал путь к этому файлу.
Но не похоже, чтобы этот файл стал использоваться. Я перегружал комп. Удалял драйвера и заново их ставил (опция в RivaTuner активна). Деинсталлировал монитор из списка устройств и затем перегружал комп. Всё равно драйверы и windows видят правильное название монитора, а не моё исправленное. Из чего я делаю вывод, что подмены EDID не происходит.
Теперь объясню зачем мне это нужно.
У меня к компу подключен CRT-монитор по D-Sub и проектор по DVI. На проекторе родное разрешение 1280х720. Однако в EDID проектора прописано, что поддерживается только 1024x768 и 1280x1024. При выборе в драйвере любых других разрешений, реальное разрешение включается одно из этих двух, а затем картинка растягивается (или сжимается) до данного разрешения. Это сжатие/растягивание делает либо чип либо драйвер. Точно не проектор!
Раньше у меня была видеокарта FX5900XT и с ней не было проблем. Я добавлял в настройках драйвера новое разрешение 1280х720 с любыми частотами (48, 50, 60 Гц) и оно потом выбиралось для DVI-выхода на проектор. На днях FX5900 сгорела. Теперь использую FX5700, но никак не могу настроить разрешение. Делаю всё как и раньше, добавляю новое разрешение 1280х720, но при его выборе происходит описанная неприятность: рабочий стол действительно такого размера, а вот на проектор подаётся разрешение 1280х1024, причём 720 строк растянуты до 1024-х (т.е. искажения).
Добавление новых разрешений средствами RivaTuner или Powerstrip, а также создание inf-файла монитора не даёт результата.
Теперь мой единственный шанс - подменить EDID или заставить драйвер игнорировать имеющийся EDID. Несколько ключей реестра по этому поводу есть, но как ими пользоваться, тоже неизвестно. Про них не спрашиваю, т.к. к программе они имеют второстепенное отношение. А вот про родной ключ "EmulateEDIDfromFile" хотелось бы узнать.
Спасибо.
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
hugbug писал(а):
Подскажите, пожалуйста, как пользоваться ключом "EmulateEDIDfromFile". (Проблема с видеокартой FX5700 и проектором по DVI.) Я сохранил EDID своего проектора в бинарный файл (размер 128 байт). В шестнадцатеричном редакторе подправил в файле название монитора для теста. В параметре EmulateEDIDfromFile указал путь к этому файлу. Но не похоже, чтобы этот файл стал использоваться. Я перегружал комп. Удалял драйвера и заново их ставил (опция в RivaTuner активна). Деинсталлировал монитор из списка устройств и затем перегружал комп. Всё равно драйверы и windows видят правильное название монитора, а не моё исправленное. Из чего я делаю вывод, что подмены EDID не происходит.
Теперь объясню зачем мне это нужно. У меня к компу подключен CRT-монитор по D-Sub и проектор по DVI. На проекторе родное разрешение 1280х720. Однако в EDID проектора прописано, что поддерживается только 1024x768 и 1280x1024. При выборе в драйвере любых других разрешений, реальное разрешение включается одно из этих двух, а затем картинка растягивается (или сжимается) до данного разрешения. Это сжатие/растягивание делает либо чип либо драйвер. Точно не проектор! Раньше у меня была видеокарта FX5900XT и с ней не было проблем. Я добавлял в настройках драйвера новое разрешение 1280х720 с любыми частотами (48, 50, 60 Гц) и оно потом выбиралось для DVI-выхода на проектор. На днях FX5900 сгорела. Теперь использую FX5700, но никак не могу настроить разрешение. Делаю всё как и раньше, добавляю новое разрешение 1280х720, но при его выборе происходит описанная неприятность: рабочий стол действительно такого размера, а вот на проектор подаётся разрешение 1280х1024, причём 720 строк растянуты до 1024-х (т.е. искажения). Добавление новых разрешений средствами RivaTuner или Powerstrip, а также создание inf-файла монитора не даёт результата.
Теперь мой единственный шанс - подменить EDID или заставить драйвер игнорировать имеющийся EDID. Несколько ключей реестра по этому поводу есть, но как ими пользоваться, тоже неизвестно. Про них не спрашиваю, т.к. к программе они имеют второстепенное отношение. А вот про родной ключ "EmulateEDIDfromFile" хотелось бы узнать. Спасибо.
Вынужден разочаровать, этот ключ Вам не поможет. Все ключи с именами EmulateXXXXXFromFile предназначены для упрощения отладки RT, и эмулируют ту-или иную программную/аппаратную компоненту они только для _RT_ а не для системы. В частности, EmulateEDIDFromFile позволяет указать путь к диагностическому репорту, снятому с помощью RT и содержащему раздел "Monitor EDID snapsot". В этом случае RT везде где используется EDID будет использовать этот "эмулированный" блок вместо реального. Например,в отчёте в разделе Monitor EDID details будет декодироаться не реальный EDID а тот который используется для эмуляции. Опять же, никакого влияния на систему это не оказывает.
Спасибо за ответ! А то я уже замучался с ключиком Может быть стоит для таких ключей в относящихся к ним хелп-описаниях добавить одну строчку "предназначен для отладки RivaTuner и не оказывает влияния на систему".
Ещё раз спасибо за быстрый ответ и, конечно, за саму программу.
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
hugbug писал(а):
Спасибо за ответ! А то я уже замучался с ключиком Может быть стоит для таких ключей в относящихся к ним хелп-описаниях добавить одну строчку "предназначен для отладки RivaTuner и не оказывает влияния на систему".
Unwinder Насколько я понимаю, в новой версии программы будет возможен мониторинг частоты/напряжения/загрузки процессора и оборотов вентиляторов, подключенных к МоВо. Кое что уже есть. Так например на маме Asus K8N4-E у меня мониторилась частота проца и его температура, а мониторинг оборотов вентиляторов глючил. На моей новой маме (Epox 9NPA3J, чип Fintek) работает только мониторинг частоты проца. Планируется ли поддержка Fintek'a в новой версии и перечислите пожалуйста какие ещё параметры можно будет мониторить?
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 11
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения