Advanced member
Статус: Не в сети Регистрация: 10.02.2004 Откуда: Novosibirsk
Здесь обсуждаются только видеокарточки 6600GT.
Убедительная просьба: прежде чем задать вопрос Вас интересующий, ознакомтесь сFAQи почитайте содержимое ветки , большая вероятность что Ваша проблема уже решена.
ВНИМАНИЕ! SOFT-вольтмод на данной карте Невозможен!
Member
Статус: Не в сети Регистрация: 02.08.2004 Откуда: Moscow region
Спрошу и здесь тоже... Товарищи, А насколько можно поднимать напряжение на ГПУ на сабжевой карте? Дефолтное в 3Д - 1.51 Наконец-то преодолел рубеж в 10000 третьих марков
_________________ Когда у общества нет цветовой дифференциации штанов, у него нет цели.
Advanced member
Статус: Не в сети Регистрация: 03.10.2004 Откуда: Кировоград UA
Открываем нибитором БИОС-Заходим во вкладку с напругами-Ставим галочку ВольтаджЕкстендТабл-Заходим в сосоеднюю закладку с вид-там меняем для каждого вид напругу на 1,4-сохраняем, перешиваем БИОС.
_________________ -| Team MXS |- http://www.hwbot.org/user.do?userId=5352 | DDR2: 700Мгц, DDR3: 950Mgz - Club member | Yorkie, Kentsfield - 5Ghz done | х99L of LN2 used
Advanced member
Статус: Не в сети Регистрация: 03.10.2004 Откуда: Кировоград UA
Нет. Но факт в том, что сегодня когда открыл окно ВИд скакал от 1-3-7 и на стабильность на 630 по ядру это никак не повлияло. Моя статья про ватерблок на видео. http://people.overclockers.ru/SteelRat Думаю многим будет интересно.
Куратор: Если считаешь флеймом. Удали пост.
Нет , не считаю, но ошиПки подправил. Отредактировано куратором: V.I.Z. Дата: 02.08.2006 16:42
_________________ -| Team MXS |- http://www.hwbot.org/user.do?userId=5352 | DDR2: 700Мгц, DDR3: 950Mgz - Club member | Yorkie, Kentsfield - 5Ghz done | х99L of LN2 used
У меня карточка Gigabyte Nx66t128D.. проц Venice E6 3000+.. подскажите пожалуйста как можно сделать так чтобы рендеринг сцен в 3d max 7 (визуализатор стандартный или mental ray 3.4) проходил на графическом процессоре, а не на центральном.. Такое вообще возможно?
Если возможно, то что лучше - поставить двухядерник или купить вторую видеокарту (плата Epox 9NPAJ-SLI), для увеличения производительности?
Member
Статус: Не в сети Регистрация: 23.02.2005 Откуда: Новосибирск
The Pavlik Если мне не изменяет память, для 3d max нужен проффесиональный ускоритель тогда рендеринг делать будет он , а не проц.
В Quadro возможно переделать ревизию чипа А2 , а вот А4 уже не возможно. В форуме была ветка по такой переделке - поищи.
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
filka писал(а):
KIRA писал(а):
А EVEREST кажет 37*, а в дровах 48*
у меня ситуация полностью наоборот..... на Club3D прошил биос от Gigabyte и температура стала на 11 градусов меньше... т.е. ранььше было например по Эверсту 33, а по драйверу 44, а стало так что Эверест и драйвер или рива показывают одинаково
Прочитайте в ознакомительных целях, встанет всё на свои места:
Цитата:
Q: I've heard that RivaTuner uses driver-level access to thermal sensors on NVIDIA boards. Is it true? If yes, will you provide low-level access to the sensors in the future? A: Yes, it is true. By default RivaTuner uses driver-level wrapper to monitor temperatures on NVIDIA display adapters equipped with thermal sensors, supported by NVIDIA display drivers. Opposing to ATI drivers supporting just LM63 and its' clones, NVIDIA driver supports widest range of thermal sensor ICs and provides access to both core and ambient temperatures. So it is much more safe to access the sensor via NVIDIA driver instead of low-level access toI2C bus, because it greatly reduces the risk of I2C collisions. However, RivaTuner includes open source monitoring plugins, providing low-level to the most popular sensors used on NVIDIA display adapters (MAX6648 and LM89/LM99). If your display adapter is equipped with such sensor, you can optionally choose temperature provider via the source's properties dialog.
Q: Why do I see a constant 10°C difference between temepratures monitored by RivaTuner and SpeedFan on my MSI NX6800? A: Please read the previous question. By default RivaTuner uses more safe and collision free driver-level temperature readings instead of direct access to the sensor. NVIDIA display driver compensates temperature readings nonideality via adding fixed sensor specific offsets to the temperatures, retrieved from the sensor. The offset for MAX6648, which is installed on your NX6800, is equal to 10°C. If you wish to see raw temperature readings, you may configure temperate data source to read the temperatures from the sensor directly.
Member
Статус: Не в сети Регистрация: 27.03.2005 Откуда: Столица Фото: 16
Помогите с вопросом - в поиске смотрел и несколько страниц последних в этой теме пролистал - не нашел. Мне нужно построить SLI систему из двух 6600GT, у меня корпус Chieftek с блоком питания 350W - хватит-ли такого блока питания (чифтек родной) если в системе особо ничего не стоит дополнительного (1 хард, 1 резак, 1 звук Audigy2, 1 wi-fi сетевуха) ? Расскажите пожалуйста, кто имел дело с этим, если можно то дайте ссылки на доп. материал по данной теме. Спасибо.
Member
Статус: Не в сети Регистрация: 23.02.2005 Откуда: Новосибирск
Vlad-gnet Страниц восемь-десять назад это обсуждалось , так же читаем ФАК
Цитата:
Рекомендованная NVIDIA минимальная мощность БП для GeForce 6600GT PCI-E - 300W (к БП "класса" Codegen, само собой, не относится). Поэтому желателен качественный БП от 350В - чтобы уже не волноваться.
Соответственно для SLI желательно 400-450W .
Последний раз редактировалось V.I.Z 25.01.2006 15:35, всего редактировалось 1 раз.
У меня проблема, помогите кто сталкивался.
Имею Sparkle 6600GT PCI-E, в нормальном режиме карта проходит 3дМарк05 на 3566, дальше интереснее, разгоняю проц.
В разгоне если запустить в 3ДМарке отдельно 2й тест - Forest, то он пролетает нормально, если запустить полностью, то 2 тест (Forest) жутко отрмозит от 0 до 1 FPS . Запускал фоном RivaTuner, по графикам на 2 тесте ни частоты ни напруга не падают, но резко падает график мониторящий использование видеопамяти Videomemory Usage. В чем трабл?
Мужики, кто-нить знает заработают ли в режиме Слай Galaxy 6600Ge+Leadtek 6600GT Extreme ? Через Слай-мост, разумеется Smile Да, дрова 81.85. Просто когда была такая новость, что какие-то новые дрова Нвидии дают возможность объединения карт разных производителей, вот я и задумался.
Фигушки. 90% что нет. Я пытался запустить с асусом, но времени было не очень много, поэтому пошаманить как следует не удалось. Также OverMind проводил подобные эксперименты, результат отрицательный.
Shurikkk писал(а):
и тут же снизу, кликаешь на HELP-а там все совсем по-другому, гораздо интереснее..
То же самое наблюдал еще на fx5200... ИМХО, это фейк от гигабайта =)
Member
Статус: Не в сети Регистрация: 23.02.2005 Откуда: Новосибирск
InK Уточните , какой проц
Цитата:
дальше интереснее, разгоняю проц.
CPU или VPU(видео) , если второе , то укажите частоты. CoreVID 3 и 7 соответствуют одному напряжению (ветку читайте)
Возможно у Вас элементарный переразгон, попробуйте снизить частоту VPU если разгоняете его.
V.I.Z Нет видео не трогаю. Только CPU (Athlon64+ 3000/S939)
Дальше еще интереснее, убрал разгон вообще, все настройки по дефолту и CPU и Видео. Прогоняю 3ДМарк05 первый раз 3 видео теста - Нормально 3,5к попугаев.
Прогоняю 2 раз, та же история - тормоза на Forest ролике. Фигня какая-то.
Моё ИМХО, не обязательно видюха виновата, возможны проблемы с другой комплектухой (например банальный перегрев) . Создай тему в http://forums.overclockers.ru/viewforum.php?f=22 а здесь обсуждать это не следует, т.к. это не относиться непосредственно к сабжу темы. Отредактировано куратором: V.I.Z. Дата: 01.26.2006 12:01
В общем ничего не заработало, прошивка биоса от лидтека не подошла, скорее всего это из-за того, что Гэлакси неесколько уступает в размерах Лидтеку, и слай-мост просто-напросто встал наискосок , и, как я думаю, из-за этого просто не было контакта. Вся проблема оказалась из-за различных размеров карт.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения