Advanced member
Статус: Не в сети Регистрация: 10.02.2004 Откуда: Novosibirsk
Здесь обсуждаются только видеокарточки 6600GT.
Убедительная просьба: прежде чем задать вопрос Вас интересующий, ознакомтесь сFAQи почитайте содержимое ветки , большая вероятность что Ваша проблема уже решена.
ВНИМАНИЕ! SOFT-вольтмод на данной карте Невозможен!
Vitus2008
Разве дрова могут давать прирост в 700 попугаев? Интересно, интересно...
Альфа
Спасибо за инофрмацию по температуре. С твоей проблемой я к сожалению тебе помоч не смогу.
All
Сейчас вот попробовал разогнать свою видеокарту, раз проблем с температурой нет. Стабильная работа при 590/1290, может быть +3 еще где-то частоту можно поднять, но спрашивается зачем? В таком состоянии при моем медленном проце(CeleronD 3.06@3.98) я достиг результата 9701, думаю если бы я обладал атлоном 4000+ или 3000+ разогнанным, то смог бы преодалеть психологический барьер в 10000. Но я и тем доволен.
P.S>
Скоро заменю 512+256 память на 512+512 и тогда может еще смогу увеличить немного результат.
Member
Статус: Не в сети Регистрация: 05.09.2005 Откуда: Питер Фото: 82
Hawk_Eye писал(а):
Что-то моя недавно купленная Albatron системой определяется как просто Nvidia GeForce 6600GT. Ни в дровах, ни в сандре, евересте и риватюнере я слова Albatron не нашел . Производитель NVIDIA пишут, и все. Да и на самой карте из опозновательных знаков только серийный номер и бумажка с иероглифами. Только на коробке все правильно написано. Меня терзают смутные сомненья... To ALL Посмотрите, если не трудно, пишется у вас производитель где нибудь?
Можно сделать так. Запускаешь RivaTuner с параметрами /BI. Он тебе сохраняет образ твоего видяшечного БИОСа в таком примерно виде vgabios10DE00F1.rom в свою корневую папку. Потом этот БИОС открываешь с помощью NiBiTor'а и там можно посмотреть производителя. Способ маленько через задницу, но другое в голову не лезет;)
Вот так вот примерно всё выглядит:
#77
Ага точно. Как это я не заметил, что там даже в списке такого нет. Т_Т Пардон, обшибся.
Тогда может СиСофт Сандра как-нибудь поможет:
Наименование устройства : CardExpert Technology GeForce 6600 GT
Код продукта : VEN_10B0, DEV_0401
Такую тему выдает в модуле "Информация о PCI(e), AGP, CardBus, PCMCIA"
Последний раз редактировалось John_G 28.12.2005 23:09, всего редактировалось 2 раз(а).
Advanced member
Статус: Не в сети Регистрация: 22.01.2005 Откуда: Belarus, Minsk
Отчет о разгоне 6600GT PCI-E Gigabyte NX66T128D - SP SilentPipe2.
Номинал: 500/1000
без модификации БИОС 600/1070
с изменением таймингов 600/1200
Память Hynix 2.0ns (в этой серии у Hynix есть память 2.2нс - 1.6нс).
Вот статья. Отредактировано куратором: V.I.Z. Дата: 12.27.2005 20:02
_________________ Жизнь - это борьба не с врагами вне, это борьба с врагом в себе.
Если повезло кому-то, это не значит, что повезет и Вам.
Купил себе в санрайсе Galaxy GF6600GT AGP с уже установленным алюминиевым кулером Zalman, частоты по умолчанию 525\1100, память самсунг 1,6. У меня к видеовыходу подключен телевизор, заметил такую особенность: когда в nview включен режим dualview, то в дум3 по timedemo получается на 20 фпс меньше, чем в режиме single display, причём в дровах режим hardware acceleration на это не влияет. До этого был gf6600gt agp leadtek была та же ситуация. Такое падение фпс проявляется не во всех играх - особенно в дум3 (квак4), CoD2, а в других падение не такое явное.
Member
Статус: Не в сети Регистрация: 23.02.2005 Откуда: Новосибирск
TopFriend Падение производительности при вкл режима dualview происходит из-за того что видюха выводит изображение как бы на два монитора, то есть разрешение получается не 1024х768 ( к примеру ), а намного больше (видеокарта так понимает). Это наблюдалось на всех картах оснащённых nview, поэтому лучше эту технологию включать при необходимости.
Народ! Меня эта проблема просто добивает! Из-за чего отключается моник и виснет система, если карта разогнана и запускается какое-либо 3d приложение? Питание? Или что-то еще? Что? Также прошу ответить на конкретный вопрос:
Если у стабилизатора питания на карте срабатывает защита по току и он отключается, что просходит в этом случае? Подается ли напряжение на чип и память? Пологаю, что нет...
Member
Статус: Не в сети Регистрация: 12.04.2003 Откуда: Минск, Беларусь
Владельцы Sparkle 6600GT AGP с памятью Infineon 2.0 n.s! Если память разгоняется слабо (в моем случае было 1008Mhz), можете перешить биос от BFG 6600GT PCI-E (правда там частоты 550/1100, так что придеться отредактировать сначала). Мне дало прибавку по памяти + 60Mhz. Причем тайминги там более агрессивные, нежели в биосе от Sparkle. Итог – прибавка 800 попугаев в 3D Mark 2003.
Member
Статус: Не в сети Регистрация: 23.02.2005 Откуда: Новосибирск
Borland_Delphi_6 писал(а):
Из-за чего отключается моник и виснет система, если карта разогнана и запускается какое-либо 3d приложение?
Я склоняюсь к тому что проблема, в каком то смысле, софтовая. Очень похожа на то как на картах ATI срабатывает рековер. Только в нашем случае перезапуска не получается, хотя попытки бывают несколько раз подряд. Только что наблюдал такую картину при редактирование и тестирование новых таймингов на памяти видюхи.
Member
Статус: Не в сети Регистрация: 29.02.2004 Откуда: Москва
Borland_Delphi_6 читал. но у меня AGP карта. И уже при выборе частоты 1200MHz по памяти, я не могу зафиксировать ее, частоту, в RivaTuner - карта не проходит внутренний тест. Ааблом. Добавлено спустя 5 минут, 57 секунд Визуально проверял - элементы распаяны все которые предусмотрены дизайном PCB (за исключением одной единственной контактной площадки).
Дизайн PCB совершенно новый. Сравнить не с чем. Отличается от референсного судя по всему. Раньше как две капли воды был похожь на Гигабайтовскую PCB. Ща все подругому. Фотка (плохого качества) на ПС.
Я не жалуюсь - изначальная гарантированная частота по памяти в 1096MHz - очень неплохо, даже отлично, но хочется выжить максимум из 1.6нс памяти - даром чтоль она там установлена? Добавлено спустя 8 минут, 58 секунд Максимальная частота, на которой удалось пройти внутренний тест - 1228MHz.
Но уже на 10 секунде волосатого куба лезли артефакты.
Member
Статус: Не в сети Регистрация: 03.02.2005 Откуда: Тульская
Добрался я вчера до нибитора и такая странная вещь получилась:
чтобы разогнать карту мне потребовалось !снизить! какие-то там напруги:
было 1.4 1.3 1.2 1.1 при разогреве атитулом до 71 градуса начинались артифакты поставил 1.15 1.1 1.05 1.0 артифакты пропали !!!!!
тайминги сильно снизил и на 585/1170 дает 4300 5х марков !!!
хотя мой профильный рекорд не побил, может откатиться на 77.77...
NFSMW c AAf16/AA4 стало без тормозов
Member
Статус: Не в сети Регистрация: 28.09.2005 Откуда: Minsk,BY
[-==-] писал(а):
Не проще было было бы эти деньги добавить на нормальную карту, с которой не пришлось бы так тр@ться?
Кому как.....я потратил на все 160$+10$+30мин работы(пусть 60 мин, не больше....но очень окуратной работы при установке )......за 10$ сверху карту нормальную это какую(на вопрос можно не отвечать ), что делать и что покупать каждый решает сам.
P.S.: А еще есть FAQ где сказанно "Нормальной температурой под нагрузкой считается ~ 80 градусов (в закрытом корпусе)" эта температура берется с датчика на плате, а не с термодиода внутри кристала( мое имхо ну и так для сведения).
Junior
Статус: Не в сети Регистрация: 21.12.2005 Откуда: Omsk
Iv писал(а):
Zharun писал(а):
Это соблюдается не для все карт. На некоторых данные берутся напрямую с термодиода.
Может и так спорить не буду.....просто на LeadTek'e 6600GT(который у меня) температуру можно смотреть как с датчика на плате так и с термодиода (блогадаря RivaTuner). Причем температура с датчика ниже примерно на градусов 10-15 по цельсию. Пример: окружение-20_ датчик-25_термодиот-37.
у меня MSI. с термодатчика появилась возможность считывать температуру после прошивки бивиса с трюком термомониторинга. отличия также наблюдаются: с датчика 34-40 (под залманом 700 алку), а на термодиоде 48-60. вот такие пироги. вообще мне кажется, что врет термодиод. основание залмана холодное, а разница в 20 градусов это многовато
Member
Статус: Не в сети Регистрация: 28.09.2005 Откуда: Minsk,BY
.CrOm. писал(а):
с датчика 34-40 (под залманом 700 алку), а на термодиоде 48-60. вот такие пироги. вообще мне кажется, что врет термодиод. основание залмана холодное, а разница в 20 градусов это многовато
1_Термодиод находится непосредственно внутри кристала(этим и обьесняется разница в 10-15 градусов), поэтому температура будет больше чем на датчике и (мое же опять имхо) более верная.2_основание залмана холодное чем проверял??, может плохой прижим - это всеголишь догадки, у меня даже в простое я чуствую что куллер теплый, но не холодный, для меня кулер холодный это когда комп не велючен(хотя у всех свое понимание теплого и холодного ).
Сейчас этот форум просматривают: maxhunter33 и гости: 68
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения