Advanced member
Статус: Не в сети Регистрация: 10.02.2004 Откуда: Novosibirsk
Здесь обсуждаются только видеокарточки 6600GT.
Убедительная просьба: прежде чем задать вопрос Вас интересующий, ознакомтесь сFAQи почитайте содержимое ветки , большая вероятность что Ваша проблема уже решена.
ВНИМАНИЕ! SOFT-вольтмод на данной карте Невозможен!
Member
Статус: Не в сети Регистрация: 27.02.2005 Откуда: Тюмень
miheich писал(а):
У меня 6600Gt от Гиги разогналась до 580/1185 при штатном охлаждении(активное) Температура 80 в закрытом корпусе 85 в открытом?
Так и должно быть в нормальных корпусах
Цитата:
При смене охлаждения можно еще по памяти надеятся? по ядру я думаю еще пойдет, а вот по памяти...?
Смотря на что менять, прирост вполне возможен (особено если память не охлаждается по дефолту) но не очень большой. До 1200-1250, хотя как повезет.
RipperFk писал(а):
Нашел AGP 6600GT на прикольном дизайне.На фото карта в сравнении с Palit 6600GT.
А вот молекс у нее расположен как то по уе.. не очень удачно ИМХО Iv
Цитата:
и тишина, молчит рива.....
Восклицательный знак на иконках ядра и памяти показывает, что частоты вышли из диапазона разгона драйвера. Этот диапазон подсвечивается на ползунках (от 90% до 125% относительно частот по умолчанию). Значения частот входящие в данный диапазон не являются ни «безопасными», ни «гарантированными». Так же как и значения выходящие за пределы данного диапазона не являются гарантированно опасными. Разгонный потенциал карты зависит от конкретного ее экземпляра.
_________________ Я сегодня хакнул 127.0.0.1 \../,
manse 2001SE: Radeon 9600 XT (128bit) - 12061 GeForce 6600GT (128bit) -11864 ....... Соплерон тут не причем.
Еще как "причем"! Посмотри на мою подпись, на результат в 2001 марке. Думаешь, на моем проце на 9600ХТ был бы такой же результат? Не был бы, у меня без разгона карты больше 22000 в этом тесте, в то время как рекорд на 9600хт - 20101 балл.... В твоем случае все уперлось именно в процессор.
Member
Статус: Не в сети Регистрация: 13.03.2005 Откуда: Херсон, Украина
Всем доброго времени суток.
Пришел я к вам значит за советом Есть у меня Gigabyte 6600 @528/688, выдающий на моем Атлоне64 @2600Mhz в 2003-м марке 7800 попугаев, в 2005- 3400 почти... Появилась у меня возможность поменять ее на Galaxy 6600GE Zalman Edition(это которая с DDR3 если кто не знает ) всего за 20уев. Память на карточке Samsung. По этому поводу, собственно, и возникли у меня вопросы:
1. На чипах памяти отсутствуют радиаторы(видимо по причине того, что под Залман их было трудно впихнуть и производитель решил не заморачиваться с этим ). Сильно ли это пвлияет на разгон памяти? насколько я знаю(да и тут читал не раз) хорошее охлаждение - залог хорошего хошего разгона.. Но у друга на 6600GT от MSI память 1300МГц держит вообще без радиаторов, да к тому же не горячая при этом(сам щупал ) Вобщем что скажите? Скажу сразу - радиаторы ставить не буду, ибо для этого надо будет кулер с видяхи снимать, а сдается мне, что по кривости рук чип сколю....
2. Я вроде в ветке не заметил обладателей таких Galaxy... Но может то я смотрел плохо? Есть ли тут владельцы такого "чуда"?
3. Что вообще можете сказать о качестве видях от Galaxy? А то в веткеах обсуждения статей "Линейка GeForce 6600 от Galaxy: непривычное сочетание цен и характеристик" и "О потенциальных хитах обзор видеокарт Galaxy GeForce 6600GE и GeCube ATI Radeon X800GT Overclockers_ru.htm" народ не слишком лестно о гелекси отзывался...
4. Вопрос к тем, кто видел фоты разных 6600GT - не слишком ли упрощен дизайн у Galaxy 6600GT(у GE та же PCB), нормальное ли количество элементов распаяно в цепи питания?
Вот собственно и все.. На раздумия у меня есть пара дней... Что посоветуете?
_________________ Битва Титанов 3: Двуядерная война. Арена титанов. Легкая категория. Витязь (2-е место).
Member
Статус: Не в сети Регистрация: 03.02.2005 Откуда: Тульская
Вот блин история: на CPU/MEM/VCORE/VMEM - 2800/280/601/1125 марк05 дал 4388 на 2720/272/601/1138 4404 ИЗЗА блока проц выше 2800 нестабилен... Если его снизить до 2720 видео позволяет до 601/1138, значит именно видеопамять самая требовательная к току 12V, ведь ядро еще тоже можно... 2AllПросьба посоветовать блок самый недорогой, чтобы хватило на гдето 620/1240 и проц на 2840-2880 одновременно...
Member
Статус: Не в сети Регистрация: 29.06.2005 Откуда: Днепропетровск
SeMeN-UA писал(а):
не слишком ли упрощен дизайн у Galaxy 6600GT(у GE та же PCB), нормальное ли количество элементов распаяно в цепи питания?
Дак обзор тут (или на 3D News) валялся с Galaxy 6600Gt Zalman (назывался обзором нескольких карт на 6600Gt) и там четко написано - распайка не полная (пару кондеров не хватает). Они подозревают плохой разгон их экземпляра карты именно в упрощенной (порезанной) схеме PCB.
Добавлено спустя 5 минут, 15 секунд:
fox1500 писал(а):
Да и CS в который играют по моему все зделан на двигле Q2.
Ложь. У CS1 свой движок (HL), а CSS (HL2), в который сейчас на самом деле играют, использует шейдеры №3 ==> для теста скорости в этой игре нужен 3DMark'05
fox1500 писал(а):
А проблема в пролете 6600ЖТ именно в дровах, а не в процессоре.
Не, не в дровах, а в DirectX. Поставь Win2000 и DX8 и потом тести.
Member
Статус: Не в сети Регистрация: 29.06.2005 Откуда: Днепропетровск
myh16 писал(а):
пл я правильно понимаю что частота больше 1250 не корректна если память стоит 1.6??
Корректная частота определяется как 1000/ns: 1000/1.6=625. Это реальная частота. Теперь, т.к. инфа передается по обеим фронта сигнала ==> 625*2 = 1250. Отредактировано куратором: Monarch. Дата: 11.09.2005 8:14
Member
Статус: Не в сети Регистрация: 13.03.2005 Откуда: Херсон, Украина
Dino писал(а):
SeMeN-UA Ну во первых неплохо определиться о каких картах идет речь... разгон и результаты можно увидеть в профиле...
Ну определиться, о каких картах идет речь, можно заглянув в мой профиль Конечно о pci-e... Но вопрос о качестве видях Гелекси - это уже вобщем, так сказать.
А вообще, видя как вяло народ отвечает, пошел я сегодня на фирму и договорился взять эту Galaxy 6600GE Zalman Version потестить на денек(хорошо знакомый там работает, потому удалось взять на тесты... манибек у нас не практикуется обычно ). По дороге домой, осматривал я значит гелекси и был доволен как слон Залман+ддр3 и это все только на 20у.е. дороже моей 6600... Вот только когда я приехал домой, радость моя быстренько улетучилась... Положив эту самую Гелекси рядом со своей гигабайт я получил шанс оченить убогость первой... У моей гиги распаяно элементов раза в два больше , а на гелекси сплошные пустые места под кондеры да мосфеты... Ну да ладно думаю, и не на такой гадости работали Поставил, значит, и сразу за риву тюнер принялся... Сходу, под впечатлением от статей о 6600ГЕ, поставил я 1200 по памяти и.... получил в атитуле сплошной артефакт на весь куб В итоге оказалось, что, отключив внутренний тест, из памяти можно выжать максимум 1150, да и то с небольшими проглюками в атитуле... Ну да ладно, после моих 688 на гигабайте - очень даже круто... Пинялся я за ядро.. вплоть до 580 мег проходит внутр тест.. ставлю значит 575-1135 и атитул на 5 минут - все рулезно, АТ нету, артов тоже.. добавляю до 1150 по памяти и запускаю 3дмарки... 2003-й и 2005-й проходят, но в каждом вылазит по одному арту+по АТ . Одно только радует - чип прогрелся максимум до 56... Снижаю значит чип до 570 и опять марк прогоняю 2005-й - опять АТ... Только я сразу в журнал событий забыл глянуть(а визуально картинка не дергалась) и на радостях решил погонять в NFSU2(оценить разницу между Гелекси и моей Гигой )... с полчаса погонял - понравилось После этого я таки заметил АТ в журнале и решил подобрать стабильную частоту чипа... Ставлю 560, память 1150 запускаю 2005-й марк... на 4-й сеукунде теста тачка виснет.. Думал АТ, подождал - нифига, не отвисает.. ресет, снижение чипа до 550, запуcк 2005-го... ресет Снижение чипа до 540, памяти до 1135, запуск марка, опять ресет Запускаю атитул, частоту чипа ставлю на номинал(кстати номинальные частоты у моей Galaxy почему-то оказались не 400-900 ,как в статьях, а 450-1000), память поднимаю до 1135 - арты валят в атитуле что дурные... ставлю 1100- все равно лезут... Испугавшись, не случилось ли что с видяхой, ставлю частоты на номинал - атитул крутится, марки тоже... Вот только при запуске теста в атитуле перывые секунды 2 время No errors for считается, но рядом что-то еще написано(у меня на гиге так происходит когда уже почти до предела память погнана, могут вылазить арты через минут 5 атитула). изначально на Гелекси такого не было, а такая приписка появлялась при >1100 на памяти... На этом мои приключения с Galaxy 6600GE закончились, и через 40 минут она была уже в магазине на витрине, а деньги, оставленные в залог, у меня в кармане Вот такое вот знакомство с гелекси у меня произошло. Надеюсь кому-нибудь мой опус пригодится - все-таки видюха довольно привлекательная, а тут о ней еще никто ничего не писал(ну или почти не писал )
P.S. народ, мне вот только интересно - что это за глюки произошли с Гелекси, что начали марки виснуть? Может кто-нить знает, как это объяснить? А то у меня еще 3 дня есть чтоб мою гигу сдать на фирму без уценки P.P.S. ИМХО лучше б вместо залмана поставили обычный кулерок+сделали нормальный референсный дизайн с наличием отстутсвия нераспаянных мест
Member
Статус: Не в сети Регистрация: 28.09.2005 Откуда: Minsk,BY
ктонить пробывал на GF6600GT вешать питание с отдельного блока т.е. 1 блок(ну он ват 300) питает все, а со 2 блока питания молекс подключить к видеокарте (только к ней)?? как думаете так питание хватит??
nominal может и тебе такой способ попробывать подключения......
вообще-то про тайминги рассказывали уже в этой теме, но ладно уж. Втыкайте. Берете Риватюнер, лезете в Graphics subsystem diagnostics report, ставите галочку напротив NVIDIA Graphics Processor Registers, перезапускаете репорт, смотрите на строки $0200100220 NV_PFB_TIMING0 : 050d150c $0200100224 NV_PFB_TIMING1 : 09010509 $0200100228 NV_PFB_TIMING2 : 20250407 в правой строчке тайминги, открываете nTimings, копируете значения в соответствующие окошки. Внизу появляются тайминги в "расшифрованном виде". Меняете их в какую хотите сторону. Кнопкой Write GPU Registers устанавливаете и проверяете их. Потом берете БИОС своей видяхи, открываете его Nibitor-ом, щелкаете Timings, забиваете на предупреждение, дальше выбираете тот Timingset, который соответствует оригинальным таймингам видяхи. Туда копируете опять же в соответствующие окошки измененные тайминги из nTimings. Сохраняйте БИОС и прошиваете его. Все.
У меня, кстати, повышение таймингов разгону не помогло, хотя, впрочем, память и так неплохо погналась - 1305МГц Smile . А вот понижение наоборот, и попугаев добавило, и разгон памяти не уменьшило ни сколько. Выше в посте, кстати, мои тайминги.
Member
Статус: Не в сети Регистрация: 28.03.2005 Откуда: Новосибирск
Airhand_
Цитата:
Тут народ неоднократно говорил, что Prolink сильно греется
Ну если при разгоне по чипу 550 мгц и при родном охладе макс. темпа 83гр. - это много, то да. Лично я не жалею об её приобретении. Хотя на момент её покупки (январь 2005) у нас в Новосибе 6600gt продавалась в 1-2 магазинах.
_________________ Мои резалты на 6600gt: 3D Mark 2003 ~ 9100,
3D Mark 2005 ~ 3800
Если бы говорил основываясь на собственный опыт (погоняв обе видяхи) я бы еще понял. Но по моему ты слегана погорячился, мой PALIT отдал 580/1250 и прекрасно себя чувствует.
Для справки термомониторинг работает с фабрики, скорость фана регулируеться. Дрова 77.77. ГЫ ГЫ на пределе по драйверу 1125 лезут артефакты, на 1250 ноу проблем.
На мой вопрос о емкости кондеров, у меня 2 заменяют 4.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения