Advanced member
Статус: Не в сети Регистрация: 10.02.2004 Откуда: Novosibirsk
Здесь обсуждаются только видеокарточки 6600GT.
Убедительная просьба: прежде чем задать вопрос Вас интересующий, ознакомтесь сFAQи почитайте содержимое ветки , большая вероятность что Ваша проблема уже решена.
ВНИМАНИЕ! SOFT-вольтмод на данной карте Невозможен!
Member
Статус: Не в сети Регистрация: 09.10.2003 Откуда: с Земли
хм.
чтото ругали тут agp Galaxy 6600GT Zalman ed.
вобщем взял себе такую, по дефолту 525\1100. память -- 1.6 нс самс.
разгон максимально стабильный -- 590\1188. t(max) ~ 60-61.
не понятно одно - почему 1.6 нс память на 1250 даже не заработала? на 1200 даже артефакты начинаются
Member
Статус: Не в сети Регистрация: 11.10.2005 Откуда: Самара
PNC На этой видюхе очень сэкономили на системе питания. Непонятно как она у тебя вообще работает на 590 мгц...
По идее должны быть вылеты в десктоп... Чем тестировал?
Member
Статус: Не в сети Регистрация: 11.10.2005 Откуда: Самара
***ArTiSt*** Скорее всего рива сбрасывал частоты в 2D, т.е. до 300мгц. Я уже сам намучался с этим глюком. Советую также выставлять low power 3D=Full Power 3D.
Hardware Nightmare
Статус: Не в сети Регистрация: 14.09.2003 Откуда: Taipei, Taiwan
Имеется серъезная проблема.
Имею MSI NX6600GT-TD128E.
8 месяцев отлично работала на частотах 600\1300.
Потом 3 мес комп не работал, тут починил, поставил видяху как обычно в верхний PCI-E (DFI NF4 мать) - жуткий мусор и артефаки даже в биосе. шевеление в слоте помогает мало, правда иногда включается нормально. Почти всегда не детектит карточку (внизу 4 светодиода POST - мигает видяшный и перегружается постоянно). Переставил в нижний слот в режиме х8 - запускаться стала уверенно, но иногда сыпет мусором уже в винде. Частоты вернул штатные. То же самое.
Риватюнером даже если поставить память 1001 Мгц - не проходит внутренний тест. И только на частоте 700Мгц и ниже по памяти - проходит внутренний тест. Ядро при этом можно гнать хоть до 600 - все ок. Выше 700 - глюки. АТИ тулзами на всем что выше 700Мгц по памяти - проскакивают артефаки, причем чем больше частота - тем больше, на 1250 - вообще все в точечку (а раньше на 1300 все было без задорники сутки). Крутил вольтмод (ядра , 1.65В выставлено было) уменьшаешь вольтаж - больше факов, увеличиваешь (до 1.75 пробовал) - меньше. С температурой все ок, на видеоядре по датчику +16 градусов, Ambient temp - +16 тоже. (комп на балконе, в команте то же самое, разве что темпы были +36 \ +33 )
С самого начала охлаждалась водоблоком InnoVatek O-matic GF4, температура выше 65 никогда не была. Область VRM на видеокарте обдувалась 80мм кулером.
Прижим нормальный, трижды переставлял ватер. Также ставил назад родной воздушный кулер. Кроме увеличения температур до 58 простой \ 110 нагрузка ничего не изменялось.
Hardware Nightmare
Статус: Не в сети Регистрация: 14.09.2003 Откуда: Taipei, Taiwan
[Viru$] Деградация чего? PCI-E слота? Ладно этим можно было бы объяснить мусор, да и карта одинаково хреново работала бы в обоих слотах, а так только в верхнем проблемы с запуском. В нижнем запускается ок.
Lys Понимаю, БП гадость, но на нем все работает уже больше года. Конденсаторы в БП меняю периодически (вздуваются раз в 3-4мес . На мамке все ОК, ничего не вздуто.
Member
Статус: Не в сети Регистрация: 28.01.2004 Откуда: 63-й регион
Borland_Delphi_6 писал(а):
Должна стабильно работать при 1.3 @ ~450 - 500 MHz
именно та карточка, что у неё не заработает при 1.3 (достаточно попробывать разогнать Standart 2D до 500 мгц - будет висяк). Сам юзал такую, скорее всего у неё и ревизия чипа А2. Фризы были во время разгона около 520-525 мгц по чипу, во время фриза карта переходит в Low power 3D (т.е на дефолтные 500 мгц), если отредактировать Low power 3D и выставить там частоты равные вашему разгону (казалось бы спасение), ан нет она перейдет в Standart 2D P.S. Кстати, БП и по правде у неё ни при чем, был такой же, сменил - те же яйца.
Проблема решается сменой видеокарты...
Member
Статус: Не в сети Регистрация: 29.02.2004 Откуда: Москва
MiHan@ писал(а):
На этой видюхе очень сэкономили на системе питания. Непонятно как она у тебя вообще работает на 590 мгц...
а что на счет Galaxy 6600GT AGP ?
Внимательно изучал фотографии - вроде распаяны все элементы. Вроде.
Хочу взять себе енту карточку только вот думаю - Zalman Edition взять или не переплачивать и взять с медным радиатором?
Уж больно цена привлекает. Всего 4200 руб. За медный вариант.
Member
Статус: Не в сети Регистрация: 03.05.2005 Откуда: ObHuHck CITY
Вчера приобрел Galaxy 6600GT AGP, отправил свою старую видюшку на пенсию В общем картой оч. доволен. Только не могу понять как сделать, чтобы в винде шрифты сглаживались как раньше. Контрасность офигенная, в надписях видны пикселы каждой буквы. Оч. не удобно тексты читать.
Никто не знает как вернуть сглаживание?
Раньше вроде в меню видюхи, цветовая коррекция, и уменьшение резкости. Но щас она и так до упора уменьшена, а надо ещё.
И ещё хочу спросить, нормально такое: в простое температура 60, при максимальной загрузки до 80 может доходить, но обычно не больше 75 градусов. Не врет ли датчик?
Member
Статус: Не в сети Регистрация: 08.09.2004 Откуда: Славутич
Предлагаю в FAQ внести изменения по поводу температуры чипа на картах 6600GT...
Просото у AGP есть переходной мост (который греется) и температура чипа не подходит под высказывание:
LiLiputo писал(а):
Нормальной температурой под нагрузкой считается ~ 80 градусов (в закрытом корпусе).
Данное высказывание касается в основном PCI-E карт, а вот по МНОГОЧИСЛЕННЫМ высказываниям и наблюдениям в AGP картах температура чипа при родном охлаждении в закрытом корпусе считается ~ 90 градусов (под нагрузкой).
Это я к чему всё веду, просто читая FAQ народ вводится в заблуждение, считая что у него завышенная температура и 50% народа начинает менят родное охлаждение, а 40% ставить вентили на обдув и только 10% верит инженерам компаний разработавшим родное охлаждение... (про % - это условно-примерно)
_________________ Когда я умер, не было никого, кто бы это опроверг...
Вот у меня возник вопрос... Я примерно месяца 3 назад приобрел видеокарту с пассивным охлаждением GigaByte 6600гт 128мб. О ней достаточно подробно написано в следующей статье:
http://www.overclockers.ru/lab/19227.shtml С момента покупки я не особо интересовался температурой т.к еще не думал разгонять, но вот сегодня решил все же проверить. И выяснил, что в простое у меня 51 градус, а в тяжелых приложениях 69-70 градусов, я был немного в замешательстве. Почему у меня датчик показывает такую низкую температуру? Я ожидал действительно под 100 градусов.
Member
Статус: Не в сети Регистрация: 06.05.2005 Откуда: Самара
Пару слов о Galaxy. Вчера исследовал тайминги памяти, искал причину слабого разгона памяти 1,6.(1180). Тайминги зашиты для памяти 2,0, таймингсет 7. Зашил новые для 1,6 - разгон увеличился до 1215, но 5 марк потерял 150 попок. С таймингами 1,5 и 1,4 разгон толком не увеличился а потери в попугаях естественно выросли до 250. Так что дело не только в таймингах. Так что можно сделать вывод, либо нехватка питания, либо отсутствие охлада на памяти( у меня zalman ed), либо память 1,6 маркетинг ход не более того. Добавлено спустя 2 минуты, 36 секунд Думаю все таки с питаем там не очень, т.к. при разгоне чипа только 570, а выше тоже можно и даже артефактов нет, но марк 5 вываливается на рабочий стол.
Member
Статус: Не в сети Регистрация: 16.09.2004 Откуда: Chelyabinsk
sinner_
Цитата:
Данное высказывание касается в основном PCI-E карт, а вот по МНОГОЧИСЛЕННЫМ высказываниям и наблюдениям в AGP картах температура чипа при родном охлаждении в закрытом корпусе считается ~ 90 градусов (под нагрузкой).
От того факта, что АГП карты за счет моста HSI греются сильнее, температура в 90 градусов _не_ становится более НОРМАЛЬНОЙ. Это просто говорит о том, что владельцам АГП карт надо более тщательно думать об охлаждении и прилагать больше усилий, что понизить температуру до нужного уровня, указанного в ФАКе.
Есть вопрос, достаточно комплексный Smile
Я всю жизнь использовал видеокарты ATI (так исторически сложилось), сейчас собираюсь апгрейдить видеокарту и возникло желание попробовать NVidia. Причины две: возможность управления интерполяцией изображения на уровне драйверов при DVI подключении LCD монитора (мой монитор не поддерживает управление интерполяцией), а также наличие 2 DVI выходов даже на бюджетных моделях типа 6600 (ATI карты имеют 2 DVI выхода почему-то только в топовых случаях). Почитал немного обзоры и форумы, и исходя из наличия реальных карт в Питере, склоняюсь к Gainward Power Pack! Ultra/1960XP (128Mb 6600GT AGP VIVO 2xDVI). Поскольку с NVidia картами дела не имел, хочу убедиться, что правильно понимаю ситуацию.
1. Возможно ли такое подключение - к одному DVI выходу LCD монитор с разрешением 1280x1024, частота обновления 75 Гц, к другому DVI выходу LCD проектор с разрешением 1280x760, частота обновления 60 Гц? Нестандартное разрешение ставим PowerStrip. Будет ли возможна одновременная работа двух DVI выходов в разных режимах, как по разрешению, так и по частоте?
2. Есть ли проблемы с качеством DVI выходов, т.е. например один из них может быть лучше другого (в местном FAQ прочитал, что такие выходы могут быть как организованы в виде отдельного чипа, так и быть интегрированы в основной чип)? Или на таких относительно невысоких разрешениях, как мои, это не критично?
3. Ну и как вообще выбор карты, вроде особых огрехов за Gainward не замечено? Хочется стабильности работы и тишины, особенно в 2D (т.к. играю относительно нечасто). Разгон если и будет, то минимальный. Штатную систему охлаждения менять тоже неохота...
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения