???????
Статус: Не в сети Регистрация: 08.09.2003 Откуда: Челябинск
8 ноября 2006 года nVIDIA GeForce 8800GTX официально представлена широкой публике!
На сегодняшний день ВСЕ выпускаемые видеоадаптеры серии имеют только референсный дизайн печатной платы!
Перед тем как задавать вопрос заполняем профиль и смотримFAQ.
Все вопросы, которые были достаточно освещены в ветке или есть в FAQ будут удаляться, либо авторы вопросов будут награждаться соответствующе! Игнорирование поиска также будет наказываться! Не забываем о соблюдении правил форума!
Температура чипа G80 может доходить до 85 гр. в нагрузке. Это нормально!
Дополнение от 22.03.2007 1. Следующий вопрос о предпочтении производителя премируется ЖК на 1 месяц за флуд. 2. Выбор между 320Мб и 640Мб версиями 8800GTS делаем на основе этого и этого обзоров. 3. Игнорирование п.2 влечет возможное применение наказания из п.1 Дополнение от 07.07.2007 Начинать беспокоиться о "низких" результатах в различных 3Dmark следует только при наличии процессора с архитектурой Core 2, разогнанного выше 3,6ГГц!
Последний раз редактировалось demiurg 15.07.2007 14:06, всего редактировалось 14 раз(а).
Member
Статус: Не в сети Регистрация: 11.01.2007 Откуда: Питер
Fatality писал(а):
Толькл без перезагруза, частоты в дефолте
Такое может быть из за не хватки напряжения или питания..... Например низкое напряжение на чип подаётся или на память карты... или не хватает блока питания, такая проблема была, только на другой карте...
_________________ Бояться ошибиться - это уже ошибка.
потестил свою карточку и понял что платформу надо менять )
не срочно но надо, т.к. если разогнать карточку то атлона@2.6ггц не хватает
проц 2.6ггц, карта 567/1720(заводской разгон) - ~8500 марков
проц в дефолте (2.4ггц), частоты карты те же - всего лишь ~8000
проц 2.6, карта 648/2000 (возможно не предел, просто сходу поставил такие частоты, выше не пробовал) - дает ~8800
буду наверно летом апиться на кору е4300 и гнать ее до 3ггц+ (если их действительно будут по 100 баксов отдавать ))
Member
Статус: Не в сети Регистрация: 21.06.2005 Откуда: Vladivostok
Bra1H писал(а):
на Foxconn диоды цепляют турбину, так вот и я с этим столкнулся, кто что может посоветовать?
если по некоторым соображениям Вам эта карта не особо дорога, то самое лучшее (на мой взгляд) предложение -- вернуть продавцу
не надо заниматься рукоделием с продуктами, которые и так обязаны быть вылизаны и отполированы донельзя, учитывая их цену.
Cherokee Если твоей карте критично не хватает мощности блока питания, то ее встроенный "биппер" оповестит тебя об этом таким визгом, что уши закладывает.
Интересно, у меня из-за плохого контакта 6 пиногого разъема писка ни какого не было, а выскакивала предупреждающая надпись сразу после загрузки виндоса. Добавлено спустя 8 минут, 11 секунд
Cherokee писал(а):
Что-то виснет система у меня во время игры в Суприм Коммандер. Картинка зависает и потом перезагруз. Ваш диагноз господа? Добавлено спустя 30 минут, 5 секунд И в CSS то-же самое.
В ближайшие дни возьму лицензию попробую и подскажу, конфиг у нас похож, может что проясниться, в других играх подобного не было?
Такое может быть из за не хватки напряжения или питания..... Например низкое напряжение на чип подаётся или на память карты... или не хватает блока питания, такая проблема была, только на другой карте...
Может такое запросто быть, у меня при разгоне компьютера (с видео без проблем - там питания выше крыши) симптомы зависания были практически аналогичны описаным, помогало повышения вольтажа на процесоре, оперативе и чипсете...
Итак, вышел Everest 4.00 и в области мониторинга температуры карт серии 8800 обнаружились интересные вещи. Показывает этот мониторинг на моей карте следующее:
#77
И что удивительно: показания "Диод ГП" соответствуют температуре ядра, которую отслеживают другие программы (RivaTuner, ATITool...). А вот значения "Графический процессор" - гораздо меньше, и не показываются больше нигде. Отсюда два варианта: либо показания "графического процессора" ошибочны, либо до сих пор температура G80 измерялась неправильно. Я склоняюсь ко второму варианту по аналогии с программным мониторингом температуры центральных процессоров.
А еще появилась возможность измерять температуру видеопамяти, причем показания кажутся вполне адекватными.
Последний раз редактировалось Abdalla 10.04.2007 15:59, всего редактировалось 2 раз(а).
Такое может быть из за не хватки напряжения или питания..... Например низкое напряжение на чип подаётся или на память карты... или не хватает блока питания, такая проблема была, только на другой карте...
Хмм, ну в сталкера я магу играть 4 часа подряд на 621/1000 и не каких косяков. А тут какой то Цсс З.Ы. Разве качественого блока на 480В (32А) не хватает этой карте?
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
Abdalla писал(а):
Итак, вышел Everest 4.00 и в области мониторинга температуры карт серии 8800 обнаружились интересные вещи. Показывает этот мониторинг на моей карте следующее: #77 И что удивительно: показания "Диод ГП" соответствуют температуре ядра, которую отслеживают другие программы (RivaTuner, ATITool...). А вот значения "Графический процессор" - гораздо меньше, и не показываются больше нигде.
Мимо. То, что в Everest называется "Графический процессор" , - это температура термистора рядом с ядром, измеряемая сенсором/PWM контроллером ADT7473. На основе этого значения работает аппаратное управление скоростью скоростью кулера.
Окружение - внутренняя температура того же ADT7473.
Сто лет как доступно и в старых билдах Everest, и в RivaTuner через встроенный плагин ADT7473.dll.
То, что в Everest называется "Графический процессор" , - это температура термистора рядом с ядром
Интересно, а где именно находится этот термистор, на керамической пластине, что ли? И как далеко от кристалла?
Unwinder писал(а):
На основе этого значения работает аппаратное управление скоростью скоростью кулера.
А почему это управление было не "привязать" к термодиоду ГП? Зачем использовать дополнительный термодатчик?
Unwinder писал(а):
Сто лет как доступно и в старых билдах Everest, и в RivaTuner через встроенный плагин ADT7473.dll
Те показания, что называются "Графический процессор" в новом Эвересте, не доступны через плагин ADT7473.dll (он дает Температуру ядра и Температуру окружения - соответственно "Диод ГП" и "Окружение ГП" Эвереста).
Или вы имели ввиду, что доступна сто лет температура окружения? Так этого никто не оспаривал...
Заблокирован Статус: Не в сети Регистрация: 05.03.2003
Abdalla писал(а):
Unwinder писал(а):
То, что в Everest называется "Графический процессор" , - это температура термистора рядом с ядром
Интересно, а где именно находится этот термистор, на керамической пластине, что ли? И как далеко от кристалла?
Его точное геометрическое расположение мне неизвестно, увы.
Abdalla писал(а):
Unwinder писал(а):
На основе этого значения работает аппаратное управление скоростью скоростью кулера.
А почему это управление было не "привязать" к термодиоду ГП? Зачем использовать дополнительный термодатчик?
Скорее всего из-за крайне неидельных "сырых" показаний термодиода. Для получения результирующей температуры тот же драйвер применяет к выходной "сырой" температуре термодиода ряд коррекций, вплоть до прибавления собственного уникального для каждого графического процессора(!!!) смещения температуры, прошитого с помошью плавких соединений в ядро во время его производства и термотестирования. Грубо говоря, сырые +40 градусов на двух разных термодиодах - две большие разницы. А схема управления кулером аппаратная, и таких софтовых коррекций выполнять не может.
Abdalla писал(а):
Unwinder писал(а):
Сто лет как доступно и в старых билдах Everest, и в RivaTuner через встроенный плагин ADT7473.dll
Те показания, что называются "Графический процессор" в новом Эвересте, не доступны через плагин ADT7473.dll (он дает Температуру ядра и Температуру окружения - соответственно "Диод ГП" и "Окружение ГП" Эвереста).
Нет. ADT7473 даёт именно температуру "Графический процессор" (отличную от температуры диода). В RT щёлкнув правой кнопкой по графику "Температура ядра" можно выбрать провайдер данных для данного графика. Дефолтный провайдер считывает температуру через драйвер (который, в свою очередь, считывает её через термодиод графического процессора), а провайдер ADT7473 - через одноимённый сенсор. Особого интереса, кроме как для контроля правильности работы схемы автоматического управления скорости кулера, это значение не представляет.
Member
Статус: Не в сети Регистрация: 08.04.2007 Фото: 0
Блин, я нашёл в чём косяк. RT говорит что у меня выбран режим 8х. Но я чёт не могу найти где 16х включит?? Весь биос облазил, ну нет там такого! Помогите пожалуйста?
Bra1H Я вообще отклеил светодиодную ленту с кожуха и приклеил ее "Моментом" на " потолок" корпуса, получилась отличная подсветка. Поменять у продавца можно конечно было, да уж больно удачная карточка попалась. А как говориться: от добра, добра не ищут. Так что решение зависит от "командира".
Junior
Статус: Не в сети Регистрация: 21.03.2007 Откуда: Новосибирск
у меня проблема при повторных запусках дефолтного бенчмарка 3DMark05 на 8800 GTS 640.
первый прогон всегда все хорошо. закрываю окно с результатом и опять нажимаю "Run...". на втором или третьем прогоне (один раз на 8-м) виснет на заставке 2-го CPU-теста, всегда практически в одном месте - когда заставка должна погаснуть. при этом внизу экран немного портится. включил RmLogonRc, зависание сопровождается такими записями в журнале: "GR SW Notify Error on 0002 00000000 00005097 00001458 00000201 00000040". В полноценном 3D и в этом тесте и в играх зависаний/BSOD'ов не было. Уже прошел на этой карте Stalker, Condemned, HL2 E1, Far Cry - без проблем. До этого была видеокарта 7800GTX, зависаний/BSOD'ов не было вообще, остальные запчасти не менялись. На новой 8800 уже были BSOD'ы в 2D, в основном, связанные с воспроизведением видео, но, похоже, только на драйверах 97.xx. использую 100.87, только что установил 101.02 - проблема с 3DMark осталась. позавчера был BSOD в 2D, вроде на пустом месте...
может кто-нибудь запустить на 8800GTS 3DMark05 несколько раз подряд (не повтор каждого теста, что есть в настройках - я так не пробовал, а просто нажимая "Run 3DMark")? возникнет ли подобная проблема? был бы признателен... жалею, что приобрел эту карту. пытаюсь разобраться, проблема исключительно в драйверах или помимо этого еще и карта глючит
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 42
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения