Если Ваша проблема в FAQ не затронута, то постарайтесь описать ее как можно подробнее (предварительно заполнив профиль. Выдать полный список номиналов настроек, при которых у Вас не запускается или нестабильно работает СИСТЕМА). Вам постараются помочь. Сообщения типа: "Господи помогите, у меня ничего не работает…." + незаполненный профиль - автоматически будут награждаться ЖК!
Прежде чем задать свой вопрос: 1. Прочтите FAQ на первой странице 2. Воспользуйтесь поиском по теме 3. Заполните профиль
Последний раз редактировалось misukhanov 27.11.2010 22:50, всего редактировалось 56 раз(а).
Advanced member
Статус: Не в сети Регистрация: 19.10.2002 Откуда: Tartu, Eestimaa
>>>>>>>>>>>>>>>>>>>>>>>>>FAQ<<<<<<<<<<<<<<<<<<<<
Q: Сколько нужно ватт для нормальной работы карты? A: Видеокарты GTS 250 / GeForce 9800GTX+ потребляют ~85-100Вт в режиме максимальной нагрузки. GeForce 9800 GX потребляет ~200Вт, GeForce 9800GTX ~100Вт.
Q: Какой максимально допустимый температурный режим работы каты? A: Согласно спецификациям максимальная температура составляет 105 градусов, однако я бы не советовал прогревать видеокарту до такой температуры. Если вы хотите, чтобы ваша карточка прожила достойную и долгую жизнь - не стоит допускать превышения порога в 90 градусов.
Q: Какой средний разгон у этих видеокарт без замены системы охлаждения? A:
NVIDIA GeForce 9800 GX2
Средним разгоном считается частота чипа 700-720 МГц, для памяти 2100-2150 МГц.
NVIDIA GeForce 250 GTS
Средним разгоном считается частота чипа 800-850 МГц, для памяти 2300-2600 МГц.
NVIDIA GeForce 9800 GTX+
Средним разгоном считается частота чипа 800-850 МГц, для памяти 2300-2600 МГц.
NVIDIA GeForce 9800 GTX
Средним разгоном считается частота чипа 700-800 МГц, для памяти 2200-2300 МГц.
Q:Утилиты показывают 65 нм тех. процесс производства моей карты NVIDIA GeForce 9800 GTX+? A: Многие утилиты не верно отображают технологический процесс производства чипа. Маленькая утилита GPU-Z умеет показывать правильный тех. процесс. Скачать последнюю версию утилиты можно с этого сайта TechPowerUp
Q:Какие размеры у видеокарты? A:Размеры видеокарты референсного дизайна: NVIDIA GeForce 9800 GX2 270 х 100 х 32 NVIDIA GeForce 250 GTS 228.6 х 111 х 32 NVIDIA GeForce 9800 GTX+ 270 х 100 х 32 NVIDIA GeForce 9800 GTX 270 х 100 х 32
Для разрешения 1280х1024 будет достаточно видеокарты с 512 Мбайт видеопамяти. Для разрешения 1680х1050 лучше брать с 1024 Мбайт Для разрешения 1920х1200 лучше брать видеокарту с 1024 Мбайт видеопамяти.
Q: Возможен ли софтвольтмод для GeForce 9800 GX2 без замены системы охлаждения? A: Софтвольтмод для GeForce 9800 GX2, подробная методика описана в этом обзоре XFX GeForce 9800 GX2 Black Edition против Asus Radeon HD 3870 X2 TOP. По умолчанию напряжение под нагрузкой на графических чипах видеокарты GeForce 9800 GX2 находится на уровне 1.10V. Программным способом его можно увеличить совсем немного – всего до 1.15V. Этого может хватить, чтобы на один шаг увеличить разгон графических чипов, как блока геометрии, так и шейдерного блока. Температура от такого вольтмода поднимется совсем незначительно, что позволяет его применять, не меняя охлаждение на видеокарте.
Q: На видеокарте XFX 9800GTX+ Black Edition есть проблема с частотой вращения вентилятора и частоты не переходят в 2D режим. Как это можно исправить? A: подробное описание можно найти тут. За решение спасибо trp_aki_alexey
Q: Будет моя карта GeForce 9800 GTX / GeForce 9800 GTX+ / GeForce 9800 GX2 работать только с одним разъёмом дополнительного питания? A: На видеокарте GeForce 9800 GTX / GeForce 9800 GTX+ два разъёма дополнительного питания, оба 6-pin. Видеокарта не будет работать при подключении лишь одного из них. На видеокарте GeForce 9800 GX2 два разъёма дополнительного питания, 6-pin и 8-pin. Видеокарта не будет работать при подключении лишь одного из них.
Q: Моя материнская плата не поддерживает SLI, будет карта GeForce 9800 GX2 работать у меня? A: GeForce 9800 GX2 будет работать на любой системной плате с поддержкой PCI Express, от неё не требуется специальная поддержка технологии SLI.
Q: Частота шины PCI-E сбрасывается на х1 вместо положенных х16? A: Обязательно в BIOSe зафиксировать частоту шины PCI-express на 100-111, нужно подобрать значения для вашей системы.
Q:Карта перестала выводить изображение с верхнего разъёма DVI на монитор. С нижнего разъёма DVI все прекрасно показывает. Как это исправить? A: Нижний разъёма DVI является главным (подписан на карте №1). Для работы двух разъёмов DVI независимо друг от друга, нужно отключить SLI через драйвер.
Q:Какую модель GTS 250 предпочесть? A: По доступности и набранной статистике : 1. Palit/ Gainward . Серия Green ограничено. Внимание (появились «короткие» версии E-Green с оранжевым вентилятором и одним разъемом доп. питания, по ним статистики нет). 2. ASUS серии DK (Dark Knight Cooler) с прошивкой свежего БИОС. С оф. сайта качаем файл BIOSUpdate.exe, распаковываем, внутри AS09 для 512Мб и AS10 для 1Гб. S/n может не совпадать. Прошиваем под ДОС (nvflash -4 -5 -6 as09 или as10 .rom) получаем разделение частот на 2Д/3Д и снижение нагрева.
Q:Чем отличается серия Green (E-Green) видеокарты GTS 250 от нормальной? A: Сниженными частотами, упрощенной системой питания, пониженным напряжением и упрощенной СО. E-Green экстремально упрощена.
Последний раз редактировалось misukhanov 27.11.2010 22:56, всего редактировалось 10 раз(а).
Advanced member
Статус: Не в сети Регистрация: 19.10.2002 Откуда: Tartu, Eestimaa
Iphonovec писал(а):
В простое шума нет, но во время игр не сильно отличается от 2900
Ну я-бы не сказал как у 2900, но громче чем у 3870Х2 это точно.
Кстати, кто как гонит?
_________________ Демократия - это ТО, когда ТЫ выбираешь ТОГО, кто будет ТЕБЯ ....... http://ru-ru.facebook.com/people/Dmitri-Spirihhin/100001658062204
Одно сразу же бросается в глаза - сходство между 9800 GTX и 8800 GTS 512 MB. Они используют один и тот же GPU (G92), число текстурных блоков, память, функции и т.д. Единственное отличие заключается в чуть более высоких рабочих частотах, что даёт вычислительную мощность почти что на 4% больше, а также на 13% большую пропускную способность памяти. Впрочем, новинка всё равно уступает 8800 Ultra или даже 8800 GTX (86,4 Гбайт/с, с 768 Мбайт памяти, конечно), что ещё раз вызывает сомнения насчёт правомочности названия "GeForce 9800 GTX".
Member
Статус: Не в сети Регистрация: 11.11.2003 Откуда: Томск
Вот собираюсь приобрести 9800GX2 взамен 8800 Ultra. Играю в разрешении 1920*1200 и средние-высокие настройки графики и смотрю кино через HDMI на плазме в Vista Ultimate.
Вопросов по ней два:
1. Комп постоянно используется для просмотра фильмов через HDMI на плазме и игр - пишут что 9800GX2 (он же SLI для Vista) не поддерживает 2 монитора (телевизора, проектора и т.п.) - т.е. чтобы каждый раз посмотреть фильм мне нужно разбивать SLI через nVidia Control панель?
2. Настройки в nVidia Control панели Multi-GPU performance mode и Multi-Display/MixedGPU acceleration - какие нужно выставлять для игр имея 9800GX2 и квад Q6600 разогнаный!
Про режим работы SLI, "мега"-исследования (одну игру пытался запустить CityLife2008 - она у меня черные горизонтальные *разростающиеся в высоту* полосы выдавала через минуту игры, пришлось возится)
Одиночный - самый стабильный и самый хороший Но медленный, ясно почему
Сплит фрэйм - ясено, что быстрее но гораздо хуже чем Квад, как я понял почти одинаковый результат с одиночной 9800GX2, менее глючный чем AFR1/2, но тоже медленный.
AFR1 - процентов на 30 медленней чем AFR2, очень нестабильный. У меня уж точно.
AFR2 - самый шустрый, но очень нестабильный. Хотя в Supreme Commander все шоколадно.
А ну да... Я про 2x9800GX2 тут мыслями растекался.
Member
Статус: Не в сети Регистрация: 11.11.2003 Откуда: Томск
Эх я вот тоже имею разогнаную Ультру и мне везут уже 9800GX2 - т.е. в опщем то вопрос о замене отпал
Имею также 24 дюйма моник, 1920*1200 и только самые новые игры (Assasins Creed, Vegas 2, Crysis, DIRT и т.п.).
Как я понял прирост максимальных ФПС будет в принципе, но в тестах упоминался минимальный фпс, который обычно бывает низким, что и вызывает так называемые лаги.
Теперь интересуют настройко дров для одной GX2.
И давайте определимся всётаки чтобы вывести кино на телек через HDMI придётся разбирать SLI или нет?
Проблема с 9800GTX. Аналогичная проблема была, правда, и с 8800 GTS 512 Mb. Проблема в следующем: играю я в Counter-Strike Source, через какое-то время винда падает замертво с синим экраном, сообщением о критической ошибке и остановке системы. После отправки отчёта об ошибке открывается сайт майкрософта, который пишет что ошибка была вызвана NVIDIA Display Driver'ом, советует обновить драйверы под видяху. Когда у меня была 8800 GTS 512 Mb, дрова стояли 169.21 (тоесть последние), сейчас у меня 9800 GTX и дрова 174.74 (новее нету). Видеокарта не разогнана. Процессор C2D разогнан до 450 по шине без поднятия напряжения, память Корсар ДДР2-800 разогнана до 900 4-4-4-12 с поднятием напряжения до 2.128V. При поднятии шины до 475 и вольтажа до 1.5V (дальше стрёмно поднимать, боюсь за проц, всё-таки охлаждение штатное, к тому же мой БП выдувает из себя горячий воздух прямо на проц (Чифтек мать его, додумались же охлаждение сделать таким что оно внутрь корпуса выдувает) винда падает с аналогичной ошибкой просто до неприличия часто. Разгон убирать тоже не хочется, всё-таки прирост производительности заметен с разгоном. Что посоветуете?
Продавец
Статус: Не в сети Регистрация: 03.10.2003 Фото: 39
Цитата:
Да смысл гнать только если у тебя проц 5ггц, с моим процем прибавилось 200 попок 06 марке
эххх дурная привычка мерять карты марками ты в марк играешь? думаю что нет марк 06 уже стал процессорным тестом, от смены видео в дефолтном разрешении почти ничего не меняется... а вот от смены проца прирост очень ощутимый. Поэтому в 1280х1024 дефолтных такая картина. Выстави 1920х1200 +4х AA + 16х AF и картина изменится на противоположную - проц тут уже будет не нужен абсолютно, всё сразу же упрётся в видео и от его разгона ты получишь больше чем от разгона проца (если брать в расчёт не общий балл, а резалты по граф тестам в очках, т.к. результат проца всё равно вносит заметный вклад в общий результат "попок")
Цитата:
Есть смысл. Как я уже писал, в 1920х1200 16АФ разогнанная 8800GTX набирала 9000 попугаев в 06 марке. Теперяшняя 9800GX2 набирает 16000 очков. В обливионе в сложных сценах фпс почти что в 2 раза выросло.
вово )) народ тестит в дефолтном разрешении и сокрушается что прирост от включения sli (и QUAD SLI !!! ) - никакой.
Jordan
насчёт этих 2-х параметров... первый это вариации рендеринга картинки с включенным sli. Игрался с ним ещё на 7950гх2 - в итоге пришёл к выводу, что использовать что либо кроме дефолта бесполезно. В 90% при выставлении параметров вручную либо были артефакты, либо просто полная каша на экране, в других случаях прирост от sli стремился к 0, ну а в оставшихся не было разницы по сравнению с auto (подозреваю что просто "угадывался" режим, который и был выставлен auto). Разницы fps в б0льшую сторону без подхвата вышеперечисленных проблем не видел, в fear помнится удалось добится разницы в 15fps средних при ручном выборе одного из режимов относительно авто, но ценой постоянного мерцания картинки и периодически появляющихся полос.
Второй параметр интереснее, к sli прямого отношения не имеет (pre-rendered frames). В рива тюнере есть хорошее и правильное его описание. Я поигрался им на текущей карте чтобы увидеть зависимости. Сразу говорю на fps где бы то ни было влияния не заметил. Он меняет поведение "управления" в игре при падении fps ниже комфортной отметки. В шутерах это 40-50фпс обычно (если играешь должен знать о чём речь - управление рывками и нечёткое, сложности с прицеливанием и т.д.), в стратегиях и прочем 20-30фпс. При дефолтном значении в 3 - всё как обычно - падает фпс сильно и всё неиграбельно. Я тестил 6 и 8 (остановился на 8) - при падении фпс управление становится более комфортным - всё становится "плавнее". Но появляется небольшая задержка (еле заметно). Имхо играть становится комфортнее. Всё становится более плавным и переходы между разными сценами в играх и соот. разным фпс становится менее заметным. Тестить лучше на динамичных играх, где падение фпс очень хорошо заметно и "чувствуется" (CSS, HL2 EP2 и т.д.)
гх2 уже заказал, едет =)
вопрос тем, кто юзает карту и кто уже разбирал охлад, где остаются следы после снятия охлада? если замазать потом болты таким же прозрачным лаком - всё равно будет заметно или реально скрыть? Некоторые отписались в теме что замена стандартного ТИ на AS5/MX2 даёт чуть ли не 10 градусов. Имхо это серьёзный повод чтобы перебрать нафиг охлад (хотя гемор ещё тот). Да и ЖМ есть под рукой... И ещё один волнующий момент - на 8800гтс-гтх старых невозможно было почти никогда использовать тонкий ровный слой пасты (тем более ЖМ), т.к. каким бы не был прижим охлада - контакта почти никогда полного не было у чипа с основанием радиатора - надо было "подрезать" ножки. Как дела обстоят у GX2 - есть зазор и паста такими же кусками навалена как у старых карт или есть шанс посадить на ЖМ без подпиливания и "замеров"?
По поводу перехода слота в режим 8x - странно, думал уберут это =) Так же было и у 7950гх2. Но благо тут PCI-E 2.0, поэтому 8х на 2.0 = 16x на 1.х, которых вроде ещё с исбытком
Имею корпус 830-й Stacker от Cooler Master и на боковой крышке установлены 4х 120мм вентилятора. Сейчас все дуют "внутрь" охлаждая комплектуху. Но и карта сейчас 8800гтх - которая почти весь воздух горячий назад выкидывает, не нагревая ничего в системнике (стоит в нижнем pci-e слоте, т.к. в верхнем живёт SAS RAID контроллер). Т.к. тут почти весь воздух горячий будет изрыгаться внутрь системника - начинаю думать что делать с охладом и менять ли ориентацию боковых вентилей или оставить как есть... в принципе теоретически можно поставить их на выдув, но упадёт эффективность продува проца, памяти, чипсета и прочих частей, т.к. польза от такого изменения будет только для видео, с другой стороны нагнетание свежего воздуха внутрь тоже будет снижать температуру, но по идее не так эффективно - будет "размазывать" тепло равномерно по всем внутренностям...
з.ы. жаль что обзоры в основном делаются в висте, дх10 всё равно неюзабелен (1280x1024 мало кого заинтересует на такой карте, да и сглаживания и прочее хочется поюзать), а разница и отличие в графике настолько мало, что не стоит падения производительности в несколько раз относительно 9-ки. Багов с дровами и прочим на порядок меньше в XP + чистая производительность в том же DX 9 на висте ниже чем в XP. По крайней мере результаты тестов обнадёживающие - мало где sli не работает и почти везде работает как надо (в xp думаю ещё лучше бы было всё).
Bl@cK C@pt@iN
аналогичная ситуация бывает при нестабильной работе самой видеокарты... когда тестил на разгон свою 8800gtx - словил несколько зависонов в HL2 EP2 при игре в разрешении 1920х1200 всё на хай. И чип понижал и шейдерник и разгон с проца и памяти даже сбросил (единственное что не трогал - частоту памяти на карте) - как выяснилось - она не гонится абсолютно (2000 стояло), т.е. юзабельна только на 1800 (память хиникс). Хотя при игре в 1280х1024 и ночь в 06-м марке в тех же 1920х1200 выдерживала совершенно спокойно, как впрочем и часы волосатого куба - никаких артефактов и зависонов.. В итоге система подвисала, звук зацикливался - в 50% случаев можно было выйти на раб. стол и снять процесс игры (до перезагрузки после этого оставался юзабельным только 2д режим - запуск любого 3д приложения после этого тут же приводил к зависону - и к слову перезапуск драйвера из рива тюнера - тоже). В других случаях игра либо сама отваливалась через некоторое время выдавалось сообщение что драйвер видеокарты вошёл в бесконечный цикл и цвета с разрешением сбрасывались в 640х480х16.
"з.ы. было б здорово если бы кто нибудь кто уже разбирал охлад выложил гайд/faq с фотками по разбору =) или хотя бы основные моменты просто ))"
Эх жаль я не подумал, нужно было заснять разборку своих gx2... могу написать мини-гайд без фоток
1) отвинчиваем маленькие черные винтики по периметру кожуха.
2) с противоположного от видеовыходов торца карты аккуратно отлепляем 2 круглые резиночки, скрывающие еще 2 винтика, вывинчиваем винтики.
3) Одна из половинок кожуха уже легко снимается... вторую половинку удерживает разъем питания видеокарты - прикладываем небольшое усилие, чуть отгибая край кожуха, в месте его соприкосновения с разъемом.
4) Кожух снят, кладем карту той стороной вверх, как она стоит в мамке. Снимаем железку с выдео выходов - сначала плоскогубцами отвинчиваем шестигранные болты, крепящие железку к разъемам видеовыходов, затем длинной тонкой отверткой через отверстия в верхней плате откручиваем болты, крепящие железку к нижней плате, железка снята, можно приступать к отделению плат от радиатора
5) ничего сложного - откручиваем все подпружиненные винтики сначало с одной стороны, медленно тянем плату вверх - чип нормально отходит от медной вставки т.к. термоинтерфейс там довольно мягкий (вот помню 8800 Ультру я запарился от радиатора отрывать)
6) с торца видеокарты, где расположена подсистема питания есть 2 пластиковые стойки по краям, не забыть поставить на места при сборе...
Member
Статус: Не в сети Регистрация: 24.10.2006 Фото: 9
Народ как и обещал...итог прогона Club3D 9800GTX (810/1940/2400)
в общем на профильной системе выползло 16538 попугаев(дрова 174.74 WHQL) температура в простое 59-60, в нагрузе 73-75 макс (мониторинг ривой).....конечно же я недоволен резалтом....но в играх картинка и кадр подскочил заметно (Crysis,CoD4)..пока фиксирую глазомером... )) если интересно, то карта приобреталась по цене 7,450 руб...вот так вот !
Jose Marti
Статус: Не в сети Регистрация: 27.05.2003 Откуда: Бобруйск Фото: 1
Wildman писал(а):
потянет мой блок питания такую видеоплату? (Hiper 580w)
Советую не рисковать - этот БП не потянул мою 7950ГХ2(энергопотребление 140-150ватт, на 50ватт меньше 9800гх2) и поджарил 7900ГТХ. Лучше купи на будущее например ТТ на 700Ватт.
Продавец
Статус: Не в сети Регистрация: 03.10.2003 Фото: 39
ну чтож ) разобрать 9800гх2 действительно не сложно )
но идея с использованием metalpad потерпела крах к сожалению.
во первых до полного прижима кулера к плате винтами пластинку очень сложно удержать в "правильном" положении, а т.к. чтобы их завинтить нужно перевернуть плату (пластину кладём на gpu ессесно) то она постоянно теряет правильное положение. Соот. в итоге либо контакт будет не полным и часть чипа останется голой + есть риск замкнуть элементы вокруг ядра, съехавшей пластиной. ЖМ тоже не рискнул использовать. Заюзал ZM-STG1.
Кожух решил не ставить... пользы от него не увидел - имхо только блокирует доступ свежего воздуха и ухудшает отвод тепла (хоть и дырявый) + закрывает нижнюю и верхнюю части карт, что мешает их охлаждению. Аккуратно сложил и упаковал в коробочку )
щас буду тестить... ) Добавлено спустя 5 часов, 21 минуту, 40 секунд в нижнем слоте (на профильной конфе) не заработала как надобно в нижнем х16 слоте - не было опции включения sli в дровах. переставил в верхний слот и малец перебрал системник чтобы охлаждение адекватным было - и всё ок - опция сразу появилась ))
так что возможно будет полезно тем, кто планирует ставить карту в нижний слот на х38/x48 материнках.
температура после прогона марка06 в пике 65/70 по ядрам. имхо норм. кулер зафиксировал на 70% (1100об), на 100% темпа падает значительно, но слушать сие нереально.
выбил 17000 06-х попок на дефолте ) имхо неплохо (+3000 относительно 8800gtx@ultra) особенно для 1280х1024 дефолтного разрешения.
Jose Marti
Статус: Не в сети Регистрация: 27.05.2003 Откуда: Бобруйск Фото: 1
Sergmix писал(а):
Это нормально?
Обрати внимание на процессор в тестах - это квад работающий на 4Ггц.
Затем у тебя точно не:
а) включена вертикальная синхронизация
б) активировано сглаживание АА16х или АА8х?
Драйвер совпадает с тем что использовался в тестах?
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения