Видеодрайвер перестал отвечать и был успешно восстановлен
Если во время игры или теста зависла система, и вылетела на рабочий стол с сообщением "[b]Видеодрайвер перестал отвечать и был успешно восстановлен" то причина на 99% в нехватке напряжения, часто всего бывает на картах уже с заводским разгоном, так как производители не совсем корректно подобрали напряжение, а так же иногда встречается и со сток частотами. Решения данной проблему тут два
1)Зайти на сайт производителя карты и обновить биос, если это не помогло, приступаем ко второму варианту
2) -Устанавливаем MSI Afterburner -Запускаем MSI Afterburner -Устанавливаем маркер #77 -Заходим в Settings и ставим 3 галки #77 -Нажимаем ОК программа попросит перезапуск. Выполняем ее перезапуск. -У нас появляется доступ к верхнему ползунку Core Voltage (mV), передвигаем его вправо на 1-2 шага -Нажимаем кнопку Apply #77
1 шаг равняется 12 или 13 mV, то есть если у нас изначально стандартное напряжение 1000mV, то следующий шаг изменения напряжения будет 1013mV, следующий уже будет 1025mV и так далее
2. По замерам реального напряжения на видеокартах мультиметром, можно с уверенностью сказать, что мониторинг видеокарт не отражает реальное напряжение на GPU. Реальное напряжение выше на 0,015-0,008 Вольта, чем значение, которое выводит MSI Afterburner, всё зависит от конкретного случая, уровня разгона и режима в котором работает карта (замеры и доп. инфа на стр. 251-254 данного топика).
Дабы не было лишних вопрос "почему в этой игре греется карта так а в той так?", "так же по количеству ФПС в играх", ставимMSI Afterburner(как настроить/разогнать)и мониторим загрузку GPU. Дальнейшее обсуждение будет наказываться. Игнорирование шапки со словами "ой я не заметил" от наказания не избавит.
При обсуждении температур ваших видеокарт подтверждаем скринами с АВ или GPU-Z
Все пожелания и предложения по теме, с радостью принимаются куратором темы и модераторами раздела "Видеокарты" в ЛС! Текущие кураторы данной темы: oZZy_tv и bartx3
Последний раз редактировалось Dex 12.10.2023 13:40, всего редактировалось 134 раз(а).
а уж разогнанный грамотно удачный GTX 580 совсем близко подойдет к 590 разница будет в 10 -20 процентов наверное. к тому же в GTX 590 наверняка будут "отборные чипы" так как на частотах 607 все GF110 могут работать поголовно, так что думаю что это будут самые некачественные экземпляры идти, так как расчитывать будут именно на то, что их разгонять не будут, так как подсистема питания 2 * 8 много не удержит))) Думаю для 2 чипов GF110 это "впритык".
Ты себе наверное даже не представляешь какая будет у GTX 590 себестоимость, если они будут для них чипы отбирать. Про "отбор" чипов, как мне кажется была очень хорошая PR компания, на которую все клюнули
почитай повнимательнее в моем посте про "отборные чипы" я написал : "будут самые некачественные экземпляры идти" так как расчитывать будут именно на то, что их разгонять не будут и так как на частотах 607 все GF110 могут работать поголовно. А те которые хорошо работают на более высоких частотах будут пускать на GTX 580.
Последний раз редактировалось darkxxx 24.03.2011 11:16, всего редактировалось 1 раз.
ну а себестоимость как обычно тысяч 25 для начала в России GTX 580 приспустят маленько до 14 - 15.
всё с Вами ясно
поправил "себестоимость" не вовремя заметил)
Добавлено спустя 3 минуты 46 секунд: себестоимость замечу распределяется на всю выпущенную продукцию в рамках партии, это я вам как программер 1С говорю, то есть на всю партию GF 110 будет распределяться как нематериальная затрата. так что не думайте что это будет распределяться на конкретные карты. Никто вам не будет в ручную отбирать, смешно просто такое слышать от Nvidia, тестировать будет оборудование как впрочем и всегда...
Добавлено спустя 2 минуты 17 секунд: в общем ничем на себестоимость это не повлияет поскольку данная продукция должна и тестируется оборудованием на стабильность работы и уже на этом этапе будет определяться куда он пойдет в GTX 580 или GTX 590
А двум 590GTX думаете чисто теоретически хватит 1200W?
Не хватит
Antec HCP-1200 и Enermax 1250W запросто потянут, по крайней мере тянули 4xGTX580 в разгоне...пруфы ищи на xtremesystems я же сказал, всё зависит от БП. При чем частоты у GTX590 меньше, чем у сток GTX580, а если еще сравнить с разогнанными GTX580 на 1ГГц, то потребление и еще меньше...
Member
Статус: Не в сети Регистрация: 12.07.2010 Откуда: Ростов-на-Дону
darkxxx писал(а):
причем ладно было бы брак так у всех такая тема техподдержка MSI просто переполнена от таких постов и все выбивают биосы с увеличенным напрягом так как не одна карта не пашет с их напрягом... более того были случае когда в коробке с надписью ОС приходил полностью референсный экземпляр, шутка что ли ))) люди выбивали биос с норм для ОС частотами а потом оказывалось что карта у них не выдерживает с повышенной напругой до 1.038 - 1.0505 должна быть... вот такие вот пироги и таких людей не 5 -10 а вот к примеру биос с 1.0505 скачало 20 человек...это только те кто про это знают...так что я бы поосторожнее был с MSI особенно с разогнанными моделями с наклейкой OC на коробке за полный рефер можно не переживать он работает а вот с ОС облом.
Добавлено спустя 1 минуту 58 секунд: в Общем MSI GTX 580 OC это не лотерея а гарантия точных проблем.
Такая же карта с такими же косяками, плюс ещё Бурнер бывает что сбрасыват напругу на дефолт самостоятельно . darkxxx болшая просьба - поделись Биосом на 0,05в
Вообще-то обсуждение и обмен БИОСами происходит в другой теме. В заглавном сообщении темы есть ссылка. А просьбу поделиться БИОСом можно отправить определённому пользователю напрямую в ЛС, так будет и лучше и быстрее.
Egorka Дело не в Бурнере у меня все по дефолту скидывает как только произшел сбой драйвера...и частоты и кулер все настройки в основной панели в АВ остаются точнее показывает то что было, исключение это профили в АВ. они не сбрасываются. ты юзаешь стандартный алгоритм турбины или поставил свой?
Всем хай. Нужен совет. Имеется такой конфиг: Core i7 920 (2.8 Ghz) Asus P6T Deluxe OC 3x2 Gb DDR3 1333 Corsair GTS 250 1Gb 250GB WD + 500Gb Samsung + 64Gb SSD Cooler Master UCP 900W Win 7x64
Решил взять новую видюшку, ибо раньше стояла ZOTAC GTX 480 AMP всем меня устраивала, но она приказала долго жить после года работы, перебился бюджетным вариантом. Сейчас думаю между 570 Сли и 580 Сли,а может и одну 590 (если по обзорам нормальной будет). Знаю, проц надо будет гнать, что бы раскрыть потенциал СЛИ, поэтому уже присмотрел уже нормальный куллер. Делема в приципе в следующем, СЛИ 570 все хорошо, но боюсь не будет ли упираться в память - 1280 маловато на будущее мне кажется, хотя если СЛИ то 2х1280 вроде должно хватить. Насчет СЛИ 580, боюсь будет упираться в проц, даже если разгоню до 4Ггц, то есть будет простаивать часть мощности, а по цене выйдет как 3 Way SLI 570. Может у кого есть примерно такой же конфиг и уже стоит СЛИ 570 или 580, какие есть мнения?
память в приложениях будет использоваться как 1280мб. Не удваивается.
Ну это смотря какое приложение, если софт, то там возможно да, а если игрушка, то там 1280 на половину экрана и еще 1280 на другую половину точно хватит.
будет простаивать часть мощности только в том случае если будешь играть на небольшом разрешении и небольшими настройками графики...а в процессорозависимых играх с небольшим упором на графику видяха будет в любом случае простаивать какую бы ты не взял в общем если хочешь играть на максимуме возможностей графики советую с процом не заморачиваться.
_________________ Asus G72GX RBBX05 | P8700 @2.88Ghz | 6GB DDR2 | Nvidia Geforce GTX 260m 1GB DDR3 | 17.3" LG 1600x900 LED LCD--нет уже сейчас ALIENWARE с i7 940XM
Последний раз редактировалось oZZy_tv 24.03.2011 15:24, всего редактировалось 1 раз.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения