Часовой пояс: UTC + 3 часа




Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 21263 • Страница 1063 из 1064<  1 ... 1060  1061  1062  1063  1064  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 
Прилепленное (важное) сообщение

Member
Предупреждение 
Статус: Не в сети
Регистрация: 02.09.2009
Откуда: Воронеж
Фото: 4
В данной ветке обсуждаются только карточки GTX 980ti/Titan X (GM200 Maxwell 28nm)

В этой теме обсуждаются конкретные технические проблемы конкретных пользователей девайса, всё остальное, включая цены, все вопросы выбора и приобретения, решаются в другом месте!
#77 (пополняется)
#77Опросник: "Какая у Вас карта?"
#77Результаты опроса
#77Актуальные версии видеодрайвера
===========
Пример как разгонять карты 970/980/980ti по таблице буст частот
Информация от участника темы: Аффторитет
Приведу пример как разгонять карты 970/980/980ti по таблице буст частот. Не буду писать как бекапить/сохранять биос, как и
какие ставить поверлимиты - все это есть в шапке темы в инструкции по разгону. Образцом к материалу будет моя MSI GTX970
gamming 100ME. Поиграл я с разгоном в Afterburner-e и решил зашить разгон в биос. Задача разогнать карту бустом до 1506МГц
при напруге в 1.231в.
Начинаем.

Вкладка Power Table
Тут курите инструкцию из шапки, суть тажа.

Вкладка Voltage Table (очень важный момент, если вы меняете напругу)
Если гоните на стандартной напруге, вообще ничего не трогаем на этой вкладке :)
Если надо прибавить или убавить напруги, то меняем только 2-ую и 3-ью строку, остальные позиции не трогаем. Во второй и в

третьей строках в левый ползунок ставим желаемую напругу, правый ползунок второй строки делаем на шаг больше, чтобы при

мониторинге не показывало мол достигнут предел по напряжению. Для наглядности скрины, в левом оригинал, в правом изменения.
#77

Напругу изменили (ну а кто-то вовсе менять не будет), теперь сохраняем биос, прошиваем. Далее даем нагрузку на карту и

смотрим подается ли указанная напруга и до какой частоты бустит карта. И так, имею я напругу 1.231в и частоту 1304МГц. У вас

свои значения будут, запоминаем частоту и идем далее ...

Вкладка Boost table
По частоте находим свою буст позицию. У меня 1304мгц, которой соответствует позиция №62. У вас может быть другая, будьте

внимательны. Внизу двигаем ползунок так, чтобы на вашу буст-позицию установилась желаемая частота. На сринах 1506мгц на

позицию №62.
#77
Запоминаем значение из поля ползунка Max table clock (выделено красным на скрине)

Вкладка Boost States
В Р00 и в Р02 вписываем в поля GPC-MAX значение Max Table Clock с предыдущей вкладки
#77

Вкладка Common и Clock States
Тут ничего не выдумываем, а только ставим частоту памяти как написано в инструкции из шапки и/или меняем температуры,

скорость кулера по своему усмотрению. TDP, 3D Boost Entry-ы оставляем как было.

Сохраняем биос.


Теперь приступаем к колхозу.
На вкладке Boost table мы указали для своей буст-позиции нужную частоту, но при этом твикер наизменял еще с 2 десятка

позиций. Какого черта он так наглеет я не знаю, по-этому будем возвращать оригинальный значения частот буст-позициям,

предшествующим нашей максимальной. В моем случае с позиции №35 по №61.
#77

Качаем нех-редактор HxD http://mh-nexus.de/en/hxd/ или иной какой-нибудь. Устанавливаем. Запускаем. Открываем в редакторе

оригинальный биос, в меню жмем search - find, в поле search for вбиваем 12 2a 03 00 02, в поле datatype выбираем hex-values и

жмем ОК
#77
Поиск нам находит буст-позицию под №05 (выделено синим цветом)
далее вправо и вниз будут идти буст-позиции блоками по пять шестнадцатеричных значений - 06, 07, 08 и тд аж до 78
#77
я выделил 5 из них салатовым цветом (все выделять лень). Первое число каждого блока говорит об его нумерации (выделено в

красными кругами). Что означают остальные 4 значения в каждом блоке нам неважно, да я и не знаю хаха (но догадки имеются

:) ) Если эти нумерации перевести из 16ричной в 10ричную систему и затем вычесть 12, то получим нумерацию как в таблице

буст частот: 12 = 18 - 12 =06, 13 = 19 -12 = 07, 14 = 08, 15 = 09, 16 = 10 и тд.
Теперь мне надо добраться до позиции №35, с которой твикер начал свои жестокие изменения. Для этого надо к 35 уже

прибавить +12 и перевести результат в 16ричную систему - получаем 2F и находим этот блок (выделено синим). Ищу теперь

блок №61, его позиция в редакторе будет 61+12 = 49 в 16ричной системе исчисления (выделено розовым).
#77
Теперь выделяю все от блока 2F до блока 49 включительно и копирую, нажав ПКМ-copy.
#77
Теперь открываю модифицированный биос, точно так же нахожу блоки буст-позиций от №35 по 61, выделяю их и все что между

ними, вставляю заменой (ПКМ-paste write) порцию скопированных ранее оригинальных блоков буст-позиций. Далее сохраняю изменения.

Теперь отколхозенный биос открываю в твикере и смотрю что получилось (на скрине оригинал, мод и нех-мод)
#77

Теперь пересохраняем его в твикере, а то контрольная сумма (checksum) у нас не совпадает. Твикер выровняет ее за нас при

сохранении :)

Далее прошиваемся и наслаждаемся кашерным разгоном через буст. Вот и всё :)
Пошаговое редактирование BIOS(в том числе с помощью НЕХ-редактора) и рассмотрение ключевых параметров
Информация от участника темы: olegdjus
Решил и я свою лепту внести в разгон Maxwell (750ti/950/960/970/980/980ti/TitanX) с рассмотрением ключевых параметров. Так как я не сторонник отключения Boost - то будем с ним.
Но начнем с подготовки.
а) Шьем крайний стоковый BIOS для Вашей карты.
б) Качаем msi afterburner и gpu-z и устанавливаем их.
в) Тут три варианта.
1)Если не желаем поднять напряжение - пропускаем пункт в.
2) Если желаем поднять на шаг или два (на разных карта даже одного производителя шаг напруги может быть разный, так что всё индивидуально) - прибавляем в ab по 10мВ к напряжению (остальные вкладки не трогаем) и во вкладке датчиков gpu-z(Sensors) смотрим нагрузку под встроенным рендером(нажать вопрос в первой вкладке gpu-z рядом с Bus Interface и нажать
Start Render. Нас интересуют в датчиках показания GPU core clock и VDDC. Выбираем подходящий вариант и идем дальше.
3) Если желаем понизить напряжение - объясню во вкладке напряжений, чтобы не повторяться.
Далее скачиваем архив с программами для редактирования и прошивки BIOS.
Открываем с помощью MaxwellBiosTweaker свой BIOS и начинаем редактировать.


Начнем по вкладкам.
1) Вкладка Common
#77
TDP Base Entry/3D Base Entry/Boost Entry - эти параметры не трогаем, оставляем как есть.
TDP Base Clock/3D Base Clock/Boost Clock - значение базовых и бустовых частот. По факту, TDP Base Clock/3D Base Clock не зависят от asic карты и мы можем его выставить вручную, но брать стоит частоты из вкладки Boost table. На моем примере вы видите частоту с 34 ячейки таблицы.
А вот частота Boost Clock указывает нам минимальный буст для карты (1329Мгц - 59 ячейка таблицы), но фактический буст будет определяться asic карты (можно посмотреть его в gpu-z) - чем выше asic, тем выше базовая частота(на моей видеокарте с asic 73,5% буст из коробки до 1392.5Мгц - 64 позиция таблицы частот). С помощью изменения Boost Clock на значения из таблицы выше стоковых - мы переносим вашу частоту буста(изменение буста 1329 МГц(59 позиция таблицы) до 1354.5 МГц(61 позиция) приведет к изменению максимальной частоты буста(1392 МГц в моем случае(64 ячейка) до 1418 МГц(66 ячейка). Это позволит менять максимальную частоту буста без использования АБ. Это метод для ленивых :) Так же кнопочка Gpu Clock Offset +13MHz сделает то же самое, но еще и изменит TDP Base Clock/3D Base Clock(но их можно вернуть вручную на желаемые)
Temp Target/Max TEmp Target - по сути температурные лимиты, те же слайдеры есть в AB. Ставим значение 89/91 при условии, что видеокарта не греется 80+ градусов.
Fan Control - здесь тоже всё просто.
RPM1x/TMP1x/PER1x - это желаемые границы оборотов(шим)/температуры/процентов оборотов(напруга) для регулировки вентилей. Желательно проценты подгонять методом вычисления(2600/3200=81%, а не 70, как у меня, но у меня шим регулировка)
Итак, как это работает.
RPM13/TMP13/PER13 - максимальные значения оборотов, оставляем RPM13/PER13 без изменения, а TMP13 ставим в то значение, которое считаете нужным (у меня 3200 оборотов(макс) при 90 градусах)
RPM11/TMP11/PER11 - до этих значений вентили с нуля будут раскручиваться или же начальные значения. На скрине у меня до 35гр вентили крутятся с технически минимально возможного значения до 1000об, после 35 и до 70гр(TMP12) раскручиваются плавно до 2600(RPM12).
Чтобы остановить вентили RPM11/TMP11/PER11 записываем как 0/0/ХХ, где ХХ - температура, до которой вентили будут стоять.
Memory Clock - частота видеопамяти. Ставим стабильное по вашему мнению значение и отнимаем 100Мгц. Для большей стабильности.

2) Вкладка Voltage Table
#77
Здесь мы выставляем напряжение. Я привожу пример с максимальным напряжением 1281, для напряжения повыше надо редактировать clk6+ для корректной работы.
Меняем только первые три строчки. АКТУАЛЬНО ДЛЯ GM200:
Если ваш BIOS выглядит как на скриншоте:
#77
то необходимо открыть 2 и 3 строчки в таблице напряжений. Для этого открываем BIOS в КВТ и двигаем выделенные ползунки в произвольное положение:
#77
Получается примерно так:
#77
Теперь ваш BIOS выглядит так в МВТ:
#77
1 строка: максимально возможное напряжение (зависит от регулятора напряжения вашей ВК, может максимально стоять и 1281, и 1250, тут как повезет). Ставим 1281.3.
2 строка: это наше базовое напряжение для Boost Clock.
Если желаете на шаг снизить напряжение - меняем максимальное напряжение в этой строке на шаг вниз стрелками клавиатуры и шьем BIOS с этим напряжение и выполняем шаги с рендером в gpu-z. Полученное напряжение (это будет минус шаг от вашего стокового напряжения) пишем первым значением во вторую и третью строку.
Если не желаете на шаг снизить напряжение - ставите напряжение, найденное при помощи AB в минимум и плюс один шаг в максимум. При таком раскладе частоты сбрасываться под температурой НЕ БУДУТ.
Максимальное напряжение в этой строке ставим на шаг больше от минимального.
3 строка: Минимум как и во второй, максимум - как первая. Это как раз то напряжение, которое через АВ мы можем регулировать.

Здесь можете углубленно прочитать про редактирование напряжений их шагов

3) Вкладка Power Table
#77

Это лимиты мощности. Нас интересуют первые 6 групп(одна группа состоит из Min|Def|Max значений)
1 группа - это TDP карты. По сути, это то значение тепла, которое производитель гарантирует отвести с помощью СО, к лимиту мощности отношения не имеет. Ставим его таким же, как и значения 6 группы.
2 группа - пропускается, не трогаем руками
3 группа - мощность слота pci-e, ставим как на скриншоте.
#77
4 группа - мощность первого доппитания. Без энтузиазма ставим 75000 для 6пин и 150000 для 8 пин
5 группа - мощность второго доппитания. Без энтузиазма ставим 75000 для 6пин и 150000 для 8 пин
6 группа - лимит мощности. Вот что нас и интересует! Я ставил 280/300вт (75+75+150), если не хватает - в AB кручу ползунок. Эти же значения пишем в 1 группу(не обязательно).

4) Вкладка Boost Table
Вот и та самая таблица частот.
Стоковая:
#77
Правленая по инструкции "Пример как разгонять карты 970/980/980ti по таблице буст частот" с шапки, но с измененным алгоритмом, с другими частотами с 35 ячейки(чтоб большой разницы между частотами не было):
#77

Вариант с редактирование таблицы частот с помощью НЕХ-редактора:
Выставляем нужное нам напряжение буста во 2 и третьей строчке таким образом(моё напряжение для буста - 1.175в)
Во второй строчке к правому значению прибавляем один шаг, в третьей ставим максимальное значение, до которого через АВ можно будет поднять.
#77
Запоминаем, на какой ячейке расположена частота 3d base clock:
#77
На позицию буста(у меня при 1.174в это 59 ячейка) ставим частоту, которая при этом напряжении стабильна(я ставлю на 20-30 мгц ниже, остальное добавляю в АВ)
#77
Далее открываем биос в НЕХ редакторе и ищем ячейку буста:
к номеру ячейки прибавляем 12 (в моём случае 59+12=71) и переводим в hex (71d = 47h). Далее берем частоту на этой ячейке(1455.5 у меня), умножаем на 2(2911) и переводим так же в НЕХ(2911d = 0B5Fh). Ноль не теряем.
Далее ищем в НЕХ коде биоса следующую шестнадцетиричную последовательность:
47 5F 0B 00 01
#77
Где 47 - НЕХкод ячейки биоса, 5F 0B - удвоенная частота младшими разрядами вперед(0B_5F), 00 01 - код команд.
Влево(с 46 позиции) идут ячейки с 58 до 1 группами по 5. Берем значение частоты, которое у нас будет между базовой и частотой буста(я выбрал 1405), переводим в знакомый формат (1405 * 2 = 2810d= 0AFAh) и вставляем их с ячейки перед бустовой(58у меня) по ту, на которой стояла базовая частота + 1 (43+1=44) и меняем их на нужное нам значение (FA 0A)
После редактирования таблицы частот соотносим значения в таблице напряжений, сохраняем биос и прошиваем.
#77
#77
Можно писать любые частоты, выбирать любой шаг, но твикер может перечеркивать частоты, которые в него не забиты. Ничего страшного, это софтовая недоработка, КВТ так же показывает биос от максвелла.
#77
#77

5) Вкладка Boost States
Меняем лишь Max GPC в Р00 и Р02 на значение из 74 ячейки таблицы частот, остальное нас не касается.

6) Вкладка Clock States
Тут в DDR профиля P00 ставим частоту памяти из первой вкладки (а точнее - она сама тут изменится при изменении частоты там), а вот DDR в Р02 или оставляем как есть, или меняем на значение как в P00. Если оставим как есть - может в играх при записи видео(в том ж АБ например при аппаратке) скидывать частоту до этого значения.
Тюнинг "тыковок": модификация микрокода видеокарт поколения Maxwell
Программы для прошивки и редактирования BIOS
Скачать

Редактирование напряжений(VID) и их шагов
Intel Core i7-6700K vs. i5-6600K Stock and OC - CPU Gaming Performance
Опыт установки гибридного охлаждения на 980TI
Выбираем видеокарту Nvidia GeForce GTX 980 Ti: обзор 12 моделей
ОБСУЖДЕНИЕ ПОВЫШЕНИЯ ЦЕН БУДЕТ РАСЦЕНИВАТЬСЯ КАК ОФФТОП!
Вопросы типа "Что лучше купить - ASUS или PALIT" будут удаляться безжалостно.Выбор ВК в другой теме.
Убедительная просьба:
При размещении медиа информации (видео и скриншотов), используйте тег
Код:
[spoiler=media]Ваша ссылка[/spoiler]

Чтобы видео можно было воспроизвести прямо на странице форума, используйте тег
Код:
[spoiler=media][media]Ваше видео[/media][/spoiler]

ПРАВИЛА КОНФЕРЕНЦИИ обязательны к прочтению и исполнению всеми пользователями без исключения.

_________________
pentiumD 925-E3300-E7500-E5800-QX9650-i5 2500k-i7 2600k-Core i7 8700
Ati x1650pro-GF 8600GT-Ati HD4850-GTX560-GTX560x2-GTX760-R9 280X-GTX1070ti


Последний раз редактировалось Olegdjus 09.03.2017 10:04, всего редактировалось 25 раз(а).
редактирование шапки, добавление информации



Партнер
 

Member
Статус: Не в сети
Регистрация: 07.07.2018
ohrenet писал(а):
Что может быть?
Кто же оставляет карту на 0 фан до 60 градусов ? В любом случае она в какой то момент просто получит отвал чипа , ну это же очевидно .#77

_________________
I7 4770 ,Asus H97-Pro ,4G x 4 ,GTX 1070 WINDFORCE OC 8G ,Audigy2ZS , BBK MA-850 s ,logitech lx710 ,4u case ,Vinga 1350W .3 tb hdd ,w10x64ltsb1607 .


 

Member
Статус: Не в сети
Регистрация: 14.08.2008
Откуда: РуNET
Фото: 2
dc64dc64 писал(а):
Кто же оставляет карту на 0 фан до 60 градусов ?

Это заводская настройка, я биос не ковырял.

Добавлено спустя 27 минут 32 секунды:
ohrenet писал(а):
то-то неладно произошло с картой . В общем, карта Gigabyte GTX 980TI XTREME GAMING. Только что запустил игру Одисея и через минуту начало изображение лагать. Комп перезагрузился, теперь АB не видит весь доступный ПоверЛимит. Если на первом (стандартном) биосе PL можно было увеличивать на +44% и вертушки до 60* не крутились, то теперь ничего этого нет. Вертушки все время вращаются, PL только +1%. То же самое, если переключить биос на второй. Там все так же без изменений. Хотя биосы на самом деле вшиты разные, с разными настройками вертушек и PL.
Менял дрова, переустанавливал AB. Все без изменений. Что может быть?
Скрытый текст

После снятия и установки ВК перключатель БИОС заработал :)

_________________
AsRock z170 Pro4s | I7 6400t L501C679@4008 | Sumsung M378A1K43BB1 8Gbx2@3170 | Inno3D GTX 1070 X3 | Chieftec [APS-650C] 650W


 

Member
Статус: Не в сети
Регистрация: 07.12.2014
Откуда: Spb
Фото: 2
brazil Не, у меня не совсем так было - именно после ребута слетала картинка, либо иногда после выхода монитора из режима сна. Щас больше такого нет, иногда правда бывает слетает UEFI биос - приходится например по новой отключать загрузку CSM и порядок загрузки менять и т. п. Не знаю даже, связано ли это с видеокартой.

_________________
На форуме года с 2003, если не раньше, просто прерывалась активность - приходилось рег-ся заново.


 

Member
Статус: Не в сети
Регистрация: 09.10.2006
Фото: 0
930 интел 2.8 мгц, 980 ти реф и монитор 3.5К в ведьмаке 3 все на макс, без сглаживания выдает чуть больше 40 кадров. :crazy:


 

Member
Статус: Не в сети
Регистрация: 31.03.2011
ohrenet писал(а):
Это заводская настройка

подтверждаю :yes:
dc64dc64 писал(а):
Кто же оставляет карту на 0 фан до 60 градусов ? В любом случае она в какой то момент просто получит отвал чипа , ну это же очевидно

физические законы для всего одинаковы: возможность нарушение целостной структуры зависит от разности температур = расширений материалов во время работы карты (шире диапазон - вероятнее нарушение) так же от количества подобных расширений
т.е следуя логике:
уже диапазон колебаний рабочей температуры (60-70) / меньше повторов (прогрев - остывание) - отвал менее вероятен
шире диапазон колебаний рабочей температуры (30-70) / больше повторов (прогрев - остывание) - отвал более вероятен
есть и нюансы (которые тоже нужно учитывать)
время прогрева материала
при пороговом (60гр) отключении вентиляторов прогрев до этой температуры будет идти быстрее = неравномернее, значит возможность внутри структурной деформации возрастает
итд. итп "мелочи"

не так тут все просто :?:

_________________
А ты кто со свои словесным поносом или на хоботе скучно и поговорить не с кем? @nag77


 

Member
Статус: Не в сети
Регистрация: 07.07.2018
Олег1972 писал(а):
не так тут все просто
Да Вы физик - ядерщик , не хочу вас обидеть но ремонтом занимаюсь вот уже 19 лет . 0fan губительны для карт , что для зелёных - что для красных , мы можем спорить , но производители знают что делают , типа шума нет , типа не сильно греет , но уже 60 градусов со временем разрушает слой шаров ) и не спорьте !!!
ь

_________________
I7 4770 ,Asus H97-Pro ,4G x 4 ,GTX 1070 WINDFORCE OC 8G ,Audigy2ZS , BBK MA-850 s ,logitech lx710 ,4u case ,Vinga 1350W .3 tb hdd ,w10x64ltsb1607 .


 

Member
Статус: Не в сети
Регистрация: 08.08.2009
Откуда: Москва
Фото: 38
Снял водоблоки со своих 980ti на продажу спустя 3 года активного использования. ЖМ Coolaboratory Liquid Ultra ниразу не высох, термопрокладки в идеальном состоянии, как новые. Вот что значит эксплуатация в чистоте и холоде)
#77


980ti на водоблоке в сравнении с 2080ti на водоблоке
#77

_________________
i9-9900k@5200 avx offset 0 @1.42v LLC5 || Apex XI || G.Skill F4-4600C18D-16GTZR @4600Mhz 17-19-19-38 || Aorus RTX 2080Ti Extreme @2100/8100 bios 380W


 

Member
Статус: Не в сети
Регистрация: 07.12.2014
Откуда: Spb
Фото: 2
Auroson1c 2080ti тоже пара будет? Как оно после 980ti - двукратный прирост FPS есть? Проц-то (3960X пусть даже 5 GHz) наверное не даст раскрыться и одной 2080ti в 1440/1600p, не говоря уже о двух?

_________________
На форуме года с 2003, если не раньше, просто прерывалась активность - приходилось рег-ся заново.


 

Member
Статус: Не в сети
Регистрация: 08.08.2009
Откуда: Москва
Фото: 38
dadoc 2080ti одна, прирост по сравнению с парой 980ti порядка 15-20%. Основная причина смены - избавление от sli, ибо далеко не везде работает и микролаги дает + инпут лаг выше + потребление на 250w выше. А проц у меня 9900k уже) профиль пока не обновил )

38289

_________________
i9-9900k@5200 avx offset 0 @1.42v LLC5 || Apex XI || G.Skill F4-4600C18D-16GTZR @4600Mhz 17-19-19-38 || Aorus RTX 2080Ti Extreme @2100/8100 bios 380W


 

Member
Статус: Не в сети
Регистрация: 07.12.2014
Откуда: Spb
Фото: 2
Auroson1c Вся платформа значит обновилась, не только GPU? И как впечатления от 9900K в сравнении с 3960X
Избавление от SLI поддерживаю, нормально хоть пару 980ti удалось продать? Наверное дороже 15-20 за штуку уже никому не надо?

_________________
На форуме года с 2003, если не раньше, просто прерывалась активность - приходилось рег-ся заново.


 

Member
Статус: Не в сети
Регистрация: 08.08.2009
Откуда: Москва
Фото: 38
dadoc писал(а):
Auroson1c Вся платформа значит обновилась, не только GPU? И как впечатления от 9900K в сравнении с 3960X


Ну как, самолет )))

dadoc писал(а):
Избавление от SLI поддерживаю, нормально хоть пару 980ti удалось продать? Наверное дороже 15-20 за штуку уже никому не надо?


В продаже висят, с водоблоком за 20, в стоке 16.

_________________
i9-9900k@5200 avx offset 0 @1.42v LLC5 || Apex XI || G.Skill F4-4600C18D-16GTZR @4600Mhz 17-19-19-38 || Aorus RTX 2080Ti Extreme @2100/8100 bios 380W


 

Member
Предупреждение 
Статус: Не в сети
Регистрация: 09.09.2016
Откуда: Белорецк
Фото: 1
киньте инфу про не установку видео драйвера - это проблема програмная или больше механическая? Раньше вроде постоянно всплывало обсуждение, а сейчас и в гугле больно инфы нету

_________________
Echo mia midi + jvc ax511 + 100гдш16


 

Junior
Статус: Не в сети
Регистрация: 15.10.2018
seebox писал(а):
киньте инфу про не установку видео драйвера - это проблема програмная или больше механическая? Раньше вроде постоянно всплывало обсуждение, а сейчас и в гугле больно инфы нету


попробуй если есть возможность на другом компьютере, если не установиться, то однозначно железячная проблема :-(

_________________
i7-3770K@4,5GHz|Asus Maximus V Gene|AMD R9 DDR3 2x8Gb 2133@2400(CL11)|EVGA GTX1080Ti FTW3|Audigy RX|Case CoolerMaster Silencio 352|Iiyama 27" FHD


 

Member
Статус: Не в сети
Регистрация: 31.03.2011
dc64dc64 писал(а):
Да Вы физик - ядерщик , не хочу вас обидеть но ремонтом занимаюсь вот уже 19 лет . 0fan губительны для карт , что для зелёных - что для красных , мы можем спорить , но производители знают что делают , типа шума нет , типа не сильно греет , но уже 60 градусов со временем разрушает слой шаров ) и не спорьте !!!

:-) так это не спор - всего лишь логика: больший вред наносит не статика, но динамика (таковы законы мироздания)
хотя конечно.......опыт имеет значение, потому в конкретном случае (нашем случае) я не буду оспаривать ваше мнение :beer:

ЗЫ
Не ради спора, но тут наиболее интересен вот какой вопрос
следуя теории (что поддерживаю я) многократная деформация приводит к частичному разрушению некоторых шаров, в дальнейшем, плохой контакт в месте разрушения приводит к окислению и полной потери контакта (подобное мы можем наблюдать так же в более габаритных соединениях, клеммы, соединения (например в авто)
эту теорию подтверждает способ частичного восстановления чипа путем прогрева (олово плавится - контакт восстанавливается)

Вопрос - в чем заключается ваша теория, каким образом постоянная температура 60гр. убивает шары(температура плавления которых от 240гр)?

denks писал(а):
попробуй если есть возможность на другом компьютере, если не установиться, то однозначно железячная проблема


поддерживаю - проверяй на другом ПК, либо на этот ставь заведомо исправную карту не меньшей (а лучше большей) прожорливости
это я к тому что БП может так умирать

_________________
А ты кто со свои словесным поносом или на хоботе скучно и поговорить не с кем? @nag77


 

Member
Статус: Не в сети
Регистрация: 27.02.2008
Откуда: Russia
Фото: 10
Олег1972 писал(а):
Вопрос - в чем заключается ваша теория, каким образом постоянная температура 60гр. убивает шары(температура плавления которых от 240гр)?

Чисто для информации. Эксплуатировал карту три года, в основном температура держалась в пределах 45С, хотя летом было и больше 50С (корпус открытый). После трех лет карта прошла stress test Time Spy Extreme - 99.3%
Ну что сказать, если гпу охлаждать водой, то ничего не отваливается. Гибридный кулер с этим справляется. Другое дело, что если на постоянку держать карту под нагрузкой, то страдает больше VRM.
Кстати именно по этой причине EVGA стала менять охлаждение VRM. Теперь на картах с гибридным охлаждением, водой охлаждается гпу, а на VRM идет отдельный радиатор с вентилем. Что характерно такая схема позволила снизить температуру на все компоненты видеокарты: гпу, память и VRM, по сравнению с одним воздушным кулером на все.


 

Member
Статус: Не в сети
Регистрация: 31.03.2011
brazil писал(а):
Чисто для информации. Эксплуатировал карту три года, в основном температура держалась в пределах 45С, хотя летом было и больше 50С (корпус открытый). После трех лет карта прошла stress test Time Spy Extreme - 99.3%
Ну что сказать, если гпу охлаждать водой, то ничего не отваливается. Гибридный кулер с этим справляется. Другое дело, что если на постоянку держать карту под нагрузкой, то страдает больше VRM.
Кстати именно по этой причине EVGA стала менять охлаждение VRM. Теперь на картах с гибридным охлаждением, водой охлаждается гпу, а на VRM идет отдельный радиатор с вентилем. Что характерно такая схема позволила снизить температуру на все компоненты видеокарты: гпу, память и VRM, по сравнению с одним воздушным кулером на все.

Если я правильно уловил мысль - суть вашего поста: чем меньше температура - тем меньше вероятность отвала.

Ну что сказать........ вы частично подтверждаете мою позицию, т.е .........чем меньше рабочая температура - тем меньше диапазон температурного расширения материалов
суть - мы живем в физическом мире, где все подвластно физическим законам (карты не исключение)
простейшие примеры
1) хотим выкорчевать столб - мы качаем его туда - сюда, именно этот переменный фактор оказывает наибольший эффект
2) хотим отвернуть приржавевшую гайку, а вдшка не помогает, тупо греем - температурное расширение приводит к деформации материала - рвет слипшееся соединение (то же самое касается разных втулок, валов, итд итп)
3) лампочки чаще всего перегораю при включении, выключении - больше циклов, быстрее сгорит лампочка
итд. итп

другими словами:
допустим возьмем за точку отсчета 0-100градусов =0-100%
a) при включении, карта с воздушным СО грется 0-70гр. диапазон температурного расширения 70% т.е происходит цикличное "шатание столбика" в диапазоне 70% (от 100% гипотетически возможных)
b) при включении карта с СВО греется до 35% диапазон температурного расширения 35% т.е происходит цикличное "шатание столбика" в диапазоне 35% (от 100% гипотетически возможных)
т.е все логично - в случае "а" вред значительно сильнее

повторюсь - наибольший вред наносит постоянно меняющаяся нагрузка (вкл -вык /нагрелось - остыло) т.е по сути, отвал происходит от механического повреждение ("шатания столбика)
ну или.........хитрый хуанг так задумал :-)
все ИМХО

кстати, раз уж зашел об этом разговор
моя тишка 980tiSJS (карте 3,5года) видимо приплывает
по температурам никогда не грубил, все чисто, аккуратно, однако есть предположение - на старом БП 850ватт. обнаружил вздутый конденцатор (который большой) так же обнаружились некоторые проблемы с матерью GA Z87X-OC
предполагаю что БП хандрил давно, и возможно перекосы напряжения убили мать и карту (пока лишь догадки, нужно диагностировать)

_________________
А ты кто со свои словесным поносом или на хоботе скучно и поговорить не с кем? @nag77


 

Member
Статус: Не в сети
Регистрация: 27.02.2008
Откуда: Russia
Фото: 10
Олег1972 писал(а):
Если я правильно уловил мысль - суть вашего поста: чем меньше температура - тем меньше вероятность отвала.

Да, в этом собственно и дело. Я эксплуатировал не одну карту, ставил их плотно, SLI все-таки. На воздухе страдали бы гпу, поэтому я изначально ставил СВО на гпу.
Как показала практика сами гпу на прямую не страдают, а вот VRM оказалась слабым местом. Кстати проверь свою карту не только по чипу, по и по VRM


 

Member
Статус: Не в сети
Регистрация: 19.03.2011
Привет ребята:
Прошу помощи в разгоне Gigabyte GTX 980TI G1 GAMING через msi after burner.
Пробовал гнать до 1500-1524 по ядру, происходят вылеты в Metro Exodus , и Assassins Creed Cyndicate.
Память пробывал оставлять без разгона толку ноль.
Лимит питания максимум, температута тоже. По мониторингу температура выше 70 не поднимается.
С мониторингом напряжения фигня какаято выше 1.22 не поднимается , добавлял +34, +43,+63,+83mv.

Конфиг файл afterburner не изменял.

Пробывал значения напряжений ставить как на редите пишут владельцы g1 gaming , и нифига не помогает, нет стабильности. Плюс MSI AFTERBURNER показывает при разгоне 1.22.v при нагрузке и это очень смущает.

Обязательно вскрывать корпус теперь замерять температуру VRM на видюхе ?

_________________
GA-Z97X-UD5H-BK/SSD_Vertex_4_128/Kingston 32Gb/i7 4790k, 4,5Ггц/Giga GTX 980 ti g1/TR2RX 1200W
Clooler master jetflow 120 2 шт на проце


 

Member
Статус: Не в сети
Регистрация: 12.06.2006
Откуда: Уссурийск
dark-----13 писал(а):
Пробовал гнать до 1500-1524 по ядру, происходят вылеты в Metro Exodus , и Assassins Creed Cyndicate.

как будто 1500-1524 это само собой разумеющееся :D Карты практически все берут эти значения, но температуры должны быть около 50-55 градусов, не выше


 

Member
Статус: Не в сети
Регистрация: 23.12.2013
Откуда: Нижний Новгород
Фото: 0
Xenosag писал(а):
но температуры должны быть около 50-55 градусов, не выше

да ну нафиг ...таки заменил термопасту на своей ( 3 + года карте ) температуры за 80 С переваливали уже ,как оказалось там винты почти незакручены были ) теперь выше 72 негреется ,разгон 1450 -1500 со дня покупки ,хотя я в ведьмаки метры и прочую ..бень коридорную неиграюсь ))

_________________
Никогда не спорьте с идиотами . Вы опуститесь до их уровня , где они вас задавят своим опытом .


Показать сообщения за:  Поле сортировки  
Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 21263 • Страница 1063 из 1064<  1 ... 1060  1061  1062  1063  1064  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: 100sergo100, alexl666, Gogino2005, Hobot, ivtivt, Kirillwhite, makakut, Poisonmss, sse85 и гости: 26


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  



Лаборатория














Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan