Пример как разгонять карты 970/980/980ti по таблице буст частот
Информация от участника темы: Аффторитет Приведу пример как разгонять карты 970/980/980ti по таблице буст частот. Не буду писать как бекапить/сохранять биос, как и какие ставить поверлимиты - все это есть в шапке темы в инструкции по разгону. Образцом к материалу будет моя MSI GTX970 gamming 100ME. Поиграл я с разгоном в Afterburner-e и решил зашить разгон в биос. Задача разогнать карту бустом до 1506МГц при напруге в 1.231в. Начинаем.
Вкладка Power Table Тут курите инструкцию из шапки, суть тажа.
Вкладка Voltage Table (очень важный момент, если вы меняете напругу) Если гоните на стандартной напруге, вообще ничего не трогаем на этой вкладке Если надо прибавить или убавить напруги, то меняем только 2-ую и 3-ью строку, остальные позиции не трогаем. Во второй и в
третьей строках в левый ползунок ставим желаемую напругу, правый ползунок второй строки делаем на шаг больше, чтобы при
мониторинге не показывало мол достигнут предел по напряжению. Для наглядности скрины, в левом оригинал, в правом изменения. #77
Напругу изменили (ну а кто-то вовсе менять не будет), теперь сохраняем биос, прошиваем. Далее даем нагрузку на карту и
смотрим подается ли указанная напруга и до какой частоты бустит карта. И так, имею я напругу 1.231в и частоту 1304МГц. У вас
свои значения будут, запоминаем частоту и идем далее ...
Вкладка Boost table По частоте находим свою буст позицию. У меня 1304мгц, которой соответствует позиция №62. У вас может быть другая, будьте
внимательны. Внизу двигаем ползунок так, чтобы на вашу буст-позицию установилась желаемая частота. На сринах 1506мгц на
позицию №62. #77 Запоминаем значение из поля ползунка Max table clock (выделено красным на скрине)
Вкладка Boost States В Р00 и в Р02 вписываем в поля GPC-MAX значение Max Table Clock с предыдущей вкладки #77
Вкладка Common и Clock States Тут ничего не выдумываем, а только ставим частоту памяти как написано в инструкции из шапки и/или меняем температуры,
скорость кулера по своему усмотрению. TDP, 3D Boost Entry-ы оставляем как было.
Сохраняем биос.
Теперь приступаем к колхозу. На вкладке Boost table мы указали для своей буст-позиции нужную частоту, но при этом твикер наизменял еще с 2 десятка
позиций. Какого черта он так наглеет я не знаю, по-этому будем возвращать оригинальный значения частот буст-позициям,
предшествующим нашей максимальной. В моем случае с позиции №35 по №61. #77
Качаем нех-редактор HxD http://mh-nexus.de/en/hxd/ или иной какой-нибудь. Устанавливаем. Запускаем. Открываем в редакторе
оригинальный биос, в меню жмем search - find, в поле search for вбиваем 12 2a 03 00 02, в поле datatype выбираем hex-values и
жмем ОК #77 Поиск нам находит буст-позицию под №05 (выделено синим цветом) далее вправо и вниз будут идти буст-позиции блоками по пять шестнадцатеричных значений - 06, 07, 08 и тд аж до 78 #77 я выделил 5 из них салатовым цветом (все выделять лень). Первое число каждого блока говорит об его нумерации (выделено в
красными кругами). Что означают остальные 4 значения в каждом блоке нам неважно, да я и не знаю хаха (но догадки имеются
) Если эти нумерации перевести из 16ричной в 10ричную систему и затем вычесть 12, то получим нумерацию как в таблице
буст частот: 12 = 18 - 12 =06, 13 = 19 -12 = 07, 14 = 08, 15 = 09, 16 = 10 и тд. Теперь мне надо добраться до позиции №35, с которой твикер начал свои жестокие изменения. Для этого надо к 35 уже
прибавить +12 и перевести результат в 16ричную систему - получаем 2F и находим этот блок (выделено синим). Ищу теперь
блок №61, его позиция в редакторе будет 61+12 = 49 в 16ричной системе исчисления (выделено розовым). #77 Теперь выделяю все от блока 2F до блока 49 включительно и копирую, нажав ПКМ-copy. #77 Теперь открываю модифицированный биос, точно так же нахожу блоки буст-позиций от №35 по 61, выделяю их и все что между
ними, вставляю заменой (ПКМ-paste write) порцию скопированных ранее оригинальных блоков буст-позиций. Далее сохраняю изменения.
Теперь отколхозенный биос открываю в твикере и смотрю что получилось (на скрине оригинал, мод и нех-мод) #77
Теперь пересохраняем его в твикере, а то контрольная сумма (checksum) у нас не совпадает. Твикер выровняет ее за нас при
сохранении
Далее прошиваемся и наслаждаемся кашерным разгоном через буст. Вот и всё
Пошаговое редактирование BIOS(в том числе с помощью НЕХ-редактора) и рассмотрение ключевых параметров
Информация от участника темы: olegdjus Решил и я свою лепту внести в разгон Maxwell (750ti/950/960970/980/980ti/TitanX) с рассмотрением ключевых параметры. Так как я не сторонник отключения Boost - то будем с ним. Но начнем с подготовки. а) Шьем крайний стоковый BIOS для Вашей карты. б) Качаем msi afterburner и gpu-z и устанавливаем их. в) Тут три варианта. 1)Если не желаем поднять напряжение - пропускаем пункт в. 2) Если желаем поднять на шаг или два (на разных карта даже одного производителя шаг напруги может быть разный, так что всё индивидуально) - прибавляем в ab по 10мВ к напряжению (остальные вкладки не трогаем) и во вкладке датчиков gpu-z(Sensors) смотрим нагрузку под встроенным рендером(нажать вопрос в первой вкладке gpu-z рядом с Bus Interface и нажать Start Render. Нас интересуют в датчиках показания GPU core clock и VDDC. Выбираем подходящий вариант и идем дальше. 3) Если желаем понизить напряжение - объясню во вкладке напряжений, чтобы не повторяться. Далее скачиваем архив с программами для редактирования и прошивки BIOS. Открываем с помощью MaxwellBiosTweaker свой BIOS и начинаем редактировать.
Начнем по вкладкам. 1) Вкладка Common #77 TDP Base Entry/3D Base Entry/Boost Entry - эти параметры не трогаем, оставляем как есть. TDP Base Clock/3D Base Clock/Boost Clock - значение базовых и бустовых частот. По факту, TDP Base Clock/3D Base Clock не зависят от asic карты и мы можем его выставить вручную, но брать стоит частоты из вкладки Boost table. На моем примере вы видите частоту с 34 ячейки таблицы. А вот частота Boost Clock указывает нам минимальный буст для карты (1329Мгц - 59 ячейка таблицы), но фактический буст будет определяться asic карты (можно посмотреть его в gpu-z) - чем выше asic, тем выше базовая частота(на моей видеокарте с asic 73,5% буст из коробки до 1392.5Мгц - 64 позиция таблицы частот). С помощью изменения Boost Clock на значения из таблицы выше стоковых - мы переносим вашу частоту буста(изменение буста 1329 МГц(59 позиция таблицы) до 1354.5 МГц(61 позиция) приведет к изменению максимальной частоты буста(1392 МГц в моем случае(64 ячейка) до 1418 МГц(66 ячейка). Это позволит менять максимальную частоту буста без использования АБ. Это метод для ленивых Так же кнопочка Gpu Clock Offset +13MHz сделает то же самое, но еще и изменит TDP Base Clock/3D Base Clock(но их можно вернуть вручную на желаемые) Temp Target/Max TEmp Target - по сути температурные лимиты, те же слайдеры есть в AB. Ставим значение 89/91 при условии, что видеокарта не греется 80+ градусов. Fan Control - здесь тоже всё просто. RPM1x/TMP1x/PER1x - это желаемые границы оборотов(шим)/температуры/процентов оборотов(напруга) для регулировки вентилей. Желательно проценты подгонять методом вычисления(2600/3200=81%, а не 70, как у меня, но у меня шим регулировка) Итак, как это работает. RPM13/TMP13/PER13 - максимальные значения оборотов, оставляем RPM13/PER13 без изменения, а TMP13 ставим в то значение, которое считаете нужным (у меня 3200 оборотов(макс) при 90 градусах) RPM11/TMP11/PER11 - до этих значений вентили с нуля будут раскручиваться или же начальные значения. На скрине у меня до 35гр вентили крутятся с технически минимально возможного значения до 1000об, после 35 и до 70гр(TMP12) раскручиваются плавно до 2600(RPM12). Чтобы остановить вентили RPM11/TMP11/PER11 записываем как 0/0/ХХ, где ХХ - температура, до которой вентили будут стоять. Memory Clock - частота видеопамяти. Ставим стабильное по вашему мнению значение и отнимаем 100Мгц. Для большей стабильности.
2) Вкладка Voltage Table #77 Здесь мы выставляем напряжение. Я привожу пример с максимальным напряжением 1281, для напряжения повыше надо редактировать clk6+ для корректной работы. Меняем только первые три строчки. АКТУАЛЬНО ДЛЯ GM200: Если ваш BIOS выглядит как на скриншоте: #77 то необходимо открыть 2 и 3 строчки в таблице напряжений. Для этого открываем BIOS в КВТ и двигаем выделенные ползунки в произвольное положение: #77 Получается примерно так: #77 Теперь ваш BIOS выглядит так в МВТ: #77 1 строка: максимально возможное напряжение (зависит от регулятора напряжения вашей ВК, может максимально стоять и 1281, и 1250, тут как повезет). Ставим 1281.3. 2 строка: это наше базовое напряжение для Boost Clock. Если желаете на шаг снизить напряжение - меняем максимальное напряжение в этой строке на шаг вниз стрелками клавиатуры и шьем BIOS с этим напряжение и выполняем шаги с рендером в gpu-z. Полученное напряжение (это будет минус шаг от вашего стокового напряжения) пишем первым значением во вторую и третью строку. Если не желаете на шаг снизить напряжение - ставите напряжение, найденное при помощи AB в минимум и плюс один шаг в максимум. При таком раскладе частоты сбрасываться под температурой НЕ БУДУТ. Максимальное напряжение в этой строке ставим на шаг больше от минимального. 3 строка: Минимум как и во второй, максимум - как первая. Это как раз то напряжение, которое через АВ мы можем регулировать.
Это лимиты мощности. Нас интересуют первые 6 групп(одна группа состоит из Min|Def|Max значений) 1 группа - это TDP карты. По сути, это то значение тепла, которое производитель гарантирует отвести с помощью СО, к лимиту мощности отношения не имеет. Ставим его таким же, как и значения 6 группы. 2 группа - пропускается, не трогаем руками 3 группа - мощность слота pci-e, ставим как на скриншоте. #77 4 группа - мощность первого доппитания. Без энтузиазма ставим 75000 для 6пин и 150000 для 8 пин 5 группа - мощность второго доппитания. Без энтузиазма ставим 75000 для 6пин и 150000 для 8 пин 6 группа - лимит мощности. Вот что нас и интересует! Я ставил 280/300вт (75+75+150), если не хватает - в AB кручу ползунок. Эти же значения пишем в 1 группу(не обязательно).
4) Вкладка Boost Table Вот и та самая таблица частот. Стоковая: #77 Правленая по инструкции "Пример как разгонять карты 970/980/980ti по таблице буст частот" с шапки, но с измененным алгоритмом, с другими частотами с 35 ячейки(чтоб большой разницы между частотами не было): #77
Вариант с редактирование таблицы частот с помощью НЕХ-редактора: Выставляем нужное нам напряжение буста во 2 и третьей строчке таким образом(моё напряжение для буста - 1.175в) Во второй строчке к правому значению прибавляем один шаг, в третьей ставим максимальное значение, до которого через АВ можно будет поднять. #77 Запоминаем, на какой ячейке расположена частота 3d base clock: #77 На позицию буста(у меня при 1.174в это 59 ячейка) ставим частоту, которая при этом напряжении стабильна(я ставлю на 20-30 мгц ниже, остальное добавляю в АВ) #77 Далее открываем биос в НЕХ редакторе и ищем ячейку буста: к номеру ячейки прибавляем 12 (в моём случае 59+12=71) и переводим в hex (71d = 47h). Далее берем частоту на этой ячейке(1455.5 у меня), умножаем на 2(2911) и переводим так же в НЕХ(2911d = 0B5Fh). Ноль не теряем. Далее ищем в НЕХ коде биоса следующую шестнадцетиричную последовательность: 47 5F 0B 00 01 #77 Где 47 - НЕХкод ячейки биоса, 5F 0B - удвоенная частота младшими разрядами вперед(0B_5F), 00 01 - код команд. Влево(с 46 позиции) идут ячейки с 58 до 1 группами по 5. Берем значение частоты, которое у нас будет между базовой и частотой буста(я выбрал 1405), переводим в знакомый формат (1405 * 2 = 2810d= 0AFAh) и вставляем их с ячейки перед бустовой(58у меня) по ту, на которой стояла базовая частота + 1 (43+1=44) и меняем их на нужное нам значение (FA 0A) После редактирования таблицы частот соотносим значения в таблице напряжений, сохраняем биос и прошиваем. #77 #77 Можно писать любые частоты, выбирать любой шаг, но твикер может перечеркивать частоты, которые в него не забиты. Ничего страшного, это софтовая недоработка, КВТ так же показывает биос от максвелла. #77 #77
5) Вкладка Boost States Меняем лишь Max GPC в Р00 и Р02 на значение из 74 ячейки таблицы частот, остальное нас не касается.
6) Вкладка Clock States Тут в DDR профиля P00 ставим частоту памяти из первой вкладки (а точнее - она сама тут изменится при изменении частоты там), а вот DDR в Р02 или оставляем как есть, или меняем на значение как в P00. Если оставим как есть - может в играх при записи видео(в том ж АБ например при аппаратке) скидывать частоту до этого значения.
Поднятие минимального напряжения boost для стабильности разгона
Информация от участника темы: Andy3721 Ставим программу Thunder Masterhttp://www.palit.biz/event/promote/2013/thundermaster/downloadfile.php?downloadid=820 Нажимаем кнопку OverClocker #77 В строчке Прирост минимального напряжения добавляем напряжение #77 Нажимаем кнопку OK #77 Сохраняем профиль клавишей Save для сохранения профиля, можно создать несколько профилей #77
Замеры потребления gtx970
Информация от Kholodov_igor Замер производился на входе БП, на выходе мощность скорректировано согласно уровню КПД под данной нагрузкой для данного БП. Перефирия только на входе в их БП. Максимальное потребление это разница между простоем и максимальной нагрузкой, поэтому исключается вся комплектуха, кроме измеряемой + незначительное влияние от ЦП для ГПУ и наоборот в меньше степени. В принципе от изменения напряжения наблюдается квадртичная зависимость по потреблению, от изменения частоты - линейная, поэтому можете посчитать для ваших карт. На моей v=1.21 #77
ОБСУЖДЕНИЕ ПОВЫШЕНИЯ ЦЕН БУДЕТ РАСЦЕНИВАТЬСЯ КАК ОФФТОП! Вопросы типа "Что лучше купить - ASUS или PALIT" будут удаляться безжалостно.Выбор ВК в другой теме. Убедительная просьба: При размещении медиа информации (видео и скриншотов), используйте тег
Код:
[spoiler=media]Ваша ссылка[/spoiler]
Чтобы видео можно было воспроизвести прямо на странице форума, используйте тег
Тогда gtx770 супер топ, с 4% превосходством против gtx680, вместо жалких 2.5% gtx980 против 780ti. Топом можно назвать видеокарту имеющую производительность от 25% и выше против предыдущего поколения, а это так-топтание на месте с целью обогощения.[/url]
Хотим мы этого, или нет, но одночиповый топ=видеокарта, которая обладает наибольшей производительностью на текущий момент, из разряда вышедших в серии. Тот факт, что какой-то, находящийся в лаборатории, или на складе, или в проекте чип, который гораздо производительнее нынешних решений, по каким-то причинам "не выкатили" на рынок - не делает нынешние видеокарты "мидлом". Кроме того, существуют решения вроде "Titan", которые выбиваются из экономической категории целесообразности и потому говорить что-то в стиле "вот GTX X80 - это чертов обрезок, а настоящий топ, который выйдет через 2 месяца и будет называться Super Extream GTX Titan Gamer Edition за 1500$ - вот топ!" - это как минимум спорно.
P.S. Вернемся к теме. Выбор между рефом MSI 970 и нерефом с охладом Armor ( 4GD5T OC ). Прошу помочь определиться, рассматривая варианты исключительно с точки зрения надежности. Цена у нас идентична.
Заблокирован Статус: Не в сети Регистрация: 26.04.2013 Откуда: У Интела сопли? Фото: 7
patologoanatom а какой смысл сравнивать 780 ти и 980 без ти? вот выйдет 980 ти тогда и будет корректным сравнение 780 ти в свое время столько же стоили сколько щас 980
_________________ Что ж такое?! Были же люди, как люди, и вдруг все сразу стали кретины. Парадокс!
Member
Статус: Не в сети Регистрация: 03.05.2012 Откуда: Казахстан
patologoanatom
patologoanatom писал(а):
Топом можно назвать видеокарту имеющую производительность от 25% и выше против предыдущего поколения, а это так-топтание на месте с целью обогощения.
Я с Вами полностью согласен как и любой рядовой потребитель, который смотрит лишь на ФПС и результаты марков. Но надо так же брать во внимание энергоэффективность карт разных поколений, на которую сейчас ссылаются все производители чипов. Если сравнить соотношение производительности к энергопотреблению, то новое поколение ВК выигрывает с огромным отрывом.
Ничего толком в системе не установлено, кроме доты. Раньше на 670 тоже бывали такие глюки, просто раньше вылезало сообщение что драйвер сообщил об ошибке. Тут дело именно в дровах, потому что в момент такого Глюка стиль интерфейса вин7 становится упрощенным, а как скидываются температуры, все возвращается в норму
чем собственно реально глазами отличается g-sync и v-sync?
v-sync ограничивает кол-во кадров до частоты развертки, g-sync подстраивает частоту развертки под кол-во кадров, тем самым убирая эффект ваты при поворотах камерой, что очень чувствуется в динамичных экшенах. С g-sync все та же резкость камеры, как без v-sync, но без разрывов картинки. Поправьте если не прав.
Только у меня глючат драйвера на 970? Замечаю во второй раз происходит резкая нагрузка на видяху в простое, повышаются температуры и обороты вентилятора, ну и естественно появляется свист дросселей...
По описанию очень похоже на мою проблему. Но драйвера и 970 оказались не при чем. Попробуй заглянуть в диспетчер задач и проверить нет ли там процесса с названием steam*32.exe. Если есть, то отключи его, предварительно открыв MSI AB, что бы помониторить нагрузку на карту и работу вентиляторов. Возможно это вирус-майнер, как и у меня был. Очень уж симптомы похожи. Вирусы-майнеры, маскирующиеся под игры!
v-sync ограничивает кол-во кадров до частоты развертки, g-sync подстраивает частоту развертки под кол-во кадров, тем самым убирая эффект ваты при поворотах камерой, что очень чувствуется в динамичных экшенах. С g-sync все та же резкость камеры, как без v-sync, но без разрывов картинки. Поправьте если не прав.
Ну хз я везде с V-sync играю и нет нигде ни разрыбов, не рывков, ни ваты при поворотах камерой. Смотрел ролики на ютубе сравнения V и G разницы никакой между ними для глаз там и там все гладко. Вот и интересует есть ли реальный смысл перехода на G-sync если разницы с V-sync нету?)
Добавлено спустя 1 минуту 18 секунд:
murkok5 писал(а):
Уневерсальный + карлисончик , прэлессно
А где можно заказать в россии? Хочу заказать, но найти русские сайты что-то не могу
Member
Статус: Не в сети Регистрация: 11.06.2012 Откуда: ~∞
Andy3721 писал(а):
какой смысл сравнивать 780 ти и 980 без ти?
Смысл в том, что чёрных титанов в графике нету который~=780ti, а это была последняя видеокарта перед gtx980. gtx680 тоже можно сказать была урезком против gtx580(шина уже, ядер меньше) однако это ей не помешало стать более чем на треть быстрее оной.
Member
Статус: Не в сети Регистрация: 16.04.2006 Откуда: d3d9.dll Фото: 7
Итак, отписываюсь про GTX 970 от MSI ("референс"), модель GTX 970 4GD5 OC Как уже писал ранее, штатная турбина не справляется с разогнанными частотами (у меня 1278 МГц) и после прогрева чипа до 80 градусов в тяжелых режимах (Metro LL Redux, 1080p, max, 4xSSAA) потихоньку начинает сбрасывать частоты где-то до 1100 МГц. Чип при этом не греется выше 80 и в целом карточка работает достаточно тихо (вентилятор раскручивается на 49%, 2000 rpm), тогда как референс GTX 570 прогревался до 85 (63%, 2400 rpm) и был при этом чуточку шумнее. Скажу сразу, что корпус у меня нормально проветривается (6 вентилей 120 мм). Для того, чтобы сохранить заводской разгон нужно лишь чуть повысить лимит температуры (до 83-84 градусов). Турбина при этом раскручивается чуть сильнее и по шуму примерно сравнивается с референсом GTX 570. На мой взгляд это красная граница комфорта, чуть громче и видеокарту уже можно будет назвать шумной в нагрузке. Поэтому дальше заводского разгона я пожалуй не пойду, если только для тестов. Теперь, что касается писка дросселей (при большом фпс) и стрекочущего звука в нагрузке (при небольших фпс), то здесь это всё также присутствует, с таким же уровнем громкости, как и в GTX 570 (а ещё раньше с подобной темой я столкнулся на GTX 260 216 sp), так что проблема явно не нова. Но толи я уже привык, толи ещё что-то, но за проблему это уже не считаю, просто забил. А почему выбрал всё-таки эту модель: 1) гарантированное приемлемое охлаждение vrm; 2) тишина в 2D, в т.ч. отсутствие "режима продувки" при включении пк (хотя мне тут говорили, что турбина раскручивается на 100% на пару сек при включении компа, но ничего подобного я у себя не наблюдаю, всё очень тихо); 3) выдув горячего воздуха из корпуса (особо будет актуально для SLI). Вообще если бы корпус был чуть побольше, то взял бы GIGABYTE G1 Gaming, у неё и врм и чип норм. охлаждаются, и в 3D не громкая. Кстати, для статистики, ASIC у чипа 74%. Ну и несколько результатов сравнительных тестов. 3DMark 11 GTX 570 - X1927 GTX 970 - X4864 Witcher 2 (Max settings, 1920x1080) GTX 570 - 28 fps GTX 970 - 50 fps Metro LL Redux (Max settings, 4xSSAA, 1920x1080) GTX 570 - 11/18/39 fps GTX 970 - 12/43/89 fps В общем можно сказать, что после апгрейда ничего особо не поменялось, только fps вырос где-то в 2 раза.
Ну хз я везде с V-sync играю и нет нигде ни разрыбов, не рывков, ни ваты при поворотах камерой.
С V-sync разрывов и рывков и не должно быть соответственно. Выключи V-sync в каком нибудь шутере и поверти камерой, потом включи, поймешь про какую вату я говорю.
Advanced member
Статус: Не в сети Регистрация: 27.04.2003 Откуда: Москва
DeKcJleP писал(а):
Ну хз я везде с V-sync играю и нет нигде ни разрыбов, не рывков, ни ваты при поворотах камерой. Смотрел ролики на ютубе сравнения V и G разницы никакой между ними для глаз там и там все гладко. Вот и интересует есть ли реальный смысл перехода на G-sync если разницы с V-sync нету?)
V-sync = инпут лаг. И адаптивный всинк тут помогает лишь отчасти.
Member
Статус: Не в сети Регистрация: 09.02.2008 Откуда: Санкт-Петербург
У G-sync преимущество перед V-Sync в отсутствии инпут лага и в том, что изображение плавное (без статтеринга и теаринга) даже когда FPS, скажем, не 120, но и 90 и 60 (и скачет туда-сюда), т.е. G-Sync полезен в играх, в которых высоких FPS стабильных не достичь для плавной игры с V-Sync. Также полезная фича мониторов с G-Sync - ULMB, думаю все в курсе.
Кстати по поводу биоса для gtx 980 который stabile. Как пишут с ним напруга не падает при нагрузке. Прошил биос и толку 0. Как были просадки так они и остались. Ставил и 1.25 и 1.75. Со временем в играх всеровно то чуть падает, то поднимается обратно. Есть выход что нужно в биосе отредактировать чтобы стабильно была 1,25 в играх?
murkok5 писал(а):
http://overhard.ru/catalog/universalnye ... %2BNickel/ Я там покупал, неделя, где то вышло
Там я так понимаю для gtx 980 выбирать те которые для Водоблоки GeForce GTX Titan/780? Они точно все подойдут? Ведь расположение vrm у карт разные
Добавлено спустя 2 минуты 10 секунд:
Dead Squallit писал(а):
С V-sync разрывов и рывков и не должно быть соответственно. Выключи V-sync в каком нибудь шутере и поверти камерой, потом включи, поймешь про какую вату я говорю.
Так и я о том же) Без v-sync да нереал играть в шутера. Я вот не вижу смысла в g-sync когда все тоже самое дает v-sync!)
Добавлено спустя 1 минуту 58 секунд:
NV30 писал(а):
V-sync = инпут лаг. И адаптивный всинк тут помогает лишь отчасти.
Ну а в реале глазами разница между v-sync и g-sync какова? Судя по видео и форумов люди пишут разницы нет и смысла в g-sync нету. Достаточно всем доступного v-sync. А некоторые переходят на g-sync, вот и я понять хочу а смысл?))
p.s. Кеплер быстрее НО ... Нвидиа инженеры на мой взгляд схалтурили :
Maxwell обладает рядом архитектурных усовершенствований, которые позволяют добиться еще большей производительности при меньших затратах энергии. Что важно: новая архитектура использует на 20-25% меньше байтов на кадр, по сравнению с Кеплером. Что это дает на деле? А вот это — Максвеллу необходимо всего 7,1Gbps, что бы сравниться по скорости с Кеплеровским 9,3Gbps.
Последний раз редактировалось aleksus37 08.11.2014 22:03, всего редактировалось 1 раз.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения