Напоминаю! Пользователь, если ты ничего в этом не понимаешь, не занимайся разгоном! Ну а если всё-таки занялся, то делаешь всё на свой страх и риск. Мы, как и блогеры, расписывающие методики разгона, не отвечаем за последствие твоих действий!
- Установить последнюю версию Windows 10 1903/1909. Как это сделать можно прочитать здесь https://www.microsoft.com/ru-ru/softwar ... /windows10. - Осуществить подключение питания карты рекомендуется двумя отдельными кабелями во избежание возможных проблем с блоком питания, с самими кабелями и пиковым потреблением. - Использовать блок питания рекомендуемой производителем карты мощности. - Необходимо учитывать, что некоторые запущенные программы по мониторингу (afterburner, gpu-z и подобные) могут вызывать различного рода проблемы в работе карты и поведения карты в игре (статтеры, снижение fps, сбой в работе вентиляторов). В некоторых случаях были проблемы c оверлеем Adrenaline. (данная рекомендация может считаться устаревшей, в случае использования последних версий драйверов и обновлений Windows). - Разгон оперативной памяти может вызывать статтеры, вылеты или черные/синие экраны, если он был произведен без должного тестирования памяти на стабильность. Поэтому перед проверкой карты и ее разгонного потенциала рекомендуется сбросить разгон процессора и памяти. - Порядок установки новой карты: установить новую ОС -> установить драйвера чипсета -> установить прочие драйвера -> установить драйвер видеокарты. - Рекомендуется переустанавливать драйвер после переключения БИОСа на видеокарте, чтобы он (драйвер) корректно интерпретировал новые настройки (эта рекомендация Sapphire, написанная на бумажке, которая вложена в коробку с видеокартой). - Рекомендуется заполнить табличку OC potential of RX 6000 series - Проверить карту стресс тестами и играми (в том числе при при разгоне) в стоке со сбросом любого разгона (в т.ч. памяти и процессора): 3DMark Time Spy, тест на стабильность, 20 прогонов - Одна из рекомендаций по отлову черных экранов и проверки системы на стабильность: LinX (задачи 40000) + Kombustor (1080р), вместе включаем и смотрим приблизительно полтора часа. Предварительно выкрутить вентиляторы карты и системы на максимум во избежание перегрева.
После установки в системный блок и соблюдения общих рекомендаций, видеокарта должна стабильно работать на заявленных частотах без какого-либо вмешательства со стороны пользователя. Не должно быть синих или черных экранов. В случае появления какой-либо проблемы, прочтите шапку темы, спросите о своей проблеме в теме. Убедительно просим не заниматься андервольтингом или разгоном для решения своих проблем без базовых знаний и соответсвующих навыков. Если не помогли советы и рекомендации форумчан, смело возвращаете карту обратно в магазин. Обращаться за советом и знаниями не стыдно, даже если вы уверенный пользователь со стажем.
Жалобы о багах драйвера и проблемах в играх можно отправить по ссылке AMD Issue reporting form (ссылка периодически перестает работать, так как AMD постоянно меняет URL адрес этой страницы) В данной форме ведем статистику разгона и работы в стоке. Заполняем табличку, не ленимся - OC potential of RX 6000 series
Правила темы. Обязательно к ознакомлению
1. Для начала ознакомьтесь с Правилами Конференции. 2. Категорически запрещается использовать красный цвет в сообщениях - оставьте его для Модераторов и Куратора! Рекомендуется также не злоупотреблять остальными цветами. 3. Все односложные сообщения (типа: "Аналогично", "+1...", "У меня также") будут стираться без предупреждений. 4. Обсуждение действий Куратора или Модератора в теме не допускаются! Для этого есть ЛС (Личные сообщения). Прежде чем написать - советую всё обдумать. "Дыма без огня не бывает!" 5. Предложения и вопросы по "шапке" и FAQ темы принимаются в ЛС (Личные сообщения). В самой теме этого делать не нужно. 6. Прежде чем задать свой вопрос или написать о чём-то - поинтересуйтесь: нет ли хотя бы на последних страницах темы или в FAQ похожих вопросов и решений. 7. Флуд и оффтоп даже под тэгом /офф или /спойлер - в случае злоупотреблений могут быть награждены ЖК, как и ответы на сообщения, его содержащие. Имейте это ввиду. 8. Если вы увидели сообщение, нарушающее правила - просто жмите СК: отвечать на такие посты не нужно! 9. Картинки/видео прятать под спойлер (с именем): 10. Убедительная просьба, прячьте все (любые) картинки и видео под спойлер со знаком равно. Не исполььзуйте тег спойлера без знака "равно" для картинок - он для текста! Уважайте друг друга! Не у всех Интернет безлимитный и многие смотрят эту тему через телефон. Использовать для картинок:
Код:
[spoiler=картинка]ссылка на картинку[/spoiler]
Использовать для текста:
Код:
[spoilеr]текст[/spoilеr]
Обращение ко всем участникам ветки. Любое проявление неуважения друг другу, оскорбления, мат, создание атмосферы нетерпимости, переход на личности и разжигание ненависти будут просто удаляться в независимости от содержания сообщений. Учитесь быть взрослыми и вести спокойные продуктивные беседы. Спорьте на здоровье, но только без всего этого. Если хотите поофтопить или поматериться, то идите в личку.
5900x/b550/dd4-3800MHZcl16/6900xt мои. и у товарища 9900x/x299/ddr43800/6900xt . На 3070ti статтеров не было. На 6900xt есть статеры фризы. Если поменять настройки можно масштабирование гп по центру часть фризов уходит но не полностью. У товарища еще и по мима фризо низкий ФПС. В чем может быть причина таких особенностей) ну и разница в ФПС в играх слишком большая у нас . где у него 140 у меня 250-300. С чего начать куда смотреть) Видео запишу!) У меня все остальные игры работают на ура. Но хочется понять причину таких проблем
Member
Статус: Не в сети Регистрация: 27.01.2008 Откуда: Украина
DENISABLE записывайте)
открываете файлик - тескстовым редактором докуменды > Call of Duty (варзона или что там у вас, они разные) > players > adv_options меняете в нем параметр VideoMemoryScale = что то на VideoMemoryScale = 0.60 или даже на VideoMemoryScale = 0.55
сохраняете, а потом, важно, сделать в сваойствах файла - только для чтения
и будет вам счастье
кстати - на win11 данная операция уже не нужна - видимо пофиксили
проблема есть во всех версиях колды - начиная с Modern Warfare заключается - в утечке vram, игра очень быстро забивает фреймбуфер (за 2-3 матча) и начинает фризить, fps > 200, а валят фризы и статторы данная опция - ограничивает лимит потребления видеопамяти
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
DENISABLE писал(а):
ну и разница в ФПС в играх слишком большая у нас . где у него 140 у меня 250-300
хм, а сколько озу у него? Колда прожорлива не только на видеопамять. Ну и опять же, смотреть надо мониторинг. Может, у него какое-то ограничение фпс в дровах врубилось, или еще чего
Добавлено спустя 1 минуту 56 секунд:
immortal3000 писал(а):
Ыыы, сори) думал плата захвата, как то говорил - чет в голову засело
релайв много отжирает, когда упор в цпу - в некоторых случаях 15% производительности откусывает(. А вот при упоре в гпу - более-менее нормально шпарит. Я качество оставляю стандартное, 1080р "высоко", для меньшего влияния на фпс
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
Dmitriy54 писал(а):
А вот когда вы реально смотрите на вещи - к примеру, что в вальгаллу играть будете и много, а контрол вам не интересен
Вы и в будущее умеете заглядывать?) Или предлагаете играть только в игры вышедшие ДО выхода амперов/6000
Добавлено спустя 1 минуту 16 секунд:
RadeoForce писал(а):
даже 3090 сдувается в процессорозависимых играх,
между 3090 и 3080Ти нет разницы по факту, слово "ДАЖЕ" не уместно) Если конечно 2% не считать разрывающей пространство и время разницей) А про то что бутылочное горлышко существует всегда так это не ново. Упиратся всегда будет или в карту или в проц) И очевидно в ПРОЦЕССОРОЗАВИСИМЫХ играх сдувается не 3090, а проц)
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Airotciv писал(а):
между 3090 и 3080Ти нет разницы по факту, слово "ДАЖЕ" не уместно
да да, память-маркетинг, я такое часто слышу. Даже надоело спорить. Это тянется еще со времен 680 vs 7970, 290X vs 780ти. Кстати, чем там закончилось, не напомнишь? (вопрос риторический). Помним также и крики 4гб HBM = 6гб GDDR5 с обратной стороны - и чем это закончилось для Fury X против 980ти?
немного глобальных рассуждений
Суть в том, что история циклична, аргументация одна и та же, а финал неминуемо идентичен. Меняются только стороны спора - у некоторой категории людей в приоритете всегда именно сильные стороны любимого бренда. Владельцы нвидии, которые перестали быть гринписовцами и "домохозяйками", и нынче не прочь и напильником поработать, и корпус с блоком питания "все равно собирались менять", и внезапно майнинг стал решающим фактором, а процессорозависимость - незначительным. А напомнить, что говорили, когда в перечисленных аспектах ситуация была противоположной - когда радеон приходилось андервольтить, когда он был менее энергоэффективен, более процессорозависим(в дх11) и когда лучше майнил? Да из каждого унитаза об этом кричали(причем, что интересно, не только от фанаты, но и от крупных изданий и блогеров, а сейчас почему-то и тему процессорозависимости как-то замяли, и слово "энергоэффективность" как-то вышло из обихода, зато в обзорах обсуждают хешрейт - такого во времена доминирования амд в майнинге вообще не припоминаю). А пример с красного лагеря - когда была секта любителей тестировать процы в 4К, и когда эта секта переобулась и полюбила 720р с выходом зен3? А когда брали горячий фуфыкс с производительностью холодных ой5 без К, им было пофиг на его керогазность. А как вышли райзены, так в гринпис переобулись. А спросишь про более горячие видеокарты - "это другое".
Airotciv писал(а):
И очевидно в ПРОЦЕССОРОЗАВИСИМЫХ играх сдувается не 3090, а проц
но у радеона в таких играх фпс будет выше. https://overclockers.ru/blog/ultrafx/sh ... x-12-igrah Напоминаю, мы говорили об универсальности. Вот самый настоящий пример неуниверсальности, причем куда более глобальный, чем Ghost recon Wildlands и Fallout 76, одна из которых тупо напичкана проприетарным кодом нвидии.
На каждый минус найдется плюс. На каждое преимущество найдется недочёт. Этим и хороша конкуренция, со времен 780ти и 290Х такого на было. Жаль, что китайское семейство поймало волну, и прежних цен, как например "без 5% топчик" R9 290 за 400$ - условно, это как нынешняя 6800ХТ. Или gtx970 за 330$. Такого мы уже, к сожалению, не увидим. И нет, дело вовсе не в майнинге. Маркетинговая машина сделала свое дело, люди всерьез покупают видеокарты за фактические 1000-1500$ (MSRP можно подтереться) и считают, что им крупно повезло
Последний раз редактировалось RadeoForce 29.12.2021 23:13, всего редактировалось 2 раз(а).
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
RadeoForce писал(а):
но у радеона в таких играх фпс будет выше.
было же исследование что НВ драва более процессорозависимы, с пол года назад.
RadeoForce писал(а):
да да, память-маркетинг, я такое часто слышу
причем тут память, на ДАННЫЙ (и обсуждение идет именно про текущее время, а не абстрактное будущее, которого может и не быть - новая пандемия и привет человечеству) момент в играх между 3080Ти и 3090 разницы нет в разрешениях до 4к включительно, это факт, что там будет через 3 года когда я уже буду иметь 5080 или валятся в гробу, мне как и многим не совсем интересно. Там уже и производительность 3080Ти будет на уровне текущей 3060. Я высказался по этому поводу и более данный вопрос мне не интересен. Все люди разные и думают по разному, но вспоминается как все передергивали на веги7 и большинство из этих карт уже передохло.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Airotciv
Airotciv писал(а):
было же исследование что НВ драва более процессорозависимы, с пол года назад.
а в дх11 более процессорозависим радеон, о чем везде говорили много и часто. Про нвидию молчали до тех пор, пока австралийцы не пошли в демарш(из-за опубликованных результатов того самого голосования "растеризация или трассировка", которые не понравились нвидии и начался скандал, думаю, все помнят) и не выкатили эту горячую тему. А потом уже пошла волна обзоров на эту тему, которая через неделю затухла. Казалось бы, должны были люди сделать вывод? Но нет, блогеры все еще советуют покупать жифорсы под ксеоны, многогерцовщики вообще не вкурсе, а крупные издания вообще нигде не упоминают о процессорозависимости. Понятное дело, что далеко не у всех топовые интелы или зен3, чтобы этого не заметить. Собсно, я еще со времен "диванной аналитики" об этом писал, но как-то особо никто не обращал внимание, пока видеокарты не стали настолько мощными, что это даже без специально созданных условий стало бросаться в глаза.
Airotciv писал(а):
причем тут память, на ДАННЫЙ момент в играх между 3080Ти и 3090 разницы нет в разрешениях до 4к включительно, это факт, что там будет через 3 года когда я уже буду иметь 5080, мне как и многим не совсем интересно.
но ведь были уже звоночки, как минимум, в Deathloop. На 3090 этих проблем не было и в помине
Airotciv писал(а):
можите не банить я высказался по этому поводу и более данный вопрос мне не интересен
обменялись точками зрения по актуальной теме, за что тут банить? Я бы не сказал, что обсуждение видеопамяти и процессорозависимости видеокарт выходит за рамки данной темы, но куратору виднее
причем тут память, на ДАННЫЙ момент в играх между 3080Ти и 3090 разницы нет в разрешениях до 4к включительно, это факт, что там будет через 3 года когда я уже буду иметь 5080, мне как и многим не совсем интересно. Там уже и производительность 3080Ти будет на уровне текущей 3060.
Я про это неоднократно писал, но некоторые люди не понимают , что через одно поколение топ превращается в не энергоэффективную тыкву. Ну вот кому к тому времени будет дело до нехватки видеопамяти если карта не сможет тянуть максимальные настройки и в любом случае придется снижать настройки ? Когда в системном блоке карта с потреблением в 400вт на уровне бюджетной карты с потреблением в 100-150ватт , то об нехватки объеме видеопамяти на морально устаревшей карте в последнюю очередь подумаешь . К тому же, пока актуальные консоли резервируют под gpu 10-12гб памяти , то о никаких завышенных требований по объему памяти не будет. Возможно какие то изменения начнутся , когда будет массовый переход на 16гб памяти , но до тех пор пока по статистике Стима у 95% всех пользователей меньше 12гб памяти , то объем в 10-12гб будет более чем достаточно.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Sergiu Bunacalea писал(а):
Когда в системном блоке карта с потреблением в 400вт на уровне бюджетной карты с потреблением в 100-150ватт
ого, а это когда подобное было спустя 1 поколение? А хотя бы спустя 2 поколения? На ум приходит 980ти и 1660С. Только между ними, если мне память не изменяет, 5 лет и 28нм ---> 12нм. Таких скачков в техпроцессе уже не будет в ближайшее время, кремний уже на грани предела, выжимают последние соки
Sergiu Bunacalea писал(а):
К тому же, пока актуальные консоли резервируют под gpu 10-12гб памяти , то о никаких завышенных требований по объему памяти не будет
если играть на консольных настройках(средние или средне-высокие), и качество оптимизации на пк будет на уровня оптимизации под консоли(а этого никогда не было и не будет), тогда да, можно спать спокойно
Sergiu Bunacalea писал(а):
но до тех пор пока по статистике Стима у 95% всех пользователей меньше 12гб памяти
это самое большинство играет в 1080р, а кое-кто даже настройки не умеет менять, что драйвер выставил, так и бегают. И это не шутка, есть у меня такие знакомые, далекие от темы
Последний раз редактировалось RadeoForce 29.12.2021 23:39, всего редактировалось 1 раз.
Разработчики и так превращают игры в донатную помойку, поэтому очевидно, что они не собираются заниматься благотворительностью и делать игры для пару процентов избранных . Качество текстур практически не влияет на производительность и если игровые консоли и пользователи ПК были бы готовы к более высоким требованиям , то разработчики не заставили себя долго ждать. Увы, но реальность такова, что объема видеопамяти в 12гб будет более чем достаточно на долгое время
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Sergiu Bunacalea писал(а):
Разработчики и так превращают игры в донатную помойку, поэтому очевидно, что они не собираются заниматься благотворительностью и делать игры для пару процентов избранных .
не, просто следующее поколение выйдет с нормальным объемом памяти, и начнется веселье. Такое уже было, когда вышли паскали, где мидлы были с 6гб, и довольно скоропостижно 4-гиговые урубки поотлетали из лиги "ультра настроек", хотя при этом по чипу те же 970-980 все еще неплохо тащили. Если пастгеные движки уже столько выжирают сейчас, что же будет с играми на UE5 и прочих движках нового поколения дальше?
Sergiu Bunacalea писал(а):
Увы, но реальность такова, что объема видеопамяти в 12гб будет более чем достаточно на долгое время
"на долгое время" оборвалось этой осенью, споткнулось на Far Cry 6 и Deathloop, но даже если сделаем вид, что этих игр не существует, тогда "достаточно" для чего? Ведь это понятие растяжимое. Кому-то достаточно и условной 2060 - игры запускает, фпс в 1080р нормальный, "высокие" настройки все уще можно врубать, чтобы в память не упиралось - разве такой карты не достаточно? Или же мы берем видеокарты за 150 тыс, чтобы снижать разрешение текстур, которые, на секундочку, вообще не влияют на производительность при достаточном объеме видеопамяти? Сейчас конфузы редко, но стоит выйти следующему поколению, которое будет еще дороже предыдущего, там весь этот "достаточный впритык" закончится грандиозным фиаско. бывшие владельцы кеплеров 700 серии должны были хорошо запомнить этот урок
Последний раз редактировалось RadeoForce 29.12.2021 23:49, всего редактировалось 1 раз.
на долгое время" оборвалось этой осенью, споткнулось на Far Cry 6 и Deathloop,
Неужели не поиграть ? Наверное постоянно фризит и производительность на уровне плинтуса ? я не слышал от пользователей 3080ti , что в этих играх нельзя с комфортом поиграть на максимальных настройках, а если это так , то значит никаких проблем нет
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Sergiu Bunacalea писал(а):
Неужели не поиграть ? Наверное постоянно фризит и производительность на уровне плинтуса ?
в первом при продолжительном геймплее HD-текстуры не прорисовывались, второй постоянно вылетал из-за нехватки видеопамяти(но в Deathloop с десяток патчей вышло, вероятно, уже задаунгрейдили под популярные объемы видеопамяти, как в случае с Godfall, который в 4К жрал 11гб, теперь 8гб, зато теперь деревья перед носом прорисовываются)
Sergiu Bunacalea писал(а):
я не слышал от пользователей 3080ti , что в этих играх нельзя с комфортом поиграть на максимальных настройках, а если это так , то значит никаких проблем нет
да ладно, игре рейтинг обвалили, потому что кроме 3090 и 6800-6900ХТ никто не мог нормально поиграть в 4К. А здесь не ругались, потому что игру не взломали
Sergiu Bunacalea писал(а):
Для комфортного гейминга .
1080р на "высоких" - чем не комфортный гейминг?
Последний раз редактировалось RadeoForce 29.12.2021 23:56, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 27.01.2008 Откуда: Украина
Sergiu Bunacalea писал(а):
Увы, но реальность такова, что объема видеопамяти в 12гб будет более чем достаточно на долгое время
GTX 275 896магабайт достаточно для всего (нет) GTX 580 1.5гига достаточно для всего (нет) GTX 680 давайте сделаем 4гига - точно достаточно для всего (нет) ... GTX 1080 11 гиг - имбо (временно) RTX 3080 10 гиг уж точно хватит)) (нет)
радеоны rx480 - такс - нужно 8гиг, 4для для rx470 vega 8 явно минимум rx5700 - 100пудов 8 гиг минимум radeon 7 - не, херня, лучше 16 rx6800 - точняк, 16 явно мастхер сумбурно - воспринимать как юмор
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения