Напоминаю! Пользователь, если ты ничего в этом не понимаешь, не занимайся разгоном! Ну а если всё-таки занялся, то делаешь всё на свой страх и риск. Мы, как и блогеры, расписывающие методики разгона, не отвечаем за последствие твоих действий!
- Установить последнюю версию Windows 10 1903/1909. Как это сделать можно прочитать здесь https://www.microsoft.com/ru-ru/softwar ... /windows10. - Осуществить подключение питания карты рекомендуется двумя отдельными кабелями во избежание возможных проблем с блоком питания, с самими кабелями и пиковым потреблением. - Использовать блок питания рекомендуемой производителем карты мощности. - Необходимо учитывать, что некоторые запущенные программы по мониторингу (afterburner, gpu-z и подобные) могут вызывать различного рода проблемы в работе карты и поведения карты в игре (статтеры, снижение fps, сбой в работе вентиляторов). В некоторых случаях были проблемы c оверлеем Adrenaline. (данная рекомендация может считаться устаревшей, в случае использования последних версий драйверов и обновлений Windows). - Разгон оперативной памяти может вызывать статтеры, вылеты или черные/синие экраны, если он был произведен без должного тестирования памяти на стабильность. Поэтому перед проверкой карты и ее разгонного потенциала рекомендуется сбросить разгон процессора и памяти. - Порядок установки новой карты: установить новую ОС -> установить драйвера чипсета -> установить прочие драйвера -> установить драйвер видеокарты. - Рекомендуется переустанавливать драйвер после переключения БИОСа на видеокарте, чтобы он (драйвер) корректно интерпретировал новые настройки (эта рекомендация Sapphire, написанная на бумажке, которая вложена в коробку с видеокартой). - Рекомендуется заполнить табличку OC potential of RX 6000 series - Проверить карту стресс тестами и играми (в том числе при при разгоне) в стоке со сбросом любого разгона (в т.ч. памяти и процессора): 3DMark Time Spy, тест на стабильность, 20 прогонов - Одна из рекомендаций по отлову черных экранов и проверки системы на стабильность: LinX (задачи 40000) + Kombustor (1080р), вместе включаем и смотрим приблизительно полтора часа. Предварительно выкрутить вентиляторы карты и системы на максимум во избежание перегрева.
После установки в системный блок и соблюдения общих рекомендаций, видеокарта должна стабильно работать на заявленных частотах без какого-либо вмешательства со стороны пользователя. Не должно быть синих или черных экранов. В случае появления какой-либо проблемы, прочтите шапку темы, спросите о своей проблеме в теме. Убедительно просим не заниматься андервольтингом или разгоном для решения своих проблем без базовых знаний и соответсвующих навыков. Если не помогли советы и рекомендации форумчан, смело возвращаете карту обратно в магазин. Обращаться за советом и знаниями не стыдно, даже если вы уверенный пользователь со стажем.
Жалобы о багах драйвера и проблемах в играх можно отправить по ссылке AMD Issue reporting form (ссылка периодически перестает работать, так как AMD постоянно меняет URL адрес этой страницы) В данной форме ведем статистику разгона и работы в стоке. Заполняем табличку, не ленимся - OC potential of RX 6000 series
Правила темы. Обязательно к ознакомлению
1. Для начала ознакомьтесь с Правилами Конференции. 2. Категорически запрещается использовать красный цвет в сообщениях - оставьте его для Модераторов и Куратора! Рекомендуется также не злоупотреблять остальными цветами. 3. Все односложные сообщения (типа: "Аналогично", "+1...", "У меня также") будут стираться без предупреждений. 4. Обсуждение действий Куратора или Модератора в теме не допускаются! Для этого есть ЛС (Личные сообщения). Прежде чем написать - советую всё обдумать. "Дыма без огня не бывает!" 5. Предложения и вопросы по "шапке" и FAQ темы принимаются в ЛС (Личные сообщения). В самой теме этого делать не нужно. 6. Прежде чем задать свой вопрос или написать о чём-то - поинтересуйтесь: нет ли хотя бы на последних страницах темы или в FAQ похожих вопросов и решений. 7. Флуд и оффтоп даже под тэгом /офф или /спойлер - в случае злоупотреблений могут быть награждены ЖК, как и ответы на сообщения, его содержащие. Имейте это ввиду. 8. Если вы увидели сообщение, нарушающее правила - просто жмите СК: отвечать на такие посты не нужно! 9. Картинки/видео прятать под спойлер (с именем): 10. Убедительная просьба, прячьте все (любые) картинки и видео под спойлер со знаком равно. Не исполььзуйте тег спойлера без знака "равно" для картинок - он для текста! Уважайте друг друга! Не у всех Интернет безлимитный и многие смотрят эту тему через телефон. Использовать для картинок:
Код:
[spoiler=картинка]ссылка на картинку[/spoiler]
Использовать для текста:
Код:
[spoilеr]текст[/spoilеr]
Обращение ко всем участникам ветки. Любое проявление неуважения друг другу, оскорбления, мат, создание атмосферы нетерпимости, переход на личности и разжигание ненависти будут просто удаляться в независимости от содержания сообщений. Учитесь быть взрослыми и вести спокойные продуктивные беседы. Спорьте на здоровье, но только без всего этого. Если хотите поофтопить или поматериться, то идите в личку.
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
Alex_Str писал(а):
Смогла, просто так как начали позднее, то и результат немного хуже. 7900ХТХ в Port Royal от 4080 отстает на 13%...это уж точно не назвать "не смогла".
Я про абсолют, не про 4080. В лучи не смогла, в альтернативу dlss3 не смогла, в потребление не смогла.
Alex_Str писал(а):
Она никуда не зайдет, так как не меняет производительность в принципе...это я сейчас про генерацию...это всего лишь иллюзия, визуальный обман.
Вы можете называть это как хотите, но я лучше буду видеть:
Это
#77
Чем это
#77
Как раз таки в тяжелой, не шибко динамичной игре.
Alex_Str писал(а):
По указанным ссылкам нет обоих карт, что сравнивать? Сравнивать надо в одном источнике.
Нету да, но и в представленных видео и ссылках видно потребление 4090 на уровне ~ 360W в играх как и 400W у 7900XTX. Не сложно прикинуть что к чему. Первое попавшиеся видео из запроса в ютуб: https://www.youtube.com/watch?v=l6FBlQ29UG0 В основном в разрешениях до 4к потребление до ~ 360-370. В 8к 400+. Поищи 7900XTX сам)
Последний раз редактировалось Bookmaker 29.05.2023 9:26, всего редактировалось 1 раз.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Sirise писал(а):
В лучи не смогла, в альтернативу dlss3 не смогла, в потребление не смогла.
В лучи смогла, они отлично на AMD работают. Делать альтернативу костыля обманывающего игрока и не нужно. Энергоэффективность у AMD отличная, а в прошлом поколении была так и ощутимо выше, но вы это тогда считали не важным, а вот когда невидия перешла на TSMC и им сделали нормальный GPU, даже с более высокой энергоэффективностью, так вы сразу начали об этом вспоминать, я уже давно заметил что вы выборочно говорите о том что считаете нужным.
Sirise писал(а):
Вы можете называть это как хотите, но я лучше буду видеть:
Вы будет лучше видеть когда зелень с глаз смоете.
Sirise писал(а):
Нету да, но и в представленных видео и ссылках видно потребление 4090 на уровне ~ 360W в играх как и 400W у 7900XTX.
Если брать со всяких видео, с одного одно с другого другое, то можно какую угодно статистику сделать. Я привел с сайта Guru3D где используют спецоборудование для замера потребления, а не обычный мониторинг программный. 7900ХТХ может и 430Вт потреблять, но это в неслабом разгоне, а для 4090 это потребление из коробки, причем для референсной карты и она же максимум потребляет до 480Вт, о я выше и писал. Более того, там указана рекомендация от Guru3D...для 4090 850Вт БП...а для 7900 ХТХ даже меньше чем для 4080...700-750Вт.
Мемbеr
Статус: Не в сети Регистрация: 07.03.2011 Фото: 7
Alex_Str А у меня другие замеры добро пожаловать в соответсвующую тему. Все забывают что ограничение мощности на видеокартах AMD срабатывет медленние, чем на видеокартах Nvidia. Смотрим на официальные требования и удивляемся.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Fatronix писал(а):
Все забывают что ограничение мощности на видеокартах AMD срабатывет медленние, чем на видеокартах Nvidia.
Скорость срабатывания не важна так как в замерах указывается среднее значение за сессию. Да и ваше утверждение о том что у AMD медленее это всего лишь мнение.
Fatronix писал(а):
Смотрим на официальные требования и удивляемся.
Там отчасти маркетинг и запас на всякий случай, лучше смотреть рекомендации от спецресурсов которые не заинтересованы и им не нужно выдать более красивое число чем у конкурента.
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
Alex_Str писал(а):
В лучи смогла, они отлично на AMD работают. Делать альтернативу костыля обманывающего игрока и не нужно. Энергоэффективность у AMD отличная, а в прошлом поколении была так и ощутимо выше, но вы это тогда считали не важным, а вот когда невидия перешла на TSMC и им сделали нормальный GPU, даже с более высокой энергоэффективностью, так вы сразу начали об этом вспоминать, я уже давно заметил что вы выборочно говорите о том что считаете нужным.
Лучи "работали" и на GTX1080... "Костыля обманывающего игрока" ... вся графика в играх это путь компромиссов и ухищрений... Я и сейчас считаю потребление в настольных gpu наименее важной характеристикой и упоминаю это лишь для понимания картины в общем, когда более слабый gpu кушает как топовый на рынке.
Alex_Str писал(а):
Вы будет лучше видеть когда зелень с глаз смоете.
Ну да, это все что вам остается писать...
Alex_Str писал(а):
Если брать со всяких видео, с одного одно с другого другое, то можно какую угодно статистику сделать. Я привел с сайта Guru3D где используют спецоборудование для замера потребления, а не обычный мониторинг программный.
Я скорее поверю разным видео, где видно потребление карт, чем одному сайту. Ну приведи видео где 4090 480 вт ест в играх, очень жду)
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Sirise писал(а):
Я и сейчас считаю потребление в настольных gpu наименее важной характеристикой
Это самый важный показатель, так как отражает реальное качество архитектуры и изготовления чипа GPU, чем выше энергоэффективность - тем выше качество и это естественно не о экономии электричества.
Sirise писал(а):
вся графика в играх это путь компромиссов и ухищрений
Ухищрения это тактика куртки, как бы так намахать чтобы больше FPS показать. Картинка должна быть честной, без читерства в виде добавления фейковых промежуточных кадров.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Fatronix "However, we also see that the few peak at over 500 watts is not due to the current flowing (graphics card), but actually results from the power supply! This is also due to the topology and especially the input filters. I suspect that AMD works with a slightly higher switching frequency of the voltage regulators here than NVIDIA, which could also explain the additional frequency garbage."
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Подскажите, это нормально, что r5 5600 не загружает на 100% в игре the last of us видеокарту rx 6800?
Ультра настройки, разрешение 2к в режиме fsr 2.1 quelity. Загрузка скачет от 90 до 100% в среднем. А если включить fsr performance, то fps меняется совсем незначительно, а загрузка видеокарты снижается до 70-80%.
Проблема в игре - кривой порт или же rx 6800 слишком мощная для ryzen 5 5600?
Ситуация была бы намного лучше, если бы я вместо r5 5600 использовал r7 5700x? Изначально и планировал его брать, но отговорили сказав, что особого смысла в этом нет.
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
Alex_Str писал(а):
Это самый важный показатель, так как отражает реальное качество архитектуры и изготовления чипа GPU, чем выше энергоэффективность - тем выше качество и это естественно не о экономии электричества.
Для вас мб, для меня нет. Для меня важна производительность и способность со отводить тепло и работать тихо. +/-50-100W для меня не критичны.
Alex_Str писал(а):
Ухищрения это тактика куртки, как бы так намахать чтобы больше FPS показать. Картинка должна быть честной, без читерства в виде добавления фейковых промежуточных кадров.
Ну почитайте как строится картинка в играх, что как обрезается или упрощается когда этого не видит игрок... про лоды всякие и тд...
Alex_Str писал(а):
Там лучей не было и нет.
:facepalm: Ну доступ же в сеть есть, мог бы погуглить...
Последний раз редактировалось Sirise 28.05.2023 19:22, всего редактировалось 1 раз.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Sirise писал(а):
Ну доступ же в сеть есть, мог бы погуглить...
То что можно кое как запустить, не значит что там есть лучи...лучи это RT ядра...так то я с лучами на RX 470 кризис проходил, но я же не говорю что у нее есть лучи.
Sirise писал(а):
Ну почитайте как строится картинка в играх, что как обрезается или упрощается когда этого не видит игрок... про лоды всякие и тд...
Это называется оптимизация, а выдавать в качестве кадров генерацию это обман, потому что управление и игровые процессы при этом проходят на той же скорости, не соответствующей FPS.
Sirise писал(а):
Для меня важна производительность и способность со отводить тепло и работать тихо. +/-50-100W для меня не критичны.
Для меня тоже важна производительность и особо не важно сколько карта потребляет, но это не отменяет того что это физический качественный показатель, а производительность понятие относительное.
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
Будильник писал(а):
есть 4090 4*8пин ..там биосы 600ватт 3*8пин простые 450ватт
Еще раз - речь о референсах. Про ос версии вопросов не возникает априори.
Добавлено спустя 6 минут 33 секунды:
Alex_Str писал(а):
То что можно кое как запустить, не значит что там есть лучи...лучи это RT ядра...так то я с лучами на RX 470 кризис проходил, но я же не говорю что у нее есть лучи.
Ты совсем глупый, как я посмотрю, я к тому и писал: Лучи "работали" и на GTX1080... в кавычках. Карта могла их запустить но работали они плохо. И я нигде никак не упоминал про наличие или отсутствие рт блоков
Alex_Str писал(а):
Это называется оптимизация, а выдавать в качестве кадров генерацию это обман, потому что управление и игровые процессы при этом проходят на той же скорости, не соответствующей FPS.
Оптимизация и ухищрения идут очень рядом. Лоды это тоже обман тк вам мылят дальние объекты. В реальности это не так! нэ?)
Alex_Str писал(а):
Для меня тоже важна производительность и особо не важно сколько карта потребляет, но это не отменяет того что это физический качественный показатель, а производительность понятие относительное.
Ради бога, берите тогда по "качественному" показателю карты. Какой нить лоу сегмент как раз мало потребляет.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Sirise писал(а):
Ты совсем глупый, как я посмотрю, я к тому и писал: Лучи "работали" и на GTX1080... в кавычках. Карта могла их запустить но работали они плохо. И я нигде никак не упоминал про наличие или отсутствие рт блоков
То не лучи, а имитация.
Sirise писал(а):
Какой нить лоу сегмент как раз мало потребляет.
Дело не в том сколько потребляет, а в том сколько тратит ватт на кадр в секунду, это и есть энергоэффективность.
Member
Статус: Не в сети Регистрация: 21.08.2006 Откуда: Юг России
Envу писал(а):
Подскажите, это нормально, что r5 5600 не загружает на 100% в игре the last of us видеокарту rx 6800?
Да, мой r5 5600x недогружал 6800, особено в ранних релизах до патча 1.3. Потом нагрузку на процессор снизили немного, вполне играется 70-100 ФПС 2k ultra без FSR.
_________________ Компьютер Asus b350 Prime r7 5700X3D 32gb Palit 5070Ti Gamerock OC Asus Xonar D1.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения