Напоминаю! Пользователь, если ты ничего в этом не понимаешь, не занимайся разгоном! Ну а если всё-таки занялся, то делаешь всё на свой страх и риск. Мы, как и блогеры, расписывающие методики разгона, не отвечаем за последствие твоих действий!
- Установить последнюю версию Windows 10 1903/1909. Как это сделать можно прочитать здесь https://www.microsoft.com/ru-ru/softwar ... /windows10. - Осуществить подключение питания карты рекомендуется двумя отдельными кабелями во избежание возможных проблем с блоком питания, с самими кабелями и пиковым потреблением. - Использовать блок питания рекомендуемой производителем карты мощности. - Необходимо учитывать, что некоторые запущенные программы по мониторингу (afterburner, gpu-z и подобные) могут вызывать различного рода проблемы в работе карты и поведения карты в игре (статтеры, снижение fps, сбой в работе вентиляторов). В некоторых случаях были проблемы c оверлеем Adrenaline. (данная рекомендация может считаться устаревшей, в случае использования последних версий драйверов и обновлений Windows). - Разгон оперативной памяти может вызывать статтеры, вылеты или черные/синие экраны, если он был произведен без должного тестирования памяти на стабильность. Поэтому перед проверкой карты и ее разгонного потенциала рекомендуется сбросить разгон процессора и памяти. - Порядок установки новой карты: установить новую ОС -> установить драйвера чипсета -> установить прочие драйвера -> установить драйвер видеокарты. - Рекомендуется переустанавливать драйвер после переключения БИОСа на видеокарте, чтобы он (драйвер) корректно интерпретировал новые настройки (эта рекомендация Sapphire, написанная на бумажке, которая вложена в коробку с видеокартой). - Рекомендуется заполнить табличку OC potential of RX 6000 series - Проверить карту стресс тестами и играми (в том числе при при разгоне) в стоке со сбросом любого разгона (в т.ч. памяти и процессора): 3DMark Time Spy, тест на стабильность, 20 прогонов - Одна из рекомендаций по отлову черных экранов и проверки системы на стабильность: LinX (задачи 40000) + Kombustor (1080р), вместе включаем и смотрим приблизительно полтора часа. Предварительно выкрутить вентиляторы карты и системы на максимум во избежание перегрева.
После установки в системный блок и соблюдения общих рекомендаций, видеокарта должна стабильно работать на заявленных частотах без какого-либо вмешательства со стороны пользователя. Не должно быть синих или черных экранов. В случае появления какой-либо проблемы, прочтите шапку темы, спросите о своей проблеме в теме. Убедительно просим не заниматься андервольтингом или разгоном для решения своих проблем без базовых знаний и соответсвующих навыков. Если не помогли советы и рекомендации форумчан, смело возвращаете карту обратно в магазин. Обращаться за советом и знаниями не стыдно, даже если вы уверенный пользователь со стажем.
Жалобы о багах драйвера и проблемах в играх можно отправить по ссылке AMD Issue reporting form (ссылка периодически перестает работать, так как AMD постоянно меняет URL адрес этой страницы) В данной форме ведем статистику разгона и работы в стоке. Заполняем табличку, не ленимся - OC potential of RX 6000 series
Правила темы. Обязательно к ознакомлению
1. Для начала ознакомьтесь с Правилами Конференции. 2. Категорически запрещается использовать красный цвет в сообщениях - оставьте его для Модераторов и Куратора! Рекомендуется также не злоупотреблять остальными цветами. 3. Все односложные сообщения (типа: "Аналогично", "+1...", "У меня также") будут стираться без предупреждений. 4. Обсуждение действий Куратора или Модератора в теме не допускаются! Для этого есть ЛС (Личные сообщения). Прежде чем написать - советую всё обдумать. "Дыма без огня не бывает!" 5. Предложения и вопросы по "шапке" и FAQ темы принимаются в ЛС (Личные сообщения). В самой теме этого делать не нужно. 6. Прежде чем задать свой вопрос или написать о чём-то - поинтересуйтесь: нет ли хотя бы на последних страницах темы или в FAQ похожих вопросов и решений. 7. Флуд и оффтоп даже под тэгом /офф или /спойлер - в случае злоупотреблений могут быть награждены ЖК, как и ответы на сообщения, его содержащие. Имейте это ввиду. 8. Если вы увидели сообщение, нарушающее правила - просто жмите СК: отвечать на такие посты не нужно! 9. Картинки/видео прятать под спойлер (с именем): 10. Убедительная просьба, прячьте все (любые) картинки и видео под спойлер со знаком равно. Не исполььзуйте тег спойлера без знака "равно" для картинок - он для текста! Уважайте друг друга! Не у всех Интернет безлимитный и многие смотрят эту тему через телефон. Использовать для картинок:
Код:
[spoiler=картинка]ссылка на картинку[/spoiler]
Использовать для текста:
Код:
[spoilеr]текст[/spoilеr]
Обращение ко всем участникам ветки. Любое проявление неуважения друг другу, оскорбления, мат, создание атмосферы нетерпимости, переход на личности и разжигание ненависти будут просто удаляться в независимости от содержания сообщений. Учитесь быть взрослыми и вести спокойные продуктивные беседы. Спорьте на здоровье, но только без всего этого. Если хотите поофтопить или поматериться, то идите в личку.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Rimgaudas писал(а):
Старые собственные прессеты на новых дровах не подходят.
есть такое дело... На восстановление 2 пресетов - разгон и андервольт, ушло примерно по минуте на каждый А вот если у кого-то курва охлаждения была кастомная - мои соболезнования...
Вроде как изначальный разговор был о энергоэффективности 6600xt /6700xt ,что они мол мало жрут, а что прямые соперники в лице 3060/3060ti и 3070 много потребляют ? Даже rtx 3070 можно довести до уровня энергопотребления в диапазоне от 130 ватт до 180ватт и при этом ещё не плохо разогнать карту :
Без упора в лимит разница в энергопотребление между 3070 и 3070ti минимум 50-70 ватт из-за более прожерлевой gddr6x памяти , на более старших моделях где больше банок памяти разница может легко доходить до 100 ватт. Что касается энергопотребление , то проблема высокого энергопотребления кроется непосредственно в типе памяти . К примеру переход с gddr6 на gddr6x на картах 3070 и 3070ti, то такой переход дал прирост на уровне погрешности, но рост энергопотребление вырос на значительные 36%! Высокое энергопотребление амперов целиком и полностью вина gddr6x
Добавлено спустя 17 минут 41 секунду: По моему никто из владельцев не против , что поставили старшим амперам прожерливую память и широкую шину памяти чтоб в 4к не было упора в пропускную способность. По моему подавляющее большинство пользователей довольны этому шагу . 256 бит и gddr6 это не совсем про комфортный гейминг в 4к
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Sergiu Bunacalea писал(а):
256 бит и gddr6 это не совсем про комфортный гейминг в 4к
у веги 2048 бит шина и HBM2. Стало быть, это самый-самый комфортный гейминг в 4К? Странная логика, которая не учитывает такую мааааленькую деталь, как инфинити кэш. Обойди на 3070ти с "могучей" GDDR6X слабую 6800хт хоть в одной игре в 4К (кроме киберпанка+лучи), убедись, что эти 2 сухих параметра - тип памяти и шина, вообще ни о чем не говорят, там куда больше переменных, чем выглядит на первый взгляд
Последний раз редактировалось RadeoForce 14.09.2021 16:09, всего редактировалось 1 раз.
Обойди 6800хт хоть в одной игре в 4К (кроме киберпанка+лучи), убедись, что эти 2 сухих параметра - тип памяти и шина, вообще ни о чем не говорят, там куда больше переменных, чем выглядит на первый взгляд
Не вопрос, через неделю должна приехать msi rtx 3080ti suprim x и думаю что практически во всех играх она будет быстрее
Добавлено спустя 1 минуту 5 секунд: А в лучах предполагаю что будет и вовсе x2
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Sergiu Bunacalea писал(а):
Не вопрос, через неделю должна приехать msi rtx 3080ti suprim x и думаю что практически во всех играх она будет быстрее
да ради бога. Режим троллинга вкл: +10% фпс, +50% энергопотребление, -33% видеопамяти, х1.6 рыночная цена - спасибо, не надо Да речь-то о том, что шина и память не отвечают за комфорт. Вернее, они ничего не гарантируют. У радеон7 система с терабайтом псп, это ей не мешает почти двукратно проигрывать 6800хт "со слабой видеопамятью"
Sergiu Bunacalea писал(а):
А в лучах предполагаю что будет и вовсе x2
кое-где даже проиграешь в лучах
Последний раз редактировалось RadeoForce 14.09.2021 16:26, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 03.06.2006 Откуда: Москва Фото: 133
RadeoForce Я пожалуй соглашусь, что это были не просто маркетинговые россказни во время презентации новой архитектуры. Инфинити кеш действительно делает своё дело. Я думаю, что следующая "navi" будет с удвоенным объемом кеша на каждый чиплет, а может и больше с учетом того, как сильно помогает в производительности текущий объем. При этом не забываем, что это довольно старая проблема еще GCN, которому постоянно не хватало пропускной способности памяти. Ну и вот, например, схема из разаряда слухов про будущее.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Fitchew писал(а):
Я пожалуй соглашусь, что это были не просто маркетинговые россказни во время презентации новой архитектуры. Инфинити кеш действительно делает своё дело. Я думаю, что следующая "navi" будет с удвоенным объемом кеша на каждый чиплет, а может и больше с учетом того, как сильно помогает в производительности текущий объем. При этом не забываем, что это довольно старая проблема еще GCN, которому постоянно не хватало пропускной способности памяти.
и да и нет. главной проблемой GCN были высокие задержки (latency). Голой псп у нее было за глаза, а вот на обработку большого количества мелких данных она была неповоротлива. инфинити кеш же файлы до 128мб гоняет с псп около 1.5тб/с (полтора терабайта в секунду!), при этом минимизируя задержки (кеш сам по себе шустрее любой памяти). Тем самым амд избавилась от одного из главных своих ботлнеков - медленная работа с мелкими данными. Полагаю, если его реально расширят до 512 мб, то карты могут еще сильнее бустануть, ибо подавляющая часть гоняемых по видеопамяти данных - это именно мелкие данные. Крупняком обычно идут текстуры, но они ничего экстраординарного от видеопамяти и не требуют, кроме голой псп.
Последний раз редактировалось RadeoForce 14.09.2021 16:48, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 03.06.2006 Откуда: Москва Фото: 133
RadeoForce писал(а):
главной проблемой GCN были высокие задержки (latency). Голой псп у нее было за глаза, а вот на обработку большого количества мелких файлов она была неповоротлива
Упрощенно выразился. Ну опять же текстуры достаточно один раз подгрузить и всё, дальше они могут спокойно сидеть в озу (стартовая загрузка).
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Fitchew писал(а):
Ну опять же текстуры достаточно один раз подгрузить и всё, дальше они могут спокойно сидеть в озу (стартовая загрузка).
в видеопамяти, не в озу. Как раз если текстуры лезут в озу, это и вызывает начиная с микростаттеров и заканчивая слайдшоу с последующим вылетом, если озу забивается. Но костяк игровой производительности - это постоянный буфер, активно гоняемый в видеопамяти. Если точнее, то данные, к которым игра обращается чаще всего. То есть игра может жрать и 12гб, а на деле ей надо, скажем, 8гб. Но если у карты менее 8гб, пусть даже на 100мб меньше, начинается "синдром 1063" - нехватка физической памяти для постоянного игрового буфера, и тогда периодическими микростаттерами уже не отделаться. Ведь все наверное вкурсе, что на 1063 в киберпанк, резик 8 и хорайзон даже на минималках не поиграть, а 1066 вполне вывезет их даже на "высоких" (панка на средних)
У амд есть отличная прога - GPU Profiler, где можно отслеживать практически всё, вплоть до менеджмента видеопамяти. это прога для разработчиков игр, в которой хорошо видно, во что упирается производительность. Но мне не хватает знаний, чтобы воспользоваться ей по полной и понять ее на 100%, там есть прямо таки дебри дебрями. Девелоперский софт, как никак... Она в открытом доступе. Но работает она только в дх12 на сегодняшний день.
после установки Adrenalin 21.9.1, "выросло" потребление в сенсорах. смотрел в MSI AB после теста 3DMark TS - доходило до 520Ватт. у всех такая веселуха теперь?! температуры без изменений, очки в марке тоже. порог в 500Ватт конечно смущает, особенно для двух PCI-E... PS у меня лимит 350 в MPT + 15% в драйвере.
_________________ ASUS STRIX Z490-E GAMING 10900K@5100/4900 6900XT ref@2755 410W PVS416G400C9K@4300-16-17-17-35-CR1 1.53V Odyssey G8 OLED MSI MEG Ai1300P
Вроде нет, выросло потребление только там, где попугаев больше стало - порт рояль
Вроде реальное потребление не изменилось, просто алгоритм показа этого параметра в драйвере поменяли. Температуры остались прежними. У меня появились "пики" до 500+ватт.
_________________ ASUS STRIX Z490-E GAMING 10900K@5100/4900 6900XT ref@2755 410W PVS416G400C9K@4300-16-17-17-35-CR1 1.53V Odyssey G8 OLED MSI MEG Ai1300P
1. 3х количество шейдеров по сравнению с 6900 2. up 512 мб инфинити зависит от модели 3. шина все таже 256bit Gddr6 4. Драматический прирост в RT 5. В конце года уже первые образцы лабораторные будут Один из информаторов нам спойлернул, если ничего не изменится, Computex 2022 #77
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Конрад Кёрз писал(а):
6600xt оверпрайснутый мусор
убрать майнинг, 6600 нафиг не нужна на фоне 3060, с этим даже глупо было бы спорить. Но майнинг убрать не выйдет, сейчас за рыночную цену 6600 можно купить лишь 6-гиговый недомерок 1660S, ибо хешрейт у них сопоставим, а хешрейт это единственный ценообразующий фактор рынка гпу. А сама 3060 дороже, чем 6700хт, но это тоже карты, можно сказать, разного класса. Так что, если кто-то морально готов отдавать 50К за мидлы, то это решение всяко оптимальнее, чем 1660S за 45 или 3060 за 85+
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения