Напоминаю! Пользователь, если ты ничего в этом не понимаешь, не занимайся разгоном! Ну а если всё-таки занялся, то делаешь всё на свой страх и риск. Мы, как и блогеры, расписывающие методики разгона, не отвечаем за последствие твоих действий!
- Установить последнюю версию Windows 10 1903/1909. Как это сделать можно прочитать здесь https://www.microsoft.com/ru-ru/softwar ... /windows10. - Осуществить подключение питания карты рекомендуется двумя отдельными кабелями во избежание возможных проблем с блоком питания, с самими кабелями и пиковым потреблением. - Использовать блок питания рекомендуемой производителем карты мощности. - Необходимо учитывать, что некоторые запущенные программы по мониторингу (afterburner, gpu-z и подобные) могут вызывать различного рода проблемы в работе карты и поведения карты в игре (статтеры, снижение fps, сбой в работе вентиляторов). В некоторых случаях были проблемы c оверлеем Adrenaline. (данная рекомендация может считаться устаревшей, в случае использования последних версий драйверов и обновлений Windows). - Разгон оперативной памяти может вызывать статтеры, вылеты или черные/синие экраны, если он был произведен без должного тестирования памяти на стабильность. Поэтому перед проверкой карты и ее разгонного потенциала рекомендуется сбросить разгон процессора и памяти. - Порядок установки новой карты: установить новую ОС -> установить драйвера чипсета -> установить прочие драйвера -> установить драйвер видеокарты. - Рекомендуется переустанавливать драйвер после переключения БИОСа на видеокарте, чтобы он (драйвер) корректно интерпретировал новые настройки (эта рекомендация Sapphire, написанная на бумажке, которая вложена в коробку с видеокартой). - Рекомендуется заполнить табличку OC potential of RX 6000 series - Проверить карту стресс тестами и играми (в том числе при при разгоне) в стоке со сбросом любого разгона (в т.ч. памяти и процессора): 3DMark Time Spy, тест на стабильность, 20 прогонов - Одна из рекомендаций по отлову черных экранов и проверки системы на стабильность: LinX (задачи 40000) + Kombustor (1080р), вместе включаем и смотрим приблизительно полтора часа. Предварительно выкрутить вентиляторы карты и системы на максимум во избежание перегрева.
После установки в системный блок и соблюдения общих рекомендаций, видеокарта должна стабильно работать на заявленных частотах без какого-либо вмешательства со стороны пользователя. Не должно быть синих или черных экранов. В случае появления какой-либо проблемы, прочтите шапку темы, спросите о своей проблеме в теме. Убедительно просим не заниматься андервольтингом или разгоном для решения своих проблем без базовых знаний и соответсвующих навыков. Если не помогли советы и рекомендации форумчан, смело возвращаете карту обратно в магазин. Обращаться за советом и знаниями не стыдно, даже если вы уверенный пользователь со стажем.
Жалобы о багах драйвера и проблемах в играх можно отправить по ссылке AMD Issue reporting form (ссылка периодически перестает работать, так как AMD постоянно меняет URL адрес этой страницы) В данной форме ведем статистику разгона и работы в стоке. Заполняем табличку, не ленимся - OC potential of RX 6000 series
Правила темы. Обязательно к ознакомлению
1. Для начала ознакомьтесь с Правилами Конференции. 2. Категорически запрещается использовать красный цвет в сообщениях - оставьте его для Модераторов и Куратора! Рекомендуется также не злоупотреблять остальными цветами. 3. Все односложные сообщения (типа: "Аналогично", "+1...", "У меня также") будут стираться без предупреждений. 4. Обсуждение действий Куратора или Модератора в теме не допускаются! Для этого есть ЛС (Личные сообщения). Прежде чем написать - советую всё обдумать. "Дыма без огня не бывает!" 5. Предложения и вопросы по "шапке" и FAQ темы принимаются в ЛС (Личные сообщения). В самой теме этого делать не нужно. 6. Прежде чем задать свой вопрос или написать о чём-то - поинтересуйтесь: нет ли хотя бы на последних страницах темы или в FAQ похожих вопросов и решений. 7. Флуд и оффтоп даже под тэгом /офф или /спойлер - в случае злоупотреблений могут быть награждены ЖК, как и ответы на сообщения, его содержащие. Имейте это ввиду. 8. Если вы увидели сообщение, нарушающее правила - просто жмите СК: отвечать на такие посты не нужно! 9. Картинки/видео прятать под спойлер (с именем): 10. Убедительная просьба, прячьте все (любые) картинки и видео под спойлер со знаком равно. Не исполььзуйте тег спойлера без знака "равно" для картинок - он для текста! Уважайте друг друга! Не у всех Интернет безлимитный и многие смотрят эту тему через телефон. Использовать для картинок:
Код:
[spoiler=картинка]ссылка на картинку[/spoiler]
Использовать для текста:
Код:
[spoilеr]текст[/spoilеr]
Обращение ко всем участникам ветки. Любое проявление неуважения друг другу, оскорбления, мат, создание атмосферы нетерпимости, переход на личности и разжигание ненависти будут просто удаляться в независимости от содержания сообщений. Учитесь быть взрослыми и вести спокойные продуктивные беседы. Спорьте на здоровье, но только без всего этого. Если хотите поофтопить или поматериться, то идите в личку.
Сменил монитор,заметил,про при выставлении прицела на мониторе он смещен относительно экрана.Решил проверить,может,это косяк игры.В итоге получил такой скрин :
Вложение:
xlgE09XWW54.jpg [ 278.83 КБ | Просмотров: 740 ]
Видно,что на правой границе экрана не хватает ряда пикселей.Как сие исправить?Не нашел настройки положения ни в "десятке",ни в драйвере,в мониторе (НР X27q) тоже не вижу автонастройки,как в старые-добрые. При смене разрешения на FHD границы выравниваются:
Вложение:
FeW29u-p5Kk.jpg [ 195.95 КБ | Просмотров: 735 ]
Однако прицел остается смещенным относительно центра экрана.Неужели это сами НР не там точку поставили?)Я,вроде,и визуально вижу,что при 2К разрешении правая граница тонкая,а за нижней есть узкая полоса.Сам прицел выглядит вот так:
Вложение:
2pxfhwrFMoU.jpg [ 1.59 МБ | Просмотров: 733 ]
Игры с типами и режимами масштабирования в драйвере не дали результатов.
Заблокирован Статус: Не в сети Регистрация: 02.09.2009 Откуда: Мухосранск Фото: 6
Sanek6110 писал(а):
Добрый вечер. 10600К,Z490.A PRO,6900XT Red Devil,DQ750ST.Пару недель назад первый раз комп вырубился при майнинге.Стоял, всё работало в штатном режиме, сажусь - не включается монитор,хотя все корпусные вертушки и вертушки на башне крутятся. Через приложение "Найса" посмотрел - комп отображается как выключенный, не майнит,AnyDesk тоже показывает,что комп выключен.При попытках включить заводился через несколько траев : пробовал через кнопку питания, кнопку блока, дергал кабель, раз 5-7 пришлось проделать данную операцию, чтобы завестись.Одним раз потух после того, как я запустил систему после вырубания, включился, зашел в браузер - черный экран (майнинг на фоне уже был включен)без признаков жизни. И подобная ерунда за эти пару недель случилась раз 6,пару вырубаний назад заметил, что горит Debug Led на VGA, Процессор и память проходит, затем замирает на карте. Карту гонял в хвост и гриву,тесты, игры, максимальный разгон через МРТ,всё идеально. Майнинг ,естественно, в андервольте,120-130 Ватт потребления, память 66-70 градусов. Сейчас вот уехал на 20 минут, вернулся -комп опять потух,выключил,запустил с кнопки питания с первой попытки. Говорят, что стоит грешить либо на блок, либо на плату. Блоку почти год, из новых ревизий,стоял полгода в майнинге с 3080,потом полгода с 6900,сверхнагрузок не испытывал, карта всего одна. Начну проверку с замены блока,всё равно планировал сменить, если не поможет, буду пробовать плату.Как ещё проверить карту?Вспомнил,что в майнинге с 3080 при переразгоне комп вырубался,но после этого включался с первой попытки.Может ли вообще карта как-то влиять на запуск,если это вдруг она ловит баг?Сейчас уже почти сутки майню в стоке - сбросил настройки МРТ,память оставил на 2000,чип 1300,напряжение поставил на минимальное для стока,825.
Sanek6110 возможно блок питания брак. Так то голдовый должен тянуть
_________________ трёхлетнее старьё 6800хт и куплена у майнера
возможно блок питания брак. Так то голдовый должен тянуть
Сейчас заканчиваю проверять последние программные моменты, которые теоретически могли давать сбой,если ничего не изменится - буду менять блок, затем - плату. Сегодня жарил карту 2 часа в "бублике" на потреблении под 400 Ватт - всё отлично, никаких проблем. На карту уже не грешу,но всё равно боязно. )Блок конечно должен тянуть, тем более проблема ,считай, в режиме простоя. Буду наблюдать дальше.
Member
Статус: Не в сети Регистрация: 24.12.2008 Фото: 4
Вот и пригодились 16гб
Цитата:
В Digital Foundry также обнаружили проблему с использованием пакета 4K-текстур на ПК, который при включенной трассировке лучей требует 11 ГБ видеопамяти. На Radeon RX 6800 XT с 16 ГБ памяти они загрузились удачно, тогда как на RTX 3080 с 10 ГБ VRAM — не до конца. Однако при этом максимальное использование видеопамяти на адаптере NVIDIA не превышало 8,6 ГБ.
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
AngelMira расстояние разное до стенки, лоды с HD текстурами могли не прогрузиться из-за особенностей настройки движка на таком расстоянии, а не из-за не хватки памяти. Я не играю в FC и не знаю как там работает оптимизация.
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
LEVAK писал(а):
Вроде уже разобрались, что без 16+ памяти HD текстуры просто не работают.
Кто и где разбирался? Судя по этому ролику ограничение чисто искусственное (думается это связано с тем что игру раздают при покупке карты АМД): https://www.youtube.com/watch?v=Cy5yz6BRJc8 Тут сказано что все в пол съедает 9.3Гб памяти в 4К, а без лучей всего 7.7Гб:
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
RadeoForce писал(а):
Там 10 гигам не хватает самую малость
Собственно я к тому и веду, что ограничение сделано искусственно, ведь всегда можно использовать ОЗУ для выгрузки/загрузки нужных текстур, это дань кормящей руке. Ну либо программисты вчерашние студенты и не знают что такое менеджмент памяти.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Airotciv писал(а):
ведь всегда можно использовать ОЗУ для выгрузки/загрузки нужных текстур, это дань кормящей руке
не всегда, далеко. HD-текстуры туда точно не упакуешь безболезненно. Может быть, когда-нибудь, если реализуют Direct Storage... в общем, я бы не стал на это надеяться на постоянной основе. Думаю, ежу было понятно, что покупая в 2020 году видеокарту с 10гб под 4К разрешение, нужно быть готовым к неприятностям
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
RadeoForce писал(а):
не всегда, далеко.
И когда же нельзя?) Хотелось бы услышать обоснованное мнение почему нельзя использовать лоды нормально и выгружать не используемые текстуры в игре где нет мгновенных телепортов. Я играю в 2.5К, просто из любопытства интересуюсь проблемой
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Airotciv писал(а):
И когда же нельзя?
крупные данные нельзя делить - HD текстуры именно таковыми и являются. Они выгружаются кусками по 2-3гб. То есть, допустим, если у видеокарты есть 10гб, игра жрет 9гб, то загрузить 2-3гб текстур в оставшийся 1гб кусок памяти не получится, и они целиком полезут в ОЗУ, что приведет к неприятным последствиям для фреймтайма, а то и вообще заруинит производительность. И еще один момент, очень важный: любая буферизация данных из видеопамяти в ОЗУ - это серьезная дополнительная нагрузка на проц. Об этом не стоит забывать. И речь не о 5-10% потерь, а вплоть до двукратной просадки цпу-фпс!
Airotciv писал(а):
Хотелось бы услышать обоснованное мнение почему нельзя использовать лоды нормально и выгружать не используемые текстуры в игре где нет мгновенных телепортов
почему же, как раз можно. Только это будет неприятно, ибо подгружаться будет прямо перед носом, как в технологически убогом киберпанке(при всей его "облучённости", технологически игра не блещет даже на фоне более старых проектов). Другое дело, я понимаю, чего ты хочешь, и это называется Sampler Feedback, можешь почитать, что это. Вкратце - те же лоды, но более сложный процесс, и требует шустрого ссд. Остается надеяться, что эта технология станет мейнстримом, иначе через годик-другой уже и 16гб обратятся тыквой. Мы ведь еще толком некстгена не видели. Был Deathloop, который попытался в детализацию и дальность прорисовки, и это при графоне выше среднего(графонистые игры часто страдают дальностью прорисовки) - и даже для этого нужно по меньшей мере 16гб видеопамяти, чтобы бесхлопотно играть. А если лучи на максимум выкрутить, то игра до 20гб выжирает, я у себя я четко видел, как данные лезут в озу, и это на 16гб видеопамяти! У Змея на 3090 выжрала 18гб в 3440х1440, а это разрешение далеко от 4К
Заблокирован Статус: Не в сети Регистрация: 02.09.2009 Откуда: Мухосранск Фото: 6
Ребят правильно я понимаю, что самая выгодная в этой линейке это 6700хт? Да говорят 6600хт несильно отстаëт, но у не 8 гб. А 6800хт стоит ого-го, при этом жрет как танк.
_________________ трёхлетнее старьё 6800хт и куплена у майнера
Чтобы было понятно, почему я так считаю: между 6800 и 6800хт разница в производительности больше, чем разница в цене. Равно как и между 6700ХТ и 6800ХТ. То есть, если у амд раньше всегда были вкусняхами именно "неиксовые" модели, то сейчас под неиксовой 6800 подсунули на четверть кастрированную по РОПам карту, относительно 6800хт. То есть 6800хт скорее надо было обозвать "6900 не ХТ". Но бабе Су надо было как-то обосновать полуторократный прайс на 6900хт. Она, как и положено флагману, самая невыгодная в линейке.
Ну и, соответственно, 6800 выгоднее, чем 6700хт, по той же самой причине, что и 6800хт.
Последний раз редактировалось RadeoForce 10.10.2021 19:52, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 05.08.2011 Откуда: Санкт-Петербург Фото: 21
RadeoForce писал(а):
крупные данные нельзя делить - HD текстуры именно таковыми и являются.
Ничего не мешает текстуры делить на меньшие части (в процессе создания игры) и держать часть из них в оперативке, так что нет, аргумент слабый (всегда так делали и вдруг, разучились). Тут все проще, как и с Godfall, тупо занесены денежки, других причин этому нет. Через месяц эту фишку типо исправят как баг.
Member
Статус: Не в сети Регистрация: 04.08.2016 Фото: 6
Airotciv писал(а):
Ничего не мешает текстуры делить на меньшие части (в процессе создания игры) и держать часть из них в оперативке, так что нет, аргумент слабый
ничего не мешает тратить дополнительное время и средства на оптимизацию, согласен. Но практика показывает, что чем сильнее железо, тем больший болт кладут на оптимизацию. И надо стараться быть к этому готовым, ведь и среди конченой кривоты бывают крутые игры, в которые хочется поиграть. Потому для меня видеопамять всегда стояла особняком, неприятные флешбеки после GTX 670 2гб, когда чип мог на тот момент рвать и метать, а память максималки не тянула уже спустя года полтора. А карточка была хорошая, энергоэффективная (по этой причине взял ее, а не 7950, потом правда пожалел к 2014 году - 3гб решили многое против 2гб)
Кстати, я вот думаю, что жор в новинках так резко подскочил именно потому, что на консолях (PS5, в частности) уже давно реализован консольный аналог Sampler Feedback, когда текстуры и ассеты подгружаются напрямую с SSD с максимальной скоростью. Собсно, это, пожалуй, главная фича PS5. А так как на пк эта технология пока реализована только в отдельном бенче 3дмарка, и то непонятно как она там работает, приходится гораздо больше данных вешать на видеопамять. Кроссплатформа она такая...
Airotciv писал(а):
Тут все проще, как и с годнес чето там, тупо занесены денежки, других причин этому нет. Через месяц эту фишку типо исправят как баг.
да это понятно, у амд долгосрочное соглашение с юбиками. Что-то они с хуангом в 2019 году не поделили и 10-летний брак развалился, последней зеленой игрой был Лучдогс, ибо долгострой (4 года ее делали). Но намеренно нвидию никто не глушит, просто точат игры с оглядкой на флагманы амд, а не нвидии. Амд же как-то выживает в таких условиях - практически каждая игра оптимизируется с оглядкой на зеленые флагманы. Даже Хорайзон, который как бы с логотипами амд. В вальгалле рдна рвет и мечет благодаря primitive shaders, это плюшка, благодаря которой амд едва ли не впервые в истории сильнее хуанга в геометрии, реализовали драйверный путь под нее в декабре 2020. Была еще на вегах, но так и не получила драйверной реализации (на вегах много чего было из фич, опередивших время, но сама же амд не стала развивать это, а лишь повесила на совесть игроделов). https://www.hardwareluxx.ru/index.php/n ... hader.html Раньше хуанг тащил в ассасинах по той же причине - нвидия все время была сильнее в геометрии, до недавних пор. Даже в Одиссее, которая с логотипами амд - жифорсы там были быстрее.
Никто не мешает хуангу реализовать эту технологию. Насколько я знаю, аппаратная поддержка у них есть начиная с тюринга. Проприетарного кода никакого нет, бери да оптимизируй
RadeoForce писал(а): Выведено как полное потребление видеопамяти (вместе с виндой), так и отдельно то, что скушала игра.
Так это на амд а на зелени может по другому быть
Абсолютно верно , поскольку на картах Nvidia практически всегда потребление видеопамяти меньше и far cry не исключение . Драйверописатели не просто так просиживают свое время. Видать не мало занесли , что 6900xt почти на равных с 3080ti в лучах ))
Добавлено спустя 13 минут 47 секунд: Судя по тестам с gamegpu, то разница в потребление видеопамяти составляет внушительные 20% и такая картина наблюдается во многих играх
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения