Напоминаю! Пользователь, если ты ничего в этом не понимаешь, не занимайся разгоном! Ну а если всё-таки занялся, то делаешь всё на свой страх и риск. Мы, как и блогеры, расписывающие методики разгона, не отвечаем за последствие твоих действий!
- Установить последнюю версию Windows 10 1903/1909. Как это сделать можно прочитать здесь https://www.microsoft.com/ru-ru/softwar ... /windows10. - Осуществить подключение питания карты рекомендуется двумя отдельными кабелями во избежание возможных проблем с блоком питания, с самими кабелями и пиковым потреблением. - Использовать блок питания рекомендуемой производителем карты мощности. - Необходимо учитывать, что некоторые запущенные программы по мониторингу (afterburner, gpu-z и подобные) могут вызывать различного рода проблемы в работе карты и поведения карты в игре (статтеры, снижение fps, сбой в работе вентиляторов). В некоторых случаях были проблемы c оверлеем Adrenaline. (данная рекомендация может считаться устаревшей, в случае использования последних версий драйверов и обновлений Windows). - Разгон оперативной памяти может вызывать статтеры, вылеты или черные/синие экраны, если он был произведен без должного тестирования памяти на стабильность. Поэтому перед проверкой карты и ее разгонного потенциала рекомендуется сбросить разгон процессора и памяти. - Порядок установки новой карты: установить новую ОС -> установить драйвера чипсета -> установить прочие драйвера -> установить драйвер видеокарты. - Рекомендуется переустанавливать драйвер после переключения БИОСа на видеокарте, чтобы он (драйвер) корректно интерпретировал новые настройки (эта рекомендация Sapphire, написанная на бумажке, которая вложена в коробку с видеокартой). - Рекомендуется заполнить табличку OC potential of RX 6000 series - Проверить карту стресс тестами и играми (в том числе при при разгоне) в стоке со сбросом любого разгона (в т.ч. памяти и процессора): 3DMark Time Spy, тест на стабильность, 20 прогонов - Одна из рекомендаций по отлову черных экранов и проверки системы на стабильность: LinX (задачи 40000) + Kombustor (1080р), вместе включаем и смотрим приблизительно полтора часа. Предварительно выкрутить вентиляторы карты и системы на максимум во избежание перегрева.
После установки в системный блок и соблюдения общих рекомендаций, видеокарта должна стабильно работать на заявленных частотах без какого-либо вмешательства со стороны пользователя. Не должно быть синих или черных экранов. В случае появления какой-либо проблемы, прочтите шапку темы, спросите о своей проблеме в теме. Убедительно просим не заниматься андервольтингом или разгоном для решения своих проблем без базовых знаний и соответсвующих навыков. Если не помогли советы и рекомендации форумчан, смело возвращаете карту обратно в магазин. Обращаться за советом и знаниями не стыдно, даже если вы уверенный пользователь со стажем.
Жалобы о багах драйвера и проблемах в играх можно отправить по ссылке AMD Issue reporting form (ссылка периодически перестает работать, так как AMD постоянно меняет URL адрес этой страницы) В данной форме ведем статистику разгона и работы в стоке. Заполняем табличку, не ленимся - OC potential of RX 6000 series
Правила темы. Обязательно к ознакомлению
1. Для начала ознакомьтесь с Правилами Конференции. 2. Категорически запрещается использовать красный цвет в сообщениях - оставьте его для Модераторов и Куратора! Рекомендуется также не злоупотреблять остальными цветами. 3. Все односложные сообщения (типа: "Аналогично", "+1...", "У меня также") будут стираться без предупреждений. 4. Обсуждение действий Куратора или Модератора в теме не допускаются! Для этого есть ЛС (Личные сообщения). Прежде чем написать - советую всё обдумать. "Дыма без огня не бывает!" 5. Предложения и вопросы по "шапке" и FAQ темы принимаются в ЛС (Личные сообщения). В самой теме этого делать не нужно. 6. Прежде чем задать свой вопрос или написать о чём-то - поинтересуйтесь: нет ли хотя бы на последних страницах темы или в FAQ похожих вопросов и решений. 7. Флуд и оффтоп даже под тэгом /офф или /спойлер - в случае злоупотреблений могут быть награждены ЖК, как и ответы на сообщения, его содержащие. Имейте это ввиду. 8. Если вы увидели сообщение, нарушающее правила - просто жмите СК: отвечать на такие посты не нужно! 9. Картинки/видео прятать под спойлер (с именем): 10. Убедительная просьба, прячьте все (любые) картинки и видео под спойлер со знаком равно. Не исполььзуйте тег спойлера без знака "равно" для картинок - он для текста! Уважайте друг друга! Не у всех Интернет безлимитный и многие смотрят эту тему через телефон. Использовать для картинок:
Код:
[spoiler=картинка]ссылка на картинку[/spoiler]
Использовать для текста:
Код:
[spoilеr]текст[/spoilеr]
Обращение ко всем участникам ветки. Любое проявление неуважения друг другу, оскорбления, мат, создание атмосферы нетерпимости, переход на личности и разжигание ненависти будут просто удаляться в независимости от содержания сообщений. Учитесь быть взрослыми и вести спокойные продуктивные беседы. Спорьте на здоровье, но только без всего этого. Если хотите поофтопить или поматериться, то идите в личку.
Причем я сейчас вот смотрю на цену, 3050 стоит как RX 6600 XT, а иногда и дороже. 3050 разве что РемонТян продолжает облизывать. Смотрел его обзор RX 6600, так он превратил его в второй обзор 3050, в обзоре которой он ее и андервольтил и разгонял и соответственно мониторил напряжение, потребление, хвалил как она хорошо андервольтится, при этом в обзоре 6600 ничего такого не делал и из плюсов сказал что 6600 лучше только там где нет DLSS, а оно типа уже почти везде и типа он бы выбрал все ровно 3050, это сколько ему занесли за такую чушь.
Последний раз редактировалось Alex_Str 29.07.2022 17:09, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 30.06.2022 Фото: 61
Alex_Str писал(а):
Причем я сейчас вот смотрю на цену, 3050 стоит как RX 6600 XT, а иногда и дороже. 3050 разве что РемонТян продолжает облизывать.
У проплаченных блоХеров всегда есть обоснования оверпрайса карт nvidia - nvenc для стриминга и dlss. И что характерно, даже люди которые в жизни ничего не стримили и не собираются надувают щёки и повторяют рекламные агитки ) Что же касается dlss, то ИМХО о нём рассказывают гораздо лучше чем оно есть на самом деле. Лично мне FSR нарвится больше, на "ультракачестве" выглядит потрясно, от нативного разрешения отличия даже с лупой не найти.
У проплаченных блоХеров всегда есть обоснования оверпрайса карт nvidia
Я конечно понимаю что все хотят есть и глупо не взять заказ, но можно же более корректно и правдиво показать товар с лучшей стороны, а не откровенно врать. Говорит что 6600 лучше в нативе, так она в нативе местами и 3060 обходит. 3050 даже с лучами не будет лучше, она даже такой же не будет, а если будет, то разве что в кривом киберпранке. Вот сделали бы они 3050Ti для десктопа.
Member
Статус: Не в сети Регистрация: 29.09.2017 Откуда: дровишки? Фото: 29
Alex_Str писал(а):
но можно же более корректно и правдиво показать
Как и везде, спрос формирует предложение, что говорит об общем снижении требований к кач-ву обзоров и соотв. уровню образования хомячков, потребительский рай епт... зачем нужен мозг, если тебе красиво расскажут и покажут, что нужно покупать
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
vol2008 писал(а):
Как и везде, спрос формирует предложение, что говорит об общем снижении требований к кач-ву обзоров и соотв. уровню образования хомячков, потребительский рай епт... зачем нужен мозг, если тебе красиво расскажут и покажут, что нужно покупать
Опишите смысл покупки карты амд на данный момент при равной чистой производительности (без лучей и апскейлинга). Ценник? Ещё что то есть?
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Storage писал(а):
Не сделали, потому что её трудно позиционировать, уже есть обычная 3060.
3060 соперничает с 6600ХТ, как по цене, так и по производительности, иногда немного проигрывая. А вот с 6600 иногда сравнивают 2060, так как она немного обходит 3050. И получается что для 6600 в текущем поколении нормальной конкуренции у невидии нет и 3050Ti было бы в тему. Она бы с лучами немного обходила, а в нативе немного отставала и была бы дешевле чем 3060. И люди кстати часто мечутся в выборе между 3050 и 3060, так как одна слишком слабая, а другая уже существенно дороже.
Добавлено спустя 3 минуты 35 секунд:
Sirise писал(а):
Опишите смысл покупки карты амд на данный момент при равной чистой производительности (без лучей и апскейлинга). Ценник? Ещё что то есть?
Нет смысла, это выльется в пустую полемику ни о чем и каждый останется при своем. Вы уже свой выбор сделали.
Последний раз редактировалось Alex_Str 29.07.2022 19:46, всего редактировалось 1 раз.
в нормальные лучи играл за все время в 1 игру, и то часа два. (киперпук, который все хейтили за геймплей, но почему-то всегда ставят как пример нужности лучей) все остальное порты с консолей с кукурузными лучами. которые реально мало что меняют. или МНЕ как игры не интересны.
Sirise писал(а):
и апскейлинга
играю на постоянку только в одну игру, в которой есть только FSR . и удивление оно на амд выдает лучше картинку. чем выдавала с "конкурентом"
Sirise писал(а):
смысл покупки карты амд на данный момент
сэкономить, не доплачивая за фишки которыми ты не пользуешься. типа RT и nvenc
да и новый кодировщик прошел слух что скоро будет. как и вышел новый шумодав, как и дозавезут FSR 2.0 . а я уж как-то переживу что до этого всего поиграл в 2,5 игры с нормальными лучами, без них
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Sirise писал(а):
Ну нет так нет.
Первое это проблемные 8nm Samsung, это уже только ленивые не признают что Nvidia сделали ошибку выбрав Samsung. Может уже конечно и порешали какие то проблемы, но я не уверен что все. VikOn хоть и говорит что RTX 3000 давно уже не мрут как мухи, как это было в начале, но все же. Второе, перегревающаяся GDDR6X на старших моделях, которая так же и более дорогая, а толку пшик. Третье, менее качественная элементная база, об этом говорят сервисники и тот же VikOn, хотя он сторонник Nvidia. Ну и получаем плату с проблемным GPU, дорогой и горячей памятью и менее качественными комплектующими. Партнеры конечно за счет охлаждения решили проблему с GDDR6X и могут ставить получше комплектующие, при желании, но они при этом и ощутимо дороже, а переплачивать чтобы что? У Nvidia из козырей остались только тензорные ядра и более широкая поддержка со стороны писателей софта, а ну и небольшое превосходство по лучикам, но лучики это слабый ааргумент, а тензорные ядра (их аналог) как я понимаю будут у RDNA 3.
Добавлено спустя 2 минуты 26 секунд:
r3birth писал(а):
Ну если уже равная производительность и больше памяти по меньшей цене не аргумент, то я не знаю, что тогда аргумент.
Так Nvidia это же круто, у них же доля рынка больше, вы что, остальное мелочи для зануд Я помню в 2006 году, один знакомый геймер выдал вердикт, хотите больше ФПС - берите Nvidia, хотите более качественную картинку - берите ATI. Он тогда еще помню купил ATI Radeon X1950 PRO, с огромным на тот момент объемом памяти, целых 512Мб, у меня тогда столько ОЗУ было, это кажется последнее что вышло под брендом ATI. Не знаю на сколько справедлива данная фраза, но такое было.
Member
Статус: Не в сети Регистрация: 30.06.2022 Фото: 61
Sirise писал(а):
Опишите смысл покупки карты амд на данный момент при равной чистой производительности (без лучей и апскейлинга). Ценник? Ещё что то есть?
Я человек, мягко говоря, небогатый, купил RX 6750 XT за 56000 руб., её прямой конкурент geforce 3070 стоил в это время 75000 руб. Я получил отличную производительность во всех играх, лучи везде где они есть с хорошим fps и шикарный FSR там, где не хватает производительности в QHD. Ещё вопросы?
Заблокирован Статус: Не в сети Регистрация: 23.12.2020
Alex_Str Достаточно спорные утверждения. Тех процесс с большой долей вероятности обкатали. GDDR6X перегревается только там где производитель забил на конструкцию охлаждения, но таких не мало, да. Про элементарную базу не совсем понятно, тот же викон (смотря с какой ноги встанет) вообще утверждал что у рефов хорошие элементы. То что там будет в rdna3 это совсем смешной аргумент. Лучи… ну лучше когда карта в них умеет чем нет. Nvenc, на котором висит много чего вполне весомый аргумент В майнинге карты лучше. Dlss спорно, но оно хотя бы прогрессирует и меняется в играх просто заменой файлика. Cuda, поддержка сторонимся софтом для работы И в итоге приходим к тому что аргумент за амд это цена и все. Во всем остальном или хуже (чаще всего) или так же или обещания. У каждого свой выбор. А ещё память… ну тут да, где то явно не досыпали зелёные. Но лично у меня на топах со времен 780ti не было проблем с недостатком, как ни странно.
Member
Статус: Не в сети Регистрация: 23.06.2016 Фото: 44
samara1532 писал(а):
а я уж как-то переживу что до этого всего поиграл в 2,5 игры с нормальными лучами, без них
Самая лучшая и грамотная реализация лучей, что я видел, а не по типу"лучи ради лучей" в двух играх и эти две игры на PS 5, которая на довольно слабом чипе от АМД и эти две игры человек паук обновленный и ratchet and clank, на ПК только контроль если только норм с лучами остальное можно с ними а можно и без, особо не впечатляло, это когда у меня ещё rtx 3080 была, баловался, высматривал эти самые лучи во всех поддерживаемых играх, а потом на PS 5 увидел действительно достойную реализацию и без лишнего пиара и акцента на них и ценой мало затрачиваемых ресурсов.
Все буде КНР
Статус: Не в сети Регистрация: 15.03.2006 Откуда: STOP WAR Фото: 0
Я помню когда еще только была презентация RTX 3000 и первый раз озвучили цены, люди офигели, фанаты привыкли за топы отдавать 1000+ баксов, а тут выпустили 3070 с производительностью 2080Ti и даже выше и при этом в двое дешевле и все решили что это аттракцион невиданной щедрости от Хуанга, что само по себе звучит как абсурд, я еще тогда подумал что тут что-то не так, то стоило кучу бабок, а тут на тебе. Позже вышли статьи о том на сколько "тщательно" Samsung контролирует качество чипов для Nvidia и что хорошее качество идет только на 3090, которая геймерам как то и не очень интересна была, потом началось про GDDR6 и 110+ градусов, дальше история с конденсаторами, потом с защитой на БП, это конечно уже другая история, но я думаю понятно откуда такая щедрость, не хотели ждать очереди у TSMC и повелись на Гнусмас с их 8нм от которых другие отказались, разве что в смартфоны пошло, но там много и не нужно.
киперпук, который все хейтили за геймплей, но почему-то всегда ставят как пример нужности лучей
Бгг, лужи зеркальными становятся. Всё. Остальное с лупой высматривать надо. Из тех игр, которые я щупал с лучами, имеют неплохую визуальную разницу, чем без оных - это Metro Exodus Enhanced Edition. А, и Minecraft с модом на лучи
_________________ 5800X3D @4650 @1.237 В 6900 XT Nitro+ SE @2800\2136 @1.3 В Micron E-Die 32 Гб @3762 CL14 @1.55 В Весь комп - https://sysprofile.ru/p/1/nuBHou_necuK
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 44
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения