Advanced member
Статус: Не в сети Регистрация: 24.10.2010 Фото: 0
Здесь обсуждаются только видеокарты NVIDIA RTX 3080 (GA102-200) | RTX 3080 Ti (GA102-225) | RTX 3090 (GA102-300) | RTX 3090 Ti (GA102-350) и конкретные технические вопросы по ним. Всё остальное, включая цены, выбор и приобретение, майнинг и т.д. решаются в других темах:
Так же в теме действуют локальные правила, согласно которым запрещено или не допускается:
1. Обсуждение остальных видеокарт. 2. Сообщения о драйверах Nvidia, кроме случаев, если новая версия принесла значительные улучшения в работе данных видеокарт, а так же BIOS (для обсуждения драйверов и BIOS на конференции существует отдельная тема, см.вкладку "Смежные темы"). 3. Обсуждение выбора видеокарт по типу: какую лучше взять NVIDIA или Radeon (для выбора видеокарт существует отдельная тема, см. вкладку "Смежные темы"). 4. Коверканье названий видеокарт (например: Асусина, Жижабайт, Гнилобайт и так далее), это значительно усложняет поиск по теме. 5. Задавать вопросы, касаемо выбора блока питания или достаточности мощности для данных видеокарт (для обсуждения этих вопросов на конференции существует две темы, см. вкладку "Смежные темы"). 6. Фанатство каких-либо фирм (если есть какие-то отрицательные моменты в опыте работы какого-то бренда, то следует своё сообщение аргументировать, и помните: брак бывает у всех фирм). 7. Обсуждение СВО данных видеокарт следует вести в соответствующей теме (см. вкладку "Смежные темы"). 8. Обсуждение цен на видеокарты, ценовой политики компании (например, "Да зачем она нужна за такие деньги", "А что так дорого?" и подобные возгласы). 9. Размещать посты по типу "Вот тут появилась карта, налетай", "А вот тут дешевле, чем там", "А как мне купить бы эту карту и где" и подобные им посты. 10. При размещении медиаконтента (фото, видео, скриншоты), нужно использовать тег:
Код:
[spoiler=Заголовок]Ваша ссылка[/spoiler]
Чтобы видео можно было воспроизвести прямо на странице форума, используйте теги:
В связи с тем, что в данной теме есть много любителей развести флуд, оффтоп, демагогию на любые темы, которые не касаются тематики топика, было принято решение после кучи предупреждений >>>ССЫЛКАприбегнуть к крайнему действию >>>ССЫЛКА, а именно выдавать ЖК с увеличенными сроками действия. Принцип такой: лучше будет 5 человек, но общение будет строить исключительно в рамках темы, чем будет 20 человек и десятки страниц о том, что кто-то какой нищеброд купил Palit вместо Asus (например). Поэтому, если нет желания получать бессмысленнее наказания, то держаться в рамках общения темы
В ветке отвечают официальные представители компаний. Можно писать им в ЛС Список официальных представителей На данный момент проявляет активность и приносит реальную пользу только Palit support
Редактора и прошивальщика модифицированных версий BIOS для Ampere не существует! Как только появится, информация будет добавлена в F.A.Q.
Драйвер 457.09не рекомендуется к установке - отзыв от xyligano.
Таблица-статистика от пользователей RTX3000 - ссылка
Полезная информация по срабатыванию лимитов - в этом посте
Замена термопрокладок на видеокартах EVGA (от pakhtunov) >>> EVGA FTW3 RTX 3080 Ultra Gaming 10Gb в этом посте >>> EVGA FTW3 RTX 3080 Ti в этом посте >>> EVGA FTW3 RTX 3090 Ti в этом посте
EVGA RTX 3080 Ti FTW3 Ultra Gaming в этом посте от T[]RK
Обновление BIOS для поддержки Resizable BAR для видеокарт Palit >>> ссылка и скриншот окна командной строки (как оно должно быть) ссылка
NVIDIA Resizable BAR Firmware Update Tool >>> ссылка
История изменений
16.09.2020 - создание темы, добавление ссылок на обзоры RTX3080 17.09.2020 - обзоры Palit RTX 3080 GamigPro OC, MSI RTX 3080 Gaming X Trio, Asus TUF RTX 3080, Zotac RTX 3080 Trinity, информация по блокам питания 19.09.2020 - обзор Gigabyte RTX 3080 Eagle OC 10G, Nvidia RTX 3090 22.09.2020 - косметические правки, добавление ссылок 23.09.2020 - добавление базы данных с сайта overclock (спасибо coka) 24.09.2020 - добавление обзоров 3090 26.09.2020 - полезная информация по видеокартам Аmpere (алгоритм работы вентиляторов, причины проблемы с boost), и другое 30.09.2020 - дополнение к полезной информации, добавление обзоров RTX 3090, правки в оформлении 02.10.2020 - начато заполнение F.A.Q. 06.10.2020 - начат сбор статистики по видеокартам 08.10.2020 - добавлена информация по видеокартам Palit RTX 3080/3090 серии GamingPro и GameRock от Palit Support 09.10.2020 - в F.A.Q. добавлена информация по видеокартам Palit, поддержке VRR и прошивке BIOS. Косметические правки 10.10.2020 - добавлены ссылки на обзор архитектуры Ampere. В F.A.Q. добавлена информация по GPU Boost и лимитам. 29.10.2020 - добавлены обзоры на RTX 3070 от разных вендоров 31.10.2020 - информация по драйверам 04.10.2020 - в F.A.Q. добавлено пособие по работе с кривой MSI Afteburner 06.11.2020 - изменения в F.A.Q. по отличию видеокарт Palit 18.11.2020 - добавлена информация в F.A.Q. по BIOS от Palit и EVGA 20.11.2020 - дополнен F.A.Q. (достаточность RTX3000 для FHD/QHD/4K мониторов) 25.12.2020 - дополнена полезная информацию по картам 28.01.2021 - пример настройки курвы 03.02.2021 - обзор EVGA 3080 с андервольтингом 04.03.2021 - добавлена информация по замене термопрокладок на RTX 3080 31.03.2021 - добавлен BIOS с поддержкой Resizable BAR от Palit 05.08.2021 - добавлены обзоры 3080, 3080Ti, 3090 от occlub 12.02.2022 - добавлена информация по термопрокладкам 21.02.2032 - добавлена информация по термопрокладкам от T[]RK
Если у вас есть какие-то интересные моменты по работе данных видеокарт, интересные доработки, какая-то статистика, пишите в ЛС куратору или модераторам, добавим в шапку.
Последний раз редактировалось *Tiger* 29.09.2022 8:33, всего редактировалось 22 раз(а).
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
kottovsky писал(а):
значит мне очень средний чип попался ...
Потенциал чипа проверять лучше всего в АС Вальгалла...там очень умеренное потребление, при полной загрузке чипа...Как определили, что средний?
Добавлено спустя 55 минут 50 секунд: Моя карта может максимум 2100(2115 зависает Вальгалла через 15 минут), для примера, но у меня 3080.mcbobo Потрясно! Поздравления!
_________________ Z790 EDGE; Intel® Core™ I9-13900K@;G.Skill Royal(b-die); MSI Suprim X 4090&6090; GIGABYTE FO48U(OLED);DT 1770 PRO; COLORFUL EVOL X17 Pro Max;)Genelec:)
Member
Статус: Не в сети Регистрация: 27.01.2008 Откуда: Украина
Michailovsky писал(а):
Потенциал чипа проверять лучше всего в АС Вальгалла...там очень умеренное потребление, при полной загрузке чипа...Как определили, что средний?
нету у 3080 потенциала чипа, вообще +100Mhz это хрень - честно я поменял ее на 6900xt и вот на ней есть потенциал - сходу поехала +550 (2750 по чипу из стоковых 2200) ТЫЦ 3080 я продал и взял вторую ( во второй комп 6900xt) dlss тоже фейк ( мыло) fidelityfx cas работает точно так же ( тоже мыло, но настраиваемое)
а еще - дрова выкатил сегодня, и оп +10% в хитмане новом - на ровном месте, включает cas - и опа - еще 10% гоним на +500 550mhz и уже к CoD cold war 200fps минимальный... в 2к (на моей 3080 было 140-160fps)
Официальный представитель
Статус: Не в сети Регистрация: 19.03.2012
Здравствуйте,
Michailovsky писал(а):
С праздниками! Всех благ!
Спасибо, взаимно .
ExzoTikFruiT писал(а):
Ребят,подскажите,в чём может быть проблема,что драйвер вылетает на рабочем столе при просмотре ютуба,обычной работе,и никогда в играх? Я бы понял,что возможно бп,если бы в играх вылетал,но вылетает спорадически при отсутствии какой-либо нагрузки. С 1080ti таких трабл не было. Через DDU сносил драйвера. 0 эффекта Только что 6 событий подряд в журнале о падении и восстановлении драйвера 3080 GameRock
ExzoTikFruiT писал(а):
А у меня вообще разгона нет. Только биос прошил от OC версии GameRock.
Прошивка версии BIOS для модели с дополнительным заводским разгоном это дополнительный разгон, проверьте с заводской версией BIOS, при использовании видеокарты в браузере проверьте с разными настройками аппаратного ускорения в настройках браузера и с браузерами на разных движках, например, в Miozilla Firefox при использовании Google Chrome и наоборот, и проверьте с разными версиями драйверов видеокарты с http://www.nvidia.ru/Download/index.aspx?lang=ru , предыдущие версии доступны по этой ссылке: https://www.nvidia.ru/Download/Find.aspx?lang=ru , схема заполнения полей аналогичная, с предварительным удалением установленных версий в Display Driver Uninstaller: http://www.guru3d.com/files-details/dis ... nload.html , в том числе с Hotfix версиями драйверов: https://nvidia.custhelp.com/app/answers/list/kw/Hotfix/ , в частности, при использовании в Windows 10 с актуальной версией 461.33: https://nvidia.custhelp.com/app/answers ... a_id/5152/ , используйте выборочную установку с установкой видеодрайвера, ПО PhysX и опционально аудиодрайвера, не устанавливая GeForce Experience, и по возможности проверьте с только что установленной операционной системой, для Windows 10 с обновлением до актуальной версии 20H2, не устанавливая стороннее ПО, в том числе программы для мониторинга и управления параметрами видеокарты.
Growley писал(а):
Вчера получил долгожданную Palit RTX 3080 GameRock, но с ней проблема. После установки карты, запустил Shadow of Tomb Raider и у меня вылетил драйвер.
Причина описанной ситуации может быть в разных компонентах системы, обновите BIOS системной платы до актуальной версии 1801: https://www.asus.com/ru/Motherboards/RO ... Desk_BIOS/ , обновите BIOS видеокарты до актуальной версии, программа для автоматического обновления BIOS доступна на странице загрузки модели на официальном сайте: https://eu.palit.com/palit/vgapro.php?i ... 20G&tab=do , проверьте с другим блоком питания мощностью от 1000W-1100W, оптимальнее с сертификацией 80 PLUS Gold, Platinum и Titanium, так как причина может быть в БП, дополнительно проверьте с переподключением кабелей блока питания, при использовании разгона процессора и/или оперативной памяти, в том числе с использованием XMP профилей, проверьте со штатными частотами компонентов, в этом случае с частотами оперативной памяти 2133 MHz и 2400 MHz, оптимальнее со сбросом настроек BIOS извлечением батарейки на несколько минут, при нескольких установленных модулях оперативной памяти проверьте с модулями оперативной памяти по одному, проверьте с разными версиями драйверов видеокарты с http://www.nvidia.ru/Download/index.aspx?lang=ru , предыдущие версии доступны по этой ссылке: https://www.nvidia.ru/Download/Find.aspx?lang=ru , схема заполнения полей аналогичная, с предварительным удалением установленных версий в Display Driver Uninstaller: http://www.guru3d.com/files-details/dis ... nload.html , в том числе с Hotfix версиями драйверов: https://nvidia.custhelp.com/app/answers/list/kw/Hotfix/ , в частности, при использовании в Windows 10 с актуальной версией 461.33: https://nvidia.custhelp.com/app/answers ... a_id/5152/ , используйте выборочную установку с установкой видеодрайвера, ПО PhysX и опционально аудиодрайвера, не устанавливая GeForce Experience, проверьте исправность накопителей в тесте поверхности программы Victoria HDD/SSD: http://hdd.by/victoria , Действия -> Полный скан поверхности с картой или Полный скан поверхности с графиком, и по возможности проверьте с только что установленной операционной системой, для Windows 10 с обновлением до актуальной версии 20H2, и с лицензионными версиями игр, так как при использовании контрафактных версий игр причина может быть в версиях игр, не устанавливая стороннее ПО, дополнительно проверьте видеокарту на другой конфигурации, хотя по описанию более вероятна причина в других компонентах системы, так что это для дополнительной подстраховки.
Growley писал(а):
почему карта так высоко бустится?
Технология Boost 5.0 автоматически устанавливает частоты в зависимости от температурного режима, характера нагрузки и лимитов потребления в BIOS видеокарт, в спецификациях указываются фактически минимальные гарантированные частоты Boost при типичной нагрузке, у видеокарт на базе RTX 3080 серии GameRock практически максимальные лимиты потребления в BIOS видеокарт и одни из наиболее эффективных систем охлаждения в своих классах, поэтому типичные частоты Boost, как правило, заметно выше указанных в спецификациях, можете не беспокоиться по этому поводу, так и должно быть.
IceFireW писал(а):
На счет трех звуковых сигналов при включении компьютера + включен модуль CSM
Описанный эффект исправлен в обновлениях BIOS видеокарт производства Palit Microsystems на базе графических процессоров NVIDIA 30xx серии, программа для автоматического обновления BIOS доступна на странице загрузки модели на официальном сайте: https://eu.palit.com/palit/vgapro.php?i ... 20G&tab=do .
AntonP писал(а):
Подскажите, на геймроке 3090 можно аппаратно отключить подсветку? полностью
Ответил в привате, в актуальной версии штатной программы Palit ThunderMaster 4.4 управление подсветкой программное, требуется включением автозагрузки в настройках программы, сохранение настроек подсветки, в том числе выключения подсветки, в памяти контроллера подсветки ориентировочно в двух-трёх обновлениях программы, отслеживайте обновления программы на странице программы на официальном сайте: http://eu.palit.com/palit/thundermaster.php?lang=ru .
_________________ ru_support@palit.com
Последний раз редактировалось Palit support 22.01.2021 2:04, всего редактировалось 3 раз(а).
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
immortal3000 писал(а):
dlss тоже фейк ( мыло)
В 3840х2160 смотрится кинематографично...особенно, при большой диагонали монитора...В Метро баловался, с 43 дюймовым монитором, весьма не дурно, учитывая ещё, что это был ДЛСС 1ой версии.
Добавлено спустя 26 минут 19 секунд: immortal3000Хм... Да-уж... Если и дальше будут "пилить годноту", можно задуматься о переходе! Ещё интересно, что по потреблению...ватт 600? Лучше в лс...отпишусь тогда, заинтересовали! Днём тогда, сейчас не могу!
_________________ Z790 EDGE; Intel® Core™ I9-13900K@;G.Skill Royal(b-die); MSI Suprim X 4090&6090; GIGABYTE FO48U(OLED);DT 1770 PRO; COLORFUL EVOL X17 Pro Max;)Genelec:)
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
immortal3000Меня фризы останавливают...посмотрел по ютьюбу видео из Вальгаллы...фризы раз в минуту, если не чаще...тоже карта в разгоне...Производительность топ...конечно.
_________________ Z790 EDGE; Intel® Core™ I9-13900K@;G.Skill Royal(b-die); MSI Suprim X 4090&6090; GIGABYTE FO48U(OLED);DT 1770 PRO; COLORFUL EVOL X17 Pro Max;)Genelec:)
DLSS делает рендер в урезанном разрешении (как правило в большинстве случаев самый качественный DLSS это 1440 вместо 2160), затем растягивает и делает "умное" сглаживание на основе нескольких кадров. У Nvidia действительно хороший маркетинг, чтобы народ повсеместно ничего не понимал. Хотя сглаживание как таковое в целом весьма хорошее. Я бы на самом деле не удивился, если там на самом деле модифицированное TAA (суть у них одна) просто его правильно настроили, а не как обычно. С другой стороны сверхбольшие разрешения и не нужны для большинства экранов, кроме VR. При нормальном зрении и расстоянии 1080p уже более чем достаточно и даже 1440 избыточно. Дополнительное разрешение позволяет убирать Алиасинг самым дорогим возможным способом.
Member
Статус: Не в сети Регистрация: 14.07.2008 Фото: 1
Agiliter писал(а):
в большинстве случаев самый качественный DLSS это 1440 вместо 2160
ну в разрешении 4к не видел как выглядит, но в 1440p в том же киберпанке на пресете качество картинка даже приятнее, чем без dlss, а вот на балансе уже мыльцо вижу
_________________ Intel i5 14600kf 5,6/4,5+арктик360/Z790I EDGE WIFI/48GB DDR5 2*24T-Force[FF3D548G8200HC38EDC01]@8000 с36/4070 Ti SUPER JetStreamOC/Q34H144/HTCVIVE
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
Agiliter Ошибаетесь...в 1440р DLSS , по крайней мере в Метро, а вот в 4к совсем иначе...кинематографично смотрится на большой диагонали. В 1440р- реально "мыло", прям "дно".
Agiliter писал(а):
в большинстве случаев самый качественный DLSS это 1440 вместо 2160
Особо сравнить не с чем мне. Immortal3000https://www.youtube.com/watch?v=wiUgJ3Z1rtg Посмотрел Морозова... 6900 ХТ только в макс разгоне приблизится к 3080...обгоняет в Вальгалле, да...в остальных игрульках(с РТ)- плетётся далеко позади. Там 6800 ХТ, но смысл понятен...Верю, что в "КОД" карта может перегонять. Сколько людей...столько мнений. 3080 полностью меня устраивает...до след.поколения пережду на ней!
Agiliter писал(а):
При нормальном зрении и расстоянии 1080p уже более чем достаточно и даже 1440 избыточно
При нормальном, возможно, при 100% - 1080 р -это даже не обсуждается, минималка 92ppi для меня, и то, это прям ниже низшего, когда уже видна зернистость, но еще только на текстах. 8к- наше всё...дожить бы!
_________________ Z790 EDGE; Intel® Core™ I9-13900K@;G.Skill Royal(b-die); MSI Suprim X 4090&6090; GIGABYTE FO48U(OLED);DT 1770 PRO; COLORFUL EVOL X17 Pro Max;)Genelec:)
Member
Статус: Не в сети Регистрация: 20.11.2010 Откуда: TALLINN Фото: 313
SINgle84
Цитата:
вообщем, я когда продавал стрикса 3080, снял в лучшем виде как он работает в киберпуке, естесна в лучшем виде для продажи. 2070@1.006 активно играя, т.е. были и моменты передыха у видяхи до 350-370 вт жора https://youtu.be/-KKFg-E8-0E сейчас для контраста снял с такой же нагрузкой не настроенный 3090 суприм, т.е. в видео видно и в паур лимит она долбится и память не разогнана ну так ради прикола тот же вольтаж просто 1.006 поставил, хз насколько стабильно после часов игры выяснится ))) и жор сильно выше чем у стрикса 3080, при этом в дефолте вертушки еле шевелятся. ради корректности выкрутил их с 1300 на те же 2200+ что у стрикса (на видео показано), минус 10 градусов суприм везет стриксу жря больше, для вертиги который помешан на стриксе снял еще и на телефон, что корпус тот же, закрытый, условия те же, температуры в комнате те же. даже когда такое делал по стриксу 21 в комнате было, но суприм при одинаковых оборотах, при большем нагреве, везет минимум десятку градусов стриксу. это фиаско стрикса https://youtu.be/csRiG5qpbJI на телефон сорри криво снялось https://youtu.be/WIkfwnrPj-g а ну и у сосбна вертиги в киберпуке всего лишь на 430 втах на открытом стенде 73 градуса - его видео https://youtu.be/9zbOhGNnH_U, с моим стриксом совпадает, а что будет если я тоже открою боковую крышку и на окошко выставлю, мммм. вообщем стриксу неуд. в этом поколении суприм просто в клочья разорвал его ))) п.с. жаль я видео с ютуба удалил где так же стрикс снимал на телефон во время тестов с градусником, кто видел посты в теме диванной аналитики. тот мб помнит, может найду, выложу, просто перед продажей не комильфо было палить, что стрикс не очень, и 70 градусов из обзоров при 450втах он способен только на балконе в открытом стенде показывать, поэтому удалил с ютуба.
не думал что Стрикс так плох. удивительно.
_________________ i9-9900K, ROG Ryujin 360 II, Corsair Dominator Platinum 64GB, ROG Maximus X Formula, RTX 4080 Super FE, SB ZxR, ROG 1200W, ROG PG279Q 165hz
Здравствуйте! Скажите ваше мнение пожалуйста по теме, обсуждаемой несколько страниц назад, но только относительно 3090 геймрок ос? Сколько Вт забирает на свою работу ргб подсветка карты? Отключение подсветки, позволит видеокарте больше потреблять Вт именно на работу с графикой (без ручной корректировки PL)? Дайте плиз Вашу оценку целесообразности ручного увеличения PL (например при помощи программ от Palit), интересует возможный рост производительности? Заявленный максимум 470 W достигается при каких условиях, карта сама определяет, что ей нужно 470, или её нужно настраивать например с помощью утилит? Когда Palit планирует обновлять биос для поддержки ReSizable BAR?
Добавлено спустя 14 минут 26 секунд:
Palit support писал(а):
программа для автоматического обновления BIOS
Правильно я понимаю, при использовании программы не нужно скачивать сам биос, где можно прочитать руководство пользования? PS. Первый раз пользуюсь Палит, впечатления сугубо положительные
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
qot писал(а):
ну там и не нужен dlss, без него вполне хороший фпс
В 4к на максималках...на 2080 TI просадки до 33 фпс были в Тайге... на 3080 до 40, если это хороший фпс, то ладно! Играть можно, согласен, прошёл с мин 33 фпс на тишке.
Member
Статус: Не в сети Регистрация: 08.10.2014 Откуда: Москва Фото: 150
Lapunov писал(а):
Палит, впечатления сугубо положительные
Palit- top! А у меня дроссели шипят, сегодня прислушался
Добавлено спустя 52 секунды:
qot писал(а):
речь про 1440p)
Вы не уточняли...А речь шла про ДЛСС в 4к и 1440р. Не поняли друг друга.
Добавлено спустя 18 минут 39 секунд: boeng Совет Вам...к 3080 не присматриваться, я тоже перешёл с 2080 TI OC...прирост не существенный...оно того не стоит...я не жалею, но надо констатировать факт...а вот 3090 уже интереснее...Короче говоря, если не хватает 2080 ти, то и 3080 хватать не будет, а вот 3090 в разгоне уже "ближе к телу". Шунты и прочее в расчёт не беру, конечно.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения