В данной теме в полной мере действуют ПРАВИЛА КОНФЕРЕНЦИИ Так же в теме действуют локальные правила, согласно которым запрещено или не допускается: 1. Обсуждение остальных видеокарт. 2. Сообщения о драйверах Nvidia, кроме случаев, если новая версия принесла значительные улучшения в работе данных видеокарт, а так же BIOS (для обсуждения драйверов и BIOS на конференции существует отдельная тема, см.вкладку "Смежные темы"). 3. Обсуждение выбора видеокарт по типу: какую лучше взять NVIDIA или Radeon (для выбора видеокарт существует отдельная тема, см. вкладку "Смежные темы"). 4. Коверканье названий видеокарт (например: Асусина, Жижабайт, Гнилобайт и так далее), это значительно усложняет поиск по теме. 5. Задавать вопросы, касаемо выбора блока питания или достаточности мощности для данных видеокарт (для обсуждения этих вопросов на конференции существует две темы, см. вкладку "Смежные темы"). 6. Фанатство каких-либо фирм (если есть какие-то отрицательные моменты в опыте работы какого-то бренда, то следует своё сообщение аргументировать, и помните: брак бывает у всех фирм). 7. Обсуждение СВО данных видеокарт следует вести в соответствующей теме (см. вкладку "Смежные темы"). 8. Обсуждение цен на видеокарты, ценовой политики компании (например, "Да зачем она нужна за такие деньги", "А что так дорого?" и подобные возгласы). 9. Размещать посты по типу "Вот тут появилась карта, налетай", "А вот тут дешевле, чем там", "А как мне купить бы эту карту и где" и подобные им посты. 10. При размещении медиаконтента (фото, видео, скриншоты), нужно использовать тег:
Код:
[spoiler=Заголовок]Ваша ссылка[/spoiler]
Чтобы видео можно было воспроизвести прямо на странице форума, используйте теги:
Чтобы потом не возникало вопросов предупреждаю сразу: сообщения, которые противоречат вышеуказанным правилам или Правилам Конференции будут удаляться, а автор будет получать устное предупреждение 1 раз. Последующие нарушения будут караться премированием в виде ЖК, запретом на постинг или баном.
Я бы с удовольствием сам открыл и проверил, но гарантии лишаться не охото, тем более что проблема может быть не в охладе и не в термоинтерфейсе а просто неудачный чип
А если б сказал что в корпус не влезла,то взял бы уже другую.((
Да я в принципе просто сказал что не устраивает, там продавцы все равно в тупую уперлись что им надо проверить её что бы они забрали, тогда при отпрааке написали что не устраивают температуры. Я вообще уже на просторах интернета читал как парень с подобной проблемой отправлял карту на проверку качества, ему её назад вернули со словами что она исправна, температуры не критические и назад не возьмем(( Боюсь тоже самое получится
Member
Статус: Не в сети Регистрация: 03.11.2011 Откуда: Россия
gevaudi писал(а):
В общем понес назад в магазин, просто не забрали, отправили на проверку качества. Теперь на 20 ни денег ни видюхи
Напиши, что по итогу будет. Интересно.
gevaudi писал(а):
Я вообще уже на просторах интернета читал как парень с подобной проблемой отправлял карту на проверку качества, ему её назад вернули со словами что она исправна, температуры не критические и назад не возьмем(( Боюсь тоже самое получится
Печально. Я думал товар можно вернуть в течении 14 дней, если он тебя не устроил при любых обстоятельствах. Значит я законы о правах потребителя неправильно трактую.
_________________ Ryzen 7 9800x3d MSI X870 TOMAHAWK ARCTIC LF II-280 [AX5U6000C3016G-DTLABBK] RTX 4070 super Aero oc Kingston KC3000 Samsung 980 PRO 2Tb LIAN LI 216X
Добрый день. Такой вопрос. Интересует, сколько реально потребляет электроэнергии видеокарта 3070 (да и вся система в целом). Затевается это для того, чтобы понять - так ли мне нужен новый БП, выдерживающий мощность выше моего текущего.
Что использовал, и верхнеуровневое описание самих тестов:
* В наличии имеется простенький ваттметр Robiton PM-2, воткнутый в розетку. Надо знать, что в сам ваттметр воткнут корпус + монитор (~80W) + колонки (~30W) * Саму нагрузку системы проводил с помощью AIDa64 (Сервис -> Тест стабильности системы -> выбраны все пункты комплектующих ПК) * Первые тесты были чисто на новой системе, без попыток понижения напряжения на CPU и видеокарты, а так же без оптимизации свежей Win10 (под оптимизацией понимается выключение ненужных служб, фишек ОС). Кому интересно как, то по этому видосу: https://www.youtube.com/watch?v=hrzFVkV1fUc * Следующий тест был произведен после небольшого андервольтинга видеокарты и CPU * Ну и последний тест, был сделан после "оптимизации" Win10 (что понимается под оптимизацией, указано выше)
Что имеем на бумаге:
* Сейчас у меня голдовый Be Quiet! c мощностью по линии 12V в 576W * Рекомендуемый производителем видеокарты БП: 650W * Максимальное потребление видеокарты 3070 на бумаге: 240W * Максимальное потребление 9900K: ̶9̶5̶W̶ ~200W
Исходя из этих пунктов (а также всевозможных онлайн-калькуляторов расчета мощности БП), имеем общую мощность системы ~ 540W (240 + 200 + 100(на разную периферию))
Результаты тестов. Повторюсь, в ваттметр подключен не только системный блок, а так же монитор (~80W) + колонки (~30W)
1) На "не тронутой" системе: в пиках ваттметр показывал до 890W. Поэтому, нагружал я систему не долго, ибо побоялся что сработает защита БП или случится что еще похуже. Соответственно, мощность могла быть и выше 2) После андервольтинга видеокарты и CPU: тест проходил на протяжении 10 минут, в пике мощность ПК составила 712W 3) После "оптимизации" ОС: так же, продолжительность 10 минут, мощность на пике составила уже 412W(!)
Конечно, удивительно, что потребление упало почти в 2(!) раза. Ибо при отключении каждой ненужной мне "фишки" ОС, я даже и не подумал проверять потребляемую мощность при нагруженной системе. И поэтому, что могло на это повлиять, я так и не понял.
Отдельно сделал не очень длительный замер в GPU-Z (см. скриншот). От сюда первый вопрос: что брать в подсчет из параметров GPU-Z? Я не долго думая складываю все показатели мощности (выделены как max на скриншоте) и получаю при этом 411,5W. И это только кушает видеокарта, как я понимаю. При этом, если верить ваттметру, в этот момент потребление всей системы было не выше 412W. Как говорится, одна из черепашек врет.. При этом, забавный факт: что как колонки так и монитор начали потреблять на процентов 40 меньше, хотя как на это могла повлиять "оптимизация" ОС? И это второй вопрос
Третий вопрос: есть ли какие-либо проверенные способы измерить потребление, ибо выходит, что итоговые параметры у меня расходятся
Надо понимать, что я относительно профан во всем этом, поэтому объективная критика приветствуется. Но более приветствуются - дельные советы.
p/s: немного грешил, что навернулся ваттметр, но проверял его на конвекторе в 2 режимах, и возможная погрешность составила не более 10%, но никак не 50% (конвектор на 2 кВт с двумя режимами: 1кВт (при этом ваттметр показывал потребление 940Вт) и 2кВт (ваттметр показывал 1,8кВт)). p/s2: пока нет возможности стрельнуть у кого-то другой ваттметр, так бы давно уже потестил на другом
Сборка:
* Материнская плата - Asrock z390 Phantom Gaming 4s * Видеокарта - 3070 MSI Gaming Z TRIO (max частота 1935Mhz после андервольтинга) * CPU - 9900k (max частота 4,7Ghz после андервольтинга) * CPU fan - Be Quiet! Dark Rock 4 Pro (250W) * БП - Be Quiet! Pure Power 11 600W * ОЗУ - 2х8 2600Mhz * SSD - Samsung EVO 500Gb x1 * HDD - 1Tb Hitachi * Fans - 4x AeroCool d120 * Монитор 34" Монитор Xiaomi Mi Curved Gaming (3440x1440@144 Гц) * Win10 - последняя сборка
Вложения:
Комментарий к файлу: Скрин из GPU-Z Тест.png [ 37.8 КБ | Просмотров: 427 ]
Последний раз редактировалось moriarty11 10.10.2021 17:55, всего редактировалось 1 раз.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения