Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 71
Nomad-TM-LIVE В первый раз что ли? У 3060 Ti тоже было 200 ватт. Потом вышла 4060 ti уже на 160 ватт. В общем-то нормальная тенденция, когда сначала выходит жирная и жрущая ВК на свежей архитектуре, а потом обновление на свежих техпроцессах и сниженным потреблением. Так было как раз с 3000-4000.
_________________ Я дрочистый изумруд Core i3-12100F // 32GB XPG GAMMIX D20 // RTX 5060 Ti 16GB MSI INSPIRE 2X OC // LG 24GS60F @180Hz G-Sync
Member
Статус: Не в сети Регистрация: 03.03.2016 Фото: 0
С потреблением дичь какая-то. С одной стороны логично, ведь производительности с питанием от святого духа не бывает. Но с другой стороны у меня 200 ватт вроде как порог, за который сознательно не хотелось бы вылезать, при этом сохранив традицию иметь в компе xx70.
Member
Статус: Не в сети Регистрация: 20.08.2011 Откуда: Рязань Фото: 0
Vorvort писал(а):
Пара 4080 Super на стероидах, вот что внутри 5090. Их доработали, придали им лоска, но суть осталась.
так а что собственно не так?
Vorvort писал(а):
Цитата: "Сам графический процессор описывается как «физически монолитный» с двумя дополнительными кластерами GPU" У Интел был когда такой монстр в CPU: два ядра в одном корпусе. Тут более продвинутое решение: двучип сразу с завода на одном кристалле.
Цитата: "Сам графический процессор описывается как «физически монолитный» с двумя дополнительными кластерами GPU" У Интел был когда такой монстр в CPU: два ядра в одном корпусе. Тут более продвинутое решение: двучип сразу с завода на одном кристалле.
Значит у интела так и не получилось упаковать 2 чипа на своей новой 3д упаковке? Цены будут весьма заоблачные с таким огромным чипом, у которого процент брака будет внушительный. Впрочем в игровой нагрузке мультичип все равно будет бесполезен.
Advanced guest
Статус: Не в сети Регистрация: 03.12.2004
Склейку Хуанг анонсировал только в GB100. Там два чипа размером с GH100 (Хоппер, 814мм). Но это конечно же не просто два GH100. Нельзя на рандоме взять два чипа и склеить, каждая половинка должна быть для этого создана, чтобы все дорожки стыковочные были на месте шва. Странная таблица. Вольта есть, а другие большие чипы забыли. Большой Ампер GA100 - 826. Больше него вроде не было ничего у Nvidia. Следующие за ним вольта и хоппер (они как бы большие чипы для тюринга и ады соответственно, где не было "своего" гиганта). Делать GB202 склейкой - так себе идея. Скорее всего монолит.
_________________ Unfortunately for you, however, you are maidenless
Community Manager
Статус: Не в сети Регистрация: 30.12.2004 Откуда: У зайца яйца
HotGuy писал(а):
если в 5090 уже 32 - то 5080 должно быть не меньше 24, если будет опять 16 гб - это не серьёзно
Кто сказал?
Сейчас на рынке доминирование нвидии. Когда компания близка к монополии, рулить начинают финансисты, а не инженеры. И в числе неприятного для них - когда клиенты начнут говорить "ну и среднего продукта хватит, куда больше-то". Помните, как Интел десять лет кормил народ 4-ядерными чипами, выпилил HEDT с хотя бы 6 ядрами (точнее, он отставал на 2-3 поколения от игровых, и поэтому был медленнее), и только проснулся, когда уже стало поздно?
К счастью, Хуанг все-таки фаундер, а не наемный менеджер, и сам геймер, поэтому ему просто интересно двигать индустрию вперед. Достаточно, чтобы запилить 4090 и теперь наконец-то настоящий 512-битный флагман. Но не настолько, чтобы остальной линейкой каннибализировать его продажи.
ego0550 писал(а):
Только если будут небинарные 3Гб чипы памяти
Они есть, только "не про вашу честь", что называется.
Есть шанс, что рано или поздно все-таки выйдет 5080ти, которая будет не на огромном чипе 5090, но уже с 24 гигами. На замену 4090D, примерно с той же производительностью в пределах санкционных 70 ТФЛОПС в макс разгоне, но дешевле в производстве. Вполне возможно что на разогнанном 5080. Хотя он по утечкам полный и разблокировать нечего, только частот добавить и самой памяти. Но так тоже можно, см. 3090ти.
Условно, если взять 4080 супер сейчас = 48 ТФЛОПС при 80*2295 МГц И то же самое сделать в 84*3200 МГц = 70 ТФЛОПС. Погнать 4080 до 3000 МГц вполне реально, новый техпроцесс N4P обещает добавить 6%, что как раз даст 3200.
Конечно, это будет разогнанная с завода карта, но 400 ватт для 4080 и так разгонное потребление. А у 5080ти или супер лимит будет еще выше, 450 ватт минимум, если не больше. С новым ТП и отладкой его за годик потянут. Так что в 2026 можно ждать замену 4090D на GB203 с 256-битной шиной, 24 гигами на 32 Gbps 3 Gb чипах, 450-550 Вт лимитом, и охладом уровня 4090. Медь и люминь дорогие, но чипы дороже.
Advanced guest
Статус: Не в сети Регистрация: 03.12.2004
Кому должно, все простило давно. Куртка никогда не давал памяти больше, чем нужно. Сейчас у него есть еще одна причина этого не делать - чтобы особо хитрые не крутили тяжелые AI-модели за дешево. Всегда были небольшие приросты во флагманах, которые не титаны/x90 или их отбраковки. Последние поколения 8>8>12>16, ну и снова будет 16.
_________________ Unfortunately for you, however, you are maidenless
Member
Статус: Не в сети Регистрация: 21.07.2011 Откуда: Москва Фото: 60
4e_alex писал(а):
Последние поколения 8>8>12>16, ну и снова будет 16.
Так а где на сегодня не хватает 16 гигабайт?
Видел страшные ломаные картинки из Space Marines 2 с 4k текстур паком и практически мгновенную загрузку 20G на 24G карте, да - но в системных требованиях указано и вовсе 12G; надо попробовать кому-нибудь с реальной 16G картой. Не удивлюсь, если это был фотошоп/дефектная карта.
Видел загрузку (правда, уже сильно не мгновенную) 20G+ в Dragon Age Veilguard с Fade Touched текстурами и объектами (уровень настройки появился в первом патче, до пиратки, насколько я знаю, так и не добрался). Жалоб от владельцев 16G карт не слышал; опять же, проверить - дело нехитрое.
Видел загрузку всех 24G под завязку в Star Wars Outlaws совсем все направо, до скрытого по умолчанию уровня Outlaw, с включенным фреймгеном - не мгновенную, но в городе достигающуюся за несколько минут. В отличие от предыдущих двух случаев никакой сверхдетальности текстур в игре не наблюдается, так что тут причина, скорее, в корявом стриминге.
Все, кроме этих трех случаев (все три - в совсем максимальной текстурной настройке, отсутствующей в максимальном из пресетов графики) ни разу не видел на графике загрузки видеопамяти больше чем на 16G. Типичная цифра - и вовсе ближе к 12G. Так зачем нужна лишняя память?
Сейчас этот форум просматривают: Frost и гости: 10
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения