так уже и захватил, на 5 анрил тоже скоро многие перейдут лучи вопрос времени может 5/6 поколение, амд я думаю тоже скоро смогут в лучи, в консолях же смогли и в картах рано или поздно чего нить придумают, просто зачем иметь кучу народу которые рисуют освещение когда можно взять готовое, так что рано или поздно все по этому пойти и пойдут, а консоли могут просто уйти в облачный гейминг или иметь ограниченные лучи как это есть сейчас в многих играх на пс5 или хсх а те кто лучи не видят они ну просто слепые, вот пример игры где лучи преображают игру до неузнаваемости:
даже первый дум с трассировкой выглядит как некстген
а автора темы просто бомбит что его амдшная карта лучи не тянет, он и так и этак пытается отстоять свою бестолковую покупку, но обмануть себя к сожалению не может, да и других тоже не получается
_________________ 7800X3D, 32Gb DDR5 6000MHz 28-36-36-48 Team T-Create Expert, RTX 5080 Феникс, WD Black SN770 1 ТБ M.2, WD Black SN770 512 ГБ M.2, KC3000 2TB
У лучей есть две большие проблемы: 1. Шумность. Чтобы получать стабильные результаты в динамике от тех же теней, нужно увеличенное количество проходов. В текущих играх все РТ-эффекты рассыпаются в движении, и чтобы получить результат "для скриншота", нужно постоять на месте полсекунды. У растеризованных эффектов нет такой проблемы; 2. Сами игры. Наибольшая полезность от РТ достигается при генерации глобального освещения, но не во всех играх его нужно генерировать во время рантайма из-за отсутствия смены погоды и малого кол-ва динамических источников света -там подходит и запеченный свет, который ещё и по пункту 1 дает более стабильные результаты.
Member
Статус: В сети Регистрация: 25.01.2004 Откуда: Ростов-на-Дону Фото: 4
Raiden_of_the_Sky писал(а):
У лучей есть две большие проблемы
1. Это лишь вопрос производительности. Ее немного не хватает и оптимизируют через денойзинг, поэтому шумновато и слегка потеряна четкость, но кайф для глаз от правильного света стоит того. 2. Игроки хотят сменяемость суток и взаимодействия с предметами мира, а при этом запекание невозможно, будет все криво.
_________________ 12400|224XT|MSI PRO B660M-A DDR4|4x8Gb@3466|KFA2 3060-12X|Deepcool PQ650M|Corsair 200R|Win11x64
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Нет никакой разницы между лучами и растеризацией, если последняя сделана качественно и досконально(как было во многих играх до лучей).
Там же, где лучи жестко выигрывают - там классическим способом все убого сделано специально для контраста между растеризацией и лучами.
Добавлено спустя 4 минуты 36 секунд:
Genrix писал(а):
Не будет ни студий ни их движков, потому что их делать некому будет, специалисты по движкам почти вымерли.
бред говорите, у вас хоть статистика есть или откуда вы вообще это взяли? Придуманный аргумент?
У Юбиков свой движок Ubisoft Anvil для которого они вполне могут в будущем создать аналог Lumen. У Rockstar - RAGE. И еще куча других студий с собственными движками, в которые без проблем могут зависти подобные технологии, т.к. для их реализации не нужно много ума(он там вообще не нужен по сути).
Добавлено спустя 13 минут 6 секунд:
Genrix писал(а):
и так сливает, так еще надо порезать блоки для места под тензоры
вы для начала хотя бы в терминологии разберитесь - тензорные ядра нужны для работы DLSS, а для трассировки лучей нужны RT-ядра, которые есть и у AMD начиная с RX6000.
Горе-специалист вы - все с вами понятно.
Свои собственные заблуждения не надо в мою тему вываливать под соусом "я самый умный и я всё знаю".
Если бы мозги работали вы что-то действительно понимали(и знали), то в ваших сообщениях была бы конкретная логика, но вместо этого ощущается поверхность ваших знаний и общая персональная поверхностность(как и большинства, увы) подающаяся под видом обратного - пару терминов услышал и пару статей прочитал, а делаю вид изучившего не одну книгу по IT-технологиям и полностью разбирающегося в низкоуровневом процессе протекающем во время рендера, где осознаю взаимозависимость использования одного от другого(sw от hw и наоборот).
Добавлено спустя 15 минут 5 секунд:
Genrix писал(а):
поэтому амд считает лучи на ядрах общего назначения и поэтому сливает в лучах
как уже было сказано - у AMD есть RT-ядра, потому проблема не в их отсутствии, а в их низкий производительности в сравнении с Nvidia. Почему она низкая? Я сказал достаточно, чтобы это понять - AMD не видит на данном этапе в них большого смысла, а потому не развивает сильно тему лучей.
У них от RX 6000 к RX 7000 возросла производительность лучей на 5-10%, в то время как у Nvidia от RTX 2000 к RTX 3000 возросла до 30-35%. Ну а от RTX 3000 к RTX 4000 лучи выросли всего на 10%, т.к. уже улучшать особо нечего и в следующем поколении прирост в RT, вероятно, еще меньше будет(если будет).
Будет Lumen и будут его аналоги. Т.к. куда удобнее разрабатывать в едином симбиозе, а не когда у нас есть лучи и есть игровой движок, которые мы прикрутили к движку частью которого они не являются(что, если смотреть в глубь - так же вредит общему fps).
Касательно же RT - нет у него будущего или оно пока что довольно мутное, а DX 12 его поддерживает по ряду причин в том числе и той, что технологии зашли в тупик и чтобы показать, что "мы работаем" - был выпущен и новый SDK, и новый DX 12 Ultimate.
Раньше DX выходил раз в 3-4 года. Теперь же 8 лет без новой версии. Возможно и не будет DX13, т.к. технологии достигли тупика и дальше нужно переходить из горизонтального развития в вертикальное. Менять вектор развития в другую сторону, но пока все, что мы имеет - слабо развито, дорого, слишком "иначе" и не каждый готов к таким переменам в игровой индустрии и т.д.
Сейчас бюджетная видеокарта за 25-30 т.р. тянет большинство игр с таким же fps, как в 2009 тянула пара GTX 280 являющаяся флагманской.
Добавлено спустя 8 минут 13 секунд: Помню, как моя предфлагманская GTX 275, если тянула в 2008-2009 году новую игру в 1680x1050 с 40-50fps - для меня это было счастьем.
Теперь же бюджетная rtx 3060 БЕЗ RT все игры(или почти все) фурычит в 60-80fps в FullHD.
Сейчас RTX 4090, как флагман - раза в 4 мощнее чем флагман Nvidia 2008-2010 года. Помню даже, как, если раньше игра вообще запустилась или хотя бы идет в 24-30fps - это было счастьем и все друзья говорили - "у тебя игры летают".
Теперь же летает, когда fps от 100 и более. Почему? Потому что развитие игр остановилось на реалистичном освещении(RT и Lumen). Осталось только игровым персонажам реалистичные эмоции добавить(а не деревянные, как сейчас) - и в принципе всё.
Мы близки к пределу, еще 2-4 поколения видеокарт и развиваться будет некуда, т.к. будет притык в виде 1nm. И мы его достигли как раз в то время, когда игры стали фотореалистичными.
Добавлено спустя 16 минут 23 секунды:
XenneX писал(а):
в консолях же смогли и в картах рано или поздно чего нить придумают
Да консоли обрабатывают лучи не лучше чем видеокарты AMD. Плюс я буду играть с лучами лишь в случае, если они не будут съедать более 20-30% производительности, а в том же КП 2077 fps до 2х раз ниже на Nvidia и до 2,5х раз на AMD при их полной активации.
Добавлено спустя 2 минуты 59 секунд:
XenneX писал(а):
а автора темы просто бомбит что его амдшная карта лучи не тянет, он и так и этак пытается отстоять свою бестолковую покупку, но обмануть себя к сожалению не может, да и других тоже не получается
о боже, я даже будь у меня RTX 4070 - не стал бы включать лучи. Я специально сделал выбор в пользу AMD, а не RTX 4070, т.к. самая дешевая 4070 в xpert стоила 55 т.р., а моя rx 6800 обошлась в 53 т.р. Я пришел к выводу, что для меня дополнительные 4гб видеопамяти важнее лучей, т.к. общая производительность у 4070 лишь на 7-10% быстрее чем у 6800(при отключенных лучах), т.е. это по сути почти одна и та же карта при отключенных лучах.
А лучи я включил бы лишь В ТОМ СЛУЧАЕ, если бы до их активации у меня было 80fps, а после стало 65-70fps. Большего они не стоят.
Но на ютубе полно тестов в КП 2077, которые иллюстрируют, как fps на rtx 4090 садится вдвое после их активации(на ультра).
А 6800 быстрее чем 3070ти на ~5-7% - вывод очевиден.
Добавлено спустя 3 минуты:
XenneX писал(а):
свою бестолковую покупку
идеальная покупка после которой я сделал вывод, что к Nvidia больше не вернусь из-за их жадности к VRAM. Следующей видеокартой будет RX 8800/RX 8800 XT.
Добавлено спустя 8 минут 34 секунды: XenneX а у вас была 3070(которой не хватало памяти с ваших слов), а затем вы перешли на RX 6950 xt - куда лучше чем нищая 4070 с её 12гб.
У вас с 6950 была какая-то проблема(с температурой, я читал) и вы перешли на RTX 4070, хотя изначально МНЕ говорили о нежелании переходить на неё аргументировав тем, что у неё "мало памяти".
Но в результате у вас RTX 4070
Вот кто теперь пытается оправдать свою дерьмовую покупку. А RTX 4070 лошит каждый второй блогер(4060ти - каждый первый). Она уже в 4K из-за нехватки VRAM не тянет, а совсем скоро очередь и 2K коснется.
DLSS 3.0 и FSR 3.0 - нахрен не нужны, т.к. минимум, когда их можно включить - это 40-45fps(превратив в 60+), а иначе инпут-лаг.
Единственный плюс у RTX 4070 перед 6800 - RT, но я, как уже сказал - я отключал бы его на 4070, т.к. даже 4090 не тянет лучи без костылей.
В идеале вообще пока с лучами и без DLSS в 2K у меня в игре менее 60fps - я их включать не стану.
Member
Статус: Не в сети Регистрация: 27.07.2009 Откуда: Москва Фото: 5
Envу писал(а):
Помню, как моя предфлагманская GTX 275, если тянула в 2008-2009 году новую игру в 1680x1050 с 40-50fps - для меня это было счастьем. Теперь же бюджетная rtx 3060 БЕЗ RT все игры(или почти все) фурычит в 60-80fps в FullHD.
Так это не показатель мощности видеокарт, а показатель стагнации и деградации графики в играх. А так же инфляции, т.к. пред топ gtx 275 стоил тогда 250$.
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Ханыга я её за 10-11 тысяч(примерно) приобрел в те времена, когда доллар 30 рублей стоил. По тем временам видеокарта дороже чем за 5-6 тысяч воспринималась друзьями(да и мной тоже), как мажорская.
У большинства была 8800gt и 9600gt или hd 4850 стоящие 4-5 т.р..
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Ханыга писал(а):
Учитывая что 4070 это карта для 2к, причем без особого запаса по мощности чипа на будущее - очень умно требовать от нее 4к.
просто я думал, что возьму её ради 2K + DLSS 3.0 и там, где fps будет уже ниже ~40 я буду включать DLSS 3.0 и получать 60fps+(но смущали 12гб, т.к. стартеры будут даже при 60fps за счет FG). Но эта технология, как и FSR 3.0 для ~50fps, а в идеале для 60fps+.
Хуанг бы не выпустил технологию так сильно продлевающую жизнь видеокарте.
Добавлено спустя 2 минуты 28 секунд: Меня мыльный DLSS 2.0 смущает меньше чем DLSS 3.0, т.к. я недавно ощутил своими руками, что такое большой инпут-лаг при высоком fps... Игра типа должна тормозить, но глаза этого не видят, что вызывает когнитивный диссонанс.
Добавлено спустя 7 минут 34 секунды: 4070 нормальная карта, но я взял 6800 из-за опасений, что рано или поздно опять начнется майнинг или взлет цен на комплектующие по любой другой причине. И лучше пусть у меня будет 6800 с 16гб чем 4070, но с 12гб.
В том же The Last of Us я в 2K + DLSS в режиме баланс получал 50-60fps(а лично мне этого достаточно, чтобы пройти игру) на прошлой rtx 3060 12. При этом это одна из немногих игр, которая при включении dlss/fsr выглядела более резкой чем при отключении.
Мне даже показалось, что чем больший уровень FSR/DLSS я ставлю - тем выше резкость изображения(а не наоборот, как обычно).
Добавлено спустя 2 минуты 33 секунды: А FG я бы включать даже не стал, как и FSR 3.0 - для меня поддельный fps неприемлем, как сам факт того, что я вижу то, что не рендерит сама игра, а рендерит приблуда Хуанга/Лизы.
Лучше бы, что один, что другой DLSS 2/FSR 2 улучшали, а не 3.0 говнецо выпускали.
Member
Статус: В сети Регистрация: 25.01.2004 Откуда: Ростов-на-Дону Фото: 4
Envу писал(а):
вы для начала хотя бы в терминологии разберитесь - тензорные ядра нужны для работы DLSS, а для трассировки лучей нужны RT-ядра, которые есть и у AMD начиная с RX6000. Горе-специалист вы - все с вами понятно.
Слушай специалист, тензорные нужны для денойза результатов работы лучей, потому что делать много степов трассировки - дорого по времени. У амд денойзом занимаются ядра общего назначения, поэтому амд проседает, пока у нвидии это щелкают тензоры. Не думай что куртка берет деньги за воздух. Тут так же как и с фрисинком, амдшники бегают орут что нвидия гсинком своим просто рубила бабло из воздуха, однако хуанг не просто так брал деньги за гсинк, фрисинк амдшный это недоделанная синхронизация с обрезанным важным функционалом, поэтому и дешево потому что Г. Так же и с FSR - г. за 2 копейки. АМДшники опять орут, что хуанг наваривается, а на деле FSR полный мусор.
Envу писал(а):
откуда вы вообще это взяли? Придуманный аргумент?
От аналитиков по игровой индустрии.
_________________ 12400|224XT|MSI PRO B660M-A DDR4|4x8Gb@3466|KFA2 3060-12X|Deepcool PQ650M|Corsair 200R|Win11x64
Последний раз редактировалось Genrix 21.07.2023 15:31, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Genrix писал(а):
От аналитиков по игровой индустрии.
ссылка?
Добавлено спустя 2 минуты 47 секунд:
Genrix писал(а):
Слушай специалист, тензорные нужны для денойза результатов работы лучей, потому что делать много степов трассировки - дорого по времени. У амд денойзом занимаются ядра общего назначения, поэтому амд проседает, пока у нвидии это щелкают тензоры.
т.е. вы ходите сказать, что RT-ядра Nvidia в каждом новом поколении наращивает просто так? Делая их более производительными(и энергоэффективными) чем в прошлом поколении, как она сама заявляет? И более того - у младшей видеокарты в линейке до 4 раз меньше RT-ядер чем у старшей.
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Ханыга многие западные и отечественные блогеры с ютуба считают, что как раз RTX 4090 и есть первая видеокарта, которая тянет лучи.
p.s., Лично мне пофиг на лучи, пусть они растеризацию качественную делают, а то они(разрабы) при наличии лучей на неё забивают и в результате игра по качеству отражений уступает даже играм 2014-2016 года(при отключенных лучах).
Member
Статус: В сети Регистрация: 25.01.2004 Откуда: Ростов-на-Дону Фото: 4
Envу писал(а):
ссылка?
уже не помню кто, то ли Алексей Макаренков то ли IXBT канал на ютубе, было в этом году. Я в день смотрю десятки видосов, я уже не найду конкретное.
Добавлено спустя 1 минуту 43 секунды:
Envу писал(а):
как раз RTX 4090 и есть первая видеокарта, которая тянет лучи.
Нет, не тянет. Потому что даже овердрайв киберпанка из коробки настроен очень скромно и в кишках можно понять количество лучей и количество баунсов до нормального и фпс упадет до конематографичного и на ней. Искаробки там 1 луч и 1 баунс, кто игрался с пакетами графики, тот знает, что минимум надо 3 баунса, а лучше 4. По лучам сложнее, по скринам что я видел надо 4 луча и 6 баунсов или наоборот, не помню. Тогда свет начнет считаться как в CGI.
Добавлено спустя 7 минут 18 секунд:
Envу писал(а):
т.е. вы ходите сказать, что RT-ядра Nvidia в каждом новом поколении наращивает просто так?
как можно умудриться это сгенерировать из моего текста? Фантазии лютые. Если рт ядра считают лучи 3 мс и их прокачать до 2мс, то фпс выпрастет, потому что больше фпсов посчитается. Или иначе - снизится штраф за включение лучей.
_________________ 12400|224XT|MSI PRO B660M-A DDR4|4x8Gb@3466|KFA2 3060-12X|Deepcool PQ650M|Corsair 200R|Win11x64
Последний раз редактировалось Genrix 21.07.2023 15:47, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Genrix Не верю я в это, т.к. я айтишник(фронт-енд) и знаю, что геймдев для западного мира - ценнейшее место, куда рвутся очень многие, но куда попасть сложнее всего(как и в машинное обучение). Там вращаются огромные деньги и я бы сам пошел в это направление, но у меня туда попасть шансов 0, как и любого россиянина.
И как я и сказал - посмотрели 1 видео и сделали вывод. Я сомневаюсь, что на территории России есть сильные аналитики игровой индустрии(вернее уверен - таких нет, по крайней мере на слуху). В России вообще сильных специалистов в любой области единицы, что уж о геймдеве говорить.
Все сильные и способные стараются покинуть Россию, т.к. страна бесперспективная и нищебродская.
Member
Статус: В сети Регистрация: 25.01.2004 Откуда: Ростов-на-Дону Фото: 4
Envу писал(а):
геймдев для западного мира - ценнейшее место, куда рвутся очень многие, но куда попасть сложнее всего
Такое ценное, что оттуда все бегут и основывают свои мелкие студии, потому что крупные работают как конвейер и клепают одно и то же в режиме кранчей, где люди как рабы на галерах.
_________________ 12400|224XT|MSI PRO B660M-A DDR4|4x8Gb@3466|KFA2 3060-12X|Deepcool PQ650M|Corsair 200R|Win11x64
Member
Статус: Не в сети Регистрация: 02.07.2010 Откуда: Волгоград Фото: 1
Genrix вы думаете в других ветвях IT клепают не одно и тоже? Веб-разработка - рутинная работа, где тебе дают ту работу, которую ты не хочешь делать, но ты должен. ГеймДев один из самых прибыльных, плюс туда без глубокого математического образования не попасть(уровня лучших вузов страны).
Добавлено спустя 4 минуты 2 секунды:
Genrix писал(а):
как можно умудриться это сгенерировать из моего текста? Фантазии лютые. Если рт ядра считают лучи 3 мс и их прокачать до 2мс, то фпс выпрастет, потому что больше фпсов посчитается. Или иначе - снизится штраф за включение лучей.
таким образом суть в том, что чем больше RT-ядер - тем выше fps? Верно.
У всех видеокарт Nvidia в обзорах, что я читал - RT-ядра более совершенные, чем у AMD. Причем так прилично более совершенны, т.к. свои ядра RT - AMD почти не развивает, а Nvidia в каждом поколении привносит в них что-то новое.
АМД же свои ядра мощнее не сделали(в rx7000), а сделали ТОЛЬКО более энергоэффективными. Ну и плюс засунули их в вк чуть больше чем в прошлом поколении - оттуда и 5-10% прирост fps в лучах.
Добавлено спустя 1 минуту 18 секунд:
Genrix писал(а):
так это эти люди с глубоким математическим образование делают этот ААА лагающий калл с посредственной графикой? Я понял.
нет, это делают те, кто ими руководит.
Добавлено спустя 1 минуту 39 секунд: Есть тот(те), кому говорят что и как должно быть - он выполнил.
А есть тот, кто говорит, что должна быть ИДЕАЛЬНАЯ оптимизация - но это мистический персонаж, которого я только что выдумал.
Добавлено спустя 1 минуту 32 секунды: На компе никогда идеальной оптимизации не будет, а насчет графики - мы уже пика достигли или почти достигли.
То, что у кого-то лагает - иди и бери новый проц/вк, так это видит руководство многих игровых студий.
Добавлено спустя 15 минут 27 секунд: Кто-то тут сказал, что графика не развивается - она уже развилась и развиваться ей уже почти некуда, т.к. у ВСЕГО есть предел.
Настолько просто, что аж тупо - откуда такие вопросы?)
Когда вы только родились, то вы быстро развивались во всех смыслах: физически, психически, интеллектуально и т.д. Но затем развитие замедлялось, что в результате остановилось полностью и теперь вы пользуетесь вашим развитым мозгом и телом.
На заре появления интернета он так же БЫСТРО развивался, но он уже развился и стоит на одном месте более 10-12 лет.
Так уж устроены люди, что большинство из них - тупы и ленивы, и наверное потому не способны абстрактно взглянув сопоставить простые элементы из которых все состоит.
В 90-х были мониторы 800x600, затем 1024x768, дальше 1280x1024 и спустя годы 4K. Это все так же улучшало картинку, но и сажало fps.
Теперь же в разрешении большем чем 4K нет смысла на диагонали менее 50" и потому разрешение мониторов более возрастать не будет(минус для Nvidia/AMD - теперь менять комплектующие будут реже, но мы поднимем цены).
Улучшать освещение и отражения - это последнее, что остается у разработчиков видеоигр.
Следующий этап - это или ИИ в играх, или перенос игр в дополненную реальность.
Или вообще поразительный шаг - мы начинаем прорабатывать игровой мир изнутри.
В каком смысле?
Все, что есть в играх- пусто внутри. Это просто пустой макет.
В реальном же мире каждый его элемент состоит из миллиардов клеток, а в играх в персонажах, в деревьях и т.д. нет ни одной живой клетки.
Мертвый мир, который нам подсовывают под видом живого.
Но ни один современный компьютер не справится даже с моделью ПОЛНОСТЬЮ виртуального живого человеческого организма, в котором будет всё, что есть в человеке.
Но лет через 100, думаю, найдут способ, например квантовый компьютер использовать для этой цели(соединив с классическим) - создавать виртуальные миры аналогичные реальному.
Собственно, на мой взгляд - это и есть причина по которой ни один виртуальный персонаж видеоигры не может сравниться с живым человеком при проявлении эмоций - эмоции идут изнутри, а у игровых персонажей внутри - пусто.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 956
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения