Заблокирован Статус: Не в сети Регистрация: 03.05.2013
HellQwer писал(а):
Песочница может не ставить перед игроком каких-то определенных целей, делая его единственной задачей само пребывание или выживание в игровом мире и его исследование. Зачастую в песочнице игрок сам определяет для себя символические задачи. При выполнении задач легко можно переключиться на другие цели. Свобода действий, возможность творчества и отсутствие жёстких рамок сюжета очень привлекают игроков, делая жанр песочницы востребованным в современной игровой индустрии[9]. Также важным преимуществом этого жанра является реиграбельность: геймер вновь и вновь погружается в игру без утраты интереса. В его силах менять сюжет и избегать допущенных ранее ошибок.
[/quote]Чет совсем не подходит , исследовать тут нечего , если бы не зеленый стрелощка на карте - можно было бы не поняв ничего выключить и не вспоминать , кроме как развлекаться моча гуков в игре ничего не придумано , в том же фк можно хоть засветить оппов и отстреливать их поочередно или тупо лезть в мясо , правда канает на низкой сложности . Тоже однообразно , но пойдет . Всякие неотстреливаемые районы есть у фк3 , но там есть смысл качаться , захватывать что-то , что твоим по сути остается , аванпосты . Тут же ты выполняешь задания , которые тебе по рации сообщают , тебе они в принципе нафиг не нужны , и где за все подвиги долгожданное спасибо ? А вот тебе новые координаты и пшел бегом выполнять . Мотивации что-либо делать ну нет . Другой линии в игре нет , лута тогда еще не изобрели . Личности тоже ни одной нет , какая-то та же серая мужиковатая солдатня в экзоскелетах . Которая играя совместно нифига даже не пытается помогать , можешь одного гука оставить , а эти где-то шляются и его не тронут . Блин , ничего святого нет в игре этой , ничего близкого , человеческого , ни страха , ни опасности , ни веселья , есть только сложности , которые без труда и всегда влоб преодолеваются . Короче недоделанный и урезанный фк3
_________________ Faith, you're driving me away You do it everyday You don't mean it But it hurts like hell
Member
Статус: Не в сети Регистрация: 12.06.2009 Откуда: хз не помню
Цитата:
Короче недоделанный и урезанный фк3
забавно, потому как кроме пары персонажей, чуть сюжета и симулятора бомжа в фк3-5 нет нечего интересного ИМХО. причем назвать их разными частями у меня язык не повернется, по сути это все адроны. кризис совсем другая игра, боты там сравнимы с халфой первой и второй, (именно в части А.И. сложность зависит от настроек) даешь им через конфиги чуть свободы и за тобой весь остров настоящую охоту устраивает, в фк же чисто скриптовые боты болванчики, это все не относится к первой части.
Member
Статус: Не в сети Регистрация: 25.05.2015 Фото: 1
Так получилось, что крайзис у меня устанвленный есть. Добежал до первого поста с антенной... лучше бы боты заскриптованы были. Меня обнаружили, запустили ракету и... стоит чел на центре поляны, курит, над ним пролетает америкозовский самолет, что он делает? Правильно, стоит, курит. Вступил в бой - те же болванчики. Сложность высшая. Вспоминая как боты ЮТ прошли тест тьюринга серьезно говорить о том, что это норм ИИ... С другой стороны, я не могу вспомнить игры с нормальными ботами, при том, что сейчас процессорные мощности огромны по сравнению с 2004ым. Бывают приятные и атмосферные, но чтобы при этом не тупыми были, иммитировали инстинкт самосохранения, вот это всё... не помню.
Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 71
Вот вам загрузка Crysis 1 на C2D E7500 под Win 7
#77
HellQwer писал(а):
С другой стороны, я не могу вспомнить игры с нормальными ботами, при том, что сейчас процессорные мощности огромны по сравнению с 2004ым. Бывают приятные и атмосферные, но чтобы при этом не тупыми были, иммитировали инстинкт самосохранения, вот это всё... не помню.
Вроде как FEAR. Возможно еще серия GTA, вроде особенно неплохие болваны были в четвертой части.
_________________ Я дрочистый изумруд Core i3-12100F // 32GB XPG GAMMIX D20 // RTX 5060 Ti 16GB MSI INSPIRE 2X OC // LG 24GS60F @180Hz G-Sync
Member
Статус: Не в сети Регистрация: 13.02.2012 Фото: 3
mag_ai писал(а):
зато в америках (и еже с ним странах) и европах вообще не принято покупать дорогое игровое железо там культура немного иная и самосбор тоже не у многих в почете.
Всегда интересно на основании чего люди делают такие заключения. Ведь тогда получается, что магазины типа computeruniverse придуманы для тех кто живет в СНГ и Азии? А еще получается, что для производителей ЦП и ВК основным рынком сбыта комплектующих не в составе готовых ПК являются страны СНГ и Азии.
Личный опыт перепрохождения Crysis Warhead в конце прошлого года на i5-4590+GTX770. На финальном боссе игра просто плюхнулась в дикие лаги и даже сброс графики на минимальные настройки не изменял ничего. Я ничего не имею против Crysis 3, ни как игры, ни как тестовой платформы, но производительность первого круза от железа зависит по каким-то одному богу известным законам.
Самое интересное, что легенды должны жить в свое время, Crysis понимает только DX10, и возможности относительно современного железа использует довольно ограниченно. Да и крупные игры, если их действительно оптимизируют, то, скорее всего, делают это под конкретное железо, актуальное на данный момент, а не топы 3-4-летней давности, или тем более то, что еще не вышло. Сравнительные тесты видеокарт отстоящих на 2 и более поколений друг от друга профильные ресурсы проводят редко. Мое мнение относительно производительности моей 770 в сравнении с 1050 и 1050Ti изначально было таким, что 770 быстрее даже Ti, т. к. она быстрее 960, а 960 быстрее 1050-ых, но после того, как моя ПЕЧка в январе померла, я решил поискать прямое сравнение 770 и 1050 Ti, и там налицо тенденция, что в старых играх 770 выигрывает, конкретно в Crysis 3 (начало 2013-го, как раз расцвет Kepler) процентов на 10, но в играх с 2015-го года ситуация меняется, и более новая железка начинает обходить, причем не всегда это можно объяснить разницей в объеме видеопамяти, тот же "Ведьмак" 3 на GTX 900 и 1000 идет намного быстрее, чем на 700 даже при равенстве в объеме видеопамяти. Не думаю, что nVidia специально что-то резала, ей это просто не нужно, а вот игнор со стороны разработчиков старых моделей вполне логичен.
Т. е. подобный тест покажет исключительно производительность конкретных железок в конкретно этих играх, но не даст никакой достоверной информации об их производительности, которую можно было бы экстраполировать на произвольные игры, как последних пары лет, так и тех, что выйдут в ближайшие пару лет.
Консоли этому не мешают, а только способствуют, развивая программное обеспечение, языки, технологии и железо не в тупое наращивание терафлопсов, а в техническое развитие. Наступит время, и ПК пойдет по стопам консолей, откажутся от лишних шин и мостов, откажутся от раздельной памяти, будет оптимальная платформа с единой унифицированной быстрой памятью, маленьким буфером и общей шиной между cpu, gpu, ram и энергоннзависимой памятью, без лишних звеньев, придут наконец к единому быстрому и эффективному низкоуровневому api, все как в консолях.
Я, конечно, всё понимаю, но такую траву надо запрещать.
И да, развитие железа как раз и заключается в терафлопсах. А если на консолях что-то упаковывают в один чип так это лишь потому, что оно там 1) Собирается 1 раз на заводе. 2) Настолько маломощное, что тупо влезает и не сгорает.
Все чипы на консолях - это порезанные чипы с ПК. Не может идти развитие через платформы, обновляющиеся раз в 5-10 лет, в принципе, не может.
Цитата:
если первая игра, способная как-то тягаться с Крузисом - Far cry 3 - вышла только в 2012 году
Crysis 2 вообще-то вышел еще раньше и рвет он пред часть банально за счет того, что полигонов стало больше. А работает при этом на одинаковом железе даже быстрее. Можете как угодно менять текстуры и расчет освещения, но если в одной игре объект состоит из N полигонов, а в другой из 2N, то против этого приема просто нет.
Цитата:
А WOT, грузящий только 1 ядро, стало быть 0-поточный, а 1й поток это драйвер видеокарты?
Afterburner подсказывает, что это уже давно не так, у меня на i5 ядра загружались более-менее равномерно. На DX11 танки перевели как бы не вчера.
Цитата:
Если процессор FX, то да, 10ГГц
Тогда мой i5 тоже FX. Нечего на железо пенять, коли скрипты глючнее некуда.
Цитата:
будущее за склейками 2х2, объединенные быстрой шиной.
Это будет тот же самый SLI со всеми вытекающими проблемами фазовой синхронизации кадров. Так, что если такое и будут делать, то в виде некоего цельного устройства.
Цитата:
В консолях уже были периоды с x86 процессорами.
XBox первый на Pentium-733 ЕМНИП. P3-1000 вышел летом 2000-го, X-коробка ЕМНИП где-то в 2001-ом, все нормально, типовое уже не передовое железо, ну а API, так это же MS, и разумеется там DirectX. Аналогично проц типа 68k на Sega Genesis. Сначала появляется удачный процессор, а потом его присобачивают в консоль, просто потому, что под него уже инструментарий есть.
Цитата:
Здравствуйте, пока вы спали на ПК давно уже отказались от северных и южных мостов, контроллеров и пр., их интегрировали или унифицировали. Остался по сути только чипсет, на котором висит периферия.
Вы понимаете, что чипсет, применительно к материнке как раз и состоял традиционно из северног и южного мостов, и на южном как раз периферия?
Цитата:
TDP у Vega 64 очень сильно раздуто для ее производительности
Ну и? Ну не смогла AMD сделать конкурентоспособную карту без переразгона. Кто знает, может через пару лет nVidia так же в лужу сядет. И сильно греющиеся поколения карт появляются периодически. При этом резкий рост тепловыделения непропорциональный разгону вполне обычен.
Цитата:
IBM бабки попилил и выкатил вместо этого процессор для распределенных суперкомпьютерных вычислений
Я вот так и не понял, на кой хрен им вообще понадобился столькоядерный процессор, когда игры все равно так не распараллеливались. Зато да, суперкомпьютер из консолей. Х)
Цитата:
почему SoC + общая память никогда не победят дискретные CPU и GPU со своей памятью
Потому что у дискретного GPU собственная память всегда намного быстрее?
*Cofradia Intel*
Статус: Не в сети Регистрация: 20.05.2010 Откуда: AC-DC Фото: 130
ultrafx писал(а):
Я не про "нас", а про тебя конкретно. Ну и странно ты "срач" назвал "обсуждением". То, что новость была про консоль, не значит, что надо залетать туда и объяснять всем, что это говно, как ты сделал в той теме.
Нет, не так. Я написал, что RX580 не тянет честные 4К в 60 фпс. Не вижу тут ничего похожего про "говно". А у тебя сразу началось: "Памахите! Консоли обижают!".
ultrafx писал(а):
Да не особо.
Вложение:
GPU.jpg
Вложение:
1080Ti.jpg
Мало того, что дико шумит, греется, так еще и троттлит (82°С).
ultrafx писал(а):
300 ватт же, сам писал.
Одна топовая видяха. А еще процессор. У 8700K без разгона под AVX будет ватт 150. В итоге огромная концентрация в 500W тепла в одной точке. А если разгон или HEDT с 10-18 ядрами?
ultrafx писал(а):
Ставишь высокоскоростную память и никаких ограничений для ВК нет. Есть практические примеры. Например Xbox One X с 12ГБ GDDR5 с пропускной способностью 326 ГБ/с. Этого хватит на любую карту (для сравнения у 980 224ГБ/с, а у 980 Ti 336 ГБ/с), а процессору этого и подавно хватит.
1) Где я писал, что проблема в ПСП? Не подменяй понятия. 2) Xbox One X вышел 7 ноября 2017 года, а GTX980 вышла 18 Сентября 2014 года. Вот это сравнения! Может с Xbox One сравним? Позорные 8ГБ DDR3 с псп 68,3 ГБ/с из которых свободны только 5ГБ, а еще 3ГБ пожирает ОС. И эти 5 гигов нужно разделить на оперативную и видео памяти. После позорища с PS3, Sony одумались и дали мощный пинок по зад Микрософту в этом плане: 8ГБ GDDR5 с псп 176 ГБ/с у PS4 и 218 Гб/с у PS4 Pro. 3) Радеонам для работы в отличии от Жифорсов требуется большая пропускная способность памяти: GTX1060 = 192 бит, RX580 = 256 бит. RX Vega 56 = 410 ГБ/с, GTX1070 (Ti) = 256 ГБ/с. 4) На консолях общая память и пропускная способность делятся между CPU и GPU. На ПК же CPU и GPU довольствуется всей шириной и объемом собственной памяти. Вместо 8 или 12 имеем 16+8=24 или 32+11=43 гигабайт суммарно. 5) Общие 326 ГБ/с при 384 битной шине воображение не поражают. У одной Веги 64 псп = 483.8 ГБ/с (512 ГБ/с). У HBM2 вообще в полной конфигурации 1 ТБ/с пропускной способности.
ultrafx писал(а):
В чем там экономия? По-моему запихнуть более простую и дешевую DDR3 для RAM и оставить меньшее количество GDDR5 для VRAM как раз было бы дешевле, чем городить десяток гигабайт общедоступной GDDR5.
Упростить разводку, SoC изначально создавался, как единое целое. Разработчики пытаются по максимуму выделить памяти под видео. Микрософт уже сэкономил в Xbox One и вместо GDDR5 поставил GDDR3 и как потом погорел на этом. А Sony так и делает, у них дополнительно стоят 256/1024MB DDR3 памяти в дополнение к GDDR5.
ultrafx писал(а):
Мне нравится, как ты постоянно копируешь википедию вместо ответа
Какую еще википедию я копирую? Если Xbox 360 на момент выхода имел топовое железо, то что консоли предлагали после? Самые дешманские ядра Ягуара + 8ГБ GDDR3 + графика на 12CU@1TFlops у Xbox One в конце 2013 года - кого этим можно было удивить?
ultrafx писал(а):
Хватит, хватит википедии, все это давно знают. Кроме подробностей о том, кто, зачем и кому в спешке ходил. Про "ATI уже была занята" забавная фраза. ATI и сейчас занята. Но сделала чипы для всех трех платформ.
Ты ведь в курсе, что такое "контракт"? Разработка революционного GPU занимает годы. Нельзя придти и сказать: "Ну-ка, за 5 минут забацайте мне революционную графику". Логично, что после провала PS3 и триумфа Xbox360, Sony побежали заказывать графику для PS4 именно у ATI. Какая википедия? Иди хоть статью в Стране Игр на 10 страниц почитай со всеми цифрами и разработчиками.
ultrafx писал(а):
https://youtu.be/yEOeVo89WA0?t=5m18s
Серьёзно? Resistance: Fall of Man? Издатель Sony Computer Entertainment? Принёс мне Sony'вскую разработку и эксклюзив и всерьёз думает, что сами Sony будут собственную консоль обсирать... Sony вместо нормальной графики все бабки направил на пеарщиков, чтобы те везде трубили про высокотехнологичный Cell, который на деле оказался бесполезным. Самое главное в игровом компьютере - это видеокарта. Она может стоить как половина системника. Видеокарте за 70 000 рублей (GTX1080Ti) достаточно процессора за 10 000 рублей (Core i5-8400). Можно потратить все ресурсы консоли на избыточную ультра мощную физику. Но если графика будет уровня Денди, то в это играть никто не будет. Как показала практика, никаких проблем с физикой на Xbox 360 не было, зато графон был намного лучше:
Цитата:
Благодаря наличию гибко настраиваемого аппаратного тесселятора, графический чип в Xbox 360 позволяет с минимальными усилиями и небольшими затратами системных ресурсов отрисовывать очень детализированные модели с огромным количеством полигонов. Кроме того, он может выводить до 500 миллионов треугольников в секунду против максимум 330 миллионов у PS3.
GTA4 на XboX 360 идёт в большем разрешении (720p vs 640p) и со сглаживанием, чем на PS3.
ultrafx писал(а):
А при чем здесь Sony, если SoC+GDDR5(3) выкатили все производители одновременно? И вполне успешно.
Sony пытался выкатить SoC в PS3, когда графику должен быть считать Cell. А главный конкурент MicroSoft вместо SoC запилил дискретную графику (Xenon + Xenos), которая разрывала встройку Sony, как Тузик грелку. Потому что дискретка всегда сильнее встройки.
ultrafx писал(а):
Игры в текущем поколении на консолях работают лучше, чем в прошлом.
Логично. Как можно сравнивать технологии 13-летней давности и 90 нм. тех.процесс с сегодняшними 14 нм.?
Добавлено спустя 1 час 27 минут 29 секунд:
HellQwer писал(а):
Сколько лет назад бросил?) Грузит 4. Неравномерно, но грузит.
Так себе грузит:
Вложение:
75%.jpg
Да пусть хоть 200 ядер грузит, речь не про WOT вообще, а про драйвер видеокарты.
beltar писал(а):
Тогда мой i5 тоже FX. Нечего на железо пенять, коли скрипты глючнее некуда.
Для старых игр нужен высокий IPC и мощный синглкор. А FX рассчитан на многопоток.
beltar писал(а):
Это будет тот же самый SLI со всеми вытекающими проблемами фазовой синхронизации кадров. Так, что если такое и будут делать, то в виде некоего цельного устройства.
Я и говорю, что оно будет работать как единое целое.
beltar писал(а):
Я вот так и не понял, на кой хрен им вообще понадобился столькоядерный процессор, когда игры все равно так не распараллеливались. Зато да, суперкомпьютер из консолей. Х)
Забавно, но процессор для Xbox 360 тоже делала IBM, только Microsoft вложила все бабки в мощный графический процессор, а Sony наоборот потратила все бабки на центральный процессор. Вот IBM и сделал им, то, на чём специализируется. Для MS сделали 3 нормальных ядра с 6 потоками, а для Sony - монстра из одного главного ядра, который управляет остальными и 8 мини-ядер вокруг (одно всегда отключено). Разрабы в шоке. Я не говорю, что мощный проц - это плохо, но должен быть баланс. Что лучше для игр: 18-ядерный Core i9-7980XE + GTX1050 2GB или 6-ядерный Core i7-8700K + GTX1080Ti 11GB? Толку от мощной физики, если графика не тянет?
Цитата:
О ЧЕМ ДУМАЛА SONY?
Итак, о чем думала Sony в 2000 году, заказывая для своей следующей консоли разработку такого дорогого и сложного в программировании процессора с неоднозначными возможностями? Вовсе не о том, что будет в 2006-2007 годах торговать «потенциалом», теряя при этом многие сотни долларов на каждой проданной PS3. То, что произошло с Cell, можно смело назвать «технологической трагедией»: после четырех лет разработки и затраченных на нее сотен миллионов, оказалось, что игровой индустрии такой чип просто не очень нужен. А теперь выясняется, что такой чип не нужен и самой Sony, которая недавно объявила о продаже этой технологии компании Toshiba.
Фактически, концепция Cell является продолжением и развитием идей, заложенных в PS2.
Как видим, принцип остался тем же: основное универсальное ядро + векторные модули-«числодробилки», только теперь эти модули стали более мощными, универсальными и обзавелись гораздо большим объемом встроенной памяти, а число их выросло. Благодаря этому, Cell теоретически способен даже самостоятельно рендерить изображения в реальном времени. Известно, что Sony изначально намеревалась использовать его одновременно и как центральный процессор, и как видеопроцессор. По некоторым данным, компания Toshiba разрабатывала специальную конфигурацию Cell, при которой вместо половины модулей SPU на кристалле должен был быть модуль рендеринга.
При подобной архитектуре консоли ни о каком «неизрасходованном потенциале» речь бы не шла – рендеринг в реальном времени легко способен «съесть» все ресурсы Cell. Он с первого дня отрабатывал бы свои деньги на все 100%, и никакого вопроса «к чему бы нам приспособить простаивающие SPU» у программистов возникнуть не могло.
В то время как Sony пыталась объединить все функции в одном процессоре, остальная индустрия шла совершенно другим путем, перенося все большее количество функций и вычислительной нагрузки с CPU на графический процессор (GPU).
Это в 1999 году Sony могла разработать в помощь центральному процессору PS2 графический чип Graphic Synthesizer, который превосходил по производительности все 3D-ускорители, присутствовавшие на PC-рынке (в том числе ATI Rage и Nvidia Riva) – PC-графика тогда была еще «зеленой», и с консольным «железом» ей тягаться было рано. Но за те годы, что Sony вынашивала Cell, Nvidia и ATI поглотили всех стоящих конкурентов и заматерели в борьбе друг с другом уже настолько, что ни одна другая компания не была способна предложить ничего и близко соответствующего производительности их графических решений.
Самым, однако, ужасным для Sony было то, что уже не мог конкурировать с PC-графикой и Cell. Используемые в «персоналках» GPU представляют собой специализированные процессоры, вся архитектура которых построена вокруг графических вычислений – и в этом деле они потрясающе эффективны. Топовые GPU уходящего поколения DirectX 9.0 (GeForce 7900 GT и Radeon X1950 XTX) по пресловутому теоретическому максимуму операций с плавающей точкой в секунду превосходят Cell в 8-10 раз! Когда пиарщики Sony говорят о том, что пиковая производительность консоли составляет 2 TFlops, нужно понимать, что только 200 GFlops приходится на Cell, а остальные 1.8 TFlops (то есть, 90 процентов) – это заслуга видеочипа.
И дело даже не в этих «маркетинговых» терафлопах, которые на практике почти ничего не значат. И по мощности, и по функциональности, и по сложности архитектуры PC-графика ушла слишком далеко, чтобы Sony и Toshiba, которая изначально разрабатывала модуль рендеринга для Cell, могли за ней угнаться.
Поскольку Xbox 360 изначально строилась по схеме CPU+GPU, то к 2004 году стало ясно, что на одном только Cell, пусть и модифицированном для рендеринга, PlayStation 3 будет катастрофически проигрывать конкурентке по уровню графики, и надо срочно что-то делать. К этому добавилось недовольство приближенных к Sony разработчиков игр характеристиками решения Toshiba.
Компания ATI была уже занята, бросив две сотни своих инженеров на разработку новаторского графического чипа Xenos для Xbox 360. Из двух графических титанов свободной осталась Nvidia, и, к счастью для Sony, она согласилась лицензировать ей лучший GPU, который находился у нее в разработке на тот момент – NV47/G70 (сейчас на нем основаны видеокарты серии GeForce 7800/7900). Его PS3-версию назвали RSX. Это очень хороший и производительный чип, но это PC-чип, в котором отсутствует такой традиционный для консолей элемент, как eDRAM, да и архитектура его по сравнению с изделием ATI является устаревшей. В результате получается парадоксальная ситуация – комбинация Xenon+Xenos, выйдя на рынок на год раньше и будучи более чем на 100 долларов дешевле в производстве, чем комбинация Cell+RSX, способна выдавать более качественную графику и обладает в этой сфере более серьезным потенциалом.
Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 71
TOK писал(а):
Я написал, что RX580 не тянет честные 4К в 60 фпс.
Если ты про PS4 Pro, там и нет никаких 4K. Там обычно от 1440p до 1800p, в зависимости от игры. Ну и не будем забывать, и я надеюсь, что ты не будешь отрицать, что можно убрать часть жрущих, но практически никак не влияющих на глаз параметров. В современных играх это повсеместно.
TOK писал(а):
Не вижу тут ничего похожего про "говно". А у тебя сразу началось: "Памахите! Консоли обижают!".
Я не помню уже, что было в той теме. Когда я там отписался, там уже было куча страниц срача между тобой и другими участниками. Так что там точно не одна фраза была.
TOK писал(а):
Мало того, что дико шумит, греется, так еще и троттлит (82°С).
Я же вроде писал, проблема в завышенном вольтаже/частоте, которую те не держат. У меня есть и 1080 Ti FE, и Vega 56 Reference, обе карты легко побежали даже на более высоких частотах, без троттлинга и без упора в температурные лимиты. Достаточно снизить рабочий вольтаж. В случае с консолями действуют еще проще - скидывают сотню мегагерц. Ну и отбор чипов никто не отменял. Стоковая 580/480 исполнении тоже троттлят, причем даже нерефы, у меня был ASUS STRIX 470, которая со штатных 1206 скидывала до ~1100. Это не помешало запихнуть в консоль 480 с частотй в ~911 мегагерц. А в случае с XOX, туда засунули даже более жирный чип, чем 580 (40 CU против 36 CU), да еще и частоту подняли до 1172, и ничего, нормально вроде работает. Я тебе уже привел пример с GTX 980M с TDP в 125 ватт. Ты почему-то все это проигнорировал и продолжаешь пихать картинки с жирными топовыми референсными картами.
TOK писал(а):
Одна топовая видяха. А еще процессор. У 8700K без разгона под AVX будет ватт 150. В итоге огромная концентрация в 500W тепла в одной точке. А если разгон или HEDT с 10-18 ядрами?
Какой еще разгон и HEDT в консоли? В консолях ставят LOW-TDP железки.
TOK писал(а):
1) Где я писал, что проблема в ПСП? Не подменяй понятия. 2) Xbox One X вышел 7 ноября 2017 года, а GTX980 вышла 18 Сентября 2014 года. Вот это сравнения! Может с Xbox One сравним? Позорные 8ГБ DDR3 с псп 68,3 ГБ/с из которых свободны только 5ГБ, а еще 3ГБ пожирает ОС. И эти 5 гигов нужно разделить на оперативную и видео памяти. После позорища с PS3, Sony одумались и дали мощный пинок по зад Микрософту в этом плане: 8ГБ GDDR5 с псп 176 ГБ/с у PS4 и 218 Гб/с у PS4 Pro. 3) Радеонам для работы в отличии от Жифорсов требуется большая пропускная способность памяти: GTX1060 = 192 бит, RX580 = 256 бит. RX Vega 56 = 410 ГБ/с, GTX1070 (Ti) = 256 ГБ/с. 4) На консолях общая память и пропускная способность делятся между CPU и GPU. На ПК же CPU и GPU довольствуется всей шириной и объемом собственной памяти. Вместо 8 или 12 имеем 16+8=24 или 32+11=43 гигабайт суммарно. 5) Общие 326 ГБ/с при 384 битной шине воображение не поражают. У одной Веги 64 псп = 483.8 ГБ/с (512 ГБ/с). У HBM2 вообще в полной конфигурации 1 ТБ/с пропускной способности.
Опять у тебя пиписька встала. Я пример приводил. А у тебя опять все свелось к "на ПК больше!"
TOK писал(а):
Упростить разводку
И много там на разводке сэкономят? Бакс хотя бы будет?
TOK писал(а):
Самые дешманские ядра Ягуара + 8ГБ GDDR3 + графика на 12CU@1TFlops у Xbox One в конце 2013 года - кого этим можно было удивить?
У тебя опять встал. Суть моего самого первого сообщения, на который у тебя слюни текут до сих пор, была не в сравнении железок, а в том, каким я вижу будущее и в качестве наиболее подходящего примера привел конфигурацию консолей. Про мощности, флопсы и прочие писькомерства я не говорил.
TOK писал(а):
Видеокарте за 70 000 рублей (GTX1080Ti) достаточно процессора за 10 000 рублей (Core i5-8400).
Поржал, спасибо.
TOK писал(а):
Как показала практика, никаких проблем с физикой на Xbox 360 не было, зато графон был намного лучше
Только почему-то эксклюзивы на PS3 были графонистей, чем любая игра с Xbox 360.
TOK писал(а):
Благодаря наличию гибко настраиваемого аппаратного тесселятора, графический чип в Xbox 360 позволяет с минимальными усилиями и небольшими затратами системных ресурсов отрисовывать очень детализированные модели с огромным количеством полигонов. Кроме того, он может выводить до 500 миллионов треугольников в секунду против максимум 330 миллионов у PS3.
GTA4 на XboX 360 идёт в большем разрешении (720p vs 640p) и со сглаживанием, чем на PS3.
Мультиплатформа работала лучше на Xbox 360.
TOK писал(а):
Логично. Как можно сравнивать технологии 13-летней давности и 90 нм. тех.процесс с сегодняшними 14 нм.?
Я не знаю, чего ты там сравниваешь. Задача создается под ресурсы. На прошлом поколении почему-то это удавалось хуже.
TOK писал(а):
Толку от мощной физики, если графика не тянет?
На Cell в играх вешали много графических эффектов и даже сглаживание. Ну и да, физика тоже была хорошая.
Кстати, есть один плюс унифицированной памяти перед раздельной - можно увеличивать ее размер, а не упираться в то, что распаяли. С этой проблемой столкнулись все, кто купил себе 580, 680, 780 и прочие карты с изначально малым количеством памяти.
_________________ Я дрочистый изумруд Core i3-12100F // 32GB XPG GAMMIX D20 // RTX 5060 Ti 16GB MSI INSPIRE 2X OC // LG 24GS60F @180Hz G-Sync
Если говорить о WoT, то там лок fps на 120-127, соответственно при i7 на 4 ГГц процессор в него просто упирается и нагрузка низкая. Но с равномерностью там сейчас более менее всё.
Цитата:
Для старых игр нужен высокий IPC и мощный синглкор. А FX рассчитан на многопоток.
С позиций 2007/8 годов даже пресловутый фикус сложно обвинить в низкой производительности на ядро, и уж тем более мой i5 под это, в принципе не попадает, тем не менее производительность падает в разы. Глюки они и есть глюки.
Цитата:
Поржал, спасибо.
Проц от видеокарты практически никак не зависит, он либо тянет игру либо нет, а более мощная видеокарта лишь позволяет намалевать побольше текстурок, поставить побольше разрешение, сглаживание и т. п. И мастабируемость игр по процессору по сравнению с масштабируемостью по видеокарте очень мала. На практике это может наблюдаться в ситуации, когда после снижения графики до некоторого порога дальнейшее снижение fps практически не увеличивает.
В этом плане при таком сравнении
Цитата:
Что лучше для игр: 18-ядерный Core i9-7980XE + GTX1050 2GB или 6-ядерный Core i7-8700K + GTX1080Ti 11GB?
С точки зрения киберспортсмена первая система может оказаться предпочтительнее, графон он в ноль поставит, а собственно игровая логика будет обсчитываться быстрее, т. е. максимально достижимый fps будет больше.
Цитата:
Забавно, но процессор для Xbox 360 тоже делала IBM, только Microsoft вложила все бабки в мощный графический процессор, а Sony наоборот потратила все бабки на центральный процессор. Вот IBM и сделал им, то, на чём специализируется.
В принципе, задача создания игры вроде типового шутера была успешно решена на рубеже 90/2000. На ПК есть игры вроде стратегий с сотнями и тысячами юнитов, и там можно производительность посадить на банальном поиске путей для них, но на консолях мощный проц особо-то и не нужен. А если еще и на 30 fps делать...
Цитата:
На Cell в играх вешали много графических эффектов и даже сглаживание.
Чего? А я-то думал от проца на видеокарту всякие буферы полигонов с индексами вершин идут, а она потом уже осуществляет обработку построенной на основании этих данных картинки тем, или иным способом, чтобы сглаживание выполнить, например, рендерит в повышенном разрешении, ну или шейдер пиксельные выполняются, как у FXAA. А тут эвона какие технологии. Х)
Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 71
beltar писал(а):
Чего? А я-то думал от проца на видеокарту всякие буферы полигонов с индексами вершин идут, а она потом уже осуществляет обработку построенной на основании этих данных картинки тем, или иным способом, чтобы сглаживание выполнить, например, рендерит в повышенном разрешении, ну или шейдер пиксельные выполняются, как у FXAA. А тут эвона какие технологии. Х)
Почитай дневники и разборы по Killzone 2 и God of War 3 например.
Member
Статус: Не в сети Регистрация: 12.06.2009 Откуда: хз не помню
ultrafx писал(а):
XIMERA123 Какие еще задники, если речь идет о сглаживании и эффектах на SPU...
во всех экзах можно найти границу где начинается видео и где 3d-2d, потому то игры на соньки были такие объемные по размеру, потому они так хорошо выглядели (в отличии от мультиплатформы, которая лучше на xbox) и потому в них была очень странная камера не дающая обзор на 360 градусов. про сглаживание смешно, нечего более fxaa и его аналогов вроде mlaa на соньки отродясь не было и они всегда общитывались на cpu. CELL это число дробилка по сути своем АРМ процессор, хорош в специфических задачах, но когда что то мимо шаблона он хуже x86
Мемbеr
Статус: Не в сети Регистрация: 15.12.2006 Откуда: оттуда Фото: 71
XIMERA123 Ты упоротый что ли? По ссылкам понажимай может, не? Там все расписано с примерами. И при чем здесь, мать его, задники, если разговор шел об утилизации SPU графическими задачами? Что же вы за люди такие, ни сообщения не читаете, ни тему спора не понимаете, ни даже по ссылкам сходить не можете, но лезете посреди спора и начинаете какую-то вообще не относящуюся к теме фигню нести.
_________________ Я дрочистый изумруд Core i3-12100F // 32GB XPG GAMMIX D20 // RTX 5060 Ti 16GB MSI INSPIRE 2X OC // LG 24GS60F @180Hz G-Sync
Member
Статус: Не в сети Регистрация: 12.06.2009 Откуда: хз не помню
Цитата:
XIMERA123 Ты упоротый что ли? По ссылкам понажимай может, не? Там все расписано с примерами.
какие примеры? что отложенный рендер позволяет перенести часть расчетов на cpu, или сглаживание фильтрами тоже на cpu? так с эти справляется и пенек 3 и "шедевральный" CELL о боже тоже?
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 23
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения