SerGee ты не прав. При использовании метода трассировки лучей весь груз расчетов освещения переносится с программиста на железо, поэтому когда железо станет способно производить такие расчеты в реальном времени разработка игр удешевится (к тому ж качество картинки улучшется) - следовательно разработчики игр непременно перейдут на эту технологию.
SerGee ты не прав. При использовании метода трассировки лучей весь груз расчетов освещения переносится с программиста на железо, поэтому когда железо станет способно производить такие расчеты в реальном времени разработка игр удешевится (к тому ж качество картинки улучшется) - следовательно разработчики игр непременно перейдут на эту технологию.
Игры делают не только программисты. Программисткой работы нынче максимум 10я часть от всей работы (причем, имхо, даже 1%, если учитывать маркетинг и прочее). Сейчас масса сил тратится на "художественные" составляющие: графика (текстуры, фоны), дизайн-моделирование (модели, уровни, мир), звук/музыка. Закономерность такова, что, чем более "реальный" мир вы хотите получить, тем больше работы нужно выполнить - текстуры более высоко разрешения, модели..., элементы в мире...
Так что это облегчает жизнь производителям "железа", но не разработчикам игр Конечно легче напихать ALU в кристал, чем обеспечить высокую частоту и засунуть больше разных функции в видеопроцессор...
Member
Статус: Не в сети Регистрация: 02.05.2004 Откуда: Tver
Этот спор уже не один десяток лет идет. Была память дорогая - проще и дешевле рисовать векторными дисплеями (~1980). Обкатали технологию, память резко подешевела - бум 2D видеоигр и раcтровых дисплеев (~1983-1990). Потом GE Кларка из SGI - получите OpenGL и "вывернутый наизнанку" его вариант - DirectX( 1990-2000). Вроде как сейчас подумывают о трассировке лучей, но это технически все равно очень дорого. Мне кажетcя что Cell это первая ласточка, по логике видеокарты должны умереть или другими словами переродиться как один из кластеров NUMA - подобной архитектуры ( много процессоров много модулей памяти и каждый из процессоров имеет быструю шину данных к cвоему модулю). Вот тогда трассировка будет в самый раз, ее очень просто распараллелить. Опять же если графика не нужна то видеопроцессор не будет лежать мертвым грузом а поможет в расчетах других задач. И все довольны.
Мне кажетcя что Cell это первая ласточка, по логике видеокарты должны умереть или другими словами переродиться как один из кластеров NUMA - подобной архитектуры ( много процессоров много модулей памяти и каждый из процессоров имеет быструю шину данных к cвоему модулю). Вот тогда трассировка будет в самый раз, ее очень просто распараллелить. Опять же если графика не нужна то видеопроцессор не будет лежать мертвым грузом а поможет в расчетах других задач. И все довольны.
Вообще-то видеопроцессор это математический процессор. Только функции специфические. И его уже использую, если так можно выразиться, для не совсем "родных" вещей - есть программы, которые в нём (ВЦПУ) звук обрабатывают так, что звуковухам и не снилось Гигафлопы всё-таки...
Но будущее действительно за CELL-подобными агрегатами. Ведь нейро-процессоры по сути теже cellы, только умеющие сами организовывать связи друг с дружкой. А нейро-процессоры - шаг к искуственному интелекту, но уже следующий за CELL
Member
Статус: Не в сети Регистрация: 25.07.2005 Откуда: г. Москва
Остается только охать и ахать, а еще радоваться за то что все-таки ведь доживу я до нечто такого... В общем. Мое мнение таково, что (ИМХО), ну, просто невозможно двигаться дальше только увеличением тактовой частоты, пропускной способности, количеством полигонов, разрешением текстур... Это бред. Даже я, далекий (по большому счету) от программирования человек, считаю, что обязательно будет переворот, будет революция. Достаточно дождаться (в народе) десятого DirectX.
Помните технологию ускорителей Cyro (Киро, кажется так)? Она предполагала что тот объем информации, что сейчас не отображается на экране просто выбрасывается из памяти системы, технология тайлов если я не ошибаюсь в результате чего экономится львиная доля ресурсов и скорость прорисовки картинки возрастает. Что стало с этой, казалось бы, потрясающей идеей? Канула в небытие… помню я даже собирался купить такую карточку.
О чем это говорит? А о том что из чисто финансовых соображений это не выгодно таким монстрам как ATI, NVIDIA. А чего? Они замечательно себя чувствуют пока просто увеличением конвейеров, таковых частот… И так будет еще долгое время, пока из этого не выжмут все соки и некуда будет деваться просто как использовать революционный методы. Разве не так? Это рынок, бизнес, деньги. Я сомневаюсь что в ATI, NVIDIA, AMD, INTEL работают сплошняком одни энтузиасты нацеленные на развитие технологий. Все они зарабатывают деньги, не больше не меньше. Так вот когда этот способ банального «увеличения» исчерпает себя… Понимаете? От-так-то. Производители игрушек и ПО занимаются тем же самым. Каждый сам по себе? Чёртас-два! Банально вспомнить о тех же оптимизациях игрушек и ПО под конкретные продукты. Какие бы не были сейчас инновационные идеи, все они будут тонуть пока… или ждать своего времени. А пока мы будем довольствоваться все большими частотами, объемами оперативной памяти, затем все большим количеством ядер на процессор, большими объемами жестких дисков… Я считаю что предел наступит и вот тогда будет вам и нам трассировка и много другого замечательного.
Тайловая архитектура давным давно уже используется всеми ведущими производителями (ATI и NVIDIA) , правда немного в неявной форме, буфер кадра разбивается на прямоугольные блоки (тайлы) на уровне внутренних кэшей. И за тактовой частотой как раз производители видеочипов не гонятся, сравните 400-800 мгц у современных карт и 3-4 Ггц (причем некоторые внутренние блоки работают с удвоенной частотой например ALU P4 то считай все 6-8 Ггц).
Сейчас этот форум просматривают: waldor и гости: 7
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения