Зависит от монотонности нагрузки. Т.е. чем выше монотонность - тем выше значение кэш. Например, при рендере видео или архивировании разница будет значительно выше погрешности, а в каком-нибудь LinX или другой математической нагрузке разницы Вы почти не увидите.
у меня был конкретный эксперимент, а не теоретические выкладки - это раз. перечисленные вами программы являются многопоточными, а речь идёт об однопоточных программах - это два. если очень захочется проверить вашу теорию, то повторю эксперимент с архиватором 7zip с выставлением 1 потока, причём не во встроенном тесте, а при реальном архивировании. впрочем, такой эксперимент вы можете провести и сами на своём железе, если лень не будет. полученные результаты надеюсь тогда сообщите.
Видимо, не так часто у Вас случается длительный тяжёлый рендеринг.
Обычно, для работы, сцену пытаются оптимизировать, что бы уходило секунд по 5-6 на фрейм. Кстати, а что бывает, когда при рендеринге возникает ошибка в памяти? Синий экран? Остановка рендера? Или рендер просто замедляется? Но, в любом случае, спасибо, учитывая, что и ЕСС не критично дороже, можно подумать и в эту сторону.
ShadowTM писал(а):
А если Вы посмотрите утилизацию памяти в том же Ае, то поймёте, что даже необходимость в 16-и возникает только в редких пиках.
А Вы, видимо не так часто смотрите за загрузкой процессов в Ае ,)) Уверяю Вас, на i3770 с 16Гб памяти при включенном мультипроцессинге, он утилизирует на все 100% и память и процессорное время. В моих проектах - почти всегда.
ShadowTM писал(а):
Мне видится логичной следующая конфигурация:
да Вы, батенька сноб, как я посмотрю. Критикуете мой выбор домашней станции и предлагаете в ответ исключительно проф. комплектующие )) Ну, хорошо, давайте посчитаем
По-моему это больше подходит под понятие максимальной эффективности на вложенный рубль. Да и под назначение "домой" уж и подавно (раз уж Вы к этому в начале придирались, не упущу шанса,)))
И сдаётся мне мой вариант будет и работать быстрее и рендерить то же (учитывая разницу в частоте, даже считая по моей формуле 1 core Intel = 1.2 block AMD получается 48 суммарных ГГЦ против 52-х). Я уж молчу про GPU и CS6 ray-traced, в котором квадра сольётся, да что там, я по опыту Вам скажу, что в Ae ray-traced Вы не сможете даже работать с приемлемой комфортностью.
Кстати. При настройке мультипрцессинга Ae может использовать до 3Гб на поток (по технической документации он вообще использует максимум доступной памяти), так что в случае с 24-мя потоками, как минимум 72Гб он задействует легко. Не во всех задачах этот мультипрцессинг он будет включать, но для эффективной работы в сложных задачах это как раз тот ориентир, на который нужно опираться.
ShadowTM писал(а):
Я за разумный выбор комплектующих без фанатизма
о, да! и поэтому советуете купить квадру за 2 косаря. Можно вопрос? А чем Вы мотивировались при этом?
Я конечно всё понимаю, такой хрестоматийный подход - для проф. приложений - проф. оборудование, но если отойти от букваря и коснуться практики, что мне даст Квадра? Более комфортную работу во вьюпорте? Я думаю OpenGL в GTX не сильно хуже. А вот ограниченность по GPU рендеру меня никак не устраивает за эти 2 килозелени. Кстати, раз уж коснулись практики - у меня то основная программа - Ae, так что Ваша рекомендация с Квадрой вообще мимо, но у меня есть довольно много знакомых 3-х мерщиков, никто из них почему то не стал покупать себе домой квадру, более того, многие при сборке машин на работе старались заказывать топовые игровые, а не проф. карты. Казалось бы, почему? Я серьёзно это спрашиваю, ибо реально сейчас, пока Кеплер не набрал оборотов, игровые карты у Нвидии на голову выше профессиональных. И мне не очень понятно позиционирование. Точнее понятно лишь одно - проф. / дорого / для компаний не важно - заплатят / им даже интереснее - больше спишут на затраты / больше прилипнет по пути. Как и со всеми узкоспециализированными вещами. Тем же ПО. Но для частного использования такой подход неприемлем в принципе. Ну, если только печатный станок не стоит под кроватью ,)
Добавлено спустя 5 минут 21 секунду:
Koschey Bessmertniy писал(а):
ну почему же, такое возможно в некоторых играх, которым не хватает процессора (узкое место) и используют только 4 потока, а в процессоре доступно 6
Хотя игры меня волнуют мало, но всё же стало интересно. Т.е. мощности процессора в целом не хватает и игра начинает грузить только 4 из 6 потоков? Или узкое место в другом месте, скажем в скорости обмена данных по шине? Хотя х.з., там то обычно всегда с избытком, хватает, вон, даже при экстремальном разгоне.
Последний раз редактировалось Виталий В. 13.02.2013 17:41, всего редактировалось 1 раз.
Т.е. мощности процессора в целом не хватает и игра начинает грузить только 4 из 6 потоков?
нет и нет. игра изначально не умеет задействовать все потоки процессора. я рассматривал пример с игрой, оптимизированной только под 4 потока. 60...80% выпущенных игр за последние 3 года как раз умеют использовать только 4 потока CPU. впрочем моя любимая игра - это герои меча и магии 5. это игра 2006 года и она умеет использовать только 1 поток CPU, при этом именно CPU даже разогнанный в хлам является ограничителем FPS в игре (огромные карты). можно менять разрешение, графические настройки и т.п. - FPS стабилен, можно затормозить/разогнать видеокарту (и GPU и видеопамять) - FPS стабилен, но как только меняешь частоту CPU, так FPS пропорционально меняется. при этом на моём CPU показывается загрузка 8...9% (12 потоков, 1/12=0,08333).
о, да! и поэтому советуете купить квадру за 2 косаря.
Я о другом фанатизме. О том, который свойственен многим скудоумным на этом форуме: восхвалять продукты одного вендора и поносить продукты конкурента. При этом, находить доводы для себя и других, закрывая глаза на объективную реальность.
Виталий В. писал(а):
Я думаю OpenGL в GTX не сильно хуже.
Серьёзно? Искусственное ограничение драйверами в 500 тыс полигонов на оверлей - это не сильно хуже? Т.е. я не знаю, с какими проектами Вы работаете и на каком мониторе, но для более-менее серьёзного моделинга/кадинга GeForce категорически не годится.
Виталий В. писал(а):
Кстати, раз уж коснулись практики - у меня то основная программа - Ae
Под Ае Квадра действительно не нужна. В отличие от Макса, который Вы тоже упоминали.
Виталий В. писал(а):
старались заказывать топовые игровые, а не проф. карты. Казалось бы, почему?
1. Цена. 2. Линейка Квадр (именно сейчас) смотрится относительно убого, а купить ФаеПро в России - тот ещё квест. 3. Чемпионом по производительности в GPGPU до совсем недавнего времени являлась одна игровая карта ценой до $500, обходящая в разы любых конкурентов. Даже сейчас её конкуренты стоят от $3000 и даже в перспективе не опустятся ниже $900.
Виталий В. писал(а):
игровые карты у Нвидии на голову выше профессиональных.
Пока дело не доходит до GPGPU или тяжёлых проектов в Максах/Кадах. У AMD, кстати, игровые карты для проф. задач тоже не очень радуют, но там хотя бы не такая жёсткая программная обрезка. Начиная с версии драйеров 10.х у AMD были стёрты многие различия между Radeon и FirePro. Далеко не все, разумеется.
Серьёзно? Искусственное ограничение драйверами в 500 тыс полигонов на оверлей
а можно пруфссылочки, если не сложно. для меня это важно, потому как хочется побольше универсальности. Кстати. На сайте nvidia в разделе по Квадре в ТТХ я не видел строчки про полигоны - http://www.nvidia.ru/object/product-quadro-5000-ru.html, может это как то через другую характеристику выражается?
ShadowTM писал(а):
GTX660Ti - Ну ооочень сомнительный выбор.
это самый оптимальный выбор на сегодняшний день из расчёта стоимости 1CUDA ,) Точнее самый - это 2-х гиговая карточка, но тут, как и с оперативкой - мало не бывает, больше на борту - более объёмные текстуры и в большем количестве, может оперативно использоваь карта .
ShadowTM писал(а):
О том, который свойственен многим скудоумным на этом форуме: восхвалять продукты одного вендора
я тут новенький, если что ,) Но АМД мне нравиться хотя бы потому, что хоть как то противостоит всеобщей гегемонии Интел. Я даже готов смирится с некоторой меньшей удельной мощностью, но если аналогичная по мощности система входит дешевле, то я всегда только "за" ,)
ShadowTM писал(а):
Пока дело не доходит до GPGPU...
тут, я так полагаю опечатка? Потому как 352 CUDA в Квадре 5000 ну явно проигрывают 1000-3000 CUDA у GTX
ShadowTM провёл тестирование в 7zip 1 поток. 1. разгон всех ядер до 4,6 ГГц. поток привязан к конкретному ядру. время архивирования 1014 секунд. 2. разгон всех ядер до 4,6 ГГц. поток без привязки. время архивирования 1009 секунды. 3. 1 ядро разгоняется до 4,6 ГГц, 2 и более - только до 3,3 ГГц, в состоянии покоя частота ядер опускается до 1,2 ГГц. поток с привязкой к конкретному ядру. время архивирования 1111 секунда. 4. 1 ядро разгоняется до 4,6 ГГц, 2 и более - только до 3,3 ГГц, в состоянии покоя частота ядер опускается до 1,2 ГГц. поток без привязки. время архивирования 1101 секунда. при работе турбо мы имеем отставание на примерно 9%. вызвано это скорее всего тем, что упала скорость работы с памятью (процессор - узкое место, его частота), а архиваторы очень любят быструю память.
а можно пруфссылочки, если не сложно. для меня это важно, потому как хочется побольше универсальности.
Почитайте. Ссылок можно найти очень много. Функиональность Квадр и Фаепро определяется не столько их возможностями, сколько искусственными ограничениями в GeForce и Radeon. Про полигональные ограничения можете вычитать в мануале к 3DS Max PD.
Виталий В. писал(а):
это самый оптимальный выбор на сегодняшний день из расчёта стоимости 1CUDA ,)
Это если забыть о том, что CUDA - мёртвый стандарт, а имеющиеся на рынке Кеплеры немощны в GPGPU. Оптимальный выбор - 7950. Если дороговато - 7870.
Виталий В. писал(а):
тут, я так полагаю опечатка? Потому как 352 CUDA в Квадре 5000 ну явно проигрывают 1000-3000 CUDA у GTX
Никакой опечатки. Во-первых, у Квадры на Ферми шейдерный домен работает на удвоенной частоте и нельзя просто сравнивать по числу ядер. Во-вторых, у GK104 искусственно снижено число вычислительных ALU в угоду игровой производительности. В итоге проигрыш в вычислениях в сравнении с картами AMD 5-7 кратный. Надеюсь, Титан выйдет не обрезанным по вычислениям, а нынешние 6хх, повторюсь, категорически неудачный выбор для вычислений. Да и под OpenGL там не всё так гладко, хотя и нет такого провала, как с вычислениями.
Просто идёт доказательство того, что при архивации привязка процесса к ядру не имеет никакой роли.
Т.е. не играет? В представленных результатах присутствует очевидная разница. То, что её нельзя назвать убедительной, объясняется наличием общей для всех ядер кэш-памяти.
Поправка: не играет подавляющей роли. Преимущество в охлаждении камня гораздо больше выигрыша в скорости. Если что, при жонглировании процессов между ядрами выигрывается 1-5 градусов даже под хорошим охладом.
_________________ Большой кот. Пушистый. Полосатый. Чёрно-белый.
Эта ссылка больше похожа на рекламный проспект в духе тех, что агитируют покупать исключительно MacPro, а не PC, с кучей доводов, конечно, в духе: надёжно, собранно специалистами, протестировано. Единственный весомый довод, который я там увидел - это отсутствие поддержки OpenGL у GTX, что явно не правда - ссылка на тест в котором видно, что есть. Вот здесь явно говорится про поддержку OpenGL 4.2 (доверия сайту продавца конечно не большое, но Вы же приводите текст от продавца, как пруф ,) Нашёл на скорую руку, итак времени на наш диспут сильно много трачу. Ну вот тут ещё немного о поддержке OpenGL у GTX, немного косвенно, но всё же. А Ваш "первоисточник", видимо, опирается исключительно на данные с оф.сайта, которому важнее правильно спозиционировать продукт и превести "правильные" ТТХ, а непраильные - опустить ,)
ShadowTM писал(а):
Про полигональные ограничения можете вычитать в мануале к 3DS Max PD.
,)) Знаете, поддержка CUDA в продуктах от Adobe тоже только для топовых карт, но легко включается "руками" для любых карт с CUDA, даже для GTS250, толку, правда, маловато, но факт - налицо.
ShadowTM писал(а):
если забыть о том, что CUDA - мёртвый стандарт
а доводы? он так же поддерживает OpenCL - используй наздоровье в чём угодно.
ShadowTM писал(а):
Оптимальный выбор - 7950. Если дороговато
Вы всё таки как то на своей волне. Почему это 10 т.р. за карту дорого? В приведёном мной выборе, несколькими постами выше - именно такая цена и фигурирует. По теме HD 7950: Вот здесь сравнивают как раз 7950 с GTX580, отрыв не очень большой, но сравнение некорректное - у HD 7950 - 1792 потоковых процессора (инфа отсюда), а у GTX580 - 512 и памяти в 2 раза меньше. Эту карту нужно сравнивать, минимум с GTX680 с 1536-ю ядрами.
ShadowTM писал(а):
Никакой опечатки. Во-первых, у Квадры на Ферми шейдерный домен работает на удвоенной частоте и нельзя просто сравнивать по числу ядер. Во-вторых, у GK104 искусственно снижено число вычислительных ALU в угоду игровой производительности. В итоге проигрыш в вычислениях в сравнении с картами AMD 5-7 кратный.
уж такую то (особенно про 5-7-ми кратное превосходство) явно нельзя без ссылок то давать.
И всё же, учитывая, что у Нвидиа есть поддержка OpenCL и её CUDA поддерживаются в GPU рендерах, а АМД-шные ядра в программах от Адобе не прикрутишь, хотя мне это нелегко признать, как стороннику АМД (тем более, если они более производительней), но изделия от Нвидиа выглядят более универсальными.
PS Конечно весь этот тред лучше бы переместить в отдельный топик с названием "Выбор двухпроцессорной платформы в качестве домашней рабочей станции" или что то типа того. Тут есть модераторы? А то как то на оффтопик смахивает.
Заблокирован Статус: Не в сети Регистрация: 30.10.2007 Откуда: Одесса
Виталий В. а мне думается что довольно близко к теме идет дискуссия. А в отдельный топик лучше не надо, никто ничего дельного не посоветует с вероятностью 90%
_________________ Если Бог за нас, кто против нас?(с) Библия В случае масштабных военных действий, эвакуация населения не только не производится, но и не планируется.
Я сам ссылку не читал, просто кинул первую попавшуюся, пробежавшись по пунктам и увидев, что есть основное. Про отсутствие OpenGL - конечно же, неправда. Но функциональность в OpenGL очень разная.
Виталий В. писал(а):
легко включается "руками" для любых карт с CUDA
3DS Max PD - продукт nVidia (Performance Driver) и ничего там руками включить не удастся уже просто потому, что его не удастся установить на GeForce. Если б дело было за Автодеск...
Виталий В. писал(а):
а доводы?
1. Его поддерживают только 14,8% из ныне продаваемых GPU. 2. Он проприетарен. Т.е. является платным в отличие от OpenCL. 3. С 2011-го не вышло ни одного нового массового продукта с использованием CUDA, что не удивительно, учитывая первые 2 пункта.
Т.е. мёртв не потому, что он мне не нравится, а объективно умер как распространённый фреймвок.
Виталий В. писал(а):
Вы всё таки как то на своей волне. Почему это 10 т.р. за карту дорого? В приведёном мной выборе, несколькими постами выше - именно такая цена и фигурирует.
Предвидя подобный ответ, я писал про 7870, которая, кстати, будет по меньшей мере в 1,5 раза быстрее 660Ti в тех задачах, о которых мы говорим.
Виталий В. писал(а):
Вот здесь сравнивают как раз 7950 с GTX580
Не совсем сейчас понял: Вам компьютер для игр нужен? Тогда к чему весь предыдущий диалог? А если нет - асбтрогируйтесь от игровых тестов - они к обсуждаемой теме даже косвенного отношения не имеют.
Виталий В. писал(а):
но сравнение некорректное - у HD 7950 - 1792 потоковых процессора
Принципиально некорректно пытаться сравнивать производительность карт разных производителей и архитектур по количественным параметром. Вы согласны с тем, что производительность ядер бывает радикально разной?
Виталий В. писал(а):
уж такую то (особенно про 5-7-ми кратное превосходство) явно нельзя без ссылок то давать.
#77
Тут показана производительность карты именно в тех режимах, которые используются при GPU рендере в 3D и при GPGPU в Премьере. И давайте разделять производительность в играх и в GPGPU - она, как мы видим не находится ни в какой пропорциональной зависимости.
Виталий В. писал(а):
АМД-шные ядра в программах от Адобе не прикрутишь
Прошу прощения. К какой это программе Adobe нельзя прикрутить? Я Вам по секрету скажу, что пара программ Adobe (After Effects например) в принципе работает только с GPU AMD. Временно, правда и поддержка nVidia скоро появится (или уже появилась - не слежу) - но как факт для Вас может быть любопытно.
Виталий В. писал(а):
но изделия от Нвидиа выглядят более универсальными.
Не в 2012-м году (исходя из того, что в 2013-м ничего пока не изменилось).
в отдельный топик лучше не надо, никто ничего дельного не посоветует с вероятностью 90%
ёпта, я чего зря потратил несколько часов? хотя, судя по первому посту, Вы, скорее всего правы...
ShadowTM писал(а):
А если нет - асбтрогируйтесь от игровых тестов - они к обсуждаемой теме даже косвенного отношения не имеют.
Вот честно, однажды я потратил целый день (и потом неоднократно пытался) найти тесты современных "игровых" карт, что бы там присутствовали проф. приложения, даже в порыве отчаянья - кому то в редакцию написал .) Но... всё что находил - либо чисто игровые тесты, либо единичные приложения. В итоге, плюнул и решил для себя ориентироваться на эти тесты лишь как ориентир по общей производительности и стал смотреть лишь на количество CUDA процессоров. Подскажите, если знаете ресурс, где тестят видеокарты с точки зрения проф. применения?
ShadowTM писал(а):
Вы согласны с тем, что производительность ядер бывает радикально разной?
В свете совсем недавних споров Intel vs AMD в этой теме - не очень. Хотя, если честно, до нашего с Вами диспута, даже не задумывался над тем, что бы углубится в изучение Radeon'ов
ShadowTM писал(а):
Тут показана производительность карты именно в тех режимах, которые используются при GPU рендере в 3D и при GPGPU в Премьере
Так, насчёт GPU рендера спорить не буду, там однозначно OpenCL, так что, да, а вот по поводу Премьера попрошу поподробнее. Потому как по тому что знаю я Adobe как раз таки заточен под CUDA, вот, к примеру официальный документ от Adobe по поводу поддержки OpenCL, я бегло пробежался, у меня сложилось впечатление, что этот самый OpenCL update только для Mac OSX.
ShadowTM писал(а):
Я Вам по секрету скажу, что пара программ Adobe (After Effects например) в принципе работает только с GPU AMD.
,)) Возможно Вы "немножко" перепутали вендоров? Потому как по моим данным всё с точностью до наоборот. Аппаратная поддержка GPU render'a появилась только начиная с CS6 и только при инициализации Ray-traced движка (до этого было только OpenGL ускорение при работе, если честно был и OpenGL render, но работал так криво, что его решили упразднить). Движок очень крут. Практически настоящее 3D (пока мы работаем только с шейпами - так вполне настоящее), только нет возможности наложить текстуры (я думаю они это придержали для CS6.5 или CS7 ,) только вот работает этот движок исключительно на CUDA (не, он может и на CPU работать, но только очень простые вещи - всё остальное вешает даже двух процессорные 6-ти ядерные ксеоны напрочь). Вот здесь Адобе пишет про поддержку Intel HD (если честно, я даже не знаю что это за зверь, это встроенное в CPU графическое ядро?), но вот тут в тех.спецификациях исключительно продукты от Nvidia.
содержание файла raytracer_supported_cards.txt (что бы по ссылкам не бегать)
GeForce GTX 650 Ti GeForce GTS 250 GeForce GTX 285 GeForce GTX 470 GeForce GTX 570 GeForce GTX 580 GeForce GTX 680 Quadro CX Quadro FX 3700M Quadro FX 3800 Quadro FX 3800M Quadro FX 4800 Quadro FX 5800 Quadro 2000 Quadro 2000D Quadro 2000M Quadro 3000M Quadro 4000 Quadro 4000M Quadro 5000 Quadro 5000M Quadro 5010M Quadro 6000 Tesla C2075
Первые две позиции это я сам дописал .) Это как раз то самое "включение руками" .))
В папке с Премьером, помимо этого файла, присутствует файл opencl_supported_cards.txt, но он совершенно пуст...
Подскажите, если знаете ресурс, где тестят видеокарты с точки зрения проф. применения?
Мне не удалось найти ни одного ресурса, где было бы собрано достаточное количество объективной информации. Допускаю, что он есть, но мне найти не удалось.
Виталий В. писал(а):
В итоге, плюнул и решил для себя ориентироваться на эти тесты лишь как ориентир по общей производительности и стал смотреть лишь на количество CUDA процессоров.
Такой подход, как я показал Вам выше - не имеет смысла.
Виталий В. писал(а):
Хотя, если честно, до нашего с Вами диспута, даже не задумывался над тем, что бы углубится в изучение Radeon'ов
Ещё раз взгляните на слайд, приведённый выше и задумайтесь.
Виталий В. писал(а):
я бегло пробежался, у меня сложилось впечатление, что этот самый OpenCL update только для Mac OSX.
Это не так. В CS6, разумеется, присутствует поддержка OpenCL, но надо признать, что Премьер - худший из современных редакторов в плане поддержки GPGPU. Как сроков внедрения, так и функциональности. Сам я по этой причине давно перешёл на PowerDirector и за $70 имею действительно мощный и стабильный инструмент, в котором GPU используется не только при рендере, но и для эффектов и, главное, не страдает качество картинки как в Премьере при использовании CUDA encoder.
Виталий В. писал(а):
Аппаратная поддержка GPU render'a появилась только начиная с CS6
Во-первых, я писал про продукты Adobe в целом, а не про Премьер в частности. Во-вторых, под МакОС OpenCL Премьер поддерживает очень давно, что, кстати, было причиной установки МакОС для многих, серьёзно работающих с видео. У меня сейчас тоже стоит на 2-м компе, но в основном для Файнал Кат, поскольку Премьер сейчас уже считаю громоздким, неуклюжим и тормозным пережитком, который нужен лишь для открытия старых проектов, созданных в нём по глупости.
Это известный ресурс. На него часто ссылаются, но там просто результаты синтетических тестов, а не практика. Тогда Вам, скорее, Спек смотреть надо.
Просто предположим (а мы знаем, что это так), что 7970 в 5 раз быстрее 680. Означает ли это, что операция с задействованием GPGPU на Radeon будет выполнена в 5 раз быстрее? Нет! Дело в том, что распараллеливанию поддаются не все задачи, какая-то часть будет последовательно выполняться одним ядром процессора и в зависимости от сложности нераспараллеливаемых задач преимущество в нашем случае может быть значительно меньшим или даже его не будет вообще. Как, например, в том же After Effects, в котором мощность GPU не играет вообще никакой роли - нужно, чтобы он просто поддерживал OpenCL. Или другая крайность - Maple. Там за счёт разницы в объёме памяти и специфики задач разница будет даже большей, чем в картинке, что я привёл выше.
Другими словами, хоть мы и выяснили, что производительность в OpenCL для Вас намного важнее игровой - надо понимать, что не всегда эта производительность даст пропорциональную разницу именно в Ваших задачах.
в том же After Effects, в котором мощность GPU не играет вообще никакой роли
Какой упорный .) Это если его не на полную использовать. Попробуйте Вы, наконец, поработать с 3D шейпами в CS6 в Ray-traced движке (в Classic 3D этого и не получится, там будут обычные плоские шэйпы в 3-х мерном пространстве) для проверки на CPU, на чём ни будь от nVidia с CUDA (и я Вас уверю, от количества этих самых CUDA производительность в этом движке - прямая (буквально), проверенно на практике, с замерами на разных машинах, не один раз) и на чём ни будь от AMD, хотя я почти на 100% уверен, что в последнем случае Вы не сможете включить GPU ускорение, но а вдруг .) Первые два пункта я проверял лично, а вот с последним я, пожалуй, доверюсь Вам. Я вполне серьёзно. Очень интересно. Раз у Вас установлен пакет от Adobe и, как я полагаю есть Radeon.
ShadowTM писал(а):
нужно, чтобы он просто поддерживал OpenCL
Боюсь, у него этого нет. В настройках GPU есть только openGL и CUDA #77
Вы меня не поняли. Я говорю о том, что в Ае производительность отнюдь не пропорциональная возможностям GPU. После определённого момента всё равно всё упрётся в производительность процессора. Причём, в производительность одного ядра, поскольку речь о нераспараллелливаемых процессах. Это, кстати, к вопросу о том, почему не Оптерон.
Виталий В. писал(а):
и я Вас уверю, от количества этих самых CUDA производительность в этом движке - прямая (буквально), проверенно на практике, с замерами на разных машинах, не один раз
Не сомневаюсь, что в рамках одной архитектуры так и есть и было бы странно, если бы не было так. Но например, 512 ядер в GTX580 будут по меньшей мере вдвое быстрее, чем 1344 ядер в 660Ti. Поверите на слово или надо доказать ссылками?
Виталий В. писал(а):
хотя я почти на 100% уверен, что в последнем случае Вы не сможете включить GPU ускорение
Почитайте по своей же ссылке.
Виталий В. писал(а):
Раз у Вас установлен пакет от Adobe и, как я полагаю есть Radeon.
Я сейчас не пользуюсь ничем от Adobe. Изредка Фотошопом на работе, а для видео, как уже говорил, перешёл на PowerDirector и это экономит сотни часов моей жизни ежемесячно, а так же нервы и более $200 разницы в стоимости нужных мне пакетов.
Виталий В. писал(а):
Боюсь, у него этого нет.
Не уверен. Хотя, проверить сейчас не могу, ибо у меня Ае сейчас не установлен. Точно включалось на МакОС и 5850, но это и не удивительно. Впрочем, даже если не включается - это вопрос времени, либо сторонних библиотек. Adobe - себе не враги.
какой то он не очень юзабилити .) залез в Мая бетчмарк, а там просто краткий спек лист и ссылка на сайт автодеска... ну ладно, при желании можно разобраться, главное, что бы там была нужная информация по картам. Спасибо.
Жёсткий оффтопик спрятан в спойлер .)
ShadowTM писал(а):
Вы меня не поняли. Я говорю о том, что в Ае производительность отнюдь не пропорциональная возможностям GPU.
а я Вам говорю как раз об этом. Ну реально брали и в лоб сравнивали. Загрузка GPU - под 100%, загрузка CPU - несколько процентов, причём такое ощущение, что это всякие фоновые задачи, не относящиеся к Ае. Тут, конечно можно предположить, что мы имеем дело, как раз с, обсуждаемой в этом топике, однопоточной нагрузкой на проц, которая "размазывается" диспетчером по имеющимся потокам. Похоже. Но! Когда мы этот же проект запустили на GTX590, то получили прямопропорциональное сокращение времени рендера. Картина загрузки была такой же - весь просчёт шёл на GPU. Дома я мог сравнить только свою старую GTS250 (G92b, 128 core), на которой работа в Raytraced была мукой и GTX650Ti (GK106, 768 core), в которой всё стало очень плавным и комфортным а один и тот же проект считался в разы быстрее. Уж точно не помню во сколько, но соизмеримо с количественной разницей по процессорам.
ShadowTM писал(а):
512 ядер в GTX580 будут по меньшей мере вдвое быстрее, чем 1344 ядер в 660Ti. Поверите на слово или надо доказать ссылками?
я помню мне говорили те, кто вникал в суть, что у 6хх серии сделали количество ядер больше, но медленней, в угоду тепловыделению, потому что 5хх серия была ну очень горячая. Не зря же их ПЕЧками прозвали.) Но мне говорили, что из-за подавляющего превосходства в количестве, а речь шла о GTX590 vs 690, т.е. 1000 CUDA против 3000, 690-ая в 2 раза быстрее 590-ой. Собственно из-за этой "несостыковочки" и решили, как мне сказали, по быстрому свернуть производство 5хх, что, в принципе, логично). А Вы утверждаете, что Универсальные процессоры на GF110 производительней GK104 почти в 5 раз. Так что, если не сложно, дайте ссылки на материалы для рассуждений. А то, может стоит купить эти 580-е, пока ещё есть в продаже.
Вот, кстати, ссылка на прямое сравнение ТТХ у GTX580, 660Ti и HD7950 - все стоят около 10 т.р., HD7950 - так, просто для примера, раз уж мы говорили о Радеонах. Так, чего там у 660Ti меньше, чем у 580 - вдвое меньше Блоков растровых операций (24 против 48), на треть меньше Частота шейдерного домена (1ГГц против 1.5 (кстати у HD совсем не ахти - 0,8ГГц)), в два раза меньше Разрядность шины памяти (192бит против 384 - тут я, конечно из-за экономии выбрал 650Ti, если взять 670-ю (+3 т.р.), там будет 256 бит, всё остальное - то же самое), как следствие - ниже пропускная способность памяти (144Гб/с против 192) и почти в 2 раза ниже энергопотребление (150Вт против 244). Теперь, чего больше - почти на треть выше Частота ядра (915МГц против 772), в два раза больше Количество текстурных процессоров (112 против 64 - это скорее, для игрушек, но у HD те же 112.), почти в 3 раза больше Количество универсальных процессоров (1344 против 512 (у HD ещё больше - 1792)), в 1.5 раза выше частота памяти (1.5ГГц против 1ГГц - наверное компенсируют низкую разрядность), и больше этой самой памяти (3Гб против 1.5).
И куда смотреть? Что именно фатально влияет на производительность?
ShadowTM писал(а):
Ае сейчас не установлен. Точно включалось на МакОС и 5850, но это и не удивительно.
Подождите! А мы про одну и туже версию говорим? Потому что всё, про что я говорил про заточенность под CUDA и поддержку полноценного, т.е. практически полность исключающего процессор, GPU рендера в Ae - это исключительно про версию CS6. До этого ничего подобного в Ае не было. Только OpenGL, но я про это уже говорил. Кстати, мне Премьер вообще категорически никогда не нравился. Даже изучил EDIUS. Но в CS6 они сделали более человеческий GUI и я теперь почти не вспоминаю про EDIUS .)
Может всё таки переберёмся в отдельный топик? А то уже как то и неловко обсуждать здесь графические карты и продукты от Адобе. Я на всякий случай ответ продублировал туда .) Так что можно отвечать там.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 48
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения