Member
Статус: Не в сети Регистрация: 12.06.2006 Откуда: новая Москва Фото: 3
(но итоги этого эксперимента она сейчас считает неудовлетворительными)ссылка из новости. Конечно хитрые китайцы за них все допилили и начали свою денежку иметь.
1. Аппаратное перекодирование видео с помощью Qick Sync быстрее, чем CUDA в GTX660 (при этом затраты электроэнергии ниже раз в 5, а то и больше).
Можете подробнее рассказать? Не ссылками на статью, а реальными примерами. Как вообще можно на практике эту технологию применить и какой в этом может быть смысл.
чё про неё рассказывать, костыльный транскодинг, с потерей 40% качества
Нет там никаких потерь качества. Во всяком случае не больше, чем ffmpeg при том же битрейте. И уж точно качество там намного выше, чем при использовании CUDA Encoder. Проблема в другом: QuickSync - мёртворождённый и сугубо маркетинговый костыль, неприменимый в реальной жизни. Из-за того, что:
а) поддерживает ничтожное количество декодеров и профилей. б) работает несравнимо медленнее GPGPU декодирования с помощью даже средней современной дискретки (хотя пример с 660 корректен, но это только из-за беспомощности всех Кеплеров, кроме GK110 в GPGPU). в) существует 2,5 софтины, в которых технологию можно задействовать и развивать её там никто не планирует.
Фактически технология пригодна лишь как игрушка на нутбуке без дискретки. Во всех остальных случаях совершенно бесполезна. А, нет, вру, есть ещё одно применение: вылезти на форум и рассказать, какой волшебной технологией оснащён его процессор и как она повседневно используется.
ShadowTM , примерно все так и есть. Качество повыше, чем дает CUDA. И софта с поддержкой QuickSync крайне мало. Пришлось на Эдиус перейти. Но у меня оно работает, я доволен. А что там дальше будет, поживем - увидим.
Member
Статус: Не в сети Регистрация: 23.02.2013 Откуда: г. Орел
Цитата:
Intel всерьёз обсуждала возможность возвращения в сегмент дискретных видеокарт со своими ускорителями Larrabee... Ближе к моменту анонса ускорителей Xeon Phi выяснилось, что ориентировать их на работу с графикой нецелесообразно, и соответствующие продукты будут заниматься ускорением вычислений.
проект Larrabee - и был графической картой, а вот хеон фи никогда и не планировали использовать как видеокарту это сразу проект для вычислений был. кстати это уже было ясно к первому анонсу Larrabee интел тогда прямо сказал что это вычислитель и не более. проект Larrabee был закрыт на его останках был создан зеон фи - и это говорят представители интел. так что какая то фигня непонятная написана.
_________________ Мертвый киберпанк с улыбкой мутанта... (:
Member
Статус: Не в сети Регистрация: 28.08.2011 Откуда: Красноярск
Intel решает противоположную задачу - склонить как можно больше пользователей к отказу от дискретной графики начального уровня.
а АМД решает задачу, как сохранить продажи дискреток прошлого поколения и при этом не ущемляя спрос на интегрированную графику. АМД будет развивать dual graphics. Спрос на старые модели сохранит. Intel ни когда не догонит по производительности графической системы.
а вот чем будет заниматься nvidia??? Заключили бы соглашения с INTEL и придумали чет подобное
про то что dual graphics не фантан, это понятно но доделать и допилить её можно, а потенциал у данной технологии хороший
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 11
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения