Часовой пояс: UTC + 3 часа




Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 295 • Страница 14 из 15<  1 ... 11  12  13  14  15  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 

Member
Статус: Не в сети
Регистрация: 29.07.2008
Откуда: Волгоград
ShadowTM Havok работает на любой платформе и даже на приставках. АМД сотрудничает для оптимизации работы на своей платформе, но ни как не для введения поддержки.



Партнер
 

Member
Статус: Не в сети
Регистрация: 25.03.2012
nDevices писал(а):
ShadowTM Havok работает на любой платформе и даже на приставках. АМД сотрудничает для оптимизации работы на своей платформе, но ни как не для введения поддержки.


Совершенно верно, Havok работает на любой платформе, но только на PC и Xbox он может получить аппаратное ускорение от GPU (в обоих случаях силами GPU AMD(ATI)).
Начиная с версии 4.0 (2006г.) Havok может использовать GPU пруф1 пруф2.
Начиная с 2011г. Havok усилиями Intel получил поддержку OpenCL. Впрочем, игр с этой версией движка пока крайне мало, а те, что есть, преимущественно представлены на Xbox. Например TimeShift


 

Member
Статус: Не в сети
Регистрация: 09.03.2010
Откуда: 161rus
ShadowTM
А что Нвидиа ВК не умеют работать с OpenCL? Конкретная работа будет зависеть от оптимизации\неоптимизации под конкретную железку, конкретного продукта.
Взять две примерно равнозначные ВК - одна АМД, вторая НВидиа. В играх "заточенных" под АМД будет лидировать АМД, и наоборот, в играх под НВидиа, те же самые карты поменяются местами и лучшие результаты покажет НВидиа ВК

_________________
AMD Ryzen 7 5700x @4.6GHz||ASUS TUF GAMING ||DDR4 2x16GB||ASUS Dual Evo RTX4060Ti
Intel Xeon E5-2690v4 @3.2GHz||X99 Jingsha D8 ||DDR4 4x8GB||ASUS Strix GTX1070


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
SlideX писал(а):
ShadowTM
А что Нвидиа ВК не умеют работать с OpenCL?


Теоретически будет, но на практике Intel скорее всего заблокирует поддержку карт Nvidia своим движком.

SlideX писал(а):
Конкретная работа будет зависеть от оптимизации\неоптимизации под конкретную железку, конкретного продукта.
Взять две примерно равнозначные ВК - одна АМД, вторая НВидиа. В играх "заточенных" под АМД будет лидировать АМД, и наоборот, в играх под НВидиа, те же самые карты поменяются местами и лучшие результаты покажет НВидиа ВК


Очень мало, кто из разработчиков игр может себе ещё и какие-то оптимизации позволить. Обычно делают, что получится, а уж будет работать быстрее на Nvidia или AMD - вопрос везения и особенностей движка/архитектуры. Сейчас, когда Nvidia отказалась от HotClocks ситуаций с сильно разной производительностью на картах двух разных производителей должно стать меньше.


 

Member
Статус: Не в сети
Регистрация: 09.03.2010
Откуда: 161rus
ShadowTM писал(а):
Очень мало, кто из разработчиков игр может себе ещё и какие-то оптимизации позволить.

Однако имеем то, что имеем.
Ни разу не приходилось видеть при старте игры логотипы типа "играй на Нвидиа" и тому подобные? - тут не просто проплаченная реклама, но еще и с большой вероятностью "подсказки" со стороны рекламодателя :-)

Добавлено спустя 35 минут:
ps - вот что умеет Нвидиа: API для вычислений на GPU: CUDA C, CUDA C++, CUDA Fortran, OpenCL, DirectCompute и Microsoft C++ AMP.
Кто там что будет блокировать если Интел даже видеокарт не выпускает :-)

_________________
AMD Ryzen 7 5700x @4.6GHz||ASUS TUF GAMING ||DDR4 2x16GB||ASUS Dual Evo RTX4060Ti
Intel Xeon E5-2690v4 @3.2GHz||X99 Jingsha D8 ||DDR4 4x8GB||ASUS Strix GTX1070


 

Member
Статус: Не в сети
Регистрация: 01.08.2010
Откуда: все сложно
SlideX писал(а):
Кто там что будет блокировать если Интел даже видеокарт не выпускает :-)

С учетом интегрированных графических ядер - Intel крупнейший поставщик видео с 48% рынка.

_________________
i5-10400F/ MSI Z590 Gaming Plus/ 32Gb Ballistix/ GTX 1660 / 970 EVO+860 EVO+7k1000.B+HD204UI/ Corsair RM550x/ AOC 24G2U5/BK


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
SlideX писал(а):
ps - вот что умеет Нвидиа: API для вычислений на GPU: CUDA C, CUDA C++, CUDA Fortran, OpenCL, DirectCompute и Microsoft C++ AMP.
Кто там что будет блокировать если Интел даже видеокарт не выпускает


Я этого не знаю, а лишь предполагаю. Это было бы логичным со стороны Intel. Про поддержку OpenCL картами Nvidia никаких вопросов нет. Скажу больше - карты Nvidia с OpenCL работают заметно лучше, чем с CUDA.

SlideX писал(а):
Кто там что будет блокировать если Интел даже видеокарт не выпускает :-)


Intel - крупнейший в мире производитель GPU. Он продаёт их больше, чем AMD и Nvidia вместевзятые.
И, приобретая Havok, тратя на него деньги и активно развивая OpenCL, Intel точно заботится не о благе Nvidia, а оптимизации под AMD делаются исключительно в рамках договорённостей 2008-го года. Уверен, что Intel сейчас не в восторге от того, что в виде Havok создаёт серьёзные конкурентные преимущества для продуктов главного и, по сути, единственного своего конкурента.

Novvv писал(а):
Похоже фанаты АМД так плотно засели в ветке по обсуждению инфы о картах НВидиа, что истинно уверовали в святость и непогрешимость собственных красных горячих кирпичей. Аминь.


Я так понимаю, кирпич, в том числе и в мой огород?
У меня было не менее 30-и карт Nvidia и не более 10 карт ATI. Всегда брались те карты, которые на тот момент были лучше.
Например, во времена линеек 2хх у Nvidia и 4ххх у ATI, я взял 275, когда выходили Fermi - я закономерно пересел на 5850, с выходом 2-й линейки Fermi был взят 570. После выхода 7ххх взял 7970 (хотя разум и подсказывал ограничиться 7950). С выходом 680 ничего не изменилось - разумным выбором остаётся 7950, или 7970, если не жалко денег. Если Nvidia, всё же, выпустит карту лучше, чем у конкурента - не задумываясь возьму её.
Фанатизм в этих вопросах неуместен. Надо выбирать из объективных параметров, а фанатизм оставить для футбольных матчей и религиозных оргий.


 

Member
Статус: Не в сети
Регистрация: 09.03.2010
Откуда: 161rus
ShadowTM писал(а):
Intel - крупнейший в мире производитель GPU. Он продаёт их больше, чем AMD и Nvidia вместевзятые.

Интел продает не видеокарты, а интеграшки GMA в чипсетах и интеграшки GPU в составе CPU, причем у некоторых эти интеграшки куплены просто из за того что их так просто не вытащишь из материнки или кристалла CPU, да и существенной производительности от них добиться не так просто - это вызовет катастрофическое увеличение ТДП чипсета\CPU, в ближайшее время они не заменят настоящие видеокарты (хотя, я думаю, об этом они даже во сне мечтают) :-)
Конечно, в своем сегменте эти решения очень выгодны и удобны. Но там где нужна реальная мощность правят АМД и Нвидиа (у которых видеоинтеграшки, впрочем, тоже неплохие) . Даже отобрав у них права на OpenCL положение не поменяется :roll: наверно поэтому Интел и не парится по этому вопросу.
--
Цитата:
С выходом 680 ничего не изменилось - разумным выбором остаётся 7950

Если собирать систему с нуля, или апгрейд с позапрошлой линейки вк, то я бы еще призадумался что купить... и сдается мне, после того как драйвера до ума доведут, а Нвидиа это умеет, расстановка сил может оказаться не в пользу АМД.

_________________
AMD Ryzen 7 5700x @4.6GHz||ASUS TUF GAMING ||DDR4 2x16GB||ASUS Dual Evo RTX4060Ti
Intel Xeon E5-2690v4 @3.2GHz||X99 Jingsha D8 ||DDR4 4x8GB||ASUS Strix GTX1070


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
SlideX писал(а):
Интел продает не видеокарты, а интеграшки GMA в чипсетах и интеграшки GPU в составе CPU, причем у некоторых эти интеграшки куплены просто из за того что их так просто не вытащишь из материнки или кристалла CPU


Рынок не учитывает того, каким образом были проданы GPU. Проданы? Деньги получены? Половину рынка заняли? Так какие вопросы? У меня вот есть пара GPU Intel. Я о них не мечтал, денег за них платить не хотел, но выбора у меня не было. Окажись AMD или Nvidia в ситуации, в которой могла бы так же насильно впихивать свои решения - они бы от подобных действий тоже не отказались.

SlideX писал(а):
да и существенной производительности от них добиться не так просто - это вызовет катастрофическое увеличение ТДП чипсета\CPU, в ближайшее время они не заменят настоящие видеокарты (хотя, я думаю, об этом они даже во сне мечтают) :-)


Ещё как мечтают. И мало кто сомневается в том, что они этого добьются. Технологическое отставание от AMD и Nvidia, конечно измеряется годами, но за последние пару лет они приближаются семимильными шагами и уже сейчас видеоядра Ivy заставляют воспринимать их всерьёз. Вы можете утверждать, что 8-е поколение графики Intel будет хуже миддлов AMD/Nvidia? Я вот не рискнул бы поставить на это деньги.

SlideX писал(а):
Конечно, в своем сегменте эти решения очень выгодны и удобны. Но там где нужна реальная мощность правят АМД и Нвидиа (у которых видеоинтеграшки, впрочем, тоже неплохие) . Даже отобрав у них права на OpenCL положение не поменяется :roll: наверно поэтому Интел и не парится по этому вопросу.


У Nvidia никаких "интеграшек", по сути, не осталось. Со всех ниш, где они пытались их продавать, их вытеснили AMD и Intel (чипсеты матерей) и Apple с Qualcomm (Tegra).
При этом, интегрированная графика - уже сейчас примерно 70% рынка, а к концу следующего года она, думаю, будет занимать не менее 90% рынка. Свою роль в этом сыграют увеличение продаж мобильных компьютеров относительно настольных и выход новых поколений APU. Так, например, AMD уже в этом году начнёт продавать процессоры со встроенными 7750. GPU такого уровня уже хватит большинству пользователей. Дискретные же карты, очевидно, довольно скоро станут редким аксессуаром наиболее дорогих игровых компьютеров. Не до конца понятно, где при таком развитии рынка GPU будет место Nvidia, которой будет попросту некуда вставлять свои карты (ну, кроме популярного русского ответа на такой вопрос).

SlideX писал(а):
Если собирать систему с нуля, или апгрейд с позапрошлой линейки вк, то я бы еще призадумался что купить... и сдается мне, после того как драйвера до ума доведут, а Нвидиа это умеет, расстановка сил может оказаться не в пользу АМД.


Дровами тут точно ничего не изменить. Выход нового чипа - возможно. И, если он выйдет и в этот раз окажется лучше решений конкурента - дай то бог! Я в первых рядах побегу его покупать. Я за конкуренцию, а не за то, чтобы было как в сегменте топовых CPU, где Intel позволяет себе не только драть многократную наценку, но ещё и насильно продавать встроенные видеоядра, которые вряд ли на этом этапе нужны покупателю, скажем, i7-2700K.


 

Member
Статус: Не в сети
Регистрация: 01.08.2010
Откуда: все сложно
Можно я в этом холиваре попишусь о своем? :D
ShadowTM писал(а):
встроенные видеоядра, которые вряд ли на этом этапе нужны покупателю, скажем, i7-2700K.

Как ни странно, но встроенное видеоядро оказалось очень кстати. К нему подключена панель. Т.к. видеокарта при подключении HDMI, даже если телевизор выключен выставляет завышенные частоты и начинает греться, а постоянно включать-выключать кабель напрягает.
А именно, 6870 в простое 100/150, но с HDMI кабелем - 300/1050 без вариантов, особенно непонятно зачем видеопамять выставлять на максимум. Поэтому HDMI работает от встроенного ядра.

_________________
i5-10400F/ MSI Z590 Gaming Plus/ 32Gb Ballistix/ GTX 1660 / 970 EVO+860 EVO+7k1000.B+HD204UI/ Corsair RM550x/ AOC 24G2U5/BK


 

Member
Статус: Не в сети
Регистрация: 09.03.2010
Откуда: 161rus
ShadowTM
Цитата:
AMD уже в этом году начнёт продавать процессоры со встроенными 7750

Не думаю, что это будет причина по которой кто-то пересел с Интел на АМД.
В сегменте ПК интеграшками пользуются явно не 70% пользователей, а гораздо меньше, даже если рыночный показатель будет 70% - вы и сами это понимаете.
i7-2700K без видео ядра будет дешевле - кому это надо? :D Проц то хороший, так что его все равно купят, даже по завышенной цене, даже если это самое видео ядро вам никогда не понадобится...
--
Цитата:
взял 7970 (хотя разум и подсказывал ограничиться 7950). С выходом 680 ничего не изменилось
Просто 680ка "чуток" опоздала с выходом на рынок, а так то они в одной весовой категории.

Artem_K
Цитата:
выставляет завышенные частоты

Это будет исправлено через 5лет в новой версии драйверов :D

_________________
AMD Ryzen 7 5700x @4.6GHz||ASUS TUF GAMING ||DDR4 2x16GB||ASUS Dual Evo RTX4060Ti
Intel Xeon E5-2690v4 @3.2GHz||X99 Jingsha D8 ||DDR4 4x8GB||ASUS Strix GTX1070


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
SlideX писал(а):
Не думаю, что это будет причина по которой кто-то пересел с Интел на АМД.


А я думаю. И Intel думает. И, главное, именно об этом думают арабские инвесторы AMD.
На сегодняшний день AMD, заметно отставая в настольных процессорах, умудряется держать свою долю рынка в этом сегменте во многом благодаря встроенным видеоядрам.
А когда выйдет Trinity - чем на него сможет ответить Intel? Понятно, что геймеры с деньгами их всерьёз воспринимать не будут, но в основном ценовом сегменте купить 4 ядра+7750 за $150 захотят многие, поскольку, чтобы получить ту же производительность на Intel - придётся потратить минимум $250.
Отсюда и беспрецедентная активность Intel по развитию своих GPU. Ведь если они не смогут сделать их конкурентоспособными, то их огромное технологическое преимущество с CPU может перестать означать огромное рыночное преимущество.

SlideX писал(а):
В сегменте ПК интеграшками пользуются явно не 70% пользователей.


Для рынка не имеет никакого значения, сколько процентов пользователей используют - важно, сколько купили.

SlideX писал(а):
i7-2700K без видео ядра будет дешевле - кому это надо?


Нет. Дешевле он не будет. Возьмём пример с 2550K. Хотите процессор с разблокированным множителем? Вот вам к нему видеоядро в "подарок" за $70 (условно). А, так Вы не хотите видеоядро? Тогда возьмите 2550K - из него мы для Вас за символические $15 видеоядро убрали. Как тут писали выше - наглость. А могут себе позволить - выбора у нас нет, будем хавать. Потому, что нет конкурента.
--
SlideX писал(а):
Просто 680ка "чуток" опоздала с выходом на рынок, а так то они в одной весовой категории.


Да ей бы даже такое опоздание простили при той же производительности.
Но вспомните, как представители Nvidia уговаривали потенциальных клиентов подождать.
Была грязнейшая риторика, достойная выборов в Нигерии. Над 7970 откровенно насмехались и обещали разорвать её просто в клочья. За неделю до выхода выпустили слайд, в котором преимущество Кеплер доходит до 4-х кратного. А что на деле? Никому не надо напоминать, что даже паритет весьма сомнителен.
Лично я утратил любые остатки уважения к Nvidia после их поведения. Думаю, в этот заход они потеряли много (нет, не фанатов - их так просто не прогонишь), но сторонников и постоянных покупателей.

SlideX писал(а):
Это будет исправлено через 5лет в новой версии драйверов :D


Думаю, что в текущей версии драйверов это сделано осознанно и на то есть какие-то причины.
Обвинять AMD в кривости драйверов можно только от незнания реальной ситуации по энерции из 2005-го года.
Сейчас ситуация с драйверами, скорее, обратная. Все скандалы последнего времени с драйверами были именно вокруг Nvidia. Это они сейчас позволяют себе выпускать не беты с откровенными косяками. Все же новости о косяках драйверов AMD последнего времени были связаны только с CF.
Хотя, лично меня просто выводит из себя ситуация, когда AMD при подключении к панелям и ряду мониторов выставляет масштабирование. Я вынужден лезть в ССС и каждый раз масштабирование выключать. А если я не хочу ставить ССС? А я не хочу.
Впрочем, у Nvidia "врождённый", раздражающий лично меня косяк намного жирнее. Специалисты Nvidia, видите ли считают, что человеческий глаз не способен увидеть разницу в диапазоне между 16-235 и 0-255! А я, плять, вижу! Я не для того покупаю дорогие мониторы или телевизоры с LED подсветкой и бешеной контрастностью, чтобы видеть серый цвет вместо чёрного! Да и остальные цвета выглядят блеклыми по сравнению с полным диапазоном. При этом, включить на Nvidia полный диапазон представляется возможным не всегда и, например, при просмотре видео надо доходить до абсурда - за счёт усилий шейдоров GPU расширять диапазон, который искусственно обрезан драйверами.
Так что кто из производителей больше косячит с дровами - ещё большой вопрос.

Добавлено спустя 4 минуты 53 секунды:
Artem_K писал(а):
Как ни странно, но встроенное видеоядро оказалось очень кстати. К нему подключена панель.


Кстати оно только до того момента, как Вы решите посмотреть BD3D.
Встроенное ядро не может нормально его декодировать и происходит значительная загрузка CPU.
Нагрев и энергопотребление при этом куда сильнее, чем на видюхе при выставленных дровами частотах.
Хотя, если мать на Z68, наверное можно добиться ситуации, при которой видеопотоки будут аппаратно декодироваться Вашим Рэйдоном, а выводиться на панель через выход встроенного видеоядра.


 

Junior
Статус: Не в сети
Регистрация: 18.10.2010
ShadowTM
Вы путаете два разных рынка: дискретных видеокарт и интегрированных видеоядер. Это как сравнивать легковые автомобили и тяжёлую строительную технику — и на том и другом можно ездить, но сильно по-разному, основные задачи отличаются.

Или ещё пример, более подходящий к нашему случаю: региональные (интегрированное видеоядро) и дальнемагистральные (дискретное) самолёты. Вторые могут выполнять задачи первых, но использовать их для этих целей менее выгодно. Первые же задачи вторых (дальние межконтинентальные перелёты) не выполнят, зато для своего рынка (региональные перелёты) удачно подходят.

Здесь ещё надо добавить, что купить процессор Intel без видеоядра сейчас значительно сложнее, чем с ним. Это дополнительная опция их платформы, на цену для конечного пользователя не влияющая, что можно как раз увидеть в случае с 2550K, да и вообще, исторически — как, например, поддержка инструкций SSE4.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
BSE писал(а):
Вы путаете два разных рынка: дискретных видеокарт и интегрированных видеоядер.


Вот как раз я и пытаюсь объяснить, что рынки не разные. Вот категорически не разные и всё тут.
Если бы встроенные и дискретные решения не могли бы конкурировать друг с другом - тогда бы можно было говорить о разности рынков. Но это не так!
Дело в том, что пользователю всё равно, встроенное у него видеоядро или дискретная карта, если решение соответствует его задачам за его деньги.
Ещё несколько лет назад интегрированное видео могло быть использовано только для "офисных" задач и толком не подходило даже для просмотра фильмов. С появлением встроенных R600, NV 6 и 7 серии, а так же GMA 3xxx пользователи встроенных карт получили возможность комфортно просматривать HD-видео и играть в не очень требовательные игры. Для многих было достаточно и этого. В прошлом же году, с выходом Llano и SandBridge огромное число пользователей и вовсе было избавлено от необходимости покупки дискретной карты - стало возможно комфортно просматривать видео любого стандарта, играть в игры среднего уровня и даже пользоваться GPGPU. Сейчас выходят Ivy Bridge и Trinity, а это в очередной раз сильно уменьшит число поводов для многих пользователей задумываться о дискретных решениях.

Т.е. интегрированное видео поколение за поколением неминуемо вытесняет видео дискретное. Главные усилия в этом направлении предпринимает Intel и трудно сказать, что безуспешные. Успех их был бы ближе, будь у них технологии AMD или Nvidia в области "видеостроения", но даже без них они успешно развивают и продают свои поделки. Представляете, что уже сегодня явила бы нам AMD, будь у них литография Intel? При наличии 22нм техпроцесса и FinFET чем не реально создать APU с 4-6 ядрами и, скажем, 7870 на борту?

Безусловно, полностью дискретное видео в ближайшее время вытеснено не будет, для этого развитие APU должно быть не эволюционным, а, хотя бы с маленькими революциями, но и говорить о том, что рынки разные и не пересекающиеся - уже на сегодняшний день категорически неправильно.

BSE писал(а):
Это дополнительная опция их платформы, на цену для конечного пользователя не влияющая, что можно как раз увидеть в случае с 2550K


Что значит не влияющая? Встроенное ядро Ivy, например, по слухам имеет себестоимость в районе $70. И, даже если слухи преувеличены, любому очевидно, что не $5 оно стоит. А на конечную цену для покупателя - да, вероятно оно не влияет. Нынешние цены на топовые линейки процессоров Intel продиктованы не какими-то их объективными характеристиками или себестоимостью, а фактическим отсутствием конкуренции в данном сегменте.

BSE писал(а):
да и вообще, исторически — как, например, поддержка инструкций SSE4.


Я бы не стал сравнивать SIMD и видеоядро, имеющее свой заметный транзисторный бюджет.


 

Junior
Статус: Не в сети
Регистрация: 22.03.2012
ShadowTM писал(а):
Впрочем, у Nvidia "врождённый", раздражающий лично меня косяк намного жирнее. Специалисты Nvidia, видите ли считают, что человеческий глаз не способен увидеть разницу в диапазоне между 16-235 и 0-255! А я, плять, вижу! Я не для того покупаю дорогие мониторы или телевизоры с LED подсветкой и бешеной контрастностью, чтобы видеть серый цвет вместо чёрного! Да и остальные цвета выглядят блеклыми по сравнению с полным диапазоном. При этом, включить на Nvidia полный диапазон представляется возможным не всегда и, например, при просмотре видео надо доходить до абсурда - за счёт усилий шейдоров GPU расширять диапазон, который искусственно обрезан драйверами.
Так что кто из производителей больше косячит с дровами - ещё большой вопрос.


Спасибо за разъяснения, а то Я первый раз взял карточку АМД так в Автокаде все не мог понять что черный фон стал "сочно" черным, думал что у меня глюки пошли.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
Nik111 писал(а):
Спасибо за разъяснения, а то Я первый раз взял карточку АМД так в Автокаде все не мог понять что черный фон стал "сочно" черным, думал что у меня глюки пошли.


Очень распространённая ситуация.
Многие счастливые обладатели карт Nvidia и понятия не имеют о том, что видят не всю картинку, а лишь 90% от неё, пока не пересядут на AMD и не увидят черный вместо серого и в принципе заметно более высокую насыщенность.
Впрочем, это не должно быть доводом за выбор карты того или иного производителя. В большинстве случаев в дровах Nvidia можно включить полный диапазон, хотя и вызывает недоумение, почему по умолчанию он обрезан.


 

Junior
Статус: Не в сети
Регистрация: 18.10.2010
ShadowTM писал(а):
Вот как раз я и пытаюсь объяснить, что рынки не разные. Вот категорически не разные и всё тут.

Рынок игровых видеокарт
#77


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
BSE

Что за бред???
Какое отношение эта картинка имеет к сегодняшнему рынку видеокарт???
Там внизу есть кнопочка Click for more info. Так вот, нажав её, Вы увидите, что 70% карт, которые представлены в статистике, были куплены до 2011г (очевидно по моделям и поддерживаемым API).
Так что эта картинка к сегодняшнему рынку не имеет даже косвенного отношения.

А вот исследования JPR, которые реально что-то отражают:

#77


 

Member
Статус: Не в сети
Регистрация: 16.05.2004
Откуда: Алматы
Считать каждый процессор со встроенной видеокартой, как видеокарту - неправильно!
Тем более, как игровую видеокарту!
Поэтому предыдущая картинка более верно отражает положение дел.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
Ultra_X писал(а):
Поэтому предыдущая картинка более верно отражает положение дел.


Ну да.
За 2010-й год.
Когда было куплено 70% видеокарт, которые в статистике.


Показать сообщения за:  Поле сортировки  
Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 295 • Страница 14 из 15<  1 ... 11  12  13  14  15  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 26


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan