Member
Статус: Не в сети Регистрация: 20.04.2004 Откуда: Inner Mongolia Фото: 3
Позволю себе немного прервать потоки красно-зеленой ненависти ...
Вполне возможно что бенч "кривой", но просто стало интересно Прогнал у себя
Nai's Benchmark, edited by VultureX Device: GeForce GTX 760 (2.00 GB) Memory Bus Width (bits): 256 Peak Theoretical DRAM Bandwidth (GB/s): 192.256000
Allocating Memory . . . Chunk Size: 64 MiByte Allocated 30 Chunks Allocated 1920 MiByte Benchmarking DRAM DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):146.46 GByte/s DRAM-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):146.76 GByte/s ... DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):146.75 GByte/s DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):146.26 GByte/s DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte): 8.06 GByte/s DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte): 8.07 GByte/s
В принципе, учитывая отписку nVIDIA, логичный результат, так как GK104 в 760 имеет 6 SMX против 8 SMX в неурезанном 770, соответственно, возможны те-же глюки с кроссбаром
НО Process Explorer показывает что на Win7x64 DWM на 1920x1080 и включенном Aero забирает около 130MB VRAM Решил проверить дальше
3840x2160 (DSR) Aero потребление VRAM ~400MB
... DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):146.69 GByte/s DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte): 6.37 GByte/s DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte): 8.07 GByte/s DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte): 6.37 GByte/s
Попробовал уменьшить влияние DWM до минимума
800x600 Classic Shell потребление VRAM ~5MB
... DRAM-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):147.23 GByte/s DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):147.33 GByte/s DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):147.48 GByte/s DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):146.71 GByte/s DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):146.77 GByte/s
Известно что DWM не занимается композицией рабочего стола во время работы 3D приложений, но так как бенч на Куде, и не является сугубо графическим приложением, выходит что DWM не высвобождает занимаемую видео память при его прогоне
Вспомнил прописную для труЪ оверов истину что на рекорды бенчат на Classic Shell
Прогнал 3DMark11, по три раза, результаты усредненные :
FHD Aero P8110 800x600 Classic P8250
Разница довольно существенная, примерно как между вторым и третьим местом по HWBOT
Не видел сорсы WDDM, драйвера nVIDIA, да и не знаю много понял бы даже если бы и увидел, как и не очень понятна связь между не "стопроцентно симметричным" доступом к памяти на примере 970 против 980 ... но пока, если кому из владельцев 970 интересно - пусть проверит у себя
И будем ждать чего скажут инженеры
Добавлено спустя 1 минуту 12 секунд: Мля, пока тестил, kiberman уже опередил
Member
Статус: Не в сети Регистрация: 12.06.2011 Откуда: Лен.обл.
Hypnot1k писал(а):
Какой ЦП? Сколько памяти? Игра на SSD?
Забей. вот это видео. Watch Dogs dsr 4k: http://youtu.be/-KmW5HFfdt8 Я так сделал, чтобы драйвер думал что игра идет в 4к и выделял памяти больше 3500, соответственно игра идет в 2560х1440. А пишется в 4к, потому что шадоуплэй тоже думает что это 4к.
Заблокирован Статус: Не в сети Регистрация: 17.02.2013
grigosha писал(а):
Забей. вот это видео. Watch Dogs dsr 4k: http://youtu.be/-KmW5HFfdt8 Я так сделал, чтобы драйвер думал что игра идет в 4к и выделял памяти больше 3500, соответственно игра идет в 2560х1440. А пишется в 4к, потому что шадоуплэй тоже думает что это 4к.
Не понял, DSR имитирует 4К, пишешь геймплэй шадоуплэем (он думает что 4к так как включен DSR). А как тогда он захватывает в 3840x2160? Апскейлит оригинальные 2560х1440?
Member
Статус: Не в сети Регистрация: 12.06.2011 Откуда: Лен.обл.
Hypnot1k писал(а):
А как тогда он захватывает в 3840x2160? Апскейлит оригинальные 2560х1440?
Типа того, игра идет в 2к, а он думает 4к и также пишет. Это я для проверки, с фк4 так не прокатило, там именно дср 4к натуральный. 3800 памяти сожрал. Афб че-то не захотел с ним дружить, по gpu-z ориентировался в конце. http://www.youtube.com/watch?v=KowWcqyy2cw
Заблокирован Статус: Не в сети Регистрация: 17.02.2013
grigosha писал(а):
Типа того, игра идет в 2к, а он думает 4к и также пишет. Это я для проверки, с фк4 так не прокатило, там именно дср 4к натуральный. 3800 памяти сожрал. Афб че-то не захотел с ним дружить, по gpu-z ориентировался в конце. http://www.youtube.com/watch?v=KowWcqyy2cw
Ясно, а вот тут нагуглил почему не пашет Афб в фк4 В принципе в бф3\бф4 тоже не пашет, из-за кривого оригина, надо их оверлей отрубать... Юплей такой же кривой шлак)))
aasheron Автор теста выложил код на 3дцентре ещё несколько дней назад http://www.computerbase.de/forum/showthread.php?t=1435408 , просто новости только сейчас начали широко обсуждать. Так что если есть навыки и желание, можете сами всё проверить. Это же не тестовый пакет вроде 3ДМарка. По-поводу ГПУ и видеопамяти - после установки драйвера для видеокарты она начинает использоваться сразу же, особенно если включить что-то вроде DWM с Аэро или подобное. Так что нагрузка есть всегда в том или ином виде. А вообще современные видеокарты можно легко "обмануть" - заставить ядро работать на полной частоте даже с самой минимальной нагрузкой. Что этот маленький тест собственно и делает. Можете проверить это заблокировав повышение частоты выше, чем скажем, 2Д частоты.
Спасибо за ссылочку, там есть код.... Итак, что делает код. тестирует память? Фиг. При помощи CUDA создаются куски в данном случае в 128МБ, и ими пробуется заполнить память. А теперь ВНИМАНИЕ: для работы этого теста нужно де-факто запуск системы из-под GUI. И хоть тушкой, хоть чучелком в GUI-среде часть VRAM этой самой GUI используется. А что происходит, когда заканчивается VRAM? Правильно, часть VRAM освобождается выбрасыванием информации в буфер в оперативке. Это про "чистоту эксперимента". Самое смешное, что в данном случае, похоже, влияние имеет ещё и вычислительная способность ядер, потому существует и разница в скорости на "быстрых кусках". Так что с этим тестом понятно. Другой вопрос, и он, кстати, интересен - почему освобождение VRAM различно для 980 и 970.
Advanced member
Статус: Не в сети Регистрация: 16.05.2010 Откуда: Ленинград Фото: 559
grigosha Прочитайте внимательно ответ Нвидии чуть выше этой "надписи",о "пороге" адресации в 3.5,а вывод вполне логичен-он прямо "вытекает" из-за архитектурных особенностей обрезка.
Нравится что вы купили?- хвалите себя,и оправдывайтесь перед зеркалом-к слову и о энергопотреблении расскажите))-и какой вы молодец),но приписывать мне этим дурацким слэнгом,какие-то эмоции не надо-оставьте этот детский сад для других.
Что за дурная манера делать выводы по профилю-людей вы то-же по одежде классифицируете?,там только платформа обновлена.
Добавлено спустя 2 минуты 54 секунды: aasheron под гуи на интел платформе на "встроенке" без подключения дисплея к дискретке
Member
Статус: Не в сети Регистрация: 12.06.2011 Откуда: Лен.обл.
smash526 писал(а):
и инженеры ответили
Че то у вас с английским совсем скудно, или с пониманием текста. Вот что ответили нвидиа Курсивом их ответ
#77
И в ответе четко сказано: "Как вы можете видеть, есть очень небольшие изменения производительности на 970 по отношению к 980, при использовании 0.5 гб сегмента памяти. А то что ниже и то что вы все тут выдаете за ответ инвдиа, это всего лишь размышления тс.
grigosha Прочитайте внимательно ответ Нвидии чуть выше этой "надписи",о "пороге" адресации в 3.5,а вывод вполне логичен-он прямо "вытекает" из-за архитектурных особенностей обрезка.
Прочитал ответ Нвидии. Нет "порога адресации". Де-факто есть два массива, первый приоритетный - 3.5ГБ. Второй - дополнительный. Такая разница, которую показывают тесты, явно неадекватна. Но теперь точно понятно, в чем причина - при достижении 3.5ГБ этим CUDA-тестом, карта начинает сбрасывать информацию в оперативную память. Которая и так загружена посылкой данных в видеокарту (и обычной работой ОС). Причем ситуация усугубляется тем, что куски, которыми оперирует тест достаточно большие - 128МБ текстуры - это даже не редкость, это практически нонсенс. да, в сумме получится, что в критическом режиме (т.е. использовании огромных кусков данных, как в тесте и большой загрузке памяти) 970 начнет выгрузку данных в ОЗУ раньше, чем 980, что может дать небольшие просадки. И хотя это не сильно хорошо.... По идее, это должно правиться на уровне драйверов, в крайнем случае - BIOS видеокарты. Т.е. чтобы оба массива воспринимались как единое пространство.
Цитата:
aasheron под гуи на интел платформе на "встроенке" без подключения дисплея к дискретке
Можно просто запустить в текстовом режиме видеокарту, там влияние будет микроскопическим.
Advanced member
Статус: Не в сети Регистрация: 16.05.2010 Откуда: Ленинград Фото: 559
grigosha
Прекрасно вижу что они ответили-они всего-лишь подтвердили падение официально-да мол есть признаём,но результаты утилиты я вижу то-же. А чего вы хотели?! - чтоб они ещё и выводы такие написали?, и завтра они бы не работали в компании.
И вряд ли совпадение что "просадка" в прокачке данных идёт именно на этой границе-3328 Mb + -
В аккурат с исполнительными блоками в чипе -"13 SMM = 208 bit = 3328 Mb". Игры?-обойдут драйверами,попросят снизить настройки-если и будет "фриз" или "вывалится" приложение или драйвер-любители продукции Хуанга проглотят молча. а вот Сuda кодеров может огорчить сей факт, не едиными играми.
Member
Статус: Не в сети Регистрация: 20.04.2004 Откуда: Inner Mongolia Фото: 3
grigosha С английским проблем до сих пор не испытывал, с понимаем прочитанного вроде тоже Но если я осознанно покупаю что-либо, зная о характеристиках исходя из того то что мне говорят, и ожидаю определенной производительности, а в результате получаю "при превышении 3.5ГБ видеобуфера у вас еще немного упадет фпс/начнет фризить, но что же вы хотели, это же не ТОП" - извините, но начинают терзать смутные сомнения что меня просто нае**ли, немного, на самый кончик ...
Member
Статус: Не в сети Регистрация: 12.06.2011 Откуда: Лен.обл.
kiberman А в играх и нет проблем. Даже когда происходит задействование дополнительного блока в 500мб. О чем и сообщили в том посте, в чем я уверен, т.к сам проверял.
kiberman писал(а):
будет "фриз" или "вывалится" приложение или драйвер
До этого все было чудесно, но после информации о разделении памяти начнет отваливаться драйвер и вылетать. Похоже на сказку.
kiberman писал(а):
а вот Сuda кодеров может огорчить сей факт
А зачем они берут для таких целей эти карты? Непонятно.
Цитата:
"при превышении 3.5ГБ видеобуфера у вас еще немного упадет фпс/начнет фризить, но что же вы хотели, это же не ТОП"
на 1 процент?
Цитата:
Но если я осознанно покупаю что-либо, зная о характеристиках исходя из того то что мне говорят, и ожидаю определенной производительности
А чем тебя не устраивает производительность? Вообще смешно. Как тут любят слово обрубок и новый тренд "208 бит". Только вот обрубок 208 бит натягивает кипятильник от амд с 512 бит шиной, вам как? Не смешно самим? Что вас, грубо говоря, так жестко полоснули по бороде.
Member
Статус: Не в сети Регистрация: 06.11.2007 Фото: 9
У меня ситуация вот такая с msi 970 gaming: Кстати после закрытия теста памяти (с ним занята вся память), GPU-Z показывает, что занято 434Мб vram (открыты опера с кучей вкладок и еще 2-3 окна других программ...) Для меня тоже странно, что этот тест пытается выделить 3840 метров vram в то время как занято 434мб... хотя и просадка начинается с 2800... вобщем странно это все, поглядим как будет развиваться ситуяция дальше.
Nai's Benchmark Allocating Memory . . . Chunk Size: 128 MiByte Allocated 30 Chunks Allocated 3840 MiByte Benchmarking DRAM DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):148.72 GByte/s DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):148.57 GByte/s DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):148.56 GByte/s DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):148.79 GByte/s DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):148.91 GByte/s DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):149.22 GByte/s DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):149.14 GByte/s DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):149.16 GByte/s DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):149.30 GByte/s DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):149.38 GByte/s DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):149.56 GByte/s DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):150.44 GByte/s DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):150.96 GByte/s DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):150.29 GByte/s DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):150.89 GByte/s DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):150.42 GByte/s DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):150.25 GByte/s DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):150.80 GByte/s DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):150.53 GByte/s DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):150.32 GByte/s DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):150.92 GByte/s DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):150.46 GByte/s DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):46.22 GByte/s DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):27.29 GByte/s DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):27.29 GByte/s DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):27.29 GByte/s DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):22.19 GByte/s DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 7.07 GByte/s DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 7.51 GByte/s DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 5.93 GByte/s Benchmarking L2-Cache L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):415.46 GByte/s L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):415.29 GByte/s L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):415.35 GByte/s L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):415.35 GByte/s L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):415.40 GByte/s L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):415.31 GByte/s L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):415.21 GByte/s L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):415.42 GByte/s L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):415.28 GByte/s L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):415.49 GByte/s L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):415.29 GByte/s L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):415.11 GByte/s L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):415.37 GByte/s L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):415.34 GByte/s L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):415.50 GByte/s L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):415.21 GByte/s L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):415.26 GByte/s L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):415.40 GByte/s L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):415.35 GByte/s L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):415.27 GByte/s L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):415.42 GByte/s L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):415.28 GByte/s L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):149.21 GByte/s L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):90.90 GByte/s L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):90.90 GByte/s L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):90.91 GByte/s L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):74.58 GByte/s L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 7.40 GByte/s L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 7.54 GByte/s L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 5.91 GByte/s Для продолжения нажмите любую клавишу . . .
Member
Статус: Не в сети Регистрация: 20.04.2004 Откуда: Inner Mongolia Фото: 3
grigosha Может только мне кажется что падение скорости 1/8 части видеопамяти, как раз когда она нужна, в 26 (!) раз это нехорошо.
С SSD, например, все честно, при заполнении обьема скорость упадет, спасибо, предупредили, на 4к операциях будет раз в пять медленнее, спасибо, учту. А тут ...
Имхо, в этом случае nVidia выбрала тесты в которых падение производельности не так уж и велико. Вполне возможно что в других проектах, может даже в ближайшем будущем, разница будет больше. А с нынешней тенденцией, когда видеопамяти уже много не бывает, этот сценарий кажется мне не таким уж и нереальным. Конечно, всегда можно выпустить драйвер который попытается минимализировать эту возможность, только ведь осадочек все равно остается ...
Хорошо, давайте предположим что эти дополнительные 500мб, действительно хоть сколько-нибудь существенно повлияют на производительность в реальных приложениях, которым необходимы 4Гб VRAM. Отбросим 970-ю, заклеймим ее обрезком и забудем навеки. Хорошо. На что тогда проапгрейдить систему, чтобы получить схожее соотношение цены/производительности, как у 970? Цены возьму для сравнения свои, европейские, тем паче что они будут отвязаны от непостоянства курса рубля:
- Базовая GTX 970 cо стоковой СО от Zotac / Gainward: от 300 евро. - GTX 780: просмотрел все знакомые мне магазы - нет их, причем давно. Искать разве что на ибее... - Нормальная R290X 4Gb с нереф СО: от 300 евро. Хорошая карта, со своими плюсами и минусами. - Базовая GTX 780Ti: от 500 евро, будучи производительнее 970-й, увеличенная цена вроде бы оправдана, но с другой стороны, имея на борту 3Гб, в приложениях где "урезанная" 970-ка будет страдать от 4Гб нагрузки, Ti-шка просядет также, причем по полной. - Базовая GTX 980: от 500 евро.
Ну вот и спрашивается, что выбрать если не нужен топ за 500 еврорублей, а хочется спокойно поиграть в 3-его ведьмака (в котором нвидия своими фишками как всегда загубит всю производительность AMD карт), гта5, MGS5 (разрабы уже работают с нвидией), Battlefront (скорее всего с хорошей поддержкой от AMD, ибо фростбайт), Division (юбисофт - поддержка нвидии, на амд как обычно постараются забить), ну прочее, всего конечно не упомнишь. Так что обрезок или не обрезок, но если все же задаться целью найти видеокарту со схожими хар-ками что и 970-я, с сегодняшними ценами - выбора то почти и нет и это все даже если отбросить такие факторы как энергопотребление и разгон. Можно конечно заниматься ждунством, ждать новых карт нвидии или адм, или ждать когда игры начнут оптимизировать вместо того что бы забивать VRAM всем чем попало, речь не об этом, все это будет когда-то, с неизвестно какими ценами и сроками, речь про сегодняшний день и сегодняшние цены.
Последний раз редактировалось Cos1 25.01.2015 5:12, всего редактировалось 1 раз.
Advanced member
Статус: Не в сети Регистрация: 16.05.2010 Откуда: Ленинград Фото: 559
grigosha
Цитата:
До этого все было чудесно, но после информации о разделении памяти начнет отваливаться драйвер и вылетать. Похоже на сказку.
Отнюдь не маловероятная ситуация дропа перфоманса или вылета.
Почему это удивлять должно-на Ос к примеру по аналогии можно зафиксировать размер свопа,но если ядро ос посчитает нужным увеличить его,или записать данные за границу реального адресного пространства файла-bsod,и таких ошибок "пруд пруди"
Вся ирония ситуации- драйвер карты "считает" локальный видеобуфер не 4 гигабайта,как должен а приблизительно 3.3-3.5(13 SMM = 208 bit = 3328 Mb),отсюда инженеры и пишут о падении,откуда оно? если к примеру загрузка буфера 3.6-3.8 в тяжёлом приложении например и поидее всё "чудно" должно быть?-а всё что за этой границей пишется в нелокальную видеопамять-то-есть грубо в Озу,как в случае если бы верхняя граница в 4 гигабайта локальной памяти была бы исчерпана естественным образом.-мне лично такое не нужно).
Дело ваше,как и многих других что покупать и чем пользоваться)),лично я не хочу платить за Видеокарту с 3.3 гигабайтами Озу по факту-тут я согласен с пользователем smash526 -это "впаривание" посредственного продукта в красивой упаковке. Да и само наличие факта-купил карту,система настроена-а потом сотрудник Нвидии говорит-у вас "возможно" упадет производительность,вы возможно переплатили за 0.5-0.7 лишних Гигабайт-раз так говорят проблема есть,и инженеры прекрасно знают-РАЗ ПРИШЛОСЬ подтвердить,но дабы не лишится работы и не уронить акции компании просто признают без сгущения красок. А обычный потребитель будет винить в потенциальных фризах эту проблему,в независимости от того какая причина их вызывает,психологический фактор.
"Извините" пережду на встройке,что там полноценного будет.
А зачем они берут для таких целей эти карты? Непонятно.
Программист что под одну только 970-ку "божественную" пишет? , Титан? или Теслу с Квадрами? ,можно писать на номинальной "затычке" под широкий спектр оборудования,всестороннее тестирование другой вопрос. А что касется Гпу расчётов -Хуанг лавочку прикрыл и грубо говоря всё в потребительском сегменьте за исключением 5ой серии и титана,для расчётов -дно. Красные тут на "коне",Opencl потихоньку набирает обороты.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 20
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения