Заблокирован Статус: Не в сети Регистрация: 24.07.2013 Откуда: Riga. Latvija.
chelovek83 писал(а):
Пожалуй да тогда может как раз и PCI Express 4.0 появится и хватит пропускной способности. Не вижу никаких проблем чтоб делать пока максвелл на 28нм. 75х видеокарты показали что приблизительно при одинаковой площади на нём они в 2раза энергоэффективней и 35% производительней в сравнении с кеплером.
Процентов на 20% энергоэффективнее и процентов на 15% производительнее на равной частоте. Это если дружить с математикой и уметь критически мыслить, а не смотреть на цифры и графики, как баран на новые ворота. GF650ti- 122,2 вата(потребление системы в простое) против 118,3 у Gf750Ti, в нагрузке -217,1 против 188,6. То есть в простое 750ти энергоэффективнее 650ти на 3.2%, в нагрузке - на 15%. Короче,если сформулировать мысль правильно - то современная версия Maxwell(GM107) быстрее одноклассника Kepler(GK106) на 25-35% при равном энергопотреблении, или на 25-35% энергоэффективнее при равной производительности в ЛУЧШЕМ случае. ИЛИ-ИЛИ, а не И. Это если минимально напрячь мозги и взять калькулятор.
_________________ Учу пользоваться гуглом. Дорого. Учу понимать то, что нагуглили. Ещё дороже.
Последний раз редактировалось Forzay 25.02.2014 12:57, всего редактировалось 1 раз.
Member
Статус: Не в сети Регистрация: 23.12.2010 Откуда: ДНР, Донецк
Mortis_X писал(а):
может даже полностью использовать текстуру из ОЗУ
Вспоминаются времена AGP. Особенно смешно смотрелась игра когда мало оперативы и винда свапит текстуры на hdd Текстуры в игре так ме-е-едленно появляются на стенах под скрежет разрывающегося харда.
Koschey Bessmertniy писал(а):
как ни крути, а узким местом в подобной концепции всегда будет шина подключения для дискретной карты.
Смотря как пользовать. Если по мере игры потихоньку подгружать потенциально понадобящиеся в ближайшей сцене текстуры из опереативы, то скорости GDDR и DDR совсем не обязательно 1:1
Member
Статус: Не в сети Регистрация: 04.03.2012 Откуда: Новосибирск
Caspersky83 писал(а):
Вспоминаются времена AGP. Особенно смешно смотрелась игра когда мало оперативы и винда свапит текстуры на hdd Текстуры в игре так ме-е-едленно появляются на стенах под скрежет разрывающегося харда.
А я и не говорю, что так надо делать. Я говорю, что так можно(!) делать. А нафиг оно надо или нафиг не надо, это отдельная тема. Разумеется это медленнее.
А от этой технологии никто и не требует заменить видеопамять. Зато получить прирост производительности при подтягивании фрагментов всяких гигатекстур или ещё чего-то необходимого получить можно. Собственно данная технология призвана избавиться от задержек связанных с переключением потоков, синхронизацией задач графики с тем что творится на ЦПУ в этот момент и тому подобного. Ну это моя точка зрения.
Смотря как пользовать. Если по мере игры потихоньку подгружать потенциально понадобящиеся в ближайшей сцене текстуры из опереативы, то скорости GDDR и DDR совсем не обязательно 1:1
а разве в настоящий момент не хватает скорости для неспешного подгружения данных из ОЗУ?
Mortis_X писал(а):
А от этой технологии никто и не требует заменить видеопамять. Зато получить прирост производительности при подтягивании фрагментов всяких гигатекстур или ещё чего-то необходимого получить можно. Собственно данная технология призвана избавиться от задержек связанных с переключением потоков, синхронизацией задач графики с тем что творится на ЦПУ в этот момент и тому подобного. Ну это моя точка зрения.
тот же вопрос. так сильны задержки на процессоре при его посредничестве на выуживание данных из ОЗУ?! ИМХО, такой проблемы нет, как нет проблемы нехватки пропускной способности PCI-e 2.0 при текущем способе использования.
Member
Статус: Не в сети Регистрация: 13.10.2008 Откуда: Saint-Peterburg Фото: 3
chelovek83 писал(а):
Пожалуй да тогда может как раз и PCI Express 4.0 появится и хватит пропускной способности.
только 2.0 загружать научились, пропускной способности 3.0 ещё никто не использует толком. 4.0 на Вольте не понадобится, какой там Максвелл. P.S. фэйл вообще - с лета 2013 кормили "новостями" про 20 нм, а во факту пшик. Конечно Максвелл на примере 75х показал себя хорошо - 28 нм хорошо "вылизали", но обидно.
Member
Статус: Не в сети Регистрация: 27.04.2005 Откуда: Tomsk
Считаем на CUDA некую модель с частотой 100 Гц в квази реалтайм, так вот там эта частота для нас оказалась максимальной и именно из за операций чтения записи между GPU И CPU. Понятно дело что пока не оптимизировано по задачу, но если на хосте важны все данные, то уже уперлись. Про UVM от NVIDIA http://streamcomputing.eu/blog/2013-11-14/cuda-6-unified-memory-explained, суть в том что это какбэ "unified" память https://devblogs.nvidia.com/parallelforall/unified-memory-in-cuda-6, т.е. не в понятии от AMD с их APU где память то физически одна. Для CUDA все равно нужны пересылки данных, но в 6.0 RC это переложили с прогера на компилятор, и одной командой "cudaMallocManaged" память выделяется и на хосте и на карте, а пересылкой уже занимается драйвер. Как то так, поправте если кто уже пощупал CUDA 6 (сидим пока на 5.5) если я чего не прально сказал))
Добавлено спустя 6 минут 58 секунд: да и в доке по UMA сказано что с CUDA 6 это начнет работать "is supported starting with Kepler GPU architecture (Compute Capability 3.0 or higher), on 64-bit Windows 7, 8, and Linux operating systems (Kernel 2.6.18+)", т.е. это пока только программная фича.
Добавлено спустя 7 минут 22 секунды: да и не UMA а UM все во лижжж)) а это разные вещи
Добавлено спустя 6 минут 45 секунд: а про UMA просто кто-то додумал и сказал ай кака NIDIA плоха и не запилила в максвелл UMA.
и где эта увм будет находиться физически на видеокарте или на озу, или эта система объединит обе эти памяти, но тогда контроллер озу в проце не будет против? на китайском сайте оттуда эта новость написано "В соответствии с показанным, Максвелл архитектура будет поддерживать NVIDIA Unified технологии УВМ виртуальной памяти, но эта функция для профессиональных участников рынка"
Поэтому UMA будет доступна для чипов Нвидии, но не будет доступна для чипов сторонних вендоров. Т.е. связки с процессорами АМД и Интела не будут использовать общую память (оно там нафиг нужно), а вот встроенные ядра в видеокарты и SOC Нвидии вполне могут использовать. Также возможно Нвидия сможет проделать хитрость с общим использованием памяти в SLI-конфигурациях, правда это только в профессиоланльном сегменте, ибо пропускных способностей шины пока что недостаточно.
Можно выпускать лоу мидл вообщу без графической памяти.
это уже проходили. часть совсем младших решений gf6xxx и gf7xxx имели на борту совсем скромный объём памяти, но имели возможность резервировать для себя память в ОЗУ, как это делали встройки чипсетные.
Member
Статус: Не в сети Регистрация: 20.04.2012 Фото: 15
Mortis_X писал(а):
Да, именно так. Читаем и просвещаемся: http://ru.wikipedia.org/wiki/Прямо ... амятиЦП только отдает команду на обмен. В данном случае комманду на обмен будет отдавать ГП (GPU)
а раньше не так разве было, когда видюха из-за нехватки памяти грузила их в озу?
GF650ti- 122,2 вата(потребление системы в простое) против 118,3 у Gf750Ti, в нагрузке -217,1 против 188,6
Forzay писал(а):
в простое 750ти энергоэффективнее 650ти на 3.2%, в нагрузке - на 15%
Сам понял что написал? ты сравниваешь потребление системы! и деления потребления 118,3 у Gf750Ti на GF650ti- 122,2 вата НЕ будет равноценно делению потребления самих видеокарт! математик блин
Заблокирован Статус: Не в сети Регистрация: 21.06.2010 Откуда: СПб Фото: 3
Доктор лектор писал(а):
Ура цены на "радикальные" нерефы пошли вниз но 18К за 290 это дорого! Ждём понижения цены до 16К (399$ рекомендованная + 50$ за нереф = 449$ х 35,6р. = 15984 р.) и покупаем! Я присмотрел себе Сапфир 290 с тремя вентилями. Спросите почему? 1. Визуально очень понравилась 2. Самая тихая и эффективная система охлаждения 3. Никогда не имел Сапфир 4. Лучший разгон среди всех нерефов на данный момент
когда уже свершится этот день? п.с сапфир три-х не самая разогнанная с завода. 1 минус, очень длинная она
Никак не пойму почему все считают что как унифицированная память будет выступать именно ОЗУ. По-моему Nvidia четко дала понять что они собираются превратить свои карты в своего рода SOC на котором будут собраны стандартный GPU для графических вычислений + ARM ядра для вычислений общего назначения+ как общая память будет использоваться память на самом GPU (не зря же они хотят использовать в Volta вместо GDDR5 стаковую память c псп в 1.2 ТБ/c).
Member
Статус: Не в сети Регистрация: 23.02.2013 Откуда: г. Орел
только пока говорят о реализации СУДЫ то есть максимум физикс (то есть про текстуры можно забыть) а физиксу памяти то нужно - гроши. то есть вся эта возня чтоб обеспечить единый пул в системной - графической памяти только в приделах суды - а это никак не игровое применение.
_________________ Мертвый киберпанк с улыбкой мутанта... (:
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 21
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения