Часовой пояс: UTC + 3 часа




Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 80 • Страница 4 из 4<  1  2  3  4
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
На каждый из графических процессоров придётся по 3 Гб памяти типа GDDR5,

5 баллов. Хоть кто-то думает о покупателях. Правда напаять N количестов чипов на 6 гб будет сложно, размеры карты будут большие. Такие карты обычно покупают на долгий период или под большие разрешение или под 3D Vision. Представляю владельцев GTX 590 с 3 гб (по 1,5 на каждый процессор). Карта мощная, а максималки в некоторых игры уже выставить не получается.



Партнер
 

Member
Статус: Не в сети
Регистрация: 25.09.2008
Откуда: Україна Одеса
Выпустят. А реально на полках будет уже ближе к 8ххх серии!
Смысл-то ГДЕ???
ИМХО смысла нет. Можно будет взять с разницей в пару мес 8970... Ещё и дешевле 999у.е.

Добавлено спустя 1 минуту 42 секунды:
Mortalz666 писал(а):
у меня вообще 1 гб, у друга 512мб и ничего хватает
по моему 2 в самый раз сейчас а 3 выше крыши

Если 1024х768 то да:-) 512 Вам хватит :lol:

_________________
Русский военний корабль, иди на@й!
Слава Україні! Смерть ворогам!


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
no_fate писал(а):
людей, которым хоть где то необходимы эти вычисления крайне низок и не может идти ни в какое сравнение с сообществом геймеров


К сожалению, не могу найти ссылочку.
IDC, кажется, проводили исследование на предмет целей использования приобретённых GPU.
Так вот, не помню точно всех цифр, но примерно так:
- для игр купленные GPU использовали 9% респондентов.
- для GPGPU - примерно 4%.
- для просмотра видео - более 50%, точную цифру не помню.

Понятно, что исследование не может претендовать на всеобщую статистику из-за ограниченности выборки, но очевидны 2 факта:
1. Соотношение геймеров и пользователей GPGPU отнюдь не так дифферентно, как пытаются представить отдельные люди.
2. Выходит, что способность GPU качественно выводить видео в разы важнее его игровых и вычислительных возможностей :)
И тут надо признать, что с GK104 Nvidia догнала (хотя и осталось отставание в паре мелочей) AMD в технологиях воспроизведения видео и абсолютному большинству пользователей стало всё равно, что покупать. Берём то, что дешевле :)


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
ShadowTM
Этими вычислениями и GTX480/580 не блестали. Честно говоря я не понимаю, когда кричат про вычмисления. Конечно, когда карта унивирсальная это хорошо, но большиство покупает карты для игр.

Цитата:
- для игр купленные GPU использовали 9% респондентов.


предположу, что цифра иная - 90-95%. Сложно представить человека, который покупает GTX 580/680 для других занятий.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
Этими вычислениями и GTX480/580 не блестали.


Блестали или нет - вопрос спорный. Уж точно показывали достойный уровень без отставания в разы от AMD. А, принимая во внимание CUDA, которая в то время была ещё актуальна, можно было смело называть Nvidia лидером в GPGPU. Впрочем, она не стесняясь себя им и называла.

pa_ul писал(а):
но большиство покупает карты для игр


Речь шла не про карты, а о GPU в принципе. Впрочем, даже среди дискреток говорить о большинстве для игр я бы тоже не стал. Более половины рынка, всё же, составляет корпоративный сегмент, в котором игровые возможности карт мало кого волнуют.

pa_ul писал(а):
предположу, что цифра иная - 90-95%.


Ну, это Вы не подумав.
На сегодняшний день, как минимум, 65% продаваемых GPU - интегрированные. Половина из оставшихся отправляется в корпоративный сегмент. Уже остаётся примерно 15%. Треть из них покупается не для игр, а для интернета, видео и прочих 2D задач. Так что 9% - реальная и очень правдоподобная цифра. Если и есть разница с реальностью - в рамках погрешности.

pa_ul писал(а):
Сложно представить человека, который покупает GTX 580/680 для других занятий.


Процент покупателей таких карт - ничтожная погрешность на общем фоне. Предположу, что все топовые карты Nvidia и AMD вместе взятые не составляют и 1% рынка.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
ShadowTM
Блестали или нет - вопрос спорный.

Вовсе нет. В тестах по вычислениям участвовала также GTX 580. Там видно, что GTX 580 в большинстве случаев работала меньше 6970. 7970 увеличила вычисления, а 680 по сравнению в 7970 и 580 почти нет. на хобите всё очень понятно расписано.

Цитата:
Более половины рынка, всё же, составляет корпоративный сегмент, в котором игровые возможности карт мало кого волнуют.

Корп. сегмент не покупает карты уровня 670/680/7950/7970. Там используются карты начального уровня или граф. ядро процессора и с вычислениями так не ахти. а проф. сегмент по работе с графикой и т.д. купит свою нужную карту.

Цитата:
Процент покупателей таких карт - ничтожная погрешность на общем фоне. Предположу, что все топовые карты Nvidia и AMD вместе взятые не составляют и 1% рынка.

Я имел ввиду покупку топовых карт для иных целей, чем игры. Конечно, наиболее популярные карты среднего сегмента 560/7870. Сейчас игровая направленность во всем, начиная я видеокарт и заканчивая процессорами интел.
А вообще по проценту скажу так, я смотрю профили людей и могу высказаться, что для России этот процент намного больше. Почти у каждого топовая карта из верхнего ценового сегмента. А про апгрейды при выпуске каждого поколения процессоров или чипсетов я просто молчу.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
GTX 580 в большинстве случаев работала меньше 6970. 7970 увеличила вычисления, а 680 по сравнению в 7970 и 580 почти нет. на хобите всё очень понятно расписано.


Утрируете.
Там всё далеко не так однозначно.
Помимо абсолютной вычислительной мощности существует вопрос применимости этой мощности и поддержки нужных API.
На момент, когда были актуальны карты поколения Fermi, вычисления с использованием CUDA были значительно более распространены, чем вычисления с использованием остальных API вместе взятых.
В итоге, даже при небольшом проигрыше в номинальной мощности со стороны Nvidia именно их карты были очевидным и однозначным выбором для тхе, кто использовал GPGPU. Я, например, перепробовав массу вариантов, остановился на 570 и был ей очень доволен.
Совсем иная ситуация сейчас. С распространением OpenCL поддержка GPGPU появляется во всех видах приложений, от профессиональных до плееров и броузеров. При чём, не имеет значения, GPU какого производителя у Вас стоит. Сейчас на первый план выходит именно его вычислительная мощность.

Странность ситуации с Nvidia заключается в том, что вычисления силами GPU в нашу жизнь ввели они, проделали для этого огромную работу и довольно большая часть пользователей уже просто не мыслит себя без них. Nvidia долгое была безусловным лидерам как в технологиях GPGPU, так и в производительности. Даже в моменты, когда карты Nvidia задерживались с выходом (Fermi) и лидерство в игровых решениях было за AMD - Nvidia заявляла, что это не страшно, поскольку у них есть CUDA. Причём, было это тогда, когда все приложения с поддержкой этого API по пальцам одной руки пересчитать можно было.
Теперь же, когда число приложений, зависимых от GPGPU давно перешагнуло число пальцев на всех конечностях и стремится к числу волос довольно волосатого человека, Nvidia якобы специально отказывается от высокой производительности в вычислениях.
Ситуация с маркетинговой точки зрения очень и очень странная, поскольку абсурдно предположить, что Nvidia решила сфокусироваться исключительно на рынке игровых решений. Дело в том, что они и без того были вытеснены практически со всех рынков, кроме рынка GPU, на котором имеют сейчас довольно позорные 15%. Причём, на этом рынке они могут быть игроком лишь в дискретном сегменте. Так каков смысл искусственно ограничивать привлекательность своего товара? Причём, в тех его характеристиках, на разработки и пиар которых были пущены космические деньги? Нет. Добровольно это точно сделано не было. Сдались, молча признав победу AMD? Тоже сомневаюсь.
Просто выпустили тот продукт, который смогли, который хоть в чём-то (хотя бы в игрушечках) смог не проиграть топу конкурента. Дыру в рынке залепили, а теперь (хочется на это надеяться) занимаются разработкой полноценного GPU заместо этой позорной заплатки.

pa_ul писал(а):
Корп. сегмент не покупает карты уровня 670/680/7950/7970.


Во-первых, ещё как покупает. В разного рода дизайнерских студиях, КБ и прочих организациях, где для работы нужны мощные GPU, люди их не из дома приносят. Они именно закупаются и, будучи руководителем корпоративного направления довольно крупной технотороговой компании, уверяю Вас: топовые карты в корпоративном сегменте продаются, как минимум, не в меньшем числе, чем в розничном.
Во-вторых, в розничном сегменте процент таких карт в численном выражении весьма и весьма ничтожен. Не менее 90% продаж всегда составляли и будут составлять карты розничной стоимостью до $250.

pa_ul писал(а):
для России этот процент намного больше


Россия - вообще удивительная страна. Например, у нас, чтобы обустроить рабочее место дизайнера интерьеров, достаточно потратить $2000. Трата большей суммы - излишество. В Европе только для того, чтобы дизайнера обеспечить минимумом функционала, чтобы он просто мог худо-бедно выполнять свои функции - надо потратить от $10 000. Причём, 95% уйдёт на покупку ПО. Так что я бы не стал сравнивать Россию с остальным цивилизованным миром.

pa_ul писал(а):
Почти у каждого топовая карта из верхнего ценового сегмента.


Ну конечно! В России 70млн 7970 и ещё 70 млн 680! Не пишите ерунды! У нас по-прежнему самые распространённые видеокарты у граждан дома - GF6600-9600 и HD2600-4850. Просто они на этот форум не ходят. Им тут непонятны многие слова и даже отдельные буквы.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
ShadowTM
Мне кажется, что все немного по-другому. Просто сейчас они решили окончательно поделить сектора игровых карт и профессиональных. Так как наращиваение мощности карты, с помощью увеличения транзисторов и без увеличения электроэнергии и теплоотдачи, невозможно, поэтому после Fermi они изложили свою стратегию - экономия электроэнергии и меньшее тепловыделения. Да, для этого они вырезали часть ненужного для вычислений и заострили внимание на работате с игровыми приложениями. То есть игровая карта только для игр, хочешь вычислений - покупай проф. карту.

Цитата:
Просто выпустили тот продукт, который смогли, который хоть в чём-то (хотя бы в игрушечках) смог не проиграть топу конкурента.

Частично согласен, но поправляю. Выпустили, который хотели. Как вы представляете будущие игровых видеокарт? Уменьшее тех. процесс, увеличение транз. базы и электроэнергии. Во что это все выльется? У меня 580 всю зиму обогревала комнату и шумела. Это же нереально выдержать!

Цитата:
Ну конечно! В России 70млн 7970 и ещё 70 млн 680! Не пишите ерунды! У нас по-прежнему самые распространённые видеокарты у граждан дома - GF6600-9600 и HD2600-4850. Просто они на этот форум не ходят. Им тут непонятны многие слова и даже отдельные буквы.

Я про граждан не говорил. Я говорил исключительно про пользователей форумов. И все-таки спрос в России на топы есть и он не плохой. Менталитет такой у людей наших. Мы в последнем будем ходить и жить в убогой квартире, но будем ездить на мерседесах и т.д.

Цитата:
Утрируете.
Там всё далеко не так однозначно.

я сужу по тестам, которые нам предлагаю изучить. По тестам я вижу, что 680 сильно остает от своего конкурента 7970. Если смотреть на результаты GTX 580 и сравнивать их с тем же 6970, то NV тоже в минусе. Задам встречный вопрос. Чем GTX 680 хуже GTX 580? Пруф?

Цитата:
а теперь (хочется на это надеяться) занимаются разработкой полноценного GPU заместо этой позорной заплатки

Приведите пример не позорной заплатки от NV? 400/500 серия?!


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
То есть игровая карта только для игр, хочешь вычислений - покупай проф. карту.


Всё это имело бы какой-то смысл, если бы существовал отдельный чип для проф. карт (ускорителей вычислений). Но его нет. Теслы делаются на тех же GK104 с теми же вычислительными возможностями. А это уже даже не смешно. На горизонте мелькает GK110, но никому пока неизвестны ни сроки его появления, ни его вычислительные возможности, ни цена.

pa_ul писал(а):
Как вы представляете будущие игровых видеокарт?


Я представляю и это, в принципе, неизбежно, что уже спустя пару лет все GPU лоу и миддл сегмента буду встроенными в CPU, а дискретными будут лишь пара топовых моделей, которые будут покупаться немногочисленной категорией обеспеченных энтузиастов или организациями, для которых такие расходы оправданы и позволительны.

pa_ul писал(а):
У меня 580 всю зиму обогревала комнату и шумела.


Думаю, что если бы Nvidia просто перевела ту же 580 на новый техпроцесс с симметричным увеличением частот и некоторыми улучшениями архитектуры - токая карта могла бы претендовать на звание топового современного GPU даже без увеличения числа функциональных блоков.
А получилось, что реальный топ (GK110) оказалось выпустить не так просто. В итоге с горем пополам выпустили миддл (GK104), которому пришлось конкурировать с полноценным чипом AMD. В играх за счёт динамического разгона и ещё пары хитростей его дотянули до уровня производительности Таити, но в вычислениях чуда не произошло. Если вычислять просто нечем, то тут уже никакие хитрости не помогут.

pa_ul писал(а):
Если смотреть на результаты GTX 580 и сравнивать их с тем же 6970, то NV тоже в минусе.


Я уже говорил об этом минусе. Тогда он легко компенсировался большей распространённостью CUDA и в большинстве случаев под GPGPU выбирали Nvidia. Что толку от 20-30% превосходства AMD, если софта, в котом можно было использовать мощности фактически не было. Я и по сей день вынужден держать для GPGPU не только МакОС как вторую ОС, но и второй компьютер с Fermi, поскольку пара нужных мне софтин лишь вот-вот начнёт работать с OpenCL, но пока требует умершей CUDA.

pa_ul писал(а):
Чем GTX 680 хуже GTX 580? Пруф?


Пруфов в виде результатов тестов Вы найдёте сколько угодно. 2 очень убедительных я приводил даже на этой странице. 680 в среднем в 1,5-2 раза проигрывает 580. Но главный пруф - официальные технические характеристики GK104. Не вдаваясь в возможности отдельных АЛУ, достаточно взглянуть на режимы работы FP64. Там даже тесты не нужны. Становится удивительно, как Кеплер в принципе демонстрирует хоть сколько-то значимые результаты в GPGPU. Ну и подкупает непосредственность Nvidia, с которой они делают Теслы на базе GK104. Это как если бы ВАЗ выпустил ультраспортивную версию Калины стоимостью в $100 000. Причём, с серийным мотором.

pa_ul писал(а):
Приведите пример не позорной заплатки от NV? 400/500 серия?!


Да. Вне всяких сомнений. Могут быть оговорки. Например, Fermi был выпущен с полугодовым отставанием от линейки AMD того же техпроцесса и кое в чём оставал (номинальная вычислительная мощность, аппаратное декодирование видео), а 480 ещё и стал беспрецедентным по тем временам утюгом. Но всё это мы с лёгкостью прощали Nvidia за одну важную деталь: эти карты были безусловными лидерами. Никто бы в здравом уме не осмелился бы оспаривать их абсолютного превосходства в производительности. А всё остальное - мелочи на общем фоне.
Что же с 680? С 4-х месячным отставанием от конкурента выходит чип, который лишь повторяет тот же уровень производительности в играх, а в вычислениях, которые так активно пиарились самой Nvidia, имеет отставание вплоть до шестикратного. И всё это на фоне довольно убедительных слухов об ошибках инженеров при проектировании. Такого от Nvidia мы ранее не видели. Потому и позорная заплатка.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
Я представляю и это, в принципе, неизбежно, что уже спустя пару лет все GPU лоу и миддл сегмента буду встроенными в CPU, а дискретными будут лишь пара топовых моделей, которые будут покупаться немногочисленной категорией обеспеченных энтузиастов или организациями, для которых такие расходы оправданы и позволительны.

Вряд-ли. гр. ядро в CPU никогда не догонят дискретные карты. А вообще вопрос был про дискретные карты? Как будем бороться с температурами и электроэнергией. Азот и б/п на 1000ват?

Цитата:
Всё это имело бы какой-то смысл, если бы существовал отдельный чип для проф. карт (ускорителей вычислений). Но его нет.

Это другой вопрос. Есть ниша подобных карт и это главное.


Цитата:
Думаю, что если бы Nvidia просто перевела ту же 580 на новый техпроцесс с симметричным увеличением частот и некоторыми улучшениями архитектуры - токая карта могла бы претендовать на звание топового современного GPU даже без увеличения числа функциональных блоков.
А получилось, что реальный топ (GK110) оказалось выпустить не так просто.

Могла претендовать по тишине и шуму. Хотя уменьшение площади может мешать охлаждению. (см. ситуацию с Иви Бридж).

Цитата:
С 4-х месячным отставанием от конкурента выходит чип, который лишь повторяет тот же уровень производительности в играх, а в вычислениях, которые так активно пиарились самой Nvidia

Вы явно другие тесты смотрели. Во первых в вычислениях чип превосходит GTX 580. Во вторых чип работает в играх в среднем на 30-35% быстрее GTX 580. GTX 680 большинстве случаев работает быстрее 7970, но есть игры в которых все наоборот. ВСЕ ЭТО субъективно, так как обзорам сложно верить. Производительность 580 и 680 я могу подтвердить на своём опыте. Сравнительная методика обзоров вызывает вопросы, нужен свой опыт. На 3DNews вообще изобразили 680-ю более требовательную к электропитанию и более горячую.

Цитата:
Пруфов в виде результатов тестов Вы найдёте сколько угодно.

На хобите тестов на вычисления тоже много. ;)

А вообще я все-таки проще смотрю на карту, смотрю больше как на игровую. ;)


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
Вряд-ли. гр. ядро в CPU никогда не догонят дискретные карты.


Вы о чём?
Уже в этом году выходят Kaveri, производительность видеоподсистемы которых будет сравнима с дискретными топами позапрошлого техпроцесса.
Да и не о топах я говорю. Топы ещё долго будут оставаться дискретными, а вот GPU, которые сейчас составляют не менее 90% продаж уже в течении ближайших пары лет полностью перекочуют в CPU. Будет, конечно, выпускать дискретные миддлы Nvidia, которой попросту некуда их встраивать, но дискретные карты как массовое явление неминуемо вымрут.

pa_ul писал(а):
Это другой вопрос. Есть ниша подобных карт и это главное.


Да вот не другой это вопрос. Если бы разрабатывались отдельные чипы (речь именно про AMD и Nvidia), предназначение которых - вычисления, вопрос был бы другим. Но пока все представленные и анонсированные профессиональные ускорители вычислений этих фирм основаны на "игровых" GPU. Ни один GPU пока не был разработан как специализированно вычислительный. Отсюда вообще и сравнение топовых игровых GPU в вычислениях, поскольку проф. ускорители основаны на тех же чипах и имеют те же возможности. Ну, исключая, разумеется, сегмент именно проф. карт (Quadro и FirePro), где возможности совсем иные при тех же чипах.

pa_ul писал(а):
Могла претендовать по тишине и шуму.


А ещё по производительности. И не только в играх, но и в серьёзном ПО.

pa_ul писал(а):
Хотя уменьшение площади может мешать охлаждению. (см. ситуацию с Иви Бридж).


Отдельный вопрос, но мне предположение о связи размера чипа с увеличенным нагревом видится абсурдным. Десятки раз прежде утончение техпроцесса не приводило к увеличению нагрева. Там, скорее, виноваты технические особенности чипа, снижающие теплопроводность внутри него + термоинтерфейс.

pa_ul писал(а):
Во первых в вычислениях чип превосходит GTX 580.


Только в FP32, которые на сегодняшний день уже малоактуальны. Если бы у 680 был бы проигрыш и в FP32 - очевидно, карта медленнее бы работала и в играх. В FP64, которые на сегодняшний (и завтрашний тоже) день более актуальны, 680 отстаёт от 580 примерно в 1,5 раза. Хотя, по номинальным техническим данным должна бы отставать в 2-2,5 раза.

pa_ul писал(а):
А вообще я все-таки проще смотрю на карту, смотрю больше как на игровую.


Да я не особо-то и спорю с тем, что как исключительно игровая, 680 - вполне достойная карта. Вот только на дворе не 2007-й год и на сегодняшний день для современного GPU мало иметь высокую производительность только в играх, чтобы называться достойным. Особенно, когда на рынке есть решение от конкурента, которое вышло раньше, стоит тех же (даже меньших) денег, имеет ту же производительность в играх, но в разы быстрее в вычислениях.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
ShadowTM
Топы ещё долго будут оставаться дискретными, а вот GPU

а я про них, что у Вас и у меня в профиле. ;)

Цитата:
Да вот не другой это вопрос. Если бы разрабатывались отдельные чипы (речь именно про AMD и Nvidia), предназначение которых - вычисления, вопрос был бы другим.

Вы не исключаете, что GK110 для игровых системы будет один, а для проф. карт другой. Хотя возможно Вы правы, так как GK104 вышел также под Тесла. Не знаю, что там у него с характеристиками и отличается ли он от игрового...

Цитата:
Отдельный вопрос, но мне предположение о связи размера чипа с увеличенным нагревом видится абсурдным. Десятки раз прежде утончение техпроцесса не приводило к увеличению нагрева. Там, скорее, виноваты технические особенности чипа, снижающие теплопроводность внутри него + термоинтерфейс.

Возможно, но приведу несколько обратный пример. GTX560 на чип GF104 грелась до 70-градусов. На основе чипа 104 сделали чип GK104. Карта греется под 80-85 градусов. Теперь предположим, что будет с GK110, какие у него будет температу?! Даже при хорошем охладе GK110 будет в лучшем случае аля ПЕЧ480. И это все на меньшем тех. процессе.

Цитата:
ShadowTM
мне предположение о связи размера чипа с увеличенным нагревом видится абсурдным

Добавлю из обзора с нашего форума.

Цитата:
В отличие от кристалла AMD Radeon HD 7970 (Tahiti XT), здесь площадь несколько меньше. По периметру проходит металлическая рамка, которая обеспечивает защиту от перекосов и сколов. Разработчики NVIDIA решили отказаться в новом продукте от использования теплораспределительной крышки. Это может быть обусловлено рядом факторов, но основным, скорее всего, служит возросшая тепловая мощность в пересчете на квадратный миллиметр площади. Поэтому пришлось оголить ядро и убрать посредников в теплообмене.
Подробнее: http://www.overclockers.ru/lab/47407_2/ ... bajta.html


Цитата:
680 отстаёт от 580 примерно в 1,5 раза. Хотя, по номинальным техническим данным должна бы отставать в 2-2,5 раза.

Я не видел тестов, где 680 проигрывает или отстает от 580. Более и менее развернутые тесты были на Хобите. Другие сайты подобное не тестировали. Я уже просил - дайте пруф (ссылку на тесты).

Цитата:
ShadowTM
но в разы быстрее в вычислениях.

Я не отрицаю что 7970 в вычислениях быстрее 680, так как видел тесты на хобите, но добавлю к фразе - "но в разы быстрее в вычислениях, которыми пользуется ограниченный круг людей". Вот вопрос?! Зачем мне игровая карта, которой я не буду ничего вычислять. Я, мой сосед и друзья ничего не вычисляли на 680, 580/570 или 480/470, так почему я и они должны переживать из-за этого и кричать - NV выпустили плохую карту?! Это же нет так?! Согласен, если карты раньше это делали хорошо, а потом чуть хуже, да ради бога, но для меня и других, а таких немало, это плюс не особо был нужен и раньше... Так что я не вижу проблемы. Проблема у условного фаната NV, который что-то вычислял картой, потом этого не может сделать и хочет дрнести миру, что злая компания NV лишила его такой опции. Мне кажется такая необходимость решается очень простым действием. Человек ставит задачу и выбирает тот продукт, который ему необходим под определенные нужды.


 

Member
Статус: Не в сети
Регистрация: 07.08.2011
Откуда: Харьков
чисто для отчета комиссии делают


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
Вы не исключаете, что GK110 для игровых системы будет один, а для проф. карт другой.


Исключаю.
Чип в любом случае будет один. Разница может быть только в числе отключенных функциональных блоков и частотах. Но точно не будет разработано 2 разных версии одного GPU.

pa_ul писал(а):
GTX560 на чип GF104 грелась до 70-градусов. На основе чипа 104 сделали чип GK104. Карта греется под 80-85 градусов.


Вы бы сравнивали тогда 680 с 580 по нагреву. И тут уже новый техпроцесс будет показателен. Хотя, надо учитывать, что с одной стороны, GF104 имеет меньший транзисторный бюджет, а, с другой - он довольно сильно разогнан на заводе (почему - мы все знаем). Не будь у него разгона и работай он на разумных для него частотах (900-950) - грелся бы он не сильнее 560. С Айвиком ситуация совсем иная - он больше греется при той же частоте и том же (в CPU части) транзисторном бюджете.

pa_ul писал(а):
Даже при хорошем охладе GK110 будет в лучшем случае аля ПЕЧ480.


Если при этом он продемонстрирует значительный прирост и в графике и в вычислениях относительно Fermi - мы с лёгкостью ему это простим и побежим покупать. При условии адекватной цены, разумеется.

pa_ul писал(а):
Подробнее: http://www.overclockers.ru/lab/47407_2/ ... bajta.html


Это лишь мнение. Я думаю, что там просто всё сделано для максимального снижения себестоимости. Nvidia и без того с этим Кеплером встряла неслабо. Мало того, что они выкупают их на чудовищно невыгодных условиях (учитывая разнообразную информацию об уровне выхода годных чипов), так ещё для Nvidia абсолютно одинакова себестоимость всех карт на GK104. Т.е. и 680 и 670 и будущие версии 660 на GK104 обходятся им в абсолютно одинаковые деньги. Так что любая экономия в пару долларов и перевод расходов на плечи производителей карт - выглядят очень логичными.

pa_ul писал(а):
Я уже просил - дайте пруф (ссылку на тесты).


Так давал же ранее. В этой же теме.
Вот Вам в реальных "боевых" условиях из рейтинга Биткойна. Никакой синтетики - только абсолютная вычислительная производительность чипа:

- GTX580 - 146 Mhash/s
- GTX680 - 110 Mhash/s
- GTX570 - 140 Mhash/s
- GTX480 - 140 Mhash/s

Ну и от 550 до 710 у 7970 в зависимости от частот.

А вот Вам результаты в синтетическом тесте. Впрочем, синтетика там условная - просто тестовое выполнение вычислений в FP64:

#77

pa_ul писал(а):
Мне кажется такая необходимость решается очень простым действием. Человек ставит задачу и выбирает тот продукт, который ему необходим под определенные нужды.


Я уже писал выше, что если карта и сам компьютер используются только для игр - вычислительными возможностями карты можно пренебречь.
Но много ли людей ограничиваются только играми? А сколько из них могут себе позволить карту за такие деньги?
Просто сейчас GPGPU уже используется даже при разархивации, которая нужна для установки тех же игр и ещё в целом ряде довольно бытовых повседневных задач. Понятно, что в этих процессах GPGPU вряд ли сэкономит Вам часы, как при работе с видео или профессиональным ПО, но если мы имеем на выбор две карты с примерно одинаковой игровой производительностью, но очень разной производительностью в вычислениях, то лично мне выбор кажется очевидным. Особенно, учитывая то, как стремительно GPGPU становится стандартом в самом разном ПО. Посмотрите на МакОС к примеру. Там надо здорово попрыгать, чтобы найти программу без поддержки OpenCL. А МакОС используется почти половиной цивилизованного мира и многие версии О сначала выходят под ОС Apple и лишь спустя полгода-год под Windows.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
ShadowTM
Разница может быть только в числе отключенных функциональных блоков и частотах.

Да, да я про это - отключенные блоки и иные частоты. Это очень сильно влияет на характеристики чипа.

Цитата:
Вы бы сравнивали тогда 680 с 580 по нагреву. И тут уже новый техпроцесс будет показателен. Хотя, надо учитывать, что с одной стороны, GF104 имеет меньший транзисторный бюджет, а, с другой - он довольно сильно разогнан на заводе (почему - мы все знаем). Не будь у него разгона и работай он на разумных для него частотах (900-950) - грелся бы он не сильнее 560.

Некоректно сравнивать наверное. Все-таки GK104 сделан на основе GF104. одного из удачных. А частоты у GK104 нормальные. Это старые серии 400 и 500 работали на меньших частотах из-за отсутствия возможности повысить частоту. Тот же адм уже давно выкручивает по возможности частоты на максимум. Я удивляюсь как еще карты не научили работать на частотах равных процессорам - 3500мгц. :D

Цитата:
С Айвиком ситуация совсем иная - он больше греется при той же частоте и том же (в CPU части) транзисторном бюджете.

Ну, процессорую крышку с чипа GTX 680 не просто так сняли. ;) Мне кажется, что в будущем на любых процессорах (NV, INTEL ит.д.) будут делать открытый кристалл с защитной рамкой. Хотя процессорам интела/адм это пока не скоро потребуется, так как там они в стоке работают далеко до предельных температу, а во с графикой другой момент, там уже с давно темпы +80. Время покажет...

Цитата:
Так давал же ранее. В этой же теме.

Вот, это я и хотел увидеть. А теперь смотрим на 580 и 6970 серию. И спрашиваем себя - о каких вычислениях идет речь, когда даже пред. флагман NV работает на 125 процентов медленней, чем 6970! NV уже давно не может конкурировать в данном сегменте. Где вы были при релизе 580-ой, так как уже тогда серия не была конкурентноспособной. Почему Вы проснулись только сейчас? Что вы пытаетесь доказать, что 680 фиговая карта для вычислений? Да, уже в 2010 480/580-ый флагманы не могли сконкурировать в вычислениях OpenCL 64. Давайте тогда уже говорить, что 400/500/600 серии фигня и для вычислений не годятся.

Тут тоже много тестов с вычислениями, Там почти во всех случаях 680 быстрее 580, но почти во всех преобладают карты amd, в том числе и 6000 серия. http://www.ixbt.com/video3/gk104-part2.shtml#p5

Цитата:
Становится удивительно, как Кеплер в принципе демонстрирует хоть сколько-то значимые результаты в GPGPU. Ну и подкупает непосредственность Nvidia, с которой они делают Теслы на базе GK104. Это как если бы ВАЗ выпустил ультраспортивную версию Калины стоимостью в $100 000. Причём, с серийным мотором.

Я могу другой пример привести. Например, америнского мускулкара, на котором тупо наращивается мощность, то при этом автомобиль не рулится и проигрывает при маневрировании менее мощному автомобилю. Да, на прямой он едет быстро, а по извилистам дорогам все наоборот.
Вы не думали, что если карты NV, я не говорю уже про 600 серию, а взять хотя бы 500 серию, так проигрывают конкурентам 6000 серии амд, то в этом есть определенный замысел. Безусловно, одна из версий будет - последние 400/500/600 поколения чипов не могут конкуривать в вычислениях с чипами амд и возможно это правда. Но разрыв довольно большой и на ум приходит другая версия - возможно это делается специально?! А вот зачем - это другой вопрос?! Но судя по тому, какими вышли 680/580/480 серии (правда не знаю, что было с вычислениями в 280 серии), то я можно утверждать, что это делается специально.


 

Member
Статус: Не в сети
Регистрация: 29.03.2012
pa_ul писал(а):
Где вы были при релизе 580-ой, так как уже тогда серия не была конкурентноспособной.

ShadowTM писал(а):
А, принимая во внимание CUDA, которая в то время была ещё актуальна

Так, чтобы уточнить. Не подумайте, что я влезаю, я просто читатель, мимо проходил.

Добавлено спустя 4 минуты 3 секунды:
И ещё, только чтобы уточнить, интел тоже специально слабую графику в процы свои встраивает?

_________________
Большой кот. Пушистый. Полосатый. Чёрно-белый.

экс-Председатель Союза писателей имени G-Man'a


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
Tiger.711
А, принимая во внимание CUDA, которая в то время была ещё актуальна

Актуально тогда, но не актуально сейчас. Смешно. Тесты 580/6970 говорят об обратном, если уж мы заговорили про OpenCL 64. Читайте с самого начала. Это не я привел пример теста OpenCL 64.

Цитата:
И ещё, только чтобы уточнить, интел тоже специально слабую графику в процы свои встраивает?

Думаю, что у интела нет опыта. У амд есть радеон, это сказалось на граф. ядре процессора. Как-то так. На самом деле граф. ядро в процессоре это очень круто. Это же со временем можно отжать у изготовителей дискретных карт нижние ценовые ниши.


 

Member
Статус: Не в сети
Регистрация: 25.03.2012
pa_ul писал(а):
Все-таки GK104 сделан на основе GF104.


Нет. Ничего общего. Логическое продолжение - да. Архитектурное сходство - нет.

pa_ul писал(а):
А частоты у GK104 нормальные.


Для простого пользователя - может быть. Хотя время покажет. Для оверклокера - слишком задраны. Фактически отсутствует запас разгона без смены СО и вольтмода.

pa_ul писал(а):
Это старые серии 400 и 500 работали на меньших частотах из-за отсутствия возможности повысить частоту.


Там, если разобраться - частоты выше были. Там Hot Clocks. Шейдерные домены на частотах до 1,5ГГц в штате работали.

pa_ul писал(а):
Тот же адм уже давно выкручивает по возможности частоты на максимум.


В последних 3-х поколениях запас разгона GPU AMD всегда заметно превышал запас конкурирующих решения Nvidia. Ранее - да. G92 в этом плане был недостижим для AMD.

pa_ul писал(а):
И спрашиваем себя - о каких вычислениях идет речь, когда даже пред. флагман NV работает на 125 процентов медленней, чем 6970!


Во времена выхода этих карт FP64 ещё не был актуален, а в FP32 разница там символическая и не всегда в пользу AMD. Кроме того, на тот момент CUDA была ещё очень распространена и выбора особого не было - брали Nvidia.

pa_ul писал(а):
возможно это делается специально?!


Я уже писал о том, что это абсурдное предположение. Добровольно отдать AMD безоговорочную победу в дисциплине, которую Nvidia сами же создали, развили и пиарили - нонсенс. Просто возникли сложности с полноценным флагманом и его место занял чип, который и не задумывался как мощный в вычислениях и графике. В графике его подтянули до уровня Таити за за счёт разгона и пары других мелких хитростей, а вот в расчётах ничего не поделаешь, если считать особо нечем.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
Цитата:
ShadowTM
Для простого пользователя - может быть. Хотя время покажет. Для оверклокера - слишком задраны. Фактически отсутствует запас разгона без смены СО и вольтмода

Частоты нормальные. Когда-то для камне частота 400мгц была нормальной, а сейчас норма 3500мгц. По разгону - говоря по другому драйвер видеокарты работает, и он является ступором в разгоне.

Цитата:
Во времена выхода этих карт FP64 ещё не был актуален, а в FP32 разница там символическая и не всегда в пользу AMD. Кроме того, на тот момент CUDA была ещё очень распространена и выбора особого не было - брали Nvidia.

Актуален или не актуален... :D Но предыдущее поколение карт от амд работали в FP64 лучше карт от NV и это факт. ;) А в FP32 разница между GTX 680 и GTX 580 приличная.

Цитата:
Я уже писал о том, что это абсурдное предположение. Добровольно отдать AMD безоговорочную победу в дисциплине, которую Nvidia сами же создали, развили и пиарили - нонсенс. Просто возникли сложности с полноценным флагманом и его место занял чип, который и не задумывался как мощный в вычислениях и графике. В графике его подтянули до уровня Таити за за счёт разгона и пары других мелких хитростей, а вот в расчётах ничего не поделаешь, если считать особо нечем.

Возможно, такая версия имеет место. Но тогда не совсемпонятно, зачем был выпущен GK104 в проф. сегменте. Да, версия имеет место, если предполагать - что GK110 должен был хорошо работать в FP64, хотя он никогда этого раньше не делал. В FP32 у GTX 680 более и менее нормальные показали.
Есть и другая версия, что это часть стратегии. Условно она подтверждается выпуском чипа GK104 в проф. сегменте.


 

Member
Статус: Не в сети
Регистрация: 30.07.2005
Откуда: Москва
Фото: 8
ShadowTM

К вопросу о стратегии и вычислений.

Цитата:
В этот раз NVIDIA вообще не акцентирует внимание на неграфических возможностях процессора GK104, что намекает на отсутствие прогресса в этой области. По некоторым данным есть даже регресс, в вычислениях двойной точности GeForce GTX 680 слабее GeForce GTX 580. Главным приоритетом перед компанией была высокая энергоэффективность в сочетании с высокой игровой производительностью, для этого чем-то пришлось пожертвовать.


Показать сообщения за:  Поле сортировки  
Форум закрыт Новая тема / Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. Закрыто  Сообщений: 80 • Страница 4 из 4<  1  2  3  4
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 6


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan