Member
Статус: Не в сети Регистрация: 03.09.2009 Откуда: Калининград
coolice писал(а):
Не соглашусь. Все таки уважать потребителя выгодно (или хотя бы делать вид, что уважаешь). Лояльность и все такое.Потребитель после покупки не должен чувствовать себя идиотом. По идее. Здесь же очень похоже на то.
по вашему nvidia "виновата" в эффективности архитектуры, которая позволяет выпускать более компактные конкурентноспособные карты? Надо было отделу маркетинга подсуетится, закупить отбракованных полевиков да дросселей и напаять на плату длиной сантиметров 40, чтоб смотрелось монументально? Вам предлагают адекватную производительность за цену сопоставимую с конкурентов, в чем развод в таком случае?
я не пойму одного у всех карт стала нормальной температура 80 градусов, как движок на машине скоро при 90 градусах будет рабочей температурой и пока не разогреется будет артефакты показывать))))))
Junior
Статус: Не в сети Регистрация: 24.04.2012 Откуда: Крым
max77777 писал(а):
по вашуму nvidia "виновата"
А кто виноват? не ну мы же с вами. Нвидиа же чипы проектировала. Порезала вычислительные возможности -вот и чип проще, а раз чип проще, то можно и плату по=проще сделать))).
Тут вот еще что на ум приходит. Почему АМД выставила такие низкие частоты. Мне вот что думается - вывели на раннем стадии освоения техпрцесса, и чтобы не было отбраковки - выставили низкие частоты ( хотя при этом чуть ли не каждый чип гонится до 1,15+ ghz), нвидия же частоты поставила гораздо выше-> чипов меньше, способных держать -> дефицит.
Друзья, я не понимаю, зачем вы доказываете друг другу что тот или другой производитель и их топовые видеокарты круче друг друга? Будьте просто объективны. Для большинства пользователей которых не волнует разгон или же те кто вообще не знает что это такое, будет больше полезны GTX680 GTX670 потому что они уделывают в AMD7970 на попсовых разрешениях 1980х1080. Для пользователей предпочитающих разгонять видеокарту 24/7 и большие мониторы скорее всего больше подойдёт 7970 и 7950 они хорошо показали себя в этом плане.
А так же не стоить забывать что вычислительная GK104 находится на ужасном уровне, и для пользователей OpenCL стоит выбрать всё же что нибудь у красных (AMD).
Не стоит забывать еще тот факт, что при выборе очень сильное влияние оказывает собственные предпочтения. В моём случае это Nvidia, предпочтение основанное на личном потребительском опыте. Кому то нравится красный цвет, кому то зелёный, на другого маркетинг отлично повлиял и тд и тд и тд.
Так вот: ХВАТИТ СРАТЬ ТУТ НА 18 СТРАНИЦ, так засрали что толковые комментарии через каждых 5 страниц встречаются. Зря только время тратите и своё и чужое на эти фонтаны ваших слюнь и словоиспусканий..
[offtopic]UPD. Ну вот и я на вас потратил..[/offtopic]
Для большинства пользователей которых не волнует разгон или же те кто вообще не знает что это такое, будет больше полезны GTX680 GTX670 потому что они уделывают в AMD7970 на попсовых разрешениях 1980х1080.
Вроде бы сайт называется overclockers.ru? ах, ну да, вам же нужно на сайт блондинка.ру. Подвинуть 2 ползунка, это так сложно.
хватит указывать людям, что делать, хотя нет... что-то не так... а, вот, нашел эту кнопку ХВАТИТ УКАЗЫВАТЬ ЛЮДЯМ ЧТО ИМ ДЕЛАТЬ, И КАК РАСПОРЯЖАТЬСЯ СВОИМ ЛИЧНЫМ ВРЕМЕНЕМ
не тупи. у nvidia гораздо меньше проблем с аппартным декодингом видео и деинтерлейсом. у ATI ее UVD2 и UVD3 полное говоно. Одни глюки с ним
Полные бред несёте, уважаемый. Даже в те времена, когда карты ATI были не в состоянии составить конкуренцию Nvidia - для просмотра видео и работы с ним всё равно брали именно ATI. UVD - законодатель стандарта декодирования видео. Остальные лишь повторяют. Причём, спустя немалое время. Вот Вам несколько примеров того, почему Вы несёте чушь:
1. VC-1. Поддержка аппаратного декодирования этого распространённого стандарта у Nvidia появилась только на 40нм картах. В то время, как на ATI поддержка появилась практически сразу после того, как Майкрософт выпустила этот кодек. Владельцы же карт Nvidia могли просматривать его только при наличии очень мощных процессоров ценой его загрузки под 100%. Т.е. до половины владельцев карт Nvidia просматривать его не могли.
2. H.264 Level 5.1. Не декодируется картами Nvidia по сей день. Т.е. просмотр возможен лишь при программном декодировании, что неприемлемо для HTPC - либо процессор не справится, либо будет огромное тепловыделение.
3. BD3D. Декодировать аппаратно этот стандарт Nvidia научилась только с Кеплерами (наконец-то!). В то время, как AMD прекрасно аппаратно декодирует BD3D, начиная с 6ххх. Изумительно это делают и Llano и другие процессоры с интегрированным видео. Причём, Nvidia ввела аппаратную поддержку, но ПО, которого об этом знает, пока не существует. Т.е. нормальный просмотр 3D-видео невозможен по сей день.
3. Деинтерлейс. На сегодняшний день эта проблема у Nvidia вроде бы решена, но ещё не так давно аппаратный деинтерлейс при аппаратном декодировании в ряде случаев был невозможен. Не говоря уже о максимально возможном нагреве в таком режиме. Карты ATI спокойно справлялись с таким режимом, переходя в сниженное энергопотребление, и, при этом, разгружая процессор до нагрузки 5-7%.
4. Режимы работы. До последнего времени блок DXVA (Pure Video) на картах Nvidia был выполнен по 90нм техпроцессу. При этом, во время аппаратного воспроизведения видео чип переходил в режим снижения частоты и система охлаждения работала в минимальном режиме. В результате в блоке PV возникал локальный перегрев, что приводило к артефактам, вылету плеера или повисанию компьютера. Проблема была очень распространённой и решена была только с выходом Ферми.
5. Обрезанный диапазон. Всем известно, что инженеры Nvidia почему-то думают, что человеческий глаз неспособен увидеть разницу между полным диапазоном (0-255) и обрезанным (16-235). На деле же, любой, у кого на месте оба глаза и есть современный монитор или телевизор - прекрасно видит, что на картах AMD есть чёрный цвет и нормальная насыщенность, а на Nvidia - чёрный вместо серого и блеклые цвета. В играх эту ситуацию можно изменить, покопавшись в дровах, а при воспроизведении видео - нет. Единственный способ - искусственное "растяжение" диапазона шейдерами, если плеер это поддерживает. Бред. Не правда ли?
6. Кстати, о бреде. Постобработка на картах Nvidia долгое время почему-то была невозможна, хотя в то же время карты AMD уже долгое время могли аппаратно осуществлять дополнительный деблокинг, шумоподавление и увеличение резкости.
Другими словами, повторюсь - вы несёте полнейший бред, объясняющийся отсутствием знаний по вопросу. Найдите мне хоть одну модель фирменного HPTC, где в качестве видео использовалось бы не AMD. Атомы на Ионах, пригодны только для мультиков в avi - не в счёт. Речь об HTPC уровня, пригодного для просмотра любого видео. Не старайтесь. HTPC и Nvidia никогда всерьёз не стояли в одном предложении. На сегодняшний день даже встройки процессоров Intel имеют намного большие возможности по декодированию видео, чем топовые карты Nvidia.
Dert писал(а):
Владельцы 7970 негодуют, их монстр уступает в номинале малышу 670 и им прийдется разгонять и без того дорогую безделушку .
Зачем? В тех целях, для которых я брал карту, она вчетверо быстрее 680. А отставание в играх на 5-7% на глаз не видно и легко компенсируется движением мышкой в сторону повышения частоты на 25%. 680 так может? Нет.
Member
Статус: Не в сети Регистрация: 06.10.2009 Откуда: Россия Фото: 4
Цитата:
Зачем? В тех целях, для которых я брал карту, она вчетверо быстрее 680. А отставание в играх на 5-7% на глаз не видно и легко компенсируется движением мышкой в сторону повышения частоты на 25%. 680 так может? Нет.
Ну так. Они радуются кукурузе. напомнить потрясную картинку на NV в Метро 2033. Мыльце, не? NV - только для игр и годится.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 22
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения