Member
Статус: Не в сети Регистрация: 09.10.2006 Фото: 1
Все о GeForce GTX 670/680/760/770 (GK104. Kepler 28nm) В этой теме обсуждаются конкретные технические проблемы конкретных пользователей девайса, всё остальное, включая цены и все вопросы выбора и приобретения решаются в другом месте!
Вопросы по способам и проблемам прошивки карт, а так же вопросы поиска BIOS в данной теме считаются оффтопом. Искать и спрашивать нужно по ссылкам данным ниже.
Вопросы типа "Что лучше купить - ASUS или PALIT" будут удаляться безжалостно.Выбор ВК в другой теме.
Инструкция софтвольтмода под 1.21+ с помощью MSI afterburner, работает не на всех картах! Открываем файл в папке с программой (\Program Files (x86)\MSI Afterburner\Profiles\VEN_10DE&DEV_1180....cfg) версия MSI AB должна быть не ниже 3.0.0 17beta и добавляем следующие строки: [Settings] VDDC_Generic_Detection = 0 VDDC_CHL8318_Detection = 46h либо 44h либо 74(зависит от контролера на карте) VDDC_CHL8318_Type = 1 Возможно потребуется перезагрузка. Поиском можно найти владельцев с удачными примерами раз блокировки.
ПРАВИЛА КОНФЕРЕНЦИИ обязательны к прочтению и исполнению всеми пользователями без исключения.
Весь оффтоп, флейм и прочие нарушения правил будут награждаться ЖК!
Прежде чем задать вопрос или ответить, подумайте, не ошиблись ли вы темой.
Перед тем, как задать вопрос, пожалуйста заполните / обновите профиль!
О том, как ПРАВИЛЬНО сделать скриншоты и выложить их здесь (да и не только здесь) читать тут. Не нужно считать себя умнее окружающих и вываливать фото рабочего стола в виде bmp-картинки полотнищем размером в 1480 x 1036.
Все пожелания и предложения касаемо темы приветствуются вЛС.
Собирается статистика разгона сабжевых карт. Всю информацию в ЛС.
GK104 содержит 1536 ядер CUDA, что втрое больше, чем у GF110 (GeForce GTX 580), 128 текстурных блоков (больше в два раза) и 32 ROP (а вот это шаг назад, у GF110 их 48). Ширина шины памяти — 256 бит, но работает она на эффективной частоте 6008 МГц. «Шея стала тоньше, но зато длинней». Объем памяти — 2 Гбайт. Поддерживается интерфейс PCI-E 3.0 GPU имеет базовую тактовую частоту 1006 МГц, а частота ядер CUDA больше не удвоена по отношению к остальным компонентам. Это сделано для экономии электроэнергии. И действительно, карта уложилась в TDP 195 Вт. Довольно скромный для флагманского продукта (у GeForce GTX 580 — 244 Вт, а у Radeon HD 7970 — 250 Вт), особенно в свете предыдущих «достижений» NVIDIA в этой области.
GPU производится по техпроцессу 28 нм и включает 3,54 млрд. транзисторов — «всего лишь» на 0,54 млрд. больше, чем в GF110. Для сравнения: в чипе Tahiti (Radeon HD 7970) 4,38 млрд. транзисторов.
3. ASUS GTX680 DirectCU II Дорогая, тихая, холодная. Но занимает аж три слота. #77#77
4. Gigabyte GTX 680 Super Overclock Уродство с пятью вентиляторами, каких ещё мир не видел #77#77
5. Colorful GTX 680 iGame Kudan В Китае 900 баксов. У нас нет и не будет (и слава Богу). Но зато в комплекте идут краски! #77#77
6. EVGA GeForce GTX 680 Classified Интересная карта, но на нашем рынке нет, пощупать её мне не удалось (( #77#77
7. GAINWARD PHANTOM GTX680 Палит/гейнвард тоже молодцы, неплохие карты делают в последнее время. #77#77
========================= ВОПРОСЫ И ОТВЕТЫ:
Общие вопросы.
Q: Почему карты в SLI работают на разных частотах? A: Это нормально, каждая карта по-разному нагружается, и буст работает соответствующим образом.
Q: Чем отличаются ASUS GTX670 directcu2 top и ASUS GTX670 directcu2 A: Карты отличаются только частотами
Q: Какая длина у GTX 680/670? A: Для референсов: 254mm у GTX 680 и 242mm у GTX 670. Для нереференсов: смотреть на официальном сайте.
Q: Запускаю GPU-Z/GPU Tweak/AIDA и ловлю красный экран. Это только мне так повезло? A: Нет, такое случалось у многих. Нужно поставить последнюю версию утилиты.
Q: Можно ли реализовать PCI-E 3.0 у GTX 680/670 на платформе LGA 2011? A: В GTX 6х0 PCI-E 3.0 для LGA 2011 заблокирован. Но есть патч, снимающий блокировку: force-enable-gen3.exe. Возможно глюки/лаги и снижение производительности. Все изменения вы делаете на свой страх и риск!
Q: Что нужно для того, чтобы видеокарта работала в PCI-E 3.0 16X? A: Нужно иметь процессор, поддерживающий работу PCI-E 3.0 16X, мат. плату с поддержкой PCI-E 3.0 16X и собственно саму видеокарту с поддержкой PCI-E 3.0 16X.
Q: Как отличается производительность в режимах PCI-E 2.0 16X и PCI-E 3.0 16X ? A: Разница незначительна, порядка 1%. Более подробно можно ознакомиться здесь.
Q: Какой DirectX поддерживают GTX 680/670? A: На данный момент DX11, с выходом Windows 8 - DX 11.1
Q: GPU-Z у моей карты показывает ASIC не 100%. Карта долго не проживет? A: На значения ASIC не стоит обращать внимания, т.к. оно изменяется в разных версиях. А как долго проживет Ваша карта, зависит лишь от Вас.
Q: В 3dMark 2006 прирост относительно моей старой карты совсем невелик, за что я заплатил $500? A: Тестирование в 3dMark 2006 уже неактуально, используйте 3dMark 11, а лучше современные игры.
Q: Возможно ли отключить GPU Boost? A:Теоретически да.Все изменения вы делаете на свой страх и риск!
Q: Достаточно ли 2Гб памяти на видеокарте? Есть ли смысл покупать 4Гб версию? A: В 90% хватает 2Гб памяти для 1080р и выше. Исключения составляют кривые игровые проекты, неофициальные моды и то, в разрешениях выше 1080р. Брать 4Гб версию имеет смысл только с прицелом на будущее, но учитывая консольность нынешней игроиндустрии, весьма сомнительный выбор, либо для тех кто использует 3 монитора.
Разгон.
Софтовый мониторинг занижает показания реального напряжения после прошивки соответствующего биоса. Не рекомендуется шить владельцам плат референсного дизайна. Фазы питания могу не выдержать такой ток.
Все изменения программной и аппаратной части ВК Вы делаете на свой страх и риск. Не предпринимайте никаких действий, если Вы не понимаете что и как нужно делать.
Статистика разгона GTX680\GTX670:
1. _AK_ Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1200MHz\7000 тест. 2. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.21V) 1306Mhz\6804 тест. 3. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.175 V) 1264MHz/6000 тест. 4. Rost223 Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1241MHz\6800 тест. 5. rogal GigaByte GV-N670OC-2GD (BIOS 1.175V) 1337\7500 тест. 5. rogal GigaByte GV-N670OC-2GD (BIOS 1.21V) 1372\7400 тест. 6. Hiller GIGABYTE CV-N680OC-2GD (BIOS 1.21V) 1306MHz\6804 тест. 7. Shm1T Palit GTX680 (BIOS 1.175) 1280\6998 тест. 8. K2K ASUS GTX 670 Direct Cu II (BIOS 1.162V) 1346\7000 тест. 9. t64a Asus GTX680-DC2T-2GD5 SLI (Bios не изиенялся, HotWire 1.35-1.37v.) 1424/7200 + 1398/7200 тест.
Q: Как разгонять GTX 680/670? A: Для начала ознакомиться вот с этой статьей в части описания методики разгона.
Q: Как у GTX 680/670 от ****** в плане разгона? A: Разгон - лотерея, можно достигнуть заоблачных частот и на рефе, а можно получить лишь +50 Mhz на очень дорогом нерефе.
Q: Как и чем прошивать BIOS GTX 680/670 ? A: Почитать можно тут и тут. Вопросы по прошивке, изменению и поиску BIOS задавать там же.
Q: Хард-Вольтмод GTX 680 (GPU Voltage modification) A:link
Q: Где взять разлоченные BIOS для GTX670\680? A: Cтоковые и модифицированные биосы (проверенные) для большинства ВК есть здесь.
Q: Можно ли изменить параметры родного BIOS-а видеокарты? A: Да, существует программа KGB, с ее помощью можно откорректировать некоторые параметры (турболимит, mix\max скорость вентиляторов СО). Камрад GreeDWaR сделал (перевел) инструкцию по использованию этой программы . Оригинал тут и сам KGB - Kepler BIOS Editor/Unlocker. Внимание, все модификации BIOS Вы осуществляете на свой страх и риск. Неправильные действия могут привести к поломке оборудования.
Q: У меня ВК SI GTX 680 Lightning, как разблокировать регулировку напряжения? A: Всё о прошивке MSI GTX 680 Lightning + разлочка АВ (и повышения вольтажа до 1.4v), здесь.
Q: Где еще можно найти разлоченный BIOS и почитать об этом? A: По ссылкам предоставленным нам труовером Leha-62RUS (за что ему большое спасибо) тут и тут.
Q: Возможно ли поднять напряжение на GPU? A: Совсем недавно вышли новые bios для карт с разблокированным напряжением на уровне 1,21В. Информации и статистики мало, все эксперименты делайте на свой страх и риск. Биосы находятся тут. Вариант прошивки bios от Leha62-RUS. Софтовый мониторинг занижает реальное напряжение, читать всем тут.
Q: Какие программы стоит использовать для разгона и мониторинга? A: MSI Afterburner и EVGA Precision X
Q: Поставил новую GTX 680/670, запустил MSI Afterburner, а там все частоты равны 0 и лишь графа Power Limit показывает 100. Как решить эту проблему? A: Проблемы никакой нет, всё так и должно быть.
Q: Как пользоваться програмой MSI Afterburner? A:тут и тут. Что касается разгона 670/680, то здесь гораздо проще. От вас потребуется выставить Powerlimit на максимум (132% для референсов), поднять core clock offset и memory clock offset и тестировать на стабильность. За работой турбобуста и значения power usage можно наблюдать в мониторинге AB.
Q: До каких частот разгоняются карты? A: Если итоговой частотой считать не базовую, а которую дает турбобуст, то в среднем карты разгоняются до 1230-1270. Нереференсы ASUS DCII чаще других берут в районе 1300. Но хочу заметить, что разгон это лотерея, и покупка дорогого нереференса не гарантирует хороший разгон.
Q: Можно ли ASUS GeForce GTX 680/670 Direct CU II перепрошить в TOP версию? A: Да можно. Для этого нужно взять BIOS от TOP версии и прошить им Вашу карту. Перед этим нужно убедиться в стабильности карты на частотах TOP версии. Перед перепрошивкой рекомендуется сделать backup BIOSa. Все изменения вы делаете на свой страх и риск!
Система охлаждения.
Q: Какое альтернативное охлаждение совместимо с GTX680? A: На данный момент Arctic Cooling Twin TurboII, Arctic Cooling Accelero Xtreme III . Возможно станет и TR Shaman, но не встречались владельцы. Возможна установка и других СО, но только на тех картах, где разъемы питания расположены в один ряд. Так же возможна установка ARCTIC Accelero Hybrid
Q: Где можно почитать посмотреть о Arctic Cooling Accelero Xtreme III ? A: Вот тут. (Спасибо .fx)
Q: Что дает замена охлаждения на 670/680? A: Да собственно кроме уменьшения температуры/шума ничего. Разгон никак не улучшается, ввиду невозможности поднять напряжение. Тоже самое можно сказать и про водяное охлаждение. Хотя по заявлению одного камрада, после смены стоковой СО на водяное, ему удалось разогнать на 10мгц по базовой частоте.
Q: Рефересн GTX 680 на автооборотах легко уходит за +85С, такие температуры норма? A: Нет, подобные температуры не являются нормой. Проверьте вентиляцию воздуха в корпусе, попробуйте изменить кривую кулера. Также одна из возможных причин - слабое прижатие СО.
Q: Будет ли снижение температуры GPU при замене термоинтерфейса на другой (МХ-4, МХ-2 и т.п.)? A: По опыту владельцев карт, которые производили данные операции, толку от подобных манипуляций нет. (При условии что нет брака в нанесении термопасты при сборке) Так что если температуры не отличаются от средних, смысла в замене термоинтерфейса нет.
Q: Если поставить карту на воду, я получу значительный прирост в разгоне? A: Нет, прирост будет незначительным, но стабильность повысится существенно. Для большего разгона необходимо повышение напряжения, что софтом пока невозможно.
- в любую 680/670ую можно прошить любой 680/670ый биос, не экспериментировал варианты с 4Гб памяти... По сообщению камрада ancemin в этом есть опасность. При заливке БИОС от другого вендора он получил "труп". Будьте очень аккуратны. - бытует мнение, что возможно прошить в 670ую биос от 680ой, я не побывал, не имею 670ой.... - повышение напряжения со штатных 1.175v до модифицырованных 1.21v, даёт прибавку в 30-70МГц - прошивать можно много-много-много раз, проблем после многочисленного количества перешивок, я не наблюдал - для разгона кеплера мне больше нравится ЕВГА Х, в отличии от АВ, она менее требовательна к версиям дров и биосов - программно повысить напругу до 1.4v можно только на MSI GTX 680 Lightning, переключив биос в режим LN2 и "поколдовав" над профилем а АВ - удачный чип берёт на стоке (1.175v) от 1300МГц и выше, а на моде (1.21v) от 1350МГц - при разгоне не забывайте об охлаждении, низкая температура GPU ещё не означает, что VRM и MEM, себя так-же хорошо чувствуют! - всё пока вроде... Все манипуляции с ВК, включая, но не ограничиваясь изменениями BIOS, системы СО, питания своей видеокарты Вы производите на свой страх и риск. Никакой ответственности за возможныю порчу оборудования автор не несет.
Member
Статус: Не в сети Регистрация: 13.09.2007 Откуда: Барнаул Фото: 2
Судя по обзорам, GTX580 пора отправлять на заслуженную пенсию(правда в рукаве это платы - хороший разгон, но энергопотребление этой печки просто невероятное), только вот беда, все хорошие игры на ней даже без разгона летают, в FHD на максимуме с 4х-8х сглаживанием идут на комфортных 60к\с и менять ее пока мало смысла. Правда для 2560х1440-1600 конечно 580я слабовата, а вот 680я демонстрирует очень интересные результаты при всего 256битной шине и 2гб памяти. Это не эволюция, это - настоящий прорыв (транзисторный бюджет использован очень грамотно), кеплер действительно интересным вышел. Если бы была 384битная шина - то подобная плата камня на камне не оставила бы даже от таких монстров, как 6990 и 590 даже в разгоне. Ожидаю что всего ч\з полгода цены на нее свалятся до 300долларов, ведь сама по себестоимости 680я не дороже когда-то выпущенной GTS250, даже чип имеет схожую площадь и шину в 256бит. Несуразное инженерное питание думаю переделают, тут даже от 560Ti РСВ пойдет - как раз для памяти хватит 1фазы, а для ядра - 4фазы хватает. Т.е. в реальности, цена постепенно может опуститься до текущих цен на 560Ti\560 - даже СО можно использовать от нее же, справится вполне, тепловыделение схожее.
Member
Статус: Не в сети Регистрация: 13.09.2007 Откуда: Барнаул Фото: 2
Судил по быстрому падению производительности при увеличении сглаживания и разрешения, чего например не происходит с радеонами 79хх. Ведь ПСП по сравнению GTX580, которая практически чуть ли не в 2раза слабее вообще не возросла. Да и растеризаторов маловато для такого чипа, в общем производительность ограничена ПСП, шиной и кол-м растеризаторов. 384бита и 48ROP тут были бы к месту. Зато нвидиа теперь с минимальными затратами может неплохо обогатиться (особенно полезно в связи с падением цен на предыдущие топы, ведь их себестоимость достаточно высока из-за большой площади чипа и низкого выхода годных чипов, а также достаточно сложной РСВ и VRM), подозреваю себестоимость не выше 1\4 от конечной розничной цены.
Member
Статус: Не в сети Регистрация: 30.03.2008 Откуда: Germany Фото: 10
Карта не плохая но на "680" не тянет. Проблема с 2Гб. Взял 580 с 3Гб мониторю загрузку памяти, (из всех обзоров 680 ни у кого не увидел). Будет кретически... Приятно что тесты все в 1980 да 2560. Карта (680) до 4 мониторов поддерживает... чёж не потестовали? Ах да зачем омрачать... Скоро квадро презентуют, думаю будет тот же чип, похоже каменный цветок каким вышел таким и вышел. С месяц назад в сети разглядели на кожухе 670 Ti было какое то фото. Сглазили. И как из этого "обрубка", бюджетники делать? Хорошо хоть (я) не фанат, начал расматривать тесты 7970...
Member
Статус: Не в сети Регистрация: 17.09.2009 Откуда: Беларусь, Минск
Для мультимониторов мало памяти. У меня в Скайриме сжирает все 2 гб памяти у 6970. Тем не менее, попробовал бы данную карту если появятся 3+гб сторонние решения. Интригует наконец-таки внедренная технология больше двух мониторов на одной карте, это одна из причин из-за чего я отказался от карт Nvidia в прошлом, а сейчас прямо вот так и хочется попробовать.
Member
Статус: Не в сети Регистрация: 07.03.2009 Откуда: Северодвинск
В дополнении к этому:
Цитата:
Руки дошли до цифр, играю в скайрим, турбобуст пашет на частотах от 1080 до 1150 в среднем 1105. температура 86С при этом турбина всего 60%, всё очень тихо, шум теряется в комнате с фоновыми шумами и телевизором, даже одна 580 которая стояло до этого шумела значительно сильнее, не говоря уже об слае из них. Как ветку откроют напишу подробно.
Пока ещё есть 580, потестил и сравнил их в паре игр, в скайриме прирост до 50% но думаю тут проблема со стороны 580, не хватает видеопамяти (офф. хай текстур пак + ~50 модов), чаще всего она забита полностью, ещё интересный момент 680 использует на 100-150 мегабайт видеопамяти меньше в тех же сценах, максимум что я видел это 1700Мб. Субъективно, звучит бредово я знаю, играть на одной 680 комфортнее чем на 2х580.
В сёгуне 2 прирост по сравнении с одной 580 около 40% очень порадовало. (Неужели всё упиралось в видеопамять?).
Частоты в 2Д снижаются максимум до 324/162Мг (ядро/память) При использовании Zune карта всегда на максимальных частотах.
Без косяков не обошлось, драйвера не хотели ставится, ссылаясь на отсутствующий файл бла бла бла. Смог поставить только ручками через диспетчер устройств с указанием папки с дровами, мелочь но не приятно.
Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.
Member
Статус: Не в сети Регистрация: 07.03.2009 Откуда: Северодвинск
VladPayne Ну я такой функции не нашёл, в драйверах дак вообще никакого упоминания об GPU Boost, полагаю это всё таки аппаратная фишка которую нельзя отключить. ЗЫ. Поехал за второй карточкой, часиков в 7 отпишусь.
Member
Статус: Не в сети Регистрация: 10.11.2009 Откуда: Харьков, UA
Abraxas29 писал(а):
Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения