Member
Статус: Не в сети Регистрация: 09.10.2006 Фото: 1
Все о GeForce GTX 670/680/760/770 (GK104. Kepler 28nm) В этой теме обсуждаются конкретные технические проблемы конкретных пользователей девайса, всё остальное, включая цены и все вопросы выбора и приобретения решаются в другом месте!
Вопросы по способам и проблемам прошивки карт, а так же вопросы поиска BIOS в данной теме считаются оффтопом. Искать и спрашивать нужно по ссылкам данным ниже.
Вопросы типа "Что лучше купить - ASUS или PALIT" будут удаляться безжалостно.Выбор ВК в другой теме.
Инструкция софтвольтмода под 1.21+ с помощью MSI afterburner, работает не на всех картах! Открываем файл в папке с программой (\Program Files (x86)\MSI Afterburner\Profiles\VEN_10DE&DEV_1180....cfg) версия MSI AB должна быть не ниже 3.0.0 17beta и добавляем следующие строки: [Settings] VDDC_Generic_Detection = 0 VDDC_CHL8318_Detection = 46h либо 44h либо 74(зависит от контролера на карте) VDDC_CHL8318_Type = 1 Возможно потребуется перезагрузка. Поиском можно найти владельцев с удачными примерами раз блокировки.
ПРАВИЛА КОНФЕРЕНЦИИ обязательны к прочтению и исполнению всеми пользователями без исключения.
Весь оффтоп, флейм и прочие нарушения правил будут награждаться ЖК!
Прежде чем задать вопрос или ответить, подумайте, не ошиблись ли вы темой.
Перед тем, как задать вопрос, пожалуйста заполните / обновите профиль!
О том, как ПРАВИЛЬНО сделать скриншоты и выложить их здесь (да и не только здесь) читать тут. Не нужно считать себя умнее окружающих и вываливать фото рабочего стола в виде bmp-картинки полотнищем размером в 1480 x 1036.
Все пожелания и предложения касаемо темы приветствуются вЛС.
Собирается статистика разгона сабжевых карт. Всю информацию в ЛС.
GK104 содержит 1536 ядер CUDA, что втрое больше, чем у GF110 (GeForce GTX 580), 128 текстурных блоков (больше в два раза) и 32 ROP (а вот это шаг назад, у GF110 их 48). Ширина шины памяти — 256 бит, но работает она на эффективной частоте 6008 МГц. «Шея стала тоньше, но зато длинней». Объем памяти — 2 Гбайт. Поддерживается интерфейс PCI-E 3.0 GPU имеет базовую тактовую частоту 1006 МГц, а частота ядер CUDA больше не удвоена по отношению к остальным компонентам. Это сделано для экономии электроэнергии. И действительно, карта уложилась в TDP 195 Вт. Довольно скромный для флагманского продукта (у GeForce GTX 580 — 244 Вт, а у Radeon HD 7970 — 250 Вт), особенно в свете предыдущих «достижений» NVIDIA в этой области.
GPU производится по техпроцессу 28 нм и включает 3,54 млрд. транзисторов — «всего лишь» на 0,54 млрд. больше, чем в GF110. Для сравнения: в чипе Tahiti (Radeon HD 7970) 4,38 млрд. транзисторов.
3. ASUS GTX680 DirectCU II Дорогая, тихая, холодная. Но занимает аж три слота. #77#77
4. Gigabyte GTX 680 Super Overclock Уродство с пятью вентиляторами, каких ещё мир не видел #77#77
5. Colorful GTX 680 iGame Kudan В Китае 900 баксов. У нас нет и не будет (и слава Богу). Но зато в комплекте идут краски! #77#77
6. EVGA GeForce GTX 680 Classified Интересная карта, но на нашем рынке нет, пощупать её мне не удалось (( #77#77
7. GAINWARD PHANTOM GTX680 Палит/гейнвард тоже молодцы, неплохие карты делают в последнее время. #77#77
========================= ВОПРОСЫ И ОТВЕТЫ:
Общие вопросы.
Q: Почему карты в SLI работают на разных частотах? A: Это нормально, каждая карта по-разному нагружается, и буст работает соответствующим образом.
Q: Чем отличаются ASUS GTX670 directcu2 top и ASUS GTX670 directcu2 A: Карты отличаются только частотами
Q: Какая длина у GTX 680/670? A: Для референсов: 254mm у GTX 680 и 242mm у GTX 670. Для нереференсов: смотреть на официальном сайте.
Q: Запускаю GPU-Z/GPU Tweak/AIDA и ловлю красный экран. Это только мне так повезло? A: Нет, такое случалось у многих. Нужно поставить последнюю версию утилиты.
Q: Можно ли реализовать PCI-E 3.0 у GTX 680/670 на платформе LGA 2011? A: В GTX 6х0 PCI-E 3.0 для LGA 2011 заблокирован. Но есть патч, снимающий блокировку: force-enable-gen3.exe. Возможно глюки/лаги и снижение производительности. Все изменения вы делаете на свой страх и риск!
Q: Что нужно для того, чтобы видеокарта работала в PCI-E 3.0 16X? A: Нужно иметь процессор, поддерживающий работу PCI-E 3.0 16X, мат. плату с поддержкой PCI-E 3.0 16X и собственно саму видеокарту с поддержкой PCI-E 3.0 16X.
Q: Как отличается производительность в режимах PCI-E 2.0 16X и PCI-E 3.0 16X ? A: Разница незначительна, порядка 1%. Более подробно можно ознакомиться здесь.
Q: Какой DirectX поддерживают GTX 680/670? A: На данный момент DX11, с выходом Windows 8 - DX 11.1
Q: GPU-Z у моей карты показывает ASIC не 100%. Карта долго не проживет? A: На значения ASIC не стоит обращать внимания, т.к. оно изменяется в разных версиях. А как долго проживет Ваша карта, зависит лишь от Вас.
Q: В 3dMark 2006 прирост относительно моей старой карты совсем невелик, за что я заплатил $500? A: Тестирование в 3dMark 2006 уже неактуально, используйте 3dMark 11, а лучше современные игры.
Q: Возможно ли отключить GPU Boost? A:Теоретически да.Все изменения вы делаете на свой страх и риск!
Q: Достаточно ли 2Гб памяти на видеокарте? Есть ли смысл покупать 4Гб версию? A: В 90% хватает 2Гб памяти для 1080р и выше. Исключения составляют кривые игровые проекты, неофициальные моды и то, в разрешениях выше 1080р. Брать 4Гб версию имеет смысл только с прицелом на будущее, но учитывая консольность нынешней игроиндустрии, весьма сомнительный выбор, либо для тех кто использует 3 монитора.
Разгон.
Софтовый мониторинг занижает показания реального напряжения после прошивки соответствующего биоса. Не рекомендуется шить владельцам плат референсного дизайна. Фазы питания могу не выдержать такой ток.
Все изменения программной и аппаратной части ВК Вы делаете на свой страх и риск. Не предпринимайте никаких действий, если Вы не понимаете что и как нужно делать.
Статистика разгона GTX680\GTX670:
1. _AK_ Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1200MHz\7000 тест. 2. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.21V) 1306Mhz\6804 тест. 3. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.175 V) 1264MHz/6000 тест. 4. Rost223 Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1241MHz\6800 тест. 5. rogal GigaByte GV-N670OC-2GD (BIOS 1.175V) 1337\7500 тест. 5. rogal GigaByte GV-N670OC-2GD (BIOS 1.21V) 1372\7400 тест. 6. Hiller GIGABYTE CV-N680OC-2GD (BIOS 1.21V) 1306MHz\6804 тест. 7. Shm1T Palit GTX680 (BIOS 1.175) 1280\6998 тест. 8. K2K ASUS GTX 670 Direct Cu II (BIOS 1.162V) 1346\7000 тест. 9. t64a Asus GTX680-DC2T-2GD5 SLI (Bios не изиенялся, HotWire 1.35-1.37v.) 1424/7200 + 1398/7200 тест.
Q: Как разгонять GTX 680/670? A: Для начала ознакомиться вот с этой статьей в части описания методики разгона.
Q: Как у GTX 680/670 от ****** в плане разгона? A: Разгон - лотерея, можно достигнуть заоблачных частот и на рефе, а можно получить лишь +50 Mhz на очень дорогом нерефе.
Q: Как и чем прошивать BIOS GTX 680/670 ? A: Почитать можно тут и тут. Вопросы по прошивке, изменению и поиску BIOS задавать там же.
Q: Хард-Вольтмод GTX 680 (GPU Voltage modification) A:link
Q: Где взять разлоченные BIOS для GTX670\680? A: Cтоковые и модифицированные биосы (проверенные) для большинства ВК есть здесь.
Q: Можно ли изменить параметры родного BIOS-а видеокарты? A: Да, существует программа KGB, с ее помощью можно откорректировать некоторые параметры (турболимит, mix\max скорость вентиляторов СО). Камрад GreeDWaR сделал (перевел) инструкцию по использованию этой программы . Оригинал тут и сам KGB - Kepler BIOS Editor/Unlocker. Внимание, все модификации BIOS Вы осуществляете на свой страх и риск. Неправильные действия могут привести к поломке оборудования.
Q: У меня ВК SI GTX 680 Lightning, как разблокировать регулировку напряжения? A: Всё о прошивке MSI GTX 680 Lightning + разлочка АВ (и повышения вольтажа до 1.4v), здесь.
Q: Где еще можно найти разлоченный BIOS и почитать об этом? A: По ссылкам предоставленным нам труовером Leha-62RUS (за что ему большое спасибо) тут и тут.
Q: Возможно ли поднять напряжение на GPU? A: Совсем недавно вышли новые bios для карт с разблокированным напряжением на уровне 1,21В. Информации и статистики мало, все эксперименты делайте на свой страх и риск. Биосы находятся тут. Вариант прошивки bios от Leha62-RUS. Софтовый мониторинг занижает реальное напряжение, читать всем тут.
Q: Какие программы стоит использовать для разгона и мониторинга? A: MSI Afterburner и EVGA Precision X
Q: Поставил новую GTX 680/670, запустил MSI Afterburner, а там все частоты равны 0 и лишь графа Power Limit показывает 100. Как решить эту проблему? A: Проблемы никакой нет, всё так и должно быть.
Q: Как пользоваться програмой MSI Afterburner? A:тут и тут. Что касается разгона 670/680, то здесь гораздо проще. От вас потребуется выставить Powerlimit на максимум (132% для референсов), поднять core clock offset и memory clock offset и тестировать на стабильность. За работой турбобуста и значения power usage можно наблюдать в мониторинге AB.
Q: До каких частот разгоняются карты? A: Если итоговой частотой считать не базовую, а которую дает турбобуст, то в среднем карты разгоняются до 1230-1270. Нереференсы ASUS DCII чаще других берут в районе 1300. Но хочу заметить, что разгон это лотерея, и покупка дорогого нереференса не гарантирует хороший разгон.
Q: Можно ли ASUS GeForce GTX 680/670 Direct CU II перепрошить в TOP версию? A: Да можно. Для этого нужно взять BIOS от TOP версии и прошить им Вашу карту. Перед этим нужно убедиться в стабильности карты на частотах TOP версии. Перед перепрошивкой рекомендуется сделать backup BIOSa. Все изменения вы делаете на свой страх и риск!
Система охлаждения.
Q: Какое альтернативное охлаждение совместимо с GTX680? A: На данный момент Arctic Cooling Twin TurboII, Arctic Cooling Accelero Xtreme III . Возможно станет и TR Shaman, но не встречались владельцы. Возможна установка и других СО, но только на тех картах, где разъемы питания расположены в один ряд. Так же возможна установка ARCTIC Accelero Hybrid
Q: Где можно почитать посмотреть о Arctic Cooling Accelero Xtreme III ? A: Вот тут. (Спасибо .fx)
Q: Что дает замена охлаждения на 670/680? A: Да собственно кроме уменьшения температуры/шума ничего. Разгон никак не улучшается, ввиду невозможности поднять напряжение. Тоже самое можно сказать и про водяное охлаждение. Хотя по заявлению одного камрада, после смены стоковой СО на водяное, ему удалось разогнать на 10мгц по базовой частоте.
Q: Рефересн GTX 680 на автооборотах легко уходит за +85С, такие температуры норма? A: Нет, подобные температуры не являются нормой. Проверьте вентиляцию воздуха в корпусе, попробуйте изменить кривую кулера. Также одна из возможных причин - слабое прижатие СО.
Q: Будет ли снижение температуры GPU при замене термоинтерфейса на другой (МХ-4, МХ-2 и т.п.)? A: По опыту владельцев карт, которые производили данные операции, толку от подобных манипуляций нет. (При условии что нет брака в нанесении термопасты при сборке) Так что если температуры не отличаются от средних, смысла в замене термоинтерфейса нет.
Q: Если поставить карту на воду, я получу значительный прирост в разгоне? A: Нет, прирост будет незначительным, но стабильность повысится существенно. Для большего разгона необходимо повышение напряжения, что софтом пока невозможно.
- в любую 680/670ую можно прошить любой 680/670ый биос, не экспериментировал варианты с 4Гб памяти... По сообщению камрада ancemin в этом есть опасность. При заливке БИОС от другого вендора он получил "труп". Будьте очень аккуратны. - бытует мнение, что возможно прошить в 670ую биос от 680ой, я не побывал, не имею 670ой.... - повышение напряжения со штатных 1.175v до модифицырованных 1.21v, даёт прибавку в 30-70МГц - прошивать можно много-много-много раз, проблем после многочисленного количества перешивок, я не наблюдал - для разгона кеплера мне больше нравится ЕВГА Х, в отличии от АВ, она менее требовательна к версиям дров и биосов - программно повысить напругу до 1.4v можно только на MSI GTX 680 Lightning, переключив биос в режим LN2 и "поколдовав" над профилем а АВ - удачный чип берёт на стоке (1.175v) от 1300МГц и выше, а на моде (1.21v) от 1350МГц - при разгоне не забывайте об охлаждении, низкая температура GPU ещё не означает, что VRM и MEM, себя так-же хорошо чувствуют! - всё пока вроде... Все манипуляции с ВК, включая, но не ограничиваясь изменениями BIOS, системы СО, питания своей видеокарты Вы производите на свой страх и риск. Никакой ответственности за возможныю порчу оборудования автор не несет.
Member
Статус: Не в сети Регистрация: 13.09.2007 Откуда: Барнаул Фото: 2
Судя по обзорам, GTX580 пора отправлять на заслуженную пенсию(правда в рукаве это платы - хороший разгон, но энергопотребление этой печки просто невероятное), только вот беда, все хорошие игры на ней даже без разгона летают, в FHD на максимуме с 4х-8х сглаживанием идут на комфортных 60к\с и менять ее пока мало смысла. Правда для 2560х1440-1600 конечно 580я слабовата, а вот 680я демонстрирует очень интересные результаты при всего 256битной шине и 2гб памяти. Это не эволюция, это - настоящий прорыв (транзисторный бюджет использован очень грамотно), кеплер действительно интересным вышел. Если бы была 384битная шина - то подобная плата камня на камне не оставила бы даже от таких монстров, как 6990 и 590 даже в разгоне. Ожидаю что всего ч\з полгода цены на нее свалятся до 300долларов, ведь сама по себестоимости 680я не дороже когда-то выпущенной GTS250, даже чип имеет схожую площадь и шину в 256бит. Несуразное инженерное питание думаю переделают, тут даже от 560Ti РСВ пойдет - как раз для памяти хватит 1фазы, а для ядра - 4фазы хватает. Т.е. в реальности, цена постепенно может опуститься до текущих цен на 560Ti\560 - даже СО можно использовать от нее же, справится вполне, тепловыделение схожее.
Member
Статус: Не в сети Регистрация: 13.09.2007 Откуда: Барнаул Фото: 2
Судил по быстрому падению производительности при увеличении сглаживания и разрешения, чего например не происходит с радеонами 79хх. Ведь ПСП по сравнению GTX580, которая практически чуть ли не в 2раза слабее вообще не возросла. Да и растеризаторов маловато для такого чипа, в общем производительность ограничена ПСП, шиной и кол-м растеризаторов. 384бита и 48ROP тут были бы к месту. Зато нвидиа теперь с минимальными затратами может неплохо обогатиться (особенно полезно в связи с падением цен на предыдущие топы, ведь их себестоимость достаточно высока из-за большой площади чипа и низкого выхода годных чипов, а также достаточно сложной РСВ и VRM), подозреваю себестоимость не выше 1\4 от конечной розничной цены.
Member
Статус: Не в сети Регистрация: 30.03.2008 Откуда: Germany Фото: 10
Карта не плохая но на "680" не тянет. Проблема с 2Гб. Взял 580 с 3Гб мониторю загрузку памяти, (из всех обзоров 680 ни у кого не увидел). Будет кретически... Приятно что тесты все в 1980 да 2560. Карта (680) до 4 мониторов поддерживает... чёж не потестовали? Ах да зачем омрачать... Скоро квадро презентуют, думаю будет тот же чип, похоже каменный цветок каким вышел таким и вышел. С месяц назад в сети разглядели на кожухе 670 Ti было какое то фото. Сглазили. И как из этого "обрубка", бюджетники делать? Хорошо хоть (я) не фанат, начал расматривать тесты 7970...
Member
Статус: Не в сети Регистрация: 17.09.2009 Откуда: Беларусь, Минск
Для мультимониторов мало памяти. У меня в Скайриме сжирает все 2 гб памяти у 6970. Тем не менее, попробовал бы данную карту если появятся 3+гб сторонние решения. Интригует наконец-таки внедренная технология больше двух мониторов на одной карте, это одна из причин из-за чего я отказался от карт Nvidia в прошлом, а сейчас прямо вот так и хочется попробовать.
Member
Статус: Не в сети Регистрация: 07.03.2009 Откуда: Северодвинск
В дополнении к этому:
Цитата:
Руки дошли до цифр, играю в скайрим, турбобуст пашет на частотах от 1080 до 1150 в среднем 1105. температура 86С при этом турбина всего 60%, всё очень тихо, шум теряется в комнате с фоновыми шумами и телевизором, даже одна 580 которая стояло до этого шумела значительно сильнее, не говоря уже об слае из них. Как ветку откроют напишу подробно.
Пока ещё есть 580, потестил и сравнил их в паре игр, в скайриме прирост до 50% но думаю тут проблема со стороны 580, не хватает видеопамяти (офф. хай текстур пак + ~50 модов), чаще всего она забита полностью, ещё интересный момент 680 использует на 100-150 мегабайт видеопамяти меньше в тех же сценах, максимум что я видел это 1700Мб. Субъективно, звучит бредово я знаю, играть на одной 680 комфортнее чем на 2х580.
В сёгуне 2 прирост по сравнении с одной 580 около 40% очень порадовало. (Неужели всё упиралось в видеопамять?).
Частоты в 2Д снижаются максимум до 324/162Мг (ядро/память) При использовании Zune карта всегда на максимальных частотах.
Без косяков не обошлось, драйвера не хотели ставится, ссылаясь на отсутствующий файл бла бла бла. Смог поставить только ручками через диспетчер устройств с указанием папки с дровами, мелочь но не приятно.
Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.
Member
Статус: Не в сети Регистрация: 07.03.2009 Откуда: Северодвинск
VladPayne Ну я такой функции не нашёл, в драйверах дак вообще никакого упоминания об GPU Boost, полагаю это всё таки аппаратная фишка которую нельзя отключить. ЗЫ. Поехал за второй карточкой, часиков в 7 отпишусь.
Member
Статус: Не в сети Регистрация: 10.11.2009 Откуда: Харьков, UA
Abraxas29 писал(а):
Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.
Сейчас этот форум просматривают: AlexeyG и гости: 31
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения