Часовой пояс: UTC + 3 часа




Куратор(ы):   Schumi F1    Ligas   



Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 25356 • Страница 1 из 12681  2  3  4  5 ... 1268  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 
Прилепленное (важное) сообщение

Member
Предупреждение 
Статус: Не в сети
Регистрация: 09.10.2006
Фото: 1
Все о GeForce GTX 670/680/760/770 (GK104. Kepler 28nm)
В этой теме обсуждаются конкретные технические проблемы конкретных пользователей девайса, всё остальное, включая цены и все вопросы выбора и приобретения решаются в другом месте!

Вопросы по способам и проблемам прошивки карт, а так же вопросы поиска BIOS в данной теме считаются оффтопом. Искать и спрашивать нужно по ссылкам данным ниже.


Вопросы типа "Что лучше купить - ASUS или PALIT" будут удаляться безжалостно.Выбор ВК в другой теме.

========

FAQ

========

Смежные темы (вопросы обсуждаемые в них в данной ветке не обсуждаются):

СВО для GTX 680/ 670
Все о технологии SLI
Драйвера для видеокарты
Помощь в выборе PCI-E видеокарты + FAQ
Хватит ли мощности блока питания для этой системы? (+FAQ)
Прошивка и редактирование биосов видеокарт Nvidia + FAQ.
Биосы видеокарт - вопросы прошивки, редактирования и др. + FAQ
PhysX + FAQ
Все о TV-OUT
Фанатская ветка/флудилка
Результаты в 3DMark11.
Результаты в 3DMark (2013)
Результаты ASIC quality
Результаты Heaven DX11 Benchmark v3.0/v4.0
======================

Инструкция софтвольтмода под 1.21+ с помощью MSI afterburner, работает не на всех картах!
Открываем файл в папке с программой (\Program Files (x86)\MSI Afterburner\Profiles\VEN_10DE&DEV_1180....cfg) версия MSI AB должна быть не ниже 3.0.0 17beta и добавляем следующие строки:
[Settings]
VDDC_Generic_Detection = 0
VDDC_CHL8318_Detection = 46h либо 44h либо 74(зависит от контролера на карте)
VDDC_CHL8318_Type = 1
Возможно потребуется перезагрузка.
Поиском можно найти владельцев с удачными примерами раз блокировки.


ПРАВИЛА КОНФЕРЕНЦИИ обязательны к прочтению и исполнению всеми пользователями без исключения.

Весь оффтоп, флейм и прочие нарушения правил будут награждаться ЖК!

Прежде чем задать вопрос или ответить, подумайте, не ошиблись ли вы темой.

Перед тем, как задать вопрос, пожалуйста заполните / обновите профиль!


О том, как ПРАВИЛЬНО сделать скриншоты и выложить их здесь (да и не только здесь) читать тут. Не нужно считать себя умнее окружающих и вываливать фото рабочего стола в виде bmp-картинки полотнищем размером в 1480 x 1036.

Все пожелания и предложения касаемо темы приветствуются в ЛС.

Собирается статистика разгона сабжевых карт. Всю информацию в ЛС.

Кураторы данной темы: Ligas , Schumi F1


Последний раз редактировалось Dex 12.10.2023 13:34, всего редактировалось 50 раз(а).
Обновление.



Партнер
 

Member
Статус: Не в сети
Регистрация: 16.04.2011
Откуда: Москва, СЗАО
=======

FAQ
=======

Общая информация.

#77

GK104 содержит 1536 ядер CUDA, что втрое больше, чем у GF110 (GeForce GTX 580), 128 текстурных блоков (больше в два раза) и 32 ROP (а вот это шаг назад, у GF110 их 48). Ширина шины памяти — 256 бит, но работает она на эффективной частоте 6008 МГц. «Шея стала тоньше, но зато длинней». Объем памяти — 2 Гбайт. Поддерживается интерфейс PCI-E 3.0
GPU имеет базовую тактовую частоту 1006 МГц, а частота ядер CUDA больше не удвоена по отношению к остальным компонентам. Это сделано для экономии электроэнергии. И действительно, карта уложилась в TDP 195 Вт. Довольно скромный для флагманского продукта (у GeForce GTX 580 — 244 Вт, а у Radeon HD 7970 — 250 Вт), особенно в свете предыдущих «достижений» NVIDIA в этой области.

GPU производится по техпроцессу 28 нм и включает 3,54 млрд. транзисторов — «всего лишь» на 0,54 млрд. больше, чем в GF110. Для сравнения: в чипе Tahiti (Radeon HD 7970) 4,38 млрд. транзисторов.

Фото референсных карт.

#77
#77


разнообразие GTX 680 от разных вендоров
1. Inno3D I-Chill GTX680 Herculez 3000
Доступна на рынке. Не самая дорогая.
http://inno3d.biz/ru/products/geforce_6 ... chill_680/
#77#77

2. MSI N680GTX Lightning
Наверное, сама быстрая. Но стоит реально дорого
http://ua.msi.com/product/vga/N680GTX-Lightning.html
#77#77

3. ASUS GTX680 DirectCU II
Дорогая, тихая, холодная. Но занимает аж три слота.
#77#77

4. Gigabyte GTX 680 Super Overclock
Уродство с пятью вентиляторами, каких ещё мир не видел
#77#77

5. Colorful GTX 680 iGame Kudan
В Китае 900 баксов. У нас нет и не будет (и слава Богу).
Но зато в комплекте идут краски!
#77#77

6. EVGA GeForce GTX 680 Classified
Интересная карта, но на нашем рынке нет, пощупать её мне не удалось ((
#77#77

7. GAINWARD PHANTOM GTX680
Палит/гейнвард тоже молодцы, неплохие карты делают в последнее время.
#77#77




=========================
ВОПРОСЫ И ОТВЕТЫ:

Общие вопросы.
Q: Почему карты в SLI работают на разных частотах?
A: Это нормально, каждая карта по-разному нагружается, и буст работает соответствующим образом.

Q: Чем отличаются ASUS GTX670 directcu2 top и ASUS GTX670 directcu2
A: Карты отличаются только частотами

Q: Какая длина у GTX 680/670?
A: Для референсов: 254mm у GTX 680 и 242mm у GTX 670. Для нереференсов: смотреть на официальном сайте.

Q: Запускаю GPU-Z/GPU Tweak/AIDA и ловлю красный экран. Это только мне так повезло?
A: Нет, такое случалось у многих. Нужно поставить последнюю версию утилиты.


Q: Можно ли реализовать PCI-E 3.0 у GTX 680/670 на платформе LGA 2011?
A: В GTX 6х0 PCI-E 3.0 для LGA 2011 заблокирован. Но есть патч, снимающий блокировку: force-enable-gen3.exe. Возможно глюки/лаги и снижение производительности. Все изменения вы делаете на свой страх и риск!

Q: Что нужно для того, чтобы видеокарта работала в PCI-E 3.0 16X?
A: Нужно иметь процессор, поддерживающий работу PCI-E 3.0 16X, мат. плату с поддержкой PCI-E 3.0 16X и собственно саму видеокарту с поддержкой PCI-E 3.0 16X.

Q: Как отличается производительность в режимах PCI-E 2.0 16X и PCI-E 3.0 16X ?
A: Разница незначительна, порядка 1%. Более подробно можно ознакомиться здесь.

Q: Какой DirectX поддерживают GTX 680/670?
A: На данный момент DX11, с выходом Windows 8 - DX 11.1

Q: GPU-Z у моей карты показывает ASIC не 100%. Карта долго не проживет?
A: На значения ASIC не стоит обращать внимания, т.к. оно изменяется в разных версиях. А как долго проживет Ваша карта, зависит лишь от Вас.

Q: В 3dMark 2006 прирост относительно моей старой карты совсем невелик, за что я заплатил $500?
A: Тестирование в 3dMark 2006 уже неактуально, используйте 3dMark 11, а лучше современные игры.


Q: Какие самые свежие дрова для GTX 680/670?
A: См. соответствующую тему: Всё о GeForce для Windows Vista/7/8

Q: Какой минимальный процессор необходим для GTX 680/670?
A: Квад уровня i5 750 и выше. Вот тут можно почитать подробнее.

Q: Напряжение 1,175v не очень ли большое для 28nm техпроцесса?
A: 1,175v является стандартным напряжением.

Q: Где можно посмотреть результаты GTX680 в Adobe Premiere CS5, CS5.5 and CS6?
A: http://www.studio1productions.com/Articles/PremiereCS5.htm

Q: Как GTX 680 проявляет себя в CUDA вычислениях?
A: http://muropaketti.com/artikkelit/naytonohjaimet/gpgpu-suorituskyky-amd-vs-nvidia,2

Q: Возможно ли отключить GPU Boost?
A: Теоретически да. Все изменения вы делаете на свой страх и риск!

Q: Достаточно ли 2Гб памяти на видеокарте? Есть ли смысл покупать 4Гб версию?
A: В 90% хватает 2Гб памяти для 1080р и выше. Исключения составляют кривые игровые проекты, неофициальные моды и то, в разрешениях выше 1080р. Брать 4Гб версию имеет смысл только с прицелом на будущее, но учитывая консольность нынешней игроиндустрии, весьма сомнительный выбор, либо для тех кто использует 3 монитора.


Разгон.
Софтовый мониторинг занижает показания реального напряжения после прошивки соответствующего биоса. Не рекомендуется шить владельцам плат референсного дизайна. Фазы питания могу не выдержать такой ток.

Все изменения программной и аппаратной части ВК Вы делаете на свой страх и риск. Не предпринимайте никаких действий, если Вы не понимаете что и как нужно делать.

Статистика разгона GTX680\GTX670:

1. _AK_ Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1200MHz\7000 тест.
2. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.21V) 1306Mhz\6804 тест.
3. Hemul Gigabyte GV-N680OC-2GD (BIOS 1.175 V) 1264MHz/6000 тест.
4. Rost223 Asus GTX670 DIRECT CU2 (BIOS 1.175V) 1241MHz\6800 тест.
5. rogal GigaByte GV-N670OC-2GD (BIOS 1.175V) 1337\7500 тест.
5. rogal GigaByte GV-N670OC-2GD (BIOS 1.21V) 1372\7400 тест.
6. Hiller GIGABYTE CV-N680OC-2GD (BIOS 1.21V) 1306MHz\6804 тест.
7. Shm1T Palit GTX680 (BIOS 1.175) 1280\6998 тест.
8. K2K ASUS GTX 670 Direct Cu II (BIOS 1.162V) 1346\7000 тест.
9. t64a Asus GTX680-DC2T-2GD5 SLI (Bios не изиенялся, HotWire 1.35-1.37v.) 1424/7200 + 1398/7200 тест.


Q: Как разгонять GTX 680/670?
A: Для начала ознакомиться вот с этой статьей в части описания методики разгона.

Q: Как у GTX 680/670 от ****** в плане разгона?
A: Разгон - лотерея, можно достигнуть заоблачных частот и на рефе, а можно получить лишь +50 Mhz на очень дорогом нерефе.


Q: Как и чем прошивать BIOS GTX 680/670 ?
A: Почитать можно тут и тут. Вопросы по прошивке, изменению и поиску BIOS задавать там же.

Q: Хард-Вольтмод GTX 680 (GPU Voltage modification)
A: link

Q: Где взять разлоченные BIOS для GTX670\680?
A: Cтоковые и модифицированные биосы (проверенные) для большинства ВК есть здесь.

Q: Можно ли изменить параметры родного BIOS-а видеокарты?
A: Да, существует программа KGB, с ее помощью можно откорректировать некоторые параметры (турболимит, mix\max скорость вентиляторов СО). Камрад GreeDWaR сделал (перевел) инструкцию по использованию этой программы . Оригинал тут и сам KGB - Kepler BIOS Editor/Unlocker.
Внимание, все модификации BIOS Вы осуществляете на свой страх и риск. Неправильные действия могут привести к поломке оборудования.

Q: У меня ВК SI GTX 680 Lightning, как разблокировать регулировку напряжения?
A: Всё о прошивке MSI GTX 680 Lightning + разлочка АВ (и повышения вольтажа до 1.4v), здесь.

Q: Где еще можно найти разлоченный BIOS и почитать об этом?
A: По ссылкам предоставленным нам труовером Leha-62RUS (за что ему большое спасибо) тут и тут.

Q: Возможно ли поднять напряжение на GPU?
A: Совсем недавно вышли новые bios для карт с разблокированным напряжением на уровне 1,21В. Информации и статистики мало, все эксперименты делайте на свой страх и риск. Биосы находятся тут.
Вариант прошивки bios от Leha62-RUS. Софтовый мониторинг занижает реальное напряжение, читать всем тут.

Q: Какие программы стоит использовать для разгона и мониторинга?
A: MSI Afterburner и EVGA Precision X

Q: Поставил новую GTX 680/670, запустил MSI Afterburner, а там все частоты равны 0 и лишь графа Power Limit показывает 100. Как решить эту проблему?
A: Проблемы никакой нет, всё так и должно быть.

Q: Как пользоваться програмой MSI Afterburner?
A: тут и тут. Что касается разгона 670/680, то здесь гораздо проще. От вас потребуется выставить Powerlimit на максимум (132% для референсов), поднять core clock offset и memory clock offset и тестировать на стабильность. За работой турбобуста и значения power usage можно наблюдать в мониторинге AB.

Q: До каких частот разгоняются карты?
A: Если итоговой частотой считать не базовую, а которую дает турбобуст, то в среднем карты разгоняются до 1230-1270. Нереференсы ASUS DCII чаще других берут в районе 1300. Но хочу заметить, что разгон это лотерея, и покупка дорогого нереференса не гарантирует хороший разгон.

Q: Вольтмод ASUS 680GTX DCII
A: линк

Q: Можно ли ASUS GeForce GTX 680/670 Direct CU II перепрошить в TOP версию?
A: Да можно. Для этого нужно взять BIOS от TOP версии и прошить им Вашу карту. Перед этим нужно убедиться в стабильности карты на частотах TOP версии. Перед перепрошивкой рекомендуется сделать backup BIOSa. Все изменения вы делаете на свой страх и риск!


Система охлаждения.
Q: Какое альтернативное охлаждение совместимо с GTX680?
A: На данный момент Arctic Cooling Twin TurboII, Arctic Cooling Accelero Xtreme III . Возможно станет и TR Shaman, но не встречались владельцы. Возможна установка и других СО, но только на тех картах, где разъемы питания расположены в один ряд. Так же возможна установка ARCTIC Accelero Hybrid

Q: Где можно почитать посмотреть о Arctic Cooling Accelero Xtreme III ?
A: Вот тут. (Спасибо .fx)

Q: Что дает замена охлаждения на 670/680?
A: Да собственно кроме уменьшения температуры/шума ничего. Разгон никак не улучшается, ввиду невозможности поднять напряжение. Тоже самое можно сказать и про водяное охлаждение. Хотя по заявлению одного камрада, после смены стоковой СО на водяное, ему удалось разогнать на 10мгц по базовой частоте.

Q: Рефересн GTX 680 на автооборотах легко уходит за +85С, такие температуры норма?
A: Нет, подобные температуры не являются нормой. Проверьте вентиляцию воздуха в корпусе, попробуйте изменить кривую кулера. Также одна из возможных причин - слабое прижатие СО.

Q: Будет ли снижение температуры GPU при замене термоинтерфейса на другой (МХ-4, МХ-2 и т.п.)?
A: По опыту владельцев карт, которые производили данные операции, толку от подобных манипуляций нет. (При условии что нет брака в нанесении термопасты при сборке) Так что если температуры не отличаются от средних, смысла в замене термоинтерфейса нет.

Q: Если поставить карту на воду, я получу значительный прирост в разгоне?
A: Нет, прирост будет незначительным, но стабильность повысится существенно. Для большего разгона необходимо повышение напряжения, что софтом пока невозможно.


Обзоры.
Русскоязычные:
Видеокарта-альбинос. Обзор KFA2 GeForce GTX 680 LTD OC.
Обзор и тестирование видеокарты NVIDIA GeForce GTX 680
GeForce GTX 680: Чемпион на стероидах
NVIDIA GeForce GTX 680 -Новый однопроцессорный лидер 3D-графики
ASUS GeForce GTX 680 SLI
GeForce GTX 680: SLI, разрешение 5760x1080 и разгон
Обзор и тестирование видеокарты Gainward GeForce GTX 680 Phantom
Как справляется ARCTIC Accelero Twin Turbo II с GeForce GTX 680?
ASUS GTX 680 DirectCU II TOP vs. Palit GTX 680 JetStream. Чьё кунг-фу сильнее?
Обзор и тест видеокарты Nvidia GeForce GTX 680 на примере Palit GeForce GTX 680 JetStream 4096Мб
Видеокарта Gigabyte GeForce GTX 680 Super Overclock с системой охлаждения WindForce 5X.
Золотой дракон. Обзор Inno3D GeForce GTX 680 iChill.
Нашествие армады GeForce GTX 680
Сравнение видеокарт 7970/680 на разных шинах pci-e 1.1/2.0/3.0
Чемпион в среднем весе: обзор и тестирование видеокарты NVIDIA GeForce GTX 670
NVIDIA GeForce GTX 670: лучшее по соотношению цена-функциональность решение класса Hi-End среди ускорителей 3D-графики
NVIDIA GeForce GTX 670 — сжатие без потерь
Gigabyte GV-N670OC-2GD — улучшенный GeForce GTX 670
ASUS GTX670-DC2-2GD5. Еще один правильный GeForce GTX 670
Нашествие армады GeForce GTX 670
Три бойца зеленого лагеря: ASUS GTX 670 DirectCU II TOP, Palit GTX 670 Jetstream и Gainward GTX 670 Phantom
Обзор и тестирование видеокарты ZOTAC GTX 660 Ti AMP! Edition
Первое знакомство с GeForce GTX 660 Ti и Zotac GTX 660 Ti AMP! Edition
Обзор видеокарт Palit GTX 660 Ti JETSTREAM и MSI N660Ti PE 2GD5/OC. Эффективность работы 3-Way SLI

Англоязычные:

Gigabyte GTX 670 OC 2 GB
NVIDIA GeForce GTX 670
ASUS GTX 670 Direct CU II
Palit GTX 670 JetStream
ZOTAC GTX 670 AMP! Edition


Заметки "на полях" от Leha-62RUS
- в любую 680/670ую можно прошить любой 680/670ый биос, не экспериментировал варианты с 4Гб памяти... По сообщению камрада ancemin в этом есть опасность. При заливке БИОС от другого вендора он получил "труп". Будьте очень аккуратны.
- бытует мнение, что возможно прошить в 670ую биос от 680ой, я не побывал, не имею 670ой....
- повышение напряжения со штатных 1.175v до модифицырованных 1.21v, даёт прибавку в 30-70МГц
- прошивать можно много-много-много раз, проблем после многочисленного количества перешивок, я не наблюдал
- для разгона кеплера мне больше нравится ЕВГА Х, в отличии от АВ, она менее требовательна к версиям дров и биосов
- программно повысить напругу до 1.4v можно только на MSI GTX 680 Lightning, переключив биос в режим LN2 и "поколдовав" над профилем а АВ
- удачный чип берёт на стоке (1.175v) от 1300МГц и выше, а на моде (1.21v) от 1350МГц
- при разгоне не забывайте об охлаждении, низкая температура GPU ещё не означает, что VRM и MEM, себя так-же хорошо чувствуют!
- всё пока вроде...

Все манипуляции с ВК, включая, но не ограничиваясь изменениями BIOS, системы СО, питания своей видеокарты Вы производите на свой страх и риск. Никакой ответственности за возможныю порчу оборудования автор не несет.

_________________
EVGA NVIDIA 680GTX 2GB 2-WAY SLI / Core i7 3930K@4.8Ghz / Corsair 64GB DDR3 / ASUS Rampage IV Extreme / Corsair 800D / 1TB SSD / 4TB HDD / 1200W / СВО


Последний раз редактировалось _AK_ 02.05.2013 14:23, всего редактировалось 41 раз(а).
Обновление статистики разгона.


 

Member
Статус: Не в сети
Регистрация: 13.09.2007
Откуда: Барнаул
Фото: 2
Судя по обзорам, GTX580 пора отправлять на заслуженную пенсию(правда в рукаве это платы - хороший разгон, но энергопотребление этой печки просто невероятное), только вот беда, все хорошие игры на ней даже без разгона летают, в FHD на максимуме с 4х-8х сглаживанием идут на комфортных 60к\с и менять ее пока мало смысла. Правда для 2560х1440-1600 конечно 580я слабовата, а вот 680я демонстрирует очень интересные результаты при всего 256битной шине и 2гб памяти. Это не эволюция, это - настоящий прорыв (транзисторный бюджет использован очень грамотно), кеплер действительно интересным вышел. Если бы была 384битная шина - то подобная плата камня на камне не оставила бы даже от таких монстров, как 6990 и 590 даже в разгоне. Ожидаю что всего ч\з полгода цены на нее свалятся до 300долларов, ведь сама по себестоимости 680я не дороже когда-то выпущенной GTS250, даже чип имеет схожую площадь и шину в 256бит. Несуразное инженерное питание думаю переделают, тут даже от 560Ti РСВ пойдет - как раз для памяти хватит 1фазы, а для ядра - 4фазы хватает. Т.е. в реальности, цена постепенно может опуститься до текущих цен на 560Ti\560 - даже СО можно использовать от нее же, справится вполне, тепловыделение схожее.

_________________
i7-4770K@4800+CM-N280L|Z87Extreme6+32GB@2400MHz 1,7V|2xRX580@1400_8900+65"4K+31,5"4K|AX860|JB465\W-3000\R2600\R2700|V3-571G|D5300\D3300\NX30


Последний раз редактировалось _AK_ 30.09.2012 23:31, всего редактировалось 1 раз.

 

Member
Статус: Не в сети
Регистрация: 22.02.2012
Откуда: Моск. Обл.
Фото: 274
vital_xbc писал(а):
Если бы была 384битная шина - то подобная плата камня на камне не оставила бы даже от таких монстров, как 6990 и 590 даже в разгоне

С чего вы взяли что производительность упирается именно в пропускную способность шины памяти?

_________________
R7 5800X3D (CO -30) // B550 AORUS PRO V2 // Micron Rev. E. 32GB (2x16GB)@3600// RTX 3070 // 1920х1080 144гц


 

Member
Статус: Не в сети
Регистрация: 13.09.2007
Откуда: Барнаул
Фото: 2
Судил по быстрому падению производительности при увеличении сглаживания и разрешения, чего например не происходит с радеонами 79хх. Ведь ПСП по сравнению GTX580, которая практически чуть ли не в 2раза слабее вообще не возросла. Да и растеризаторов маловато для такого чипа, в общем производительность ограничена ПСП, шиной и кол-м растеризаторов. 384бита и 48ROP тут были бы к месту. Зато нвидиа теперь с минимальными затратами может неплохо обогатиться (особенно полезно в связи с падением цен на предыдущие топы, ведь их себестоимость достаточно высока из-за большой площади чипа и низкого выхода годных чипов, а также достаточно сложной РСВ и VRM), подозреваю себестоимость не выше 1\4 от конечной розничной цены.

_________________
i7-4770K@4800+CM-N280L|Z87Extreme6+32GB@2400MHz 1,7V|2xRX580@1400_8900+65"4K+31,5"4K|AX860|JB465\W-3000\R2600\R2700|V3-571G|D5300\D3300\NX30


 

Member
Статус: Не в сети
Регистрация: 07.07.2011
Откуда: Уфа
Фото: 86
Zlobon писал(а):
Как думаете,моего камня хватит для одной такой карты?

Должно хватить. Но учитывая что "форсы" больше процезавсимы, чем "радеоны" выводы пока делать рано. :-)

_________________
Overclockers.ru forever


 

Member
Статус: Не в сети
Регистрация: 30.03.2008
Откуда: Germany
Фото: 10
Карта не плохая но на "680" не тянет. Проблема с 2Гб. Взял 580 с 3Гб мониторю загрузку памяти, (из всех обзоров 680 ни у кого не увидел). Будет кретически...
Приятно что тесты все в 1980 да 2560.
Карта (680) до 4 мониторов поддерживает... чёж не потестовали? Ах да зачем омрачать...
Скоро квадро презентуют, думаю будет тот же чип, похоже каменный цветок каким вышел таким и вышел. С месяц назад в сети разглядели на кожухе 670 Ti было какое то фото. Сглазили. И как из этого "обрубка", бюджетники делать?
Хорошо хоть (я) не фанат, начал расматривать тесты 7970...

_________________
MSI Unify x570 3900X RTX 3090 TUF 2x16Gb P1700M Lepa Samsung 4K UE65KS9500


 

Member
Статус: Не в сети
Регистрация: 23.08.2007
Откуда: Россия
wolik http://www.fcenter.ru/img/article/video ... 184956.png 680 2GB stock vs 580 3GB stock
а вот мониторинга потребления памяти действительно не замечал пока.

_________________
10700K@5Ghz/Z490 MSI A-PRO/32gb@3600/1TB SSD+128GB SSD+2TB NVME/2TB+3TB HDD/RTX 4070Ti/Montech 1200W/W11x64@G815@G703


 

Member
Статус: Не в сети
Регистрация: 06.09.2006
Присоединяюсь к общему мнению, что выход этой карты благоприятно скажется на ценах :P


 

Member
Статус: Не в сети
Регистрация: 23.08.2007
Откуда: Россия
http://www.ixbt.com/news/hard/index.shtml?15/64/20 вендоры представили референсы (наклеечки :D). ASUS, Galaxy, MSI, PNY, Zotac, Gigabyte, Club 3D, Gainward.

_________________
10700K@5Ghz/Z490 MSI A-PRO/32gb@3600/1TB SSD+128GB SSD+2TB NVME/2TB+3TB HDD/RTX 4070Ti/Montech 1200W/W11x64@G815@G703


 

Member
Статус: Не в сети
Регистрация: 17.09.2009
Откуда: Беларусь, Минск
Для мультимониторов мало памяти. У меня в Скайриме сжирает все 2 гб памяти у 6970.
Тем не менее, попробовал бы данную карту если появятся 3+гб сторонние решения. Интригует наконец-таки внедренная технология больше двух мониторов на одной карте, это одна из причин из-за чего я отказался от карт Nvidia в прошлом, а сейчас прямо вот так и хочется попробовать.


 

Member
Статус: Не в сети
Регистрация: 21.07.2006
Откуда: Красноярск
Владельцы сабжа, подскажите, при выводе звука по HDMI доступны DD TrueHD или DTS MA? или опять все тот же LPCM?

_________________
Win11Pro, ASUS ROG Z690 HERO, 13900K, 2x16 TEAMGROUP 7200@6800 CL34, MSI RTX 4090 Suprim X 24G, Samsung 980 Pro 1Tb, Samsung G7 32"


 

Member
Статус: Не в сети
Регистрация: 10.03.2009
Откуда: Россия
Фото: 3
nwldx напруга у нее кокая стандартная?

ПС фотку её в живую можешь выложить? :-)


 

Member
Статус: Не в сети
Регистрация: 07.03.2009
Откуда: Северодвинск
В дополнении к этому:
Цитата:
Руки дошли до цифр, играю в скайрим, турбобуст пашет на частотах от 1080 до 1150 в среднем 1105. температура 86С при этом турбина всего 60%, всё очень тихо, шум теряется в комнате с фоновыми шумами и телевизором, даже одна 580 которая стояло до этого шумела значительно сильнее, не говоря уже об слае из них. Как ветку откроют напишу подробно.

Пока ещё есть 580, потестил и сравнил их в паре игр, в скайриме прирост до 50% но думаю тут проблема со стороны 580, не хватает видеопамяти (офф. хай текстур пак + ~50 модов), чаще всего она забита полностью, ещё интересный момент 680 использует на 100-150 мегабайт видеопамяти меньше в тех же сценах, максимум что я видел это 1700Мб. Субъективно, звучит бредово я знаю, играть на одной 680 комфортнее чем на 2х580.

В сёгуне 2 прирост по сравнении с одной 580 около 40% очень порадовало. (Неужели всё упиралось в видеопамять?).

Частоты в 2Д снижаются максимум до 324/162Мг (ядро/память) При использовании Zune карта всегда на максимальных частотах.

Без косяков не обошлось, драйвера не хотели ставится, ссылаясь на отсутствующий файл бла бла бла. Смог поставить только ручками через диспетчер устройств с указанием папки с дровами, мелочь но не приятно.

Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.


 

Member
Статус: Не в сети
Регистрация: 16.04.2011
Откуда: Москва, СЗАО
Abraxas29 писал(а):
В сёгуне 2 прирост по сравнении с одной 580 около 40% очень порадовало. (Неужели всё упиралось в видеопамять?).

а вот в сегуне какой шум и температуры? От SLI интересно на референсе как и что

_________________
EVGA NVIDIA 680GTX 2GB 2-WAY SLI / Core i7 3930K@4.8Ghz / Corsair 64GB DDR3 / ASUS Rampage IV Extreme / Corsair 800D / 1TB SSD / 4TB HDD / 1200W / СВО


 

Member
Статус: Не в сети
Регистрация: 07.03.2009
Откуда: Северодвинск
Цитата:
а вот в сегуне какой шум и температуры?

Полностью аналогично Скайриму ~85c/60%, в тихой комнате конечно слышно шум (но не вой) турбины, но по сравнению с 580 - благодать.

ЗЫ. Как разработчикам удалось сделать так что видяшка греется на глобально карте сильнее чем в бою? Я ещё на 580 офигевал от этого.


 

Member
Статус: Не в сети
Регистрация: 10.02.2007
Откуда: Москва
кто-нибудь может объяснить как к этой видеокарте подключить четыре монитора? или для этого нужен сли? все мониторы dvi


 

Member
Статус: Не в сети
Регистрация: 09.02.2005
Откуда: Latvia, Riga
Фото: 5
Abraxas29
Есть возможность зафиксировать частоту или она в любом случае всегда "скачет"?

_________________
Форум читал с 2004 года. Зарегистрировался в 2005 - чувствую себя стариком.


 

Member
Статус: Не в сети
Регистрация: 07.03.2009
Откуда: Северодвинск
VladPayne Ну я такой функции не нашёл, в драйверах дак вообще никакого упоминания об GPU Boost, полагаю это всё таки аппаратная фишка которую нельзя отключить.
ЗЫ. Поехал за второй карточкой, часиков в 7 отпишусь.


 

Member
Статус: Не в сети
Регистрация: 10.11.2009
Откуда: Харьков, UA
Abraxas29 писал(а):
Надеюсь в среду максимум привезут вторую карту, хочу посмотреть масштабируемость при использовании 8/8 PCI-E 2.0, подозреваю что картам этого будет мало и придётся переезжать на IB.

Должно хватить того, что есть:
http://forums.overclockers.ru/viewtopic.php?p=9539972#p9539972


Показать сообщения за:  Поле сортировки  
Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 25356 • Страница 1 из 12681  2  3  4  5 ... 1268  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: AlastorCrow, BoDYRoCK, dr2ozz, Gosha, GT3R, keekkenen, LorDex, Mad Max, pred-ok, -SPQR-, XBT+, ЭлектроПозитив и гости: 37


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  

Лаборатория














Новости

Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan