В данной ветке обсуждаются Только карточкиGeForce GTX 660 Ti (GK104. Kepler 28nm)
В этой теме обсуждаются конкретные технические проблемы конкретных пользователей девайса, всё остальное, включая цены и все вопросы выбора и приобретения решаются в другом месте!
Вопросы по способам и проблемам прошивки карт, а так же вопросы поиска BIOS в данной теме считаются оффтопом. Искать и спрашивать нужно по ссылкам данным ниже.
ПРАВИЛА КОНФЕРЕНЦИИ обязательны к прочтению и исполнению всеми пользователями без исключения.
Весь оффтоп, флейм и прочие нарушения правил будут награждаться ЖК!
Прежде чем задать вопрос или ответить, подумайте, не ошиблись ли вы темой.
Перед тем, как задать вопрос, пожалуйста заполните / обновите профиль!
О том, как ПРАВИЛЬНО сделать скриншоты и выложить их здесь (да и не только здесь) читать тут. Не нужно считать себя умнее окружающих и вываливать фото рабочего стола в виде bmp-картинки полотнищем размером в 1480 x 1036.
Все пожелания и предложения касаемо темы приветствуются вЛС.
Собирается статистика разгона сабжевых карт. Всю информацию в ЛС.
Чтобы потратиться по минимуму. Могу ли я оставить кейс (он у меня очень качественный), бп? Винт Barracuda ES 400620 (400 Гб, 7200 RPM, SATA-II)? Какой процессор будет оптимальным под это видео, при этом чтобы не очень дорогой? Что-нить из i5?
Заблокирован Статус: Не в сети Регистрация: 25.11.2010 Откуда: Ярославская обл
ну я так понял .что у тебя -квад 6600 ? ну до 3000 можно легко попробовать гнать-посмотри в соответствующей ветке... но мое мнение-эта War of the Roses вроде как не особо требовательная игра. ради интереса-зайди на ю-туб,набери в поиске название игры-и смотри по роликам,кто на какой конфе играет (может найдешь похожую на свою)+ многие подписывают среднее количество кадров во время игры...сделаешь выводы
Разгоняем свои видяшки с помощью Kepler Bios Tweaker. На настоящий момент -- это пожалуй самая лучшая утиль для редактирования биосов видях на Кеплерах.
Member
Статус: Не в сети Регистрация: 25.10.2012 Откуда: Минск Фото: 0
good_ok ну я не знаю, может Kovich гонит только с Core Сlock. Вот загрузите в оконном режиме какой нибудь хеавен на макс настройках и понаблюдайте как скачет частота гпу, а потом сделайте все тоже самое только с power limit в AB, выкрученном вправо. Будете приятно удивлены! И частота стоит как вкопанная и напряжения не скачет ... Вот как то так, имхо
На практике получается, что для стабильного дефолта и правильного разгона (без скачущих частот и напряжений) , вкупе с ползунком "Core Clock" надо оперировать еще и ползунком "Power Limit"
Member
Статус: Не в сети Регистрация: 16.10.2012 Откуда: Киев
mozgolommm писал(а):
good_ok ну я не знаю, может Kovich гонит только с Core Сlock. Вот загрузите в оконном режиме какой нибудь хеавен на макс настройках и понаблюдайте как скачет частота гпу, а потом сделайте все тоже самое только с power limit в AB, выкрученном вправо. Будете приятно удивлены! И частота стоит как вкопанная и напряжения не скачет ... Вот как то так, имхо
На практике получается, что для стабильного дефолта и правильного разгона (без скачущих частот и напряжений) , вкупе с ползунком "Core Clock" надо оперировать еще и ползунком "Power Limit"
Я знал то без power limit розганять ядро не получится.
Но вот то что без рагона с максимальным power limit не будет скачков напряжения и соотвецтвенно частоты, то я этого не знал Хотя может помешать эта [censored] защита, когда температура ядра превышает 70 градусов то начинает сбрасывать частоту! В общем буду дома, попробую
Member
Статус: Не в сети Регистрация: 16.10.2012 Откуда: Киев
Таки да, после поднятия павер лимита просадки напряжения и частот практически исчезли, правда температура карты поднялась на пару градусов, но это не страшно)
Ребят имеется Asus Nvidia GeForce GTX660 ti 2gb,буст дает 1162Мгц,вместо 1054,по заявлению на сайте.Объясните пожалуйста почему так?Заранее благодарен! И еще вопрос...Будет ли достаточно блока Cougar PowerX 550W для следующего конфига Asus Nvidia GeForce GTX660 ti 2gb+Intel Core i5-2310 2.9Ghz.Благодарствую за помощь
После смены одной видеокарты на другую новая стала работать в режиме x8 3.0 , притом, что и видеокарта, и материнка и процессор ПОДДЕРЖИВАЮТ x16 3.0 Режим отображается в биос (x8, при смене меняется только версия от 1.1 до 3.0) и GPUZ (PCI-E 3.0 x 16 @ x8 3.0 - отображается под нагрузкой)
В чем может быть дело? Видеокарта стоит ОДНА , в НУЖНОМ слоте , в других слотах НИЧЕГО нет. Режимы энергосбережения как в биосе так и в windows отключены. К блоку питания нареканий нет. Контакты видеокарты чистые, карта неоднократно вынималась.
Asus на запрос прислать официальный ответ о совместной работе материнки и видеокарты (и то, и другое - ASUS) - сделать это отказался. Вроде бы и смешно (Asus c Asus не работает как надо), но мне как-то не очень.
Вообще, насколько отличается x16 3.0 от x8 3.0 в практическом применении (пока нашел сравнения x16 2.0 от x8 2.0 - чуть ли не доли процентов )? Теория как бы пугает
_________________ i7 3770k/p8z77-m/8gb/nVIDIA GeForce GTX 660 Ti
Member
Статус: Не в сети Регистрация: 25.10.2012 Откуда: Минск Фото: 0
igankr Такое чувство, что шину делят между собой ssd(hd) и ваша карта ( подразумеваю, что к сата3 подключен или ssd или hd) Между режимами 16x3.0 и 8x3.0 - в скорости ничего не уменьшится
igankr Такое чувство, что шину делят между собой ssd(hd) и ваша карта ( подразумеваю, что к сата3 подключен или ssd или hd) Между режимами 16x3.0 и 8x3.0 - в скорости ничего не уменьшится
до ASUS 660 ti стояла ASUS 7850 - и было 16x 3.0 (т.е. все было ОК) гложет меня червь ...
_________________ i7 3770k/p8z77-m/8gb/nVIDIA GeForce GTX 660 Ti
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения