Advanced member
Статус: Не в сети Регистрация: 24.09.2007 Откуда: Минск
Driver66613
Driver66613 писал(а):
Я не верю, но если ты не читаешь игровых журналов, то ты конечно же не знаешь, что можно с помощью изменения настроек файлов в папке.МОЖНО ВКЛЮЧИТЬ ФИШКИ ИЗ 10 ДИРЕКТА! Crysis\Game'\Config\CVarGroups находятся все необходимые нам файлы!
Включить можно, но то что там "работает" к ДХ10 никакого отношения не имеет..., извини но ядро системы не поддерживает ДХ10 у ХР, так что....
Driver66613 писал(а):
скачай посмотри. это фотки из журнала!
Поищи и скачай фотки ДХ10 и сравни с этими) что, что-то не так?
Driver66613 писал(а):
А-то получается, что все такие умный, а забываете наверное, что есть Винда, поторая кушать хочеть тоже ОЗУ, Есть различные приложения кот. запущены у каждого(Я сомневаюсь, что кто-то из вас, перед тем как играть, Опустошает "ТРЕЙ" ) и вот, все становится. на свои места. Винда 400+\- 100 метров(в зависимости от загруженных приложений) + CRYSIS 2GB и нормально... получается Явно больше 2 гиг!!! так что ребят думайте! а-то что у меня профиль не заполнен - это не означает, что вы тут умные, а остальные глупые.
Мы и думаем. Для бенчей и тестов как раз чистят трей..., (точнее пользую изначально 0 систему) так что для теста вполне достаточно 2GB оперативы. Кстати, для справки, запусти кризис и посмотри сколько памяти он отожрет, никак не 2GB)
_________________ Если бы не сок Добрый, я бы продолжал убивать.
Member
Статус: Не в сети Регистрация: 19.04.2004 Откуда: Москва Фото: 73
В общем статья полезная, работа проделана большая, но можно было написать слова "это всё не стоящий своих денег отстой , подходящий только для маньяков с фреонками и экстрим квадами " . И выложить в подтверждение графики . Кстати, пофиг на аудиторию , но тестировать квадо-видео на 2х ядерном проце и без разгона вообще - имхо бред . Давно вроде доказано ж , что c2d на 3ггц мало даже для sli из старых GTS 640 .
Спасибо за отзывы. Опячатки, правда, не в столь драматических количествах как здесь описывают, и впрямь есть. Будем иметь в виду в следующих обзорах.
Для создания статей используется стандартная тестовая система, которая типично обязана проработать 12 и более месяцев. Серьезно разогнанна система такое количество времени при наших нагрузках не проработает: цикл тестирования одной графической карты - 8-10 часов, графической подсистемы с четырьмя GPU - еще больше, легко можно умножать время в 1.5 - 2 раза. Потому, серьезный разгон в нашем случае неприменим. Что касается использования quad-core чипа, то подобная модернизация планируется, но не сегодня и не завтра. Да и сказать, что чипы с четырьмя ядрами актуальны для более, чем 5% - 10% пользователей было бы странно.
Для любителей дать ссылки на статьи третих сайтов или же исследования третьих людец напомню: тестирования производятся на определенном наборе программного и аппаратного обеспечения, сравнение с другими наборами - занятие бесполезное.
RoiL
RoiL писал(а):
Хорошо было бы сравнить не только с 3 Way CrossFire но и с 3 Way SLI, на 8800GTX хотябы а лучше на Ultra или 9800GTX
На момент создания статьи модель GeForce 9800 GTX не была доступна. 3-way SLI на базе GeForce 8800 GTX и Ultra даже теоретический интерес представляет слабо: собрать такую систему чрезвучайно сложно по целому ряду причин.
REtaiL_OZ
REtaiL_OZ писал(а):
1) не понятно, почему не использовались гораздо более удачные FW 174.74
Таких драйверов не было на момент проведения тестов.
KORESHOCHEK
Не совсем понятно, зачем вы здесь делитесь историческими и практическими познаниями в ответ на предположения. Тем не менее, отвечу.
KORESHOCHEK писал(а):
1. Некогда кэш L2 и сопроцессор располагался отдельно от ЦПУ.
Посмотрите на процессоры IBM Power6, Power6. Кеш располагается не на ядре.
KORESHOCHEK писал(а):
2. Некоторые серии современных чипсетов имеют однокристалльную компоновку.
А другие - нет.
KORESHOCHEK писал(а):
3. Fusion и Larrabee (пояснять надо?)
Уж поясните, особенно, что между ними общего.
KORESHOCHEK писал(а):
4. Conroe и Nehalem. 4 ядра на склейке двух кристаллов и 4 ядра на монолитном кристалле. Они, по-Вашему, там идиоты все?
Они, по-моему, делают то, что экономически выгодно при актуальных потребностях. Сейчас quad-core - удел мизерной части рынка, потому вполне логично сделать такой процессор из двух разных кристаллов. Во времена Nehalem потребности изменятся, возможности тоже.
KORESHOCHEK писал(а):
Что мы имеем? 1. Рост сложности чипа. Ну вы блин даете... Дык можно и каждый транзистор на отдельный кристалл вынести. Знаете, что это повлечет? Еще большее энергопотребление и сумасшедшее снижение быстродействия. 2. увеличение площади кристалла и уровня энергопотребления, объединённых одной упаковкой и связанных внутренними высокоскоростными интерфейсами. Ну тут вообще-то смеяться можно. С чего вдруг второе не означает первое? 3. Уровень энергопотребления Вам чем не угодил (не будем принимать во внимание стоимость э/энергии)? Повышенным тепловыделением? Учите матчасть... 4. высокоскоростными интерфейсами. Они обеспечат столь низкие задержки, свойственные линиям связи внутри кристалла?
В общем, кроме "гибкости" (которая находится под очень большим сомнением) я не обнаружил ни одного довода в пользу разумности Ваших мыслей в данном вопросе
Монолитный чип всегда лучше двух, трёх, четырех чипов. Однако, разработчики ATI и Nvidia хотят видеть теоретическую максимальную производительность своих решений на таком уровне, что предпочитают сделать платы вида ATI Radeon HD 3870 X2 и GeForce 9800 GX2. Помимо того, что аналогичную (или даже более высокую) производительность обеспечат чипы с 1.3 - 1.5 миллиардов транзисторов, которые еще надо разработать и которые надо произвести с приемлемым выходом годных, такие чипы надо охладить. Отвести от одного GPU нечто вроде 200Вт - сложная задача, но если отводить их с двух чипов - она упрощается.
Что касается ваших увещеваний о существенном количестве проблем с мульти-ядерными решениями, то стоит помнить: при достаточной оптимизации под CrossFire/SLI производительность растёт вплоть до двух раз относительного одного GPU. При этом для коммуникаций между чипами во время рендеринга используется PCI Express (4GB/s в каждом направлении), тогда как для переноса 2D картинки в режиме AFR используется проприетарные интерфейсы для CF/SLI с весьма невысокими пропускными способностями. Стало быть, минимизировать влияние пропускной способности можно, даже сейчас
МохБыд
МохБыд писал(а):
Автор паталогически боится (неуметь не может) разгонять CPU Он бы еще квад слай\кросс потестил на e2140 в номинале. А вы бы плевались "фу-у-у!!! мультичип отстой!!!" Нвидиевские чипы более чувствительны к частоте CPU, так что естественно 3870х2 будет НЕХУЖЕ 9800гх2
В разрешении 2560х1600 производительность процессора ничего не ограничивает. Равно как и в играх типа Call of Juarez, Bioshock, Call of Duty и т.п.
Tim Ronski
Tim Ronski писал(а):
МохБыд - понимаешь, тут не в настройке дело - 3WaySli сейчас работает с 8800GTX/Ultra, под которые драйвера вылизаны уже давно.
Архитектурно G80 и G92 не отличаются. Так что масштабируемость 3-way SLI на GeForce 9800 GTX и GeForce 8800 GTX/Ultra должна быть одинаковой. К 4-way SLI и его плачевному состоянию это всё никак не относится.
HikeR
HikeR писал(а):
но все равно, из небольшого опыта работы в производстве печатных плат могу сказать, что две 4-х слойных платы дешевле одной 8-ми слойной. видимо это и послужило причиной разноса чипов на разные полу-карты
Эталонная карта GeForce 8800 GT использует 10-слойный PCB, едва ли в случае с флагманом линейки и большими частотами чипа и памяти вдруг стали бы использовать пару 6- или 8-слойных PCB сразу.
Member
Статус: Не в сети Регистрация: 22.11.2007 Откуда: Вавилон-5 Фото: 0
L15 писал(а):
Ну да между 2.4 и 3.3 квадом ,в кризисе, разницы 0, что уже говорить про 4 - 5 ггц. Вобще проц норм производительности дает только в стратегиях, марках и старых играх, в современых играх при норм разрешении и АА, прирост стремится к нулю(если видуха сама не может выдать больше 30фпс(к примеру) ,то хоть до 10ггц проц гони непоможет)
Вот именно.
Fire Vadim писал(а):
Прежде чем что либо написать, проверь лично.
Проверял, разгоном своего проца от 2.66 до 4, фпс ни в Кризисе ни в тяжелых сценах шестого марка ни на кадр не повысился. Если видяха тормозит ты хоть усрись, проц не помогает. Только не говори что надо гнать до 6-7, тогда получается что все процы фуфло полное.
Fire Vadim писал(а):
даже если эта капля пол-fps.
Во-во. Извини конечно но это маразм. Пол ФПС добавить, что радио послушать.
Driver66613 писал(а):
А-то получается, что все такие умный, а забываете наверное, что есть Винда, поторая кушать хочеть тоже ОЗУ, Есть различные приложения кот. запущены у каждого(Я сомневаюсь, что кто-то из вас, перед тем как играть, Опустошает "ТРЕЙ" ) и вот, все становится. на свои места. Винда 400+\- 100 метров(в зависимости от загруженных приложений) + CRYSIS 2GB и нормально... получается Явно больше 2 гиг!!! так что ребят думайте! а-то что у меня профиль не заполнен - это не означает, что вы тут умные, а остальные глупые.
Моя винда кушает 270м, у кого больше сами виноваты, винда тут не причем. Так что мне 2Гига по за глаза. Сто раз мониторил, еще ни разу не видел чтоб впритык было. Добавлено спустя 7 минут, 17 секунд
RoiL писал(а):
Включить можно, но то что там "работает" к ДХ10 никакого отношения не имеет..., извини но ядро системы не поддерживает ДХ10 у ХР, так что....
Чел же русским языком писал, что задействовал фишки 10 директа в Кризисе! (что уже ни для кого не секрет), а не в системе в целом. Че придираться не по существу.
_________________ Вот котелок, кипит на огне, места в нем хватит Лондо и мне.
Member
Статус: Не в сети Регистрация: 05.07.2006 Откуда: МОСКВА
Vader_XBL писал(а):
Да и сказать, что чипы с четырьмя ядрами актуальны для более, чем 5% - 10% пользователей было бы
Я Вам по секрету скажу, что 4Way Sli и Cross актуальны еще для меньшего количества народа. Так что это не довод. Минимум для такой системки нужен топовый Йорик с разблокированным множителем и разогнаный до 4ГГц. Все что выше( как тут писали 4,5-5ГГц) это уже кардинально картины не изменит. Даже 2-4 FPS ситуацию не поправят. Тем более соглашусь с Вами, что на гиганских разрешениях роль проца сильно снижается, но не до такой степени, чтобы проц, использованный в тестах можно было игнорировать.
Ну у меня не квад сли и не квад и даже не Конро. Сложно точно сказать какой проц в каком разрешении нужен но на моей системе с одноядерным А64 2,6 ГГц, 2 Гб 880МГц 5-5-5-15-17-1Т DDR2 памяти, X1900XT 256 Мб, настройки ниже средних 1280х1024 тест CPU показал результаты хуже теста GPU с просадками до 10 ФПС. Близки результаты разных систем в отдельных режимах показывают, что периодически тесты упираются в CPU. Таким образом ожно говорить скорее не об общей производительности графической системы по тестам а в основном о то играбильно или нет и добавляет ли играбильности более мощные графические системы.
DoolitleNK писал(а):
Я Вам по секрету скажу, что 4Way Sli и Cross актуальны еще для меньшего количества народа.
Поддерживаю.
Что касается автора, то за короткое время вижу уже второй очень массивный обзор, который одновременно любопытный и при этом с низкой реальной отдачей. В частности о том, что SLI, CF сыро я знал задолго до обзора как и в то, что здесь в упирается в дровописателей и самих разработчиков игр, которые все больше халтурят.
Member
Статус: Не в сети Регистрация: 31.03.2007 Откуда: Rostov-on-Don
многабукав.. сложно воспринимается.. пролистал статью, глянул графики, вывод, понял что тратить стока денег не рекомендуется (хотя и не собирался за неимением таковых) и теперь буду радоваться дальше недавноприобретённой 9600 GT хотя работка автором проделана была огромная, за это респект! скока терпения надо...
Если АМД к выпуску 3870x2 готовилась ..... и подоготовилась лучше, то Нвидиа к выпуску 9800gx2 вообще не готовилась. Сляпала ущербный, именно ущербный продукт. А все от того, чтобы доказать, что у кого "кое что" круче, даже в ущерб потребителю.
P.S. Все это напоминает Интел во времена Прескота: задавим частотой, не смотря на глюкавость и перегретость топовых процов на то время.
Cootri - ага, тихая и холодная? Ты с 9800GTX случаем не перепутал? Сейчас временно сижу на 9800GX2, которую человечку должны доставить только через неделю - воет как турбина и греется не хуже 2900ХТ.
Member
Статус: Не в сети Регистрация: 16.05.2003 Откуда: издалека
Vader_XBL писал(а):
HikeR писал(а):
но все равно, из небольшого опыта работы в производстве печатных плат могу сказать, что две 4-х слойных платы дешевле одной 8-ми слойной. видимо это и послужило причиной разноса чипов на разные полу-карты
Эталонная карта GeForce 8800 GT использует 10-слойный PCB, едва ли в случае с флагманом линейки и большими частотами чипа и памяти вдруг стали бы использовать пару 6- или 8-слойных PCB сразу.
я привел пример, с которым сталкивался лично. с производством 10-ти слойных не встречался, но подозреваю, что там такая же тенденция, прогрессивный рост цены с увеличением слоев.
хотя если кто скажет, сколько ножек у GPU 9800 и AMD 3870, то будет более понятно.
Jordan А где же столь долгожданный обзор HD 3870 X2 ? Стока ждали, а его нет Или я чаво прошляпил по невнимательности?
Статья отправлена на публикацию. Если не случится обстоятельств непреодолимой силы, то сразу же после 0 часов в пятницу обзор будет выложен.
Cootri
Цитата:
амрад MASTER5 по поводу 9800GX2 совершенно обратные от твоих ощущения отписывал У него и 3870х2 щас валяется без дела и 9800GX2 стоит. И сравнение по всем параметрам кроме цены не в пользу первой карты...
Сам сейчас тестирую её, поэтому с уверенностью скажу, что 9800 GX2 и 3870 X2 конкурентами являться не могут. Ни в чем вообще, включая стоимость, естественно.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 28
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения