Member
Статус: Не в сети Регистрация: 23.02.2007 Откуда: мы все? Фото: 11
неплохо в разгоне! весьма и весьма на мой взгляд... интересно будет посмотреть, что АТИ противопоставит.... от нововстей про видеокарты шарахаюсь уже=)
_________________ Думай, что говоришь; говори, что думаешь. Всё Просто!
Member
Статус: Не в сети Регистрация: 10.07.2003 Откуда: Москва Фото: 21
Да нет никаких ревизий, вся разница в вольтаже на ГПУ, А3 это лишь маркировка для различения на упаковке....вскрывали уже крышку(на закрытом форуме), полная аналогия на кристале с GTX...лишь отличается датой производства!
эх, был бы я владельцем ламборгини и феррари и виллы на бермудах - хоть каждый день менял бы... а так простым смертным платить тАкую переплату за такой мИзер не составляет никакого смысла... тем более что етот мизер легко покрывается небольшим смещением ползунков частот в рива тюнер на карте 8800 GTX
Member
Статус: Не в сети Регистрация: 20.04.2004 Откуда: Inner Mongolia Фото: 3
Rasamaha писал(а):
Да нет никаких ревизий, вся разница в вольтаже на ГПУ, А3 это лишь маркировка для различения на упаковке....вскрывали уже крышку(на закрытом форуме), полная аналогия на кристале с GTX...лишь отличается датой производства!
shadowx писал(а):
Имхо A3 может просто отборные ядра?
скорее всего вы оба правы а если вольтаж на ядре повышен то отсюда и "Системы на базе GeForce 8800 Ultra под нагрузкой потребляли на 10-30 Вт больше, чем системы на базе GeForce 8800 GTX"
Цитата:
Рано или поздно все выпускаемые TSMC видеочипы G80 перейдут на ревизию A3
Member
Статус: Не в сети Регистрация: 05.01.2003 Откуда: Челябинск
Пока маркетологи АТИ/АМД выдумывают хитроумные планы, Нвидиа (теперь уже в наглую) стрижет купоны.
А что собственно плохого? Конкурентов-то нет.
Вот и достигли цены на TOP видюхи скромного обаяния в 1000$.
_________________ Скорость или надежность, вот в чем вопрос???
Member
Статус: Не в сети Регистрация: 21.01.2007 Откуда: Санкт-Петербург
Цитата:
эх, был бы я владельцем ламборгини и феррари и виллы на бермудах - хоть каждый день менял бы... а так простым смертным платить тАкую переплату за такой мИзер не составляет никакого смысла... тем более что етот мизер легко покрывается небольшим смещением ползунков частот в рива тюнер на карте 8800 GTX
Особенно с учётом: 1)В ультре ползунки дальше двигаются. 2)В Висте риватюнер не работает.
Нвидиа молодцы.
Цитата:
Экономные фанаты NVIDIA могут не спешить - к октябрю-ноябрю, а может и раньше, цена устаканится в пределах 16-17,5К за штуку.
тогда появится 8900GTX и ультра будет никому не нужна...
Member
Статус: Не в сети Регистрация: 18.01.2005 Откуда: Estonia, Tallin
Rasamaha Разве на самом кристалле есть какие-либо надписи, маркировка? Насколько я помю, их там нет. Как тогда можно утверждать, что чипы разных ревизий ни чем не отличаются? Тех. процесс не изменился, архитектурных изменений нет, но изменения могут быть во внутренней структуре чипа, чтобы улучшить частотный потенциал. Такие изменения и не будут заметны "на глаз".
http://www.tt-hardware.com/img/news5/news111206_14dujour.gif
_________________ Nvidia: "The Way it’s meant to be p(l)ayed!"
Member
Статус: Не в сети Регистрация: 18.09.2006 Откуда: Москва Фото: 1
Посмотрите цены на провода для хай-фай/хай-энд компонетов и аккустики. После этого у меня только один вопрос, почему 8800ультра так дешево стоит? Если люди умудряются продать 3 метра провода с 2 клемами за 3000-5000 долл, то что такого в цене 850долл за ограниченную серию видеокарт....... И вообще производитель может выставить на свою продукцию какую угодно цену, хоть 10000 долл, и только покупатели решают стоит этот товар своих денег или нет.......
Member
Статус: Не в сети Регистрация: 21.09.2006 Откуда: Хабаровск
03.05.2007 21:34 Вадим_Андреев писал(а):
2)В Висте риватюнер не работает.
Ошибаетесь! RivaTuner 2.0.1 - обновленный релиз с улучшенной поддержкой новых видеокарт и Windows Vista
Цитата:
улучшена поддержка Windows Vista
Sp3ct3r писал(а):
Неужели NVIDIA не собирается уменьшать видюхи? Новый тех процесс и т.п. и .т.д.
Почему же не собирается: она давно уже готовит новый чип G90, который, как обещают, будет изготовлен по нормам 65нм техпроцесса.
G90 станет 65 нм преемником G80? И не только его...
G100 сразится с R700 через год. Как видишь, у неё много планов, но в первую очередь её волнуют финансы (а как иначе?), поэтому, пока есть возможность, она и на нынешних видеокартах будет зарабатывать деньги.
_________________ ...Ищy выход из Интеpнета...
Последний раз редактировалось Defrager 03.05.2007 17:21, всего редактировалось 1 раз.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 19
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения