Member
Статус: Не в сети Регистрация: 21.10.2007 Откуда: Питер, Купчино
В этой теме обсуждаем всё, что связано с выбором компьютерных комплектующих для участия в проектах Folding@Home, Rosetta@Home и других поддерживаемых проектов распределённых вычислений
Процессоры Процессоры актуальны для проекта Rosetta@Home, желательно многоядерные от 4х ядер и выше, для проекта Folding@Home - видеокарты
Видеокарты nVidia RTX3070 и новее
AMD (ATI) AMD RX5600 и новее (в фолдинге не актуальны на данный момент, рекомендуется использовать в БОИНК проектах)
Ссылки: Оценить производительность видеокарт на реальных заданиях можно по таблице:
Member
Статус: Не в сети Регистрация: 17.11.2005 Откуда: Питер
Behc, добавь б.м. подробную инфу по поводу шестиядерных Xeon'ов в шапку - я досегодняшнего вечера понятия не имел, что можно заиметь 12-поточный проц всего за 14К руб. Ну и не забудь указать, через кого их можно заказать с Ебея по вкусной цене
Member
Статус: Не в сети Регистрация: 17.11.2005 Откуда: Питер
Behc
Ну а если коллективный заказ? Можно сэкономить на доставке немного Да и все равно цена ниже в 2 раза. Кстати, можно поподробнее про их разгон и тепловыделение? Я так понял, что вода потолок разгона не сильно увеличит?
Member
Статус: Не в сети Регистрация: 17.03.2004 Откуда: Высоковск
Цитата:
Кстати, как сообщает сайт Nordic Hardware со ссылкой на собственные источники, видеочип GF110 лишился около 300 млн. транзисторов, которые позволяли его предшественнику демонстрировать высокую производительность в ускорении вычислений.
Интересно, относится ли это к фолдингу? Или речь про аппаратно урезанные возможности в double precision?
We have had a hard time seeing how NVIDIA would be able to activate its sixteenth SM unit without severe problems with the power consumption. But with GF110 NVIDIA made an active choice and sacrificed the HPC functionality (High Performance Computing) that it talked so boldly about for Fermi, not only to make it smaller but also more efficient.
According to sources to NordicHardware it can be as many as 300 million transistors that NVIDIA has been able to cut in this way. The effect is that GF110 will be a GPU targetting only retail and will not be as efficient for GPGPU applications as the older siblings of the Fermi Tesla family. Something few users will care about.
The latest information that has reached us are said to be the final specifications for NVIDIA GeForce GTX 580. These were published at it168.com and strengthen the information we received earlier. There we can clearly see how NVIDIA beside processing units also raised the clock frequencies for both memory and GPU. This was made possible through a more mature circuit manufacturing where NVIDIA has managed to lower power consumption of GF100 with 10-15% without any physical alterations. This gave the comany more margin to work with.
According to our sources the higher clock frequencies and the increased number of CUDA cores enable NVIDIA not just to increase performance compared to its own flagship, but also be enough to keep AMD Radeon HD 6970 in second place.
насколько хватает моих знаний английского, то эффективность cuda-ядер уменьшится, но их станет больше + увеличится частота ядра и памяти, так что производительность останется на уровне GTX480
TSC! Russia member
Статус: Не в сети Регистрация: 24.07.2004 Откуда: Yaroslavl Фото: 32
300 миллионов... Судя по цифре срезан кеш - для кранча не проблема, раз карта игровая - значит ECC скорее всего тоже - тоже нам пофиг.., двойная четность могла пострадать - дык щас 1/8 оставлена - тоже не проблема... Не все возможно так плохо как некоторые панику наводят...
_________________ Бег – искусство оставаться на месте
Member
Статус: Не в сети Регистрация: 05.10.2010 Откуда: ЮБутово;Лип.Обл
так что получается, за бОльшие деньги нам будут втюхивать тоже самое(или примерно тоже самое) что и за меньшие(480)? для вычислений то будет лучше иль нет? или выяснится только опытным путём?
Тем не менее, по сравнению с 35К (самый дешевый Ксеон 6 ядер) в Юлмарте - это просто мегатема.
Вот аж в Австралии всплыл, не ES, фиг знает, что у них за почта, дел ни разу не имел: http://cgi.ebay.com/Intel-Xeon-L5640-2-26GHz-12MB-5-86GT-s-SIX-CORE-SLBV8-/270657066886?pt=AU_Components&hash=item3f046b1786#ht_646wt_1139 Ток это всё тщета, себя и команду PPDой порадовать, реальных гигафлопс, в отличии от GPU, там с гулькин нос, что прекрасно видно по общей статистике проекта на сайте Стэнфорда: NV GPU дают почти половину гигафлопс, на втором месте PS3, а CPU, c их в разы большим, чем NV-карточек, количеством - почётно плетутся в самом хвосте. Как-то разработчиков GPUGRID спросили на их форуме о перспективах появления CPU-клиента, их ответ был довольно лаконичен: "А нафига, какой смысл? Ну нет его. Ну запустят максимум 10-20 человек дорогие производительные двухядерные системы, те же самые гигафлопсы можно выжать с намного более дешёвых в итоге видеокарт, как по цене, так и по удельной производительности на ватт. А нам писать и отлаживать и так прекрасно распараллеливаемый для GPU софт для кучки маньяков?"
Добавлено спустя 20 минут 46 секунд:
sco01 писал(а):
Jeepster на SR-2 (которая стоит почти столько же как и "топовые одноядерники") он точно пойдет также - 4200-4400.. а потом докупаем 2-ой и рвем жаб на 16 реальных ядрах как тузик грелку...
Таки всё же на 8 реальных ядрах и 16 потоках. По $780 за каждый CPU. Фигня это всё на самом деле, забудьте, PPD-да с гигафлопсами мало связаны, на 4-е место рано или поздно вылезем, выше - непонятно. То что за CPU задания дают такой дикий бонус - либо эти CPU задания действительно нужны ПандеЛаб быстро-быстро, чтобы из их результатов сотворить другие задания, либо ПандеЛаб нужно, чтобы мы зачем-то считали и на CPU тоже. Может им кто из производителей CPU помогает железками, объёмы массивов для хранения результатов тоже недетские нужны, и чем дальше - тем больше.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 3
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения