TSC! Russia member
Статус: Не в сети Регистрация: 24.07.2004 Откуда: Yaroslavl Фото: 32
Mad'Max текущие задания занимают в памяти видика в распакованном виде чуть меньше 500мб максимум, т.е свободной в разы больше - не вижу смысла и причины гонять туда сюда все это дело.. насколько я помню у меня "недовес" по очкам т.к. сказать был примерно одинаков в % на всех моих 4 видиках на тех заданиях, т.е. что на х16, что на х4 одинаково - что противоречит теории про шину... дополнительное падение на предпоследнем посте я бы скорее связал что там контролер шины в чипсете - тогда как у всех остальных в проце был
_________________ Бег – искусство оставаться на месте
TSC! Russia member
Статус: Не в сети Регистрация: 13.04.2008 Откуда: Смоленск
Скормите фахспаю лог, пожалуйста. Уж очень мне интересно что он скажет
log
[21:52:50] *------------------------------* [21:52:50] Folding@Home Gromacs Core [21:52:50] Version 1.90 (March 8, 2006) [21:52:50] [21:52:50] Preparing to commence simulation [21:52:50] - Assembly optimizations manually forced on. [21:52:50] - Not checking prior termination. [21:52:51] - Expanded 661406 -> 3332352 (decompressed 503.8 percent) [21:52:51] - Starting from initial work packet [21:52:51] [21:52:51] Project: 6892 (Run 438, Clone 4, Gen 162) [21:52:51] [21:52:51] Assembly optimizations on if available. [21:52:51] Entering M.D.
Gromacs is Copyright (c) 1991-2003, University of Groningen, The Netherlands This inclusion of Gromacs code in the Folding@Home Core is under a special license (see http://folding.stanford.edu/gromacs.html) specially granted to Stanford by the copyright holders. If you are interested in using Gromacs, visit http://www.gromacs.org where you can download a free version of Gromacs under the terms of the GNU General Public License (GPL) as published by the Free Software Foundation; either version 2 of the License, or (at your option) any later version.
[21:52:58] Protein: ALZHEIMER DISEASE AMYLOID [21:52:58] [21:52:58] Writing local files [21:53:34] Extra SSE boost OK. [21:53:35] Writing local files [21:53:35] Completed 0 out of 250000 steps (0%) [22:23:36] Timered checkpoint triggered. [22:26:22] Writing local files [22:26:22] Completed 2500 out of 250000 steps (1%) [22:56:22] Timered checkpoint triggered. [22:59:08] Writing local files [22:59:08] Completed 5000 out of 250000 steps (2%) [23:29:09] Timered checkpoint triggered. [23:31:54] Writing local files [23:31:54] Completed 7500 out of 250000 steps (3%) [00:01:55] Timered checkpoint triggered. [00:04:43] Writing local files [00:04:43] Completed 10000 out of 250000 steps (4%) [00:34:44] Timered checkpoint triggered. [00:37:29] Writing local files [00:37:29] Completed 12500 out of 250000 steps (5%) [01:07:30] Timered checkpoint triggered. [01:10:14] Writing local files [01:10:14] Completed 15000 out of 250000 steps (6%) [01:40:14] Timered checkpoint triggered. [01:42:59] Writing local files [01:43:00] Completed 17500 out of 250000 steps (7%) [02:13:00] Timered checkpoint triggered. [02:15:48] Writing local files [02:15:48] Completed 20000 out of 250000 steps (8%) [02:45:48] Timered checkpoint triggered. [02:48:33] Writing local files [02:48:33] Completed 22500 out of 250000 steps (9%) [03:18:34] Timered checkpoint triggered. [03:21:20] Writing local files [03:21:20] Completed 25000 out of 250000 steps (10%) [03:37:24] - Autosending finished units... [03:37:24] Trying to send all finished work units [03:37:24] + No unsent completed units remaining. [03:37:24] - Autosend completed [03:51:20] Timered checkpoint triggered. [03:54:08] Writing local files [03:54:08] Completed 27500 out of 250000 steps (11%) [04:24:09] Timered checkpoint triggered. [04:26:54] Writing local files [04:26:54] Completed 30000 out of 250000 steps (12%) [04:56:54] Timered checkpoint triggered. [04:59:43] Writing local files [04:59:43] Completed 32500 out of 250000 steps (13%) [05:29:44] Timered checkpoint triggered. [05:32:30] Writing local files [05:32:30] Completed 35000 out of 250000 steps (14%) [06:02:30] Timered checkpoint triggered. [06:05:18] Writing local files [06:05:18] Completed 37500 out of 250000 steps (15%)
Конфиг там такой: Celeron 1000@1330 / 512MiB PC133 / Linux
_________________ «Ты можешь рассчитывать на человечество, они всегда сведут все к наименьшему знаменателю и насрут на все сверху!» Lemmy Kilmister
TSC! Russia BOINC-manager
Статус: Не в сети Регистрация: 19.01.2010 Откуда: Санкт-Петербург
sco01 Ну это уже к программерам вопрос, зачем они гоняют часть данных по шине, при возможности (в теории) запихать все данные видеопамять и использовать данные только оттуда, а CPU только для управления процессом. Может не хотят увеличивать объем использования видеопамяти, чтобы старые карточки с 512-768 Мб памяти могли продолжать считать. Может какое-то ограничение текущей реализаций самой архитектуры GPGPС. Насчет встроенного контроллера - может быть и с этим тоже связано (но относится к задержкам на том же пути CPU<-->GPU).
Впрочем как вопрос как оказывается не особо актуальный - GPU проектов с большими моделями мало и все они еще в статусе беты. Так что пока не так важно. К моменту релиза может и найдут в чем конкретно узкое место и способ его обойти програмно...
Еще нашел, что же случилось с опцией регулировки нагрузки на GPU - почему получилось так, что ключики есть, но по факту не работает. Это было в ответ админа форума на вопрос от кого-то из участников о возможности регулировки нагрузки на GPU .
Цитата:
There're working on it but it is not yet ready for prime time. They had a GPU slider in the v7 client for a couple of versions but they removed it because of possible confusion. The granularity was too big at around 10 seconds so if you put the slider at 90% the GPU would run at 100% for 9 seconds and 0% for 1 second. so you didn't get 90% all the time which is what people expected.
Т.е. опцию такую ввели, добавили ключик и даже "ползунок" в GUI интерфейсе(аналогичный регулировке нагрузки на CPU). Но работала она плохо, регулировка очень грубая - типа N секунд поработала карточка с 99% загрукой, X секунд постояла с нулевой загрузкой. В смысле комфотра работы юзера это ничем не поможет. Максимум для чего может сгодиться - снизить среднюю нагрузку на карту в случае общего перегрева. Потому через несколько версий клиента опцию решили убрать (до момента когда/если придумают способ более плавной регулировки), ну а консольный ключик остался.
Member
Статус: Не в сети Регистрация: 05.02.2007 Откуда: Moscow
Mad'Max писал(а):
Т.е. опцию такую ввели, добавили ключик и даже "ползунок" в GUI интерфейсе(аналогичный регулировке нагрузки на CPU). Но работала она плохо, регулировка очень грубая - типа N секунд поработала карточка с 99% загрукой, X секунд постояла с нулевой загрузкой.
Верный способ "ушатать" камень карты, если следовать теории деградации процессора от постоянных перепадов температур. Если теория верна, то, безусловно, правильно, что это убрали.
TSC! Russia member
Статус: Не в сети Регистрация: 09.11.2002 Откуда: Казань Фото: 22
У меня они уже дня три прут , 762х-е никак не ловятся
_________________ Поверь, никто никогда ни за что не принёс сюда никакого вреда. Ведь все, кто нёс, никто не донёс, значит, никто ничего не принёс (с) NP
TSC! Russia member
Статус: Не в сети Регистрация: 20.03.2010 Откуда: Омск
Sir_N_Drewimsm До сих пор спокойно ловлю 762х, без всяких ключей, бигпакет любой. п.с. помню, некоторые иронизировали над моим 6-дневным запасом ГПУ-жаб. Если что, на 2-3 дня мне сейчас его хватит.
TSC! Russia BOINC-manager
Статус: Не в сети Регистрация: 19.01.2010 Откуда: Санкт-Петербург
Провел исследование по совместной работе SMP F@H и счета разных проектов на GPU ATI. Вся собранная статистика тут: [F@H] Статистика заданий #10446736
Ну какие выводы можно сделать. 1й и главный (впрочем, уже и раньше известный, правда, я думал что не настолько все плохо...) Это что SMP ядро F@H вещь капризная и лучше бы ее вообще не трогать во время работы. Загрузка всего ~1 ядра из 6 обрушивает скорость счета почти в 2 раза, а по PPD даже больше 2х... Попробовал ради интереса "прибить" процессы к ядрам (с 1 по 5 ядра процессора закрепил за SMP, 6е ядро за GPU). Особой разницы не заметил: счет на GPU немного замедлился где-то с 5560 до 5020 PPD (видимо потому, что он в пике кратковременно бывает и больше 1 ядра грузит - а тут ему ОС вылезти на соседние ядра не дает). Счет же на SMP немного ускорился - где-то с 7000 до 7300 PPD, хотя средняя загрузка процессора от SMP немного снизилась, т.к. SMP процессы не могли залезать в 6е ядро, в моменты когда там нагрузка от GPU клиента проседала. Почему в результате быстрее точно не знаю - видимо, за счет того, что GPU клиент не влезал на его ядра и не сбивал работу (накладные расходы от переключения потоков). Но общей картины это не меняет, разница небольшая.
2й вывод (тоже в общем не новый, но опять-таки все хуже чем я думал) С точки зрения очков при наличии приличного ЦП на ATI картах считать не просто неэффективно (зря потраченное электричество), а просто противопоказано: вместо прибавки в скорости, можно вообще еще и в минус уйти (т.е. CPU + GPU ATI вполне может выдавать даже меньше, чем SMP CPU отдельно, если ему ничем не мешать – в моем случае связка процессор + видеокарта дает ~12.5к PPD против 16к PPD на процессоре отдельно). Хоть какой-то смысл может иметь использовать только слабый проц + мощная видеокарта (тоже будет очень неэффективно, но хотя бы в минус не уйдет).
3й вывод Из всего, что мы рассматриваем сейчас для счета на ATI картах работе F@H на процессоре мешает сильнее всех... сам F@H! (в виде своего же GPU ядра). Падения скорости счета от других проектов меньше. Впрочем F@H единственный в этом эксперименте мог загрузить карточку почти на 100% нон-стоп. НСС грузит тоже почти на 100%, но не постоянно (периодически небольшие паузы с 0 загрузкой - когда считает CPU часть). POEM грузит равномерно но где-то на 50-60% (может и больше, но ему F@H мешает) Но если кто-то вдруг все еще на ATI картах считает по схеме SMP + GPU на одном компе, то замена GPU проекта на другой, падения скорости на CPU части вызывать в большинстве случаев не должна. Скорее даже наоборот отдача от процессора увеличится. Если же карта простаивает, что отдача от CPU конечно существенно снизится, но меньше чем от счета самого F@H на GPU.
4й вывод 7й клиент при определении PPD по-прежнему косячит как и раньше. TPF судя по всему показывает правильное реальные (всегда примерно совпадало с тем, что я по логу вручную посчитал ), а вот PPD значения могут быть левыми. Точнее не левые, я вычислил, что за ерунду он там показывает. Это не глюк какой-то, а просто логика у программеров эту функцию писавших несколько странная: PPD определяется как сутки/(TPF*100)*прогнозные очки текущей жабы. Все вроде бы правильно? Вот только TPF учитывается текущий/мгновенный (за последние несколько шагов непрерывной работы), а вот прогнозные очки за жабу с учетом пауз в работе клиента (т.е. время счета не как TPF*100, а прогнозное время сдачи - время получения жабы). По отдельности все правильно, но когда эти два значения используются в одной формуле может получаться ерунда. В результате если счет шел без пауз PPD будет таким же, как в калькуляторе. И на жабах без бонусов (т.е. GPU) тоже как в калькуляторе, т.к. от перерывов в расчетах на безбонусных жабах очки не падают. А вот если паузы в процессе счета были и задание бонусное, то будет не мгновенный PPD, а какая-то ерунда. Но зато и плюс есть – 7й клиент PPD определяет очень быстро, ему не нужно ждать несколько полных фреймов шагов как в FAHSpy. Похоже он напрямую с ядром общается и то ему сообщает промежуточные результаты (а не только 100 точек на жабу через логи). Надо бы поставить последнюю самую свежую версию 7го клиента и посмотреть не изменился ли там порядок расчета. Если нет, то можно эту информацию в FAQ по 7-му клиенту добавить.
5й вывод SMP ядро капризничает (сильное падение скорости от любой посторонней нагрузки) не столько от того, что ему другие процессы мешают (см. пример когда 6 потоков SMP были разведены от 1 мешающего им потока GPU по разным физическим ядрам - скорость SMP немного прибавилась, но не существенно), а от того что оно само себе сильно мешает если число потоков больше числа физических ядер. Возможно виноват в этом не столько сам F@H сколько ОС, которая в этом случае начинает процессы тассовать между ядрами постоянно, но результат такой: 4 потока SMP на 4 физических ядрах работают заметно быстрее чем 6 потоков на 5 физических ядрах. Так что если нужно что-то достаточно ресурсоемкое паралельно с F@H считать имеет смысл снижать проверить вариант со снижением кол-ва потоков в SMP заданиях.
TSC! Russia BOINC-manager
Статус: Не в сети Регистрация: 19.01.2010 Откуда: Санкт-Петербург
chlp В смысле как 7ххх ведут себя при счете в F@H? Не знаю как там насчет нагрузки на процессор, но по результатам на самом ГПУ клиенте с 7й серией карт все совсем плохо. F@H пока не умеет на ней нормально работать: [F@H] Статистика заданий #10378490 Более-менее нормально работают только 5ххх и 6ххх карты. На 7ххх криво работает, а поддержку старых (4ххх и ранее) прекратили.
п.с. помню, некоторые иронизировали над моим 6-дневным запасом ГПУ-жаб. Если что, на 2-3 дня мне сейчас его хватит
Научи, как делать запасы 762х? Чем больше 762х достанется команде - тем больше 807х достанется врагам = дабл профит! А то 807х какие-то совсем странно безрадостные - PPD на 560Ti 448cores@1730 чуть меньше, чем на просто 560ti 384cores @ 1660, у первой и ядер больше и частота выше, но PPD - меньше! Ладно оно просто минус 8к на GPU делало, так оно ещё и с SPM 12 поточника 5к снимает, если комп не трогать, а если трогать - так 8-10к от обычных SMP в минус. Хрен бы с ним, если б они хотя бы SMP не просаживали, а то чуть браузером пощёлкал - фигакс минус 10к - "Эй, кажется, у вас 2 ядра отпаялись, превед от Стэнфорда, бггг))". Опять мудрят они там, то ли из температуры GPU стали PPD рассчитывать, то ли из потребления энергии GPU. PS: advmethods не стоял, вчера как попёрли 807х - 2е прожевал и в GPUGrid ушёл.
Последний раз редактировалось Jeepster 11.01.2013 21:06, всего редактировалось 2 раз(а).
TSC! Russia member
Статус: Не в сети Регистрация: 09.11.2002 Откуда: Казань Фото: 22
economist2000 Убрал -advmethods, пришла 7623
_________________ Поверь, никто никогда ни за что не принёс сюда никакого вреда. Ведь все, кто нёс, никто не донёс, значит, никто ничего не принёс (с) NP
TSC! Russia member
Статус: Не в сети Регистрация: 20.03.2010 Откуда: Омск
Jeepster Консервирую жаб примерно так: #77 На компе создается 14-15 папок с ГПУ-клиентом. В конфигурации клиента для каждой папки присваивается свой machineid. Всего, для одного компа может быть до 16 шт. machineid, один-два я отдаю для процессорных клиентов, остальное - для карточки. Остальные настройки ГПУ-клиентов, как правило делаю одинаковыми, хотя такое обилие клиентов позволяет сохранять для разных целей разные конфигурации, чтобы потом не менять. В extra_parms также прописываю ключ -oneunit для всех клиентов, жабы в которых будут храниться в запасе (все, кроме одного, считающего постоянно). Далее запускаю 1-й клент, закачиваю жабу, дожидаюсь начала ее счета (выхода на 0%), прерываю счет. Закачиваю следующую жабу и т.д. На жабах, шедших год назад, можно было по 2-3 жабы на одной карточке одновременно запускать, что существенно экономило время на "засолку". Задания 762х капризные, вылетают, слетают дрова, поэтому запускаю по одному, зато у них огромное время на счет выделяется, почти 38 дней желательное время, и более 48 дней - дедлайн. Далее, при появлении невкусных заданий досчитывается полученное невкусное и запускаются клиенты с законсервированными жабами. Сидеть возле компа все время не требуется, счет прекращается автоматически и клиент выгружается, а запуск следующего клиента осуществляется с помощью какого-нибудь менеджера. Время на шаг известно, спланировать расписание запуска не сложно. Для моих карточек время счета 762х, к примеру, чуть меньше 12 часов. Да, требуется повозиться. Но терять треть производительности компа из-за прихода менее продуктивных жаб, грузящих процессор к тому же, я не хочу. Для того, чтобы сделать комп более производительным традиционным путем апгрейда тоже ведь приходится повозиться, но это мало кого смущает.
TSC! Russia member
Статус: Не в сети Регистрация: 24.07.2004 Откуда: Yaroslavl Фото: 32
Mad'Max
Цитата:
4 потока SMP на 4 физических ядрах работают заметно быстрее чем 6 потоков на 5 физических ядрах.
давно всем считающим ФАХ известный факт
Цитата:
Загрузка всего ~1 ядра из 6 обрушивает скорость счета почти в 2 раза
я на 200% уверен что отдав видику 1 поток ты забыл поменять кол-во потоков на процессоре... Т.е. ставь smp 5 и привязывай именно эти ядра с ЦПУ + привязка 6 к гпу. все это с ограничением по кол-ву ядер нужно делать (через winAFC например) вот тогда будет все нормально
p.s. Просто СМП считает так - скорость ВСЕХ ядер равно скорости самому медленному - т.е. у тебя все 6 ядер считают как то просаженное...
_________________ Бег – искусство оставаться на месте
Junior
Статус: Не в сети Регистрация: 06.12.2012 Откуда: Komi Africa ;)
Всех с прошедшими праздниками!
Насколько велика вероятность, что задействуя четыре физических ядра процессора из четырёх, исключив Hyper-threading повысится скорость счёта (про то, что не нулевая не предлагать )?
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 3
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения