Часовой пояс: UTC + 3 часа




Куратор(ы):   sashmxm    Lecc   



Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 2429 • Страница 120 из 122<  1 ... 117  118  119  120  121  122  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 
Прилепленное (важное) сообщение

Мануалы по установкам:
Установка на Linux Mint 20.2 от tguskill правки от 31.10.2021
Разгон 3х и более видеокарт
Настройка загрузки линукс и работа F@H без включенного монитора
Перезапуск TeamViewer каждые 3 часа
Перезапуск Wi-Fi каждые 3 часа
Скрипт для отображения статистики по логам от Lecc обновление от 12.08.2020
Настройка и установка клиента FAHСlient на HiveOS
Настройка и установка клиента FAHСlient на арендованных хостах vast.ai

Прочее:
Folding@Home: обсуждение - рассматриваются общие вопросы проекта Folding@Home
Запуск boinc из консоли без GUI интерфейса


Последний раз редактировалось sashmxm 10.10.2024 14:49, всего редактировалось 55 раз(а).
В инструкции к vast.ai добавлена информация о версии образа на ubuntu22.04 и новее - требование для ядра х24



Партнер
 

TSC! Russia member
Статус: Не в сети
Регистрация: 19.12.2005
Откуда: Ярославль
Lecc
скрипт обновил работают 3 пока.

_________________
ASRock Fatal1ty X370 GAMING K4/Ryzen 7 1700/Fractal Design Celsius S36
Threadripper 2950X / MSI X399 SLI Plus / Enermax LiqTech TR4 II RGB 280


 

TSC! Russia ex-Captain
Статус: Не в сети
Регистрация: 13.07.2007
Фото: 0
Сдуру поставил апдейты на свой минт 18.1 и видеодрова слетели. Переустановка дров по мануалу не помогла, поставил 19.3 там тоже беда с дровами, после неудачной попытки с 18.2 (клиент пишет что опен цл нету) плюнул и поставил винду.


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
Ядро лучше без необходимости не обновлять, потому что новое ядро требует переустановки драйвера нвидиа, хотя он обычно переустанавливается без проблем, если отвечать на вопросы по умолчанию. По поводу OpenCL -- надо смотреть System Info, возможно, достаточно было изменить индекс.


 

TSC! Russia ex-Captain
Статус: Не в сети
Регистрация: 13.07.2007
Фото: 0
Lecc писал(а):
По поводу OpenCL -- надо смотреть System Info, возможно, достаточно было изменить индекс.
Попробовал от -1 до 2, дальше надоело :)


 

TSC! Russia Captain
Статус: Не в сети
Регистрация: 16.08.2007
Откуда: Красноярск
Lecc
А можно изменить проверку в скрипте, чтобы он проверял, если есть хотя бы один процесс с именем FahCore_22, то все ок, если нет, то перезапускать клиента?

_________________
У тебя мощнейший комп, ты уверен? И для чего он тебе? В TSC! Russia ты узнаешь что такое мощь тысячи компов! TSCRussiaTeam.ru


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
[kane]Enforce писал(а):
Попробовал от -1 до 2, дальше надоело

Тогда, скорей всего, Вы в процессе установки сгенерировали новый xorg.conf с неверными BusID -- они должны совпадать с теми, что определяет клиент в System Info. С другими причинами я не сталкивался.

Добавлено спустя 12 минут 38 секунд:
MegaCalcii писал(а):
А можно изменить проверку в скрипте, чтобы он проверял, если есть хотя бы один процесс с именем FahCore_22, то все ок, если нет, то перезапускать клиента?


Это несложно, но тогда будет гарантированно работать только одна карта, а остальные могут простаивать, если они присутствуют в системе. К тому же, сейчас много времени может занимать закачка и скачивание заданий, когда ядро не запущено. Если прерывать эти процессы постоянными перезапусками, думаю, ничего хорошего не выйдет. А чем первоначальный вариант не подходит, есть какие-то проблемы?


 

TSC! Russia Captain
Статус: Не в сети
Регистрация: 16.08.2007
Откуда: Красноярск
Lecc писал(а):
есть какие-то проблемы?

По-моему, есть, после работы прихожу и стоит, заданий нет, а клиент не перезапускается и в логах connecting, еще помониторю немного, чтобы разобраться в чем дело.
Кстати, добавил в строку время, для удобства, чтобы ориентироваться когда проверки\перезапуски были:
Код:
date
            echo status of slot $i -- OK

Теперь показывает так:
Код:
Ср. Мар 25 21:53:51 +07 2020
status of slot 1 -- OK
Ср Мар 25 22:04:21 +07 2020
status of slot 0 -- OK

_________________
У тебя мощнейший комп, ты уверен? И для чего он тебе? В TSC! Russia ты узнаешь что такое мощь тысячи компов! TSCRussiaTeam.ru


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
MegaCalcii писал(а):
в логах connecting

Это он пытается соединиться. Через какое-то время после этого либо начинается загрузка, либо ошибка "Could not get an assignment" и длительный простой. Причем, по моим наблюдениям, сразу после перезапуска попытки соединения следуют достаточно часто, а потом все реже и реже. Тут перезапуск и помогает, иначе может по полдня стоять, не шевелясь.

MegaCalcii писал(а):
Кстати, добавил в строку время, для удобства, чтобы ориентироваться когда проверки\перезапуски были:


Я тоже добавил, только для перезапуска:
Код:
            echo status of slot $i -- ERROR   `date`


Так нагдяднее, имхо:
Код:
status of slot 1 -- ERROR   Ср мар 25 14:46:33 MSK 2020


 

TSC! Russia Captain
Статус: Не в сети
Регистрация: 16.08.2007
Откуда: Красноярск
Lecc писал(а):
Так нагдяднее, имхо:

Да, так лучше :up:

Добавлено спустя 55 минут 31 секунду:
MegaCalcii писал(а):
а можно для Windows cmd-файл такой же

Накатал для Windows, не такой элегантный, как у Lecc, но у меня работает :)
Протестируйте, кто сможет, отпишитесь там же
[F@H] Универсальный клиент Folding@Home #16792952

_________________
У тебя мощнейший комп, ты уверен? И для чего он тебе? В TSC! Russia ты узнаешь что такое мощь тысячи компов! TSCRussiaTeam.ru


 

TSC! Russia ex-Captain
Статус: Не в сети
Регистрация: 13.07.2007
Фото: 0
Lecc писал(а):
Тогда, скорей всего, Вы в процессе установки сгенерировали новый xorg.conf с неверными BusID -- они должны совпадать с теми, что определяет клиент в System Info. С другими причинами я не сталкивался.
Как это можно было исправить?


 

TSC! Russia Captain
Статус: Не в сети
Регистрация: 16.08.2007
Откуда: Красноярск
Lecc писал(а):
А чем первоначальный вариант не подходит, есть какие-то проблемы?

Пришел с работы, а клиент простаивает :(
Лог fah_restart
Код:
\u0421\u0440 \u043c\u0430\u0440 25 19:41:20 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 19:41:50 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 19:52:20 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 19:52:50 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:03:20 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:03:50 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:14:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:14:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:25:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:25:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:36:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:36:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:47:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:47:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:58:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 20:58:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:09:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:09:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:20:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:20:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:31:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:31:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:42:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:42:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:53:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 21:53:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:04:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:04:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:15:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:15:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:26:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:26:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:37:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:37:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:48:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:48:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:59:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 22:59:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:10:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:10:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:21:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:21:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:32:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:32:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:43:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:43:51 +07 2020
status of slot 1 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:54:21 +07 2020
status of slot 0 -- OK
\u0421\u0440 \u043c\u0430\u0440 25 23:54:51 +07 2020
status of slot 1 -- OK
status of slot 0 -- ERROR
\u041e\u0441\u0442\u0430\u043d\u0430\u0432\u043b\u0438\u0432\u0430\u044e FAHClient
\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u044e FAHClient
\u0427\u0442 \u043c\u0430\u0440 26 00:06:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:16:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:17:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:27:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:28:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:38:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:39:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:49:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 00:50:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:00:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:01:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:11:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:12:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:22:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:23:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:33:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:34:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:44:51 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:45:21 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:55:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 01:56:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:06:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:07:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:17:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:18:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:28:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:29:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:39:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:40:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:50:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 02:51:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:01:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:02:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:12:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:13:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:23:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:24:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:34:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:35:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:45:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:46:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:56:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 03:57:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:07:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:08:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:18:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:19:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:29:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:30:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:40:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:41:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:51:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 04:52:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:02:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:03:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:13:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:14:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:24:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:25:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:35:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:36:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:46:52 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:47:22 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:57:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 05:58:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:08:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:09:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:19:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:20:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:30:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:31:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:41:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:42:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:52:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 06:53:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:03:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:04:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:14:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:15:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:25:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:26:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:36:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:37:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:47:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:48:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:58:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 07:59:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:09:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:10:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:20:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:21:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:31:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:32:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:42:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:43:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:53:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 08:54:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:04:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:05:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:15:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:16:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:26:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:27:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:37:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:38:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:48:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:49:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 09:59:53 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:00:23 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:10:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:11:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:21:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:22:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:32:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:33:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:43:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:44:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:54:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 10:55:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:05:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:06:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:16:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:17:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:27:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:28:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:38:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:39:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:49:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 11:50:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:00:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:01:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:11:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:12:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:22:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:23:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:33:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:34:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:44:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:45:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:55:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 12:56:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:06:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:07:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:17:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:18:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:28:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:29:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:39:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:40:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:50:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 13:51:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:01:54 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:02:24 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:12:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:13:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:23:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:24:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:34:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:35:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:45:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:46:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:56:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 14:57:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:07:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:08:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:18:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:19:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:29:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:30:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:40:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:41:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:51:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 15:52:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:02:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:03:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:13:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:14:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:24:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:25:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:35:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:36:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:46:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:47:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:57:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 16:58:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:08:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:09:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:19:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:20:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:30:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:31:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:41:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:42:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:52:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 17:53:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:03:55 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:04:25 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:14:56 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:15:26 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:25:56 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:26:26 +07 2020
status of slot 1 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:36:56 +07 2020
status of slot 0 -- OK
\u0427\u0442 \u043c\u0430\u0440 26 18:37:26 +07 2020
status of slot 1 -- OK

Скопировалось коряво из VNC из-за кодировки :(
Лог FAHClient
Код:
12:06:37:WARNING:WU04:Slot ID 1 no longer exists, migrating to FS04
12:06:37:ERROR:Exception: Unit not found
12:06:38:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:06:38:WARNING:WU00:FS04:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:06:39:WARNING:WU00:FS04:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:06:39:ERROR:WU00:FS04:Exception: Could not get an assignment
12:06:39:WARNING:WU01:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:06:39:ERROR:WU01:FS05:Exception: Could not get an assignment
12:06:40:WARNING:WU00:FS04:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:06:40:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:06:41:WARNING:WU00:FS04:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:06:41:ERROR:WU00:FS04:Exception: Could not get an assignment
12:06:41:WARNING:WU01:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:06:41:ERROR:WU01:FS05:Exception: Could not get an assignment
12:07:40:WARNING:WU00:FS04:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:07:40:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:07:41:WARNING:WU00:FS04:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:07:41:ERROR:WU00:FS04:Exception: Could not get an assignment
12:07:41:WARNING:WU01:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:07:41:ERROR:WU01:FS05:Exception: Could not get an assignment
12:09:17:WARNING:WU00:FS04:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:09:18:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:09:18:WARNING:WU00:FS04:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:09:18:ERROR:WU00:FS04:Exception: Could not get an assignment
12:09:19:WARNING:WU01:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:09:19:ERROR:WU01:FS05:Exception: Could not get an assignment
12:11:55:WARNING:WU00:FS04:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:11:55:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:14:03:WARNING:WU00:FS04:WorkServer connection failed on port 8080 trying 80
12:14:03:WARNING:WU01:FS05:WorkServer connection failed on port 8080 trying 80
12:15:14:ERROR:WU01:FS05:Exception: 10002: Received short response, expected 512 bytes, got 0
12:16:09:WARNING:WU01:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:16:10:WARNING:WU01:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:16:10:ERROR:WU01:FS05:Exception: Could not get an assignment
14:47:02:WARNING:WU00:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
14:49:10:WARNING:WU00:FS05:WorkServer connection failed on port 8080 trying 80
14:49:16:WARNING:WU01:FS05:WorkServer connection failed on port 8080 trying 80
14:53:13:WARNING:WU01:FS05:Exception: Failed to send results to work server: Transfer failed
14:53:14:ERROR:WU01:FS05:Exception: Transfer failed
16:15:29:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:15:30:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:15:30:ERROR:WU01:FS00:Exception: Could not get an assignment
16:17:38:WARNING:WU01:FS00:WorkServer connection failed on port 8080 trying 80
16:18:28:ERROR:WU01:FS00:Exception: 10002: Received short response, expected 512 bytes, got 0
16:18:29:ERROR:WU01:FS00:Exception: 10001: Server responded: HTTP_SERVICE_UNAVAILABLE
16:20:06:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:20:07:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:20:07:ERROR:WU01:FS00:Exception: Could not get an assignment
16:21:38:WARNING:WU03:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:21:38:WARNING:WU03:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:21:38:ERROR:WU03:FS05:Exception: Could not get an assignment
16:21:39:WARNING:WU03:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:21:40:WARNING:WU03:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:21:40:ERROR:WU03:FS05:Exception: Could not get an assignment
16:22:40:WARNING:WU03:FS05:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:22:40:WARNING:WU03:FS05:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:22:40:ERROR:WU03:FS05:Exception: Could not get an assignment
16:22:43:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:22:44:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:22:44:ERROR:WU01:FS00:Exception: Could not get an assignment
******************************* Date: 2020-03-25 *******************************
11:29:33:ERROR:FS01:'cuda-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:29:33:ERROR:FS02:'cuda-index'=1 is in use by another folding slot but GPU 1 matches this device's PCI bus=130 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:30:56:ERROR:FS03:'cuda-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:31:08:ERROR:FS04:'cuda-index'=1 is in use by another folding slot but GPU 1 matches this device's PCI bus=130 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:43:36:ERROR:FS06:'opencl-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'opencl-index' options.
11:43:36:ERROR:FS06:'cuda-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:44:07:ERROR:FS07:'cuda-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
11:44:39:WARNING:Next signal will force exit
*********************** Log Started 2020-03-25T11:48:40Z ***********************
11:48:40:WARNING:WU04:Missing data files, dumping
11:50:49:WARNING:WU00:FS06:WorkServer connection failed on port 8080 trying 80
11:50:49:WARNING:WU01:FS07:WorkServer connection failed on port 8080 trying 80
11:50:50:ERROR:WU01:FS07:Exception: 10002: Received short response, expected 512 bytes, got 0
11:50:51:ERROR:WU00:FS06:Exception: 10002: Received short response, expected 512 bytes, got 0
11:50:52:WARNING:WU00:FS06:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:50:52:WARNING:WU00:FS06:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
11:50:52:ERROR:WU00:FS06:Exception: Could not get an assignment
11:50:55:WARNING:WU01:FS07:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:50:55:WARNING:WU01:FS07:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
11:50:55:ERROR:WU01:FS07:Exception: Could not get an assignment
11:51:52:WARNING:WU01:FS07:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:51:53:WARNING:WU00:FS06:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:51:53:WARNING:WU01:FS07:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
11:51:53:ERROR:WU01:FS07:Exception: Could not get an assignment
11:51:53:WARNING:WU00:FS06:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
11:51:53:ERROR:WU00:FS06:Exception: Could not get an assignment
11:53:29:WARNING:WU00:FS06:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:53:30:WARNING:WU01:FS07:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
11:55:37:WARNING:WU00:FS06:WorkServer connection failed on port 8080 trying 80
11:55:38:WARNING:WU01:FS07:WorkServer connection failed on port 8080 trying 80
11:57:45:ERROR:WU01:FS07:Exception: Failed to connect to 128.252.203.2:80: Connection timed out
11:57:46:WARNING:WU01:FS07:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:48:23:ERROR:FS00:'cuda-index'=0 is in use by another folding slot but GPU 0 matches this device's PCI bus=3 and PCI slot=0, please correct this by removing any manually configured 'cuda-index' options.
12:48:25:WARNING:WU02:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:48:25:WARNING:WU02:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:48:25:ERROR:WU02:FS00:Exception: Could not get an assignment
12:48:28:WARNING:WU02:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
12:48:28:WARNING:WU02:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
12:48:28:ERROR:WU02:FS00:Exception: Could not get an assignment
14:01:05:WARNING:WU03:FS07:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
14:01:27:ERROR:WU03:FS07:Exception: 10002: Received short response, expected 512 bytes, got 0
14:03:14:WARNING:WU01:FS07:WorkServer connection failed on port 8080 trying 80
16:55:28:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:55:28:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:55:28:ERROR:WU01:FS00:Exception: Could not get an assignment
16:55:30:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:55:30:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:55:30:ERROR:WU01:FS00:Exception: Could not get an assignment
16:56:30:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:56:30:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:56:30:ERROR:WU01:FS00:Exception: Could not get an assignment
16:57:41:WARNING:WU02:FS00:WorkServer connection failed on port 8080 trying 80
16:58:07:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
16:58:08:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
16:58:08:ERROR:WU01:FS00:Exception: Could not get an assignment
17:00:45:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
17:00:45:WARNING:WU01:FS00:Failed to get assignment from '18.218.241.186:80': No WUs available for this configuration
17:00:45:ERROR:WU01:FS00:Exception: Could not get an assignment
17:04:59:WARNING:WU01:FS00:Failed to get assignment from '65.254.110.245:8080': No WUs available for this configuration
17:07:07:WARNING:WU01:FS00:WorkServer connection failed on port 8080 trying 80
17:09:14:ERROR:WU01:FS00:Exception: Failed to connect to 128.252.203.10:80: Connection timed out
******************************* Date: 2020-03-25 *******************************

Висит один слот на 99%, FAHClient при этом в процессах есть, а ядра FahCore_22 - нет
Картинка
Вложение:
FAH_restart_freeze.png
FAH_restart_freeze.png [ 195.55 КБ | Просмотров: 3148 ]

А скрипт на Windows с убиванием процесса FAHClient работает железобетонно, жабы идут.
Можно такую же вариацию и для Linux или этот доработать?

_________________
У тебя мощнейший комп, ты уверен? И для чего он тебе? В TSC! Russia ты узнаешь что такое мощь тысячи компов! TSCRussiaTeam.ru


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
[kane]Enforce писал(а):
Как это можно было исправить?

Боюсь соврать, у меня давно такого не было, но, если клиент, к примеру, показывает для карты Bus:7 Slot:0 Func:0, то в файле /etc/X11/xorg.conf в секцию Device для соответствующей карты надо добавить строку:
Код:
BusID          "PCI:7:0:0"

и перезагрузиться. Вроде помогало.
Вообще же, без необходимости xorg.conf лучше не трогать. Инструкция написана для первоначальной установки, но, если фолдинг уже работал до того, и надо только переустановить драйвер, то на вопрос "Запустить nvidia-xconfig для создания xorg.conf?" (что-то в этом роде) в процессе установки, следует отвечать "No" (по умолчанию). Тогда никаких проблем после переустановки не возникнет.

Добавлено спустя 1 час 40 минут 25 секунд:
MegaCalcii
В логе какая-то неразбериха с индексами и номерами слотов. Непонятно, что предшествовало первым строкам лога (там где слот мигрировал и задание не досчиталось). Индексы (в том числе cuda-index) установлены по умолчанию? Перезапуск помог? Задание в итоге досчиталось? Судя по логу, клиент висит со вчерашнего вечера, но не из-за отсутствия заданий -- он просто завис. А скрипт в данном случае не сработал из-за ненормального поведения клиента, поскольку он сканирует только первые два слота, а не четвертый-седьмой, которые в логе (FS04-FS07), но я внесу поправки после проверки: он будет форсировано убивать клиент, если тот не вышел через полминуты после первой попытки (такое иногда бывает, возможно, в этом причина). "Could not get an assignment" в скрипте можно заменить на ":ERROR:", в данном случае он бы сработал, но это может привести к ложным срабатываниям и лишним перезапускам, все варианты трудно предусмотреть, поэтому решайте сами...

Добавлено спустя 2 часа 10 минут 51 секунду:
PS Если перезапускать по признаку отсутствия счета, попробуйте заменить строку
Код:
state="$(grep ":FS0$i:" -h log.txt | tail -n 1 | grep "Could not get an assignment")"

на
Код:
state="$(grep ":FS0$i:" -h log.txt | tail -n 1 | grep -v ":0x22:")"

Но это очень агрессивное поведение, такой скрипт будет перезапускать клиент каждый раз, когда хотя бы один из слотов не считает, считает на 21-м ядре, скачивает/закачивает задания или пытается соединиться с сервером (что сейчас может занимать до нескольких минут). Всем я такое рекомендовать не могу.

Добавлено спустя 1 час 35 минут 57 секунд:
Lecc писал(а):
я внесу поправки после проверки: он будет форсировано убивать клиент, если тот не вышел через полминуты после первой попытки


Внес поправки и временно добавил ссылку на скрипт в шапку темы.


 

TSC! Russia Captain
Статус: Не в сети
Регистрация: 16.08.2007
Откуда: Красноярск
Lecc
Подправил, но опять после работы клиент висел без заданий и не перезапускался :(
Сейчас запустил, смотрю, пока ок, даже один раз перезагрузил. Присмотрю завтра за ним
Минус думаю в том, что в этой строчке
Код:
state="$(grep ":FS0$i:" -h log.txt | tail -n 1 | grep -v ":0x22:")"

Он все равно смотрит в лог и ищет 0x22, верно? А надо чтобы мониторил процесс с названием FahCore_22

_________________
У тебя мощнейший комп, ты уверен? И для чего он тебе? В TSC! Russia ты узнаешь что такое мощь тысячи компов! TSCRussiaTeam.ru


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
MegaCalcii писал(а):
Он все равно смотрит в лог и ищет 0x22, верно? А надо чтобы мониторил процесс с названием FahCore_22


Он проверяет, есть ли в последней строчке лога вхождение ":0x22:", что означает работающее 22-е ядро, для каждого слота и перезапускает клиента, когда не находит. Если мониторить просто наличие процесса FahCore_22, будут все те же недостатки, что я описал выше, и в добавок к ним будет работать только один слот, а остальные могут простаивать без заданий, поскольку процесс формально "идет" (хотя бы и на одной ноге).


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
Отловил возможный баг и добавил дополнительную проверку лог-файла на корректность. Рекомендую обновить скрипт, если кто им пользуется, хуже не будет.

Если возникнут проблемы, приводите последнюю страницу файла log.txt, он может не совпадать с тем, что в окне фахконтрол.


 

TSC! Russia member
Статус: Не в сети
Регистрация: 19.12.2005
Откуда: Ярославль
bro@bro-desktop:~/fah7$ ./fahscan.sh 3
Начало записей: 02-04-2020 07:19:07 GMT

Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4
Слот: 03 (GTX1080Ti)
Проектов: 3
Заданий: 8
Cдано: 6

Проект --- Base Credit --- TPF --- PPD ---- Заданий
-----------------------------------------------------------------------
Невозможно оценить PPD, так как проекта 11764 нет в summary
Попробуйте обновить summary:
./fahscan.sh update
bro@bro-desktop:~/fah7$ ./fahscan.sh 1
Начало записей: 02-04-2020 06:46:12 GMT

Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4
Слот: 01 (GTX1080Ti)
Проектов: 6
Заданий: 6
Cдано: 5

Проект --- Base Credit --- TPF --- PPD ---- Заданий
-----------------------------------------------------------------------
Невозможно оценить PPD, так как проекта 11743 нет в summary
Попробуйте обновить summary:
./fahscan.sh update
bro@bro-desktop:~/fah7$ ./fahscan.sh 2
Начало записей: 02-04-2020 09:40:58 GMT

Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4
Слот: 02 (GTX1070Ti)
Проектов: 5
Заданий: 5
Cдано: 4

Проект --- Base Credit --- TPF --- PPD ---- Заданий
-----------------------------------------------------------------------
Невозможно оценить PPD, так как проекта 11776 нет в summary
Попробуйте обновить summary:
./fahscan.sh update

а можно поправить?

_________________
ASRock Fatal1ty X370 GAMING K4/Ryzen 7 1700/Fractal Design Celsius S36
Threadripper 2950X / MSI X399 SLI Plus / Enermax LiqTech TR4 II RGB 280


 

Куратор темы
Статус: Не в сети
Регистрация: 25.02.2015
Откуда: Москва
Так это давно исправлено. Попробуйте еще раз аккуратно скопировать скрипт и выполнить:
Код:
./fahscan.sh update

Последнюю команду нужно выполнять периодически по мере появления новых проектов.

Добавлено спустя 35 минут 47 секунд:
Прикрепил сжатый файл скрипта статистики к соответствующему посту, чтобы легче было скачивать и обновлять.


 

TSC! Russia member
Статус: Не в сети
Регистрация: 19.12.2005
Откуда: Ярославль
Lecc
все спасибо скачал файлик подменил поехало.
bro@bro-desktop:~/fah7$ ./fahscan.sh 2
Начало записей: 02-04-2020 19:06:54 GMT
Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4; fahclient v. 7.5.1
Слот: 02 (GTX1070Ti)
Проектов: 3 / Заданий: 3 / Cдано: 2

Проект --- Base Credit --- TPF --- PPD --- Заданий
-----------------------------------------------------------------------
11777 --- 9405 --- 0:7:29 --- 62231 --- 1
11780 --- 7685 --- 0:1:10 --- 820937 --- 1
11781 --- - --- - --- - --- 1*
-----------------------------------------------------------------------
Минимальный PPD -- в проекте 11777 (62231)
Максимальный PPD -- в проекте 11780 (820937)
bro@bro-desktop:~/fah7$ ./fahscan.sh 1
Начало записей: 02-04-2020 17:18:12 GMT
Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4; fahclient v. 7.5.1
Слот: 01 (GTX1080Ti)
Проектов: 3 / Заданий: 3 / Cдано: 1

Проект --- Base Credit --- TPF --- PPD --- Заданий
-----------------------------------------------------------------------
11745 --- 7685 --- 0:1:18 --- 699900 --- 1
11762 --- - --- - --- - --- 1*
11777 --- 9405 --- 0:7:36 --- 60828 --- 1
-----------------------------------------------------------------------
Минимальный PPD -- в проекте 11777 (60828)
Максимальный PPD -- в проекте 11745 (699900)
bro@bro-desktop:~/fah7$ ./fahscan.sh 3
Начало записей: 02-04-2020 17:29:13 GMT
Система: Linux 5.3.0-45-generic; nvidia-440.64; ext4; fahclient v. 7.5.1
Слот: 03 (GTX1080Ti)
Проектов: 3 / Заданий: 5 / Cдано: 3

Проект --- Base Credit --- TPF --- PPD --- Заданий
-----------------------------------------------------------------------
11777 --- 9405 --- 0:0:58 --- 1339572 --- 3
11778 --- - --- - --- - --- 1*
11780 --- 7685 --- 0:0:57 --- 1116415 --- 1
-----------------------------------------------------------------------
Минимальный PPD -- в проекте 11780 (1116415)
Максимальный PPD -- в проекте 11777 (1339572)
bro@bro-desktop:~/fah7$

вчера с нуля установил 19,3 (так от нечего делать) если кому надо все работает.

_________________
ASRock Fatal1ty X370 GAMING K4/Ryzen 7 1700/Fractal Design Celsius S36
Threadripper 2950X / MSI X399 SLI Plus / Enermax LiqTech TR4 II RGB 280


 

TSC! Russia member
Статус: Не в сети
Регистрация: 19.12.2005
Откуда: Ярославль
LMDE 4 “Debbie” released!
это 4 версия? Или какой то боковичок?

_________________
ASRock Fatal1ty X370 GAMING K4/Ryzen 7 1700/Fractal Design Celsius S36
Threadripper 2950X / MSI X399 SLI Plus / Enermax LiqTech TR4 II RGB 280


 

Junior
Статус: Не в сети
Регистрация: 03.04.2020
Всем привет.
Особую благодарность хочу вырозить ребятам которые создали скрипты. Все норм работают. Есть только один вопрос, почему эта гребаная видеокарта толком не работает. Вроде и получает задания но максимум отрабатывает до 12% выполнения и сбрасывается получает новое задание и опять тоже самое. С английским и linuxом я не особо силен но понял одно из логов что типо разогнаная видюха поэтому и не работает. Так ли это не знаю, сам с linuxсом недавно общаюсь. Прошу помощи в данном вопросе и вобше должнго ли оно так работать.

15:42:26:WU01:FS01:0x22:Folding@home GPU Core22 Folding@home Core
15:42:26:WU01:FS01:0x22:Version 0.0.2
15:42:40:WU01:FS01:0x22:Completed 0 out of 1000000 steps (0%)
15:42:40:WU01:FS01:0x22:Temperature control disabled. Requirements: single Nvidia GPU, tmax must be < 110 and twait >= 900
15:42:49:WU01:FS01:0x22:Bad State detected... attempting to resume from last good checkpoint. Is your system overclocked?
15:42:49:WU01:FS01:0x22:Following exception occured: Particle coordinate is nan
15:42:55:WU01:FS01:0x22:Bad State detected... attempting to resume from last good checkpoint. Is your system overclocked?
15:42:55:WU01:FS01:0x22:Following exception occured: Particle coordinate is nan
15:43:23:WU01:FS01:0x22:Bad State detected... attempting to resume from last good checkpoint. Is your system overclocked?
15:43:23:WU01:FS01:0x22:Following exception occured: Particle coordinate is nan
15:43:23:WU01:FS01:0x22:ERROR:114: Max Retries Reached
15:43:23:WU01:FS01:0x22:Saving result file ../logfile_01.txt
15:43:23:WU01:FS01:0x22:Saving result file badstate-0.xml
15:43:23:WU01:FS01:0x22:Saving result file badstate-1.xml
15:43:23:WU01:FS01:0x22:Saving result file badstate-2.xml
15:43:23:WU01:FS01:0x22:Saving result file checkpt.crc
15:43:23:WU01:FS01:0x22:Saving result file science.log
15:43:23:WU01:FS01:0x22:Folding@home Core Shutdown: BAD_WORK_UNIT
15:43:24:WARNING:WU01:FS01:FahCore returned: BAD_WORK_UNIT (114 = 0x72)
15:43:24:WU01:FS01:Sending unit results: id:01 state:SEND error:FAULTY project:11763 run:0 clone:332 gen:34 core:0x22 unit:0x0000003980fccb0a5e6d811ee07d5aef
15:43:24:WU01:FS01:Uploading 65.08MiB to 128.252.203.10
15:43:24:WU01:FS01:Connecting to 128.252.203.10:8080
15:43:24:WU02:FS01:Connecting to 65.254.110.245:8080
15:43:25:WU02:FS01:Assigned to work server 13.90.152.57
15:43:25:WU02:FS01:Requesting new work unit for slot 01: READY gpu:0:Hawaii [Radeon R9 200/300 Series] from 13.90.152.57
15:43:25:WU02:FS01:Connecting to 13.90.152.57:8080
15:43:28:ERROR:WU02:FS01:Exception: Server did not assign work unit
15:43:28:WU02:FS01:Connecting to 65.254.110.245:8080
15:43:29:WU02:FS01:Assigned to work server 128.252.203.10
15:43:29:WU02:FS01:Requesting new work unit for slot 01: READY gpu:0:Hawaii [Radeon R9 200/300 Series] from 128.252.203.10
15:43:29:WU02:FS01:Connecting to 128.252.203.10:8080
15:44:04:WU00:FS00:0xa7:Completed 1725000 out of 2500000 steps (69%)


Вложения:
Скрин  работы.png
Скрин работы.png [ 932.22 КБ | Просмотров: 2878 ]
Показать сообщения за:  Поле сортировки  
Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 2429 • Страница 120 из 122<  1 ... 117  118  119  120  121  122  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan