Часовой пояс: UTC + 3 часа




Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 2730 • Страница 9 из 137<  1 ... 6  7  8  9  10  11  12 ... 137  >
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 
Прилепленное (важное) сообщение

Advanced member
Статус: Не в сети
Регистрация: 16.12.2002
Откуда: TSC! | Москва
Мини FAQ <------
Linux SMP в VMWare за 7-мь простых шагов
Установка и настройка клиента в VMWare для счета -bigadv заданий на 8-ми ядерниках, (c) anubias

Использовать только VMWare Player или VirtualBox!

Исходное сообщение:
Подумал, что рационально завести тут на какое-то время - до появления нормального клиента SMP-Win, такую тему.

На самом деле, обобщая собственный опыт, могу предположить, что будет рационально пускать такую штуку на круглосуточно включенных машинах, но не очень удобно - на тех, что работают только часть суток. Во-первых, сложновато заставить всё запускаться автоматически (ну, а замаскировать эту штуку толком вообще нереально), во-вторых, дедлайн поджимает, в-третьих, когда я попытался сегодня возобновить расчёт, получил ошибку и был отправлен на закачку нового задания. Что, естественно, делает невозможным завершить хотя бы одно.

_________________
TSC! Russia - присоединяйтесь!



Партнер
 

Member
Статус: Не в сети
Регистрация: 04.02.2005
Откуда: Россия\Москва
Фото: 3
да...
uname -a вроде что-то говорит про SMP

_________________
Присоединяйтесь к команде распределённых вычислений TSC! Russia


 

Member
Статус: Не в сети
Регистрация: 16.02.2004
Откуда: Москва
underworlddemon
Смотришь количество ядер чем? top? А в multi-cpu отображение его переключал по "1" ?

_________________
Один выстрел - один труп.
cd /usr/src/themepark-2.4.1-2 && ./configure --with-blackjack --and-hookers && make


 

Member
Статус: Не в сети
Регистрация: 04.02.2005
Откуда: Россия\Москва
Фото: 3
смотрю гномовским системным монитором...
там везде упоминается только одно ядро...

_________________
Присоединяйтесь к команде распределённых вычислений TSC! Russia


 

TSC! Russia member
Статус: Не в сети
Регистрация: 31.07.2007
Откуда: Москва, Питер
судя по http://forums.virtualbox.org/viewtopic. ... 01e60#8837
Цитата:
1) guest SMP is not supported but planned for the future
2) guest SMP kernels tend to work fine with uniprocessor VMs
3) VirtualBox is multithreaded and will use available cores for e.g. IO (disk & network) support threads. Multiple VMs will be scheduled across all cores. That's up to the host OS.


пока не держит :(

_________________
работает 1650v2@4.0 E5 3.2s1 64GB ECC{16х4} asus rog vega56 crossover q27


 

Member
Статус: Не в сети
Регистрация: 04.02.2005
Откуда: Россия\Москва
Фото: 3
значит ждём новой версии...
ибо БОКС мне больше нравится чем ВМваре...

_________________
Присоединяйтесь к команде распределённых вычислений TSC! Russia


 

TSC! Russia Vice-captain
Статус: Не в сети
Регистрация: 21.03.2006
Откуда: Петербург
15 февраля обновился notfred VMWare client (виртуальная машина с Linux SMP клиентом).
Цитата:
- Clean up backup work directory when running under VM.
- Make Windows Share writeable. Support -smp 8 option. Remove unitinfo.txt from backup (can be giant). Update busybox, glibc and kernel.

- Очистка бекапа рабочей директории при работе под VMWare;
- Сетевая папка сделана записываемой;
- Добавлена опция -smp 8;
- Обновлена система.

_________________
Революционеров можно убить, идеи — никогда.


 

Member
Статус: Не в сети
Регистрация: 17.03.2004
Откуда: Высоковск
Спасибо за ссылку! Решил заморочаться таки с vmware...
Ппд вырос на 35%! (Phenom II X4 920@3500MHz). На четырех ядрах с жабой 2653 было около 2900 ппд на этой частоте, в линуксе под vmware 2000 на 2-х ядрах!


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
Right, а ты 2 SMP запусти с привязкой к паре ядер каждый. У меня на коре кваде было примерно так: 1800-2000ппд на 2665 на 4х ядрах. С помощью WinAFC почти всю систему кинул на два ядра. SMP один на два освободившихся ядра (ппд 1750-1800), один на два других (ппд 1300-1650). Там же GPU висит. На 2653 ппд с 2500 до 2200+1700 вырос. Ко всему прочему еще десяток виртуалок с dimes крутятся :)
А теперь вопрос. Какой прирост ппд на линуксе под виндой по сравнению с просто виндой? Интересует сравнение 2 смп с двумя виртуалками (или одной, но с загрузкой 4 ядер близкой к 100%).


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
Behc, попробовал способ описанный тут: http://forums.overclockers.ru/viewtopic ... 20#5098120 . ППД ниже. На двух ядрах 2653 дает 2200 в винде и 1800 под vmware. Это с одной виртуалкой. Что я мог сделать не так? В обоих случаях выделил 2 ядра, все остальное на двух других. Проц почти как у тебя. q9300@3500.


Последний раз редактировалось Lendy 22.02.2009 16:48, всего редактировалось 1 раз.

 

Member
Статус: Не в сети
Регистрация: 02.03.2008
Откуда: Пермь
Lendy
Под линукс лучше по клиенту на каждое ядро запускать и привязывать через taskset -c.
Добавлено спустя 12 минут, 2 секунды
Один клиент не загружает оба ядра полностью.


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
band1c, спасибо. Не знаю почему до этого было 1800. Сейчас 2500. На другой паре ядер юнит 5101. Как я понял не очень хороший - 1500 ппд. Первая виртулка занимает 48-50% проца, вторая 40-43. Много ли дает привязка к ядрам? 4 юнита пока не буду запускать, оперативки много ест. А она мне и для dimes нужна. Пока прирост есть. Если запускать 4 виртуалки, то как их по ядрам раскидывать? Оставлял на одном ядре двухядерную виртуалку - расчеты зависали, но грузили проц ровно на 25%. На одноядерной виртуалке пишет про ошибку запуска SMP.
Еще вопрос. Что будет, если винда упадет, а виртуалки в этот момент работать будут? продолжит с checkpointa? Почему каждый раз ядро качается?


 

TSC! Russia Vice-captain
Статус: Не в сети
Регистрация: 21.03.2006
Откуда: Петербург
Lendy
Ядро качается потому, что эта версия сборки расчитана в большей степени к работе с CD, всё просто в память перекидывается и считается. Чтобы каждый раз не качало, выбирай не остоновка виртуальной машины, а паузу в VMware.
Lendy писал(а):
На одноядерной виртуалке пишет про ошибку запуска SMP.

Правильно пишет: одно ядро - это не SMP.

_________________
Революционеров можно убить, идеи — никогда.


 

Member
Статус: Не в сети
Регистрация: 02.03.2008
Откуда: Пермь
Lendy писал(а):
На другой паре ядер юнит 5101. Как я понял не очень хороший - 1500 ппд.

Да, омерзительная жаба :). Все вкусности на .56 серваке(2669,2675 и пр.).
Lendy писал(а):
Много ли дает привязка к ядрам?

С привязкой под VMware я, возможно, погорячился, т.к. не уверен что даже при привязке VM к паре ядер, под виртуальной машиной ядра будут соответствовать физическим. У меня раньше стояла нативная убунта, когда менял её на Win+VMwarе, скрипты старые оставил и как то даже не задумывался над привязкой :oops:. Сегодня ночью, как PPD устаканится, постараюсь проверить, есть ли прирост.
Lendy писал(а):
Если запускать 4 виртуалки, то как их по ядрам раскидывать?

Для 4-х ядер лучше запускать 2 виртуалки и привязывать к физическим парам(в случае интел), удобнее всего с помощью WinAFC. У меня нижняя часть конфига для WinAFC выглядит так
Цитата:
*\vmware-vmx.exe := PAIR0+PAIR1 [assign=2,priority=idle]
*\FahCore_*.exe := PAIR1::CPU0 [priority=BelowNormal]

Lendy писал(а):
Что будет, если винда упадет, а виртуалки в этот момент работать будут? продолжит с checkpointa?

В моём случае(виртуальный жёсткий диск лежит в виде файла на винте) начинает с checkpoint'а. Но если у тебя ядро каждый раз закачивается, не уверен что будет также.


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
band1c, сравнил ппд без помех. Прирост есть и большой. На двух ядрах виртуалка - на 2653 юните 2630 ппд, на таком же в родной винде на другой паре 2060. Почему-то понизился с 2200. Пробовал запускать две виртуалки - просаживается ГПУ (9600GT) в два раза, на 1800 ппд, даже если понизить приоритет виртуалки до самого низкого, а у видео поднять. Остановился на VMware linux smp + win smp + gpu. получилось 8498 ппд :) конечно не рекорд, но неплохо. WinAFC использую. Но иногда появляется BDOS с AFFINITY. В конце еще стояла строка "* := CPU02+CPU03". Виртуалке не мешаются другие процессы? Виндовому SMP мешается. На 2653 ппд с 2200 до 1800 падал.

_________________
5 мая начинается The Chimp Challenge '2010! Присоединяйся к российской команде!
Инфо: http://forums.overclockers.ru/viewtopic.php?f=21&t=351237


 

Member
Статус: Не в сети
Регистрация: 02.03.2008
Откуда: Пермь
Lendy писал(а):
Но иногда появляется BDOS с AFFINITY. В конце еще стояла строка "* := CPU02+CPU03"

Не все приложения "любят" насильное переназначение ядер. У меня тоже как-то было, по-моему игрулина какая-то при попытке смены affinity вызывала bsod.
Lendy писал(а):
Виртуалке не мешаются другие процессы? Виндовому SMP мешается.

Конечно мешаются, при низком приоритете виртуалка забирает всё или почти всё что остаётся после других процессов. Можно попробовать поднять её приоритет, но на PPD, думаю, сильно не повлияет, к тому же отзывчивость самой системы может пострадать.
За почти двое суток счёта расклад процессорного времени примерно такой:
(q9400 @ 3,6 ghz, vista x64 sp1, fw 178.24)
system - 1 ч. 00 мин.
vmware-vmx.exe (на первой паре, загрузка 49-50%) - 93 ч. 10 мин.
vmware-vmx.exe (на второй паре, там же 2 гпу клиента, загрузка 45-47%) - 85 ч. 41 мин.
бездействие системы - 1 ч. 54 мин. :(
остальные процессы по мелочам


 

Member
Статус: Не в сети
Регистрация: 12.06.2004
Откуда: Москва
Lendy
2653,2665,5101 задания GRO-SMP, для моего e6400 это те еще тяжеловесы, особенно последние. Быстрее всего пока считались 2669 и 2675 GROCVS. Где то видел что GRO-SMP быстрее всего на Xeon'ах считаются. Так что не удивительно что на 2653 ППД у Core quad проседает :)

_________________
Куплю недорого процессоры Pentium 1, PRO. В общем, любые под Socket 7/8 Пишите в ЛС. Может не сразу, но обязательно отвечу :)


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
band1c, а ппд на гпу не падает из-за второй виртуалки? Или
Цитата:
*\vmware-vmx.exe := PAIR0+PAIR1 [assign=2,priority=idle]
*\FahCore_*.exe := PAIR1::CPU0 [priority=BelowNormal]

помогает? У меня на XP SP3 и 181 дровах только с smp уживается. Проц вообще почти не используется, но Vmware почему-то убивает ппд. Еще интересно. Пытался загрузить остаток ядер загрузить виндовым SMP, поставил приоритет для виртуалок тоже низкий, а они все равно отъедают по 45-48%, а виндовому smp почти ничего не остается. Как будто приоритет и не поменялся.
ODUH, считаю SMP недавно. Пока ничего быстрей 2653 не видел :)


 

Member
Статус: Не в сети
Регистрация: 02.03.2008
Откуда: Пермь
Lendy писал(а):
а ппд на гпу не падает из-за второй виртуалки?

Нет, с GPU всё норм.
У тебя курсор мыши не поверх VMware во время падения PPD? По умолчанию, когда у неё фокус, она себе приоритет "Normal" ставит.
Посмотри ещё значение priority в конфиге GPU-клиента. Должно быть 96.
Можно ещё попробовать GPU ко всем ядрам привязать.
Добавлено спустя 40 минут, 34 секунды
Виртуальная машина на одной паре ядер

1) с привязкой клиентов через taskset
Цитата:
Конфигурация: Q9400@3600, 4x1Gb DDR2@900, Ubuntu 8.04@VMware1(host Vista x64 SP1), 1ый клиент, ядро 1
Номер задачи: 2675 (3-135-74)
Имя задачи: p2675_IBX in water
Размер задачи: 4,62 МБ
Размер результата: ~ 24,8 МБ
Очки: 1920
Фреймы: 100
Ядро: GROCVS
IP сервера: 171.64.65.56
Очков в час: 70,92
Очков в сутки: 1702
Ср. время на шаг: 0:16:14
Client.cfg: bigpackets=big, type=3
Завершено: 62%
FahSpy 1.5.0

Цитата:
Конфигурация: Q9400@3600, 4x1Gb DDR2@900, Ubuntu 8.04@VMware1(host Vista x64 SP1), 2ой клиент, ядро 2
Номер задачи: 2675 (1-80-73)
Имя задачи: p2675_IBX in water
Размер задачи: 0,0 КБ
Размер результата: ~ 24,8 МБ
Очки: 1920
Фреймы: 100
Ядро: GROCVS
IP сервера: 171.64.65.56
Очков в час: 71,04
Очков в сутки: 1705
Ср. время на шаг: 0:16:13
Client.cfg: bigpackets=big, type=3
Завершено: 79%
FahSpy 1.5.0

Итого: 3407

2) без привязки
Цитата:
Конфигурация: Q9400@3600, 4x1Gb DDR2@900, Ubuntu 8.04@VMware1(host Vista x64 SP1), 1ый клиент, ядра 1+2
Номер задачи: 2675 (3-135-74)
Имя задачи: p2675_IBX in water
Размер задачи: 0,0 КБ
Размер результата: ~ 24,8 МБ
Очки: 1920
Фреймы: 100
Ядро: GROCVS
IP сервера: 171.64.65.56
Очков в час: 70,72
Очков в сутки: 1697
Ср. время на шаг: 0:16:17
Client.cfg: bigpackets=big, type=3
Завершено: 75%
FahSpy 1.5.0

Цитата:
Конфигурация: Q9400@3600, 4x1Gb DDR2@900, Ubuntu 8.04@VMware1(host Vista x64 SP1), 2ой клиент, ядра 1+2
Номер задачи: 2675 (1-80-73)
Имя задачи: p2675_IBX in water
Размер задачи: 0,0 КБ
Размер результата: ~ 24,8 МБ
Очки: 1920
Фреймы: 100
Ядро: GROCVS
IP сервера: 171.64.65.56
Очков в час: 70,41
Очков в сутки: 1690
Ср. время на шаг: 0:16:21
Client.cfg: bigpackets=big, type=3
Завершено: 93%
FahSpy 1.5.0

Итого: 3387

Разница в пределах погрешности. Если даже привязка клиентов под VMware и даёт прирост, то ооочень небольшой.


 

Member
Статус: Не в сети
Регистрация: 30.01.2006
Откуда: Химки
band1c, 3400 на одной паре ядер?

_________________
5 мая начинается The Chimp Challenge '2010! Присоединяйся к российской команде!
Инфо: http://forums.overclockers.ru/viewtopic.php?f=21&t=351237


 

Member
Статус: Не в сети
Регистрация: 12.06.2004
Откуда: Москва
Lendy
Цитата:
ODUH, считаю SMP недавно. Пока ничего быстрей 2653 не видел
Значит приятные моменты еще впереди :beer: У меня при одном SMP на этом задании на шаг уходит примерно 15 минут (1760 очков, если не путаю), на задании 2669 - 10 минут (1920 очков).Нашел где видел что на GRO-SMP XEON'ы быстрее всего Нужно выбрать в графе Core GRO-SMP , нажать кнопочку Apply filter и отсортировать результат по графе PPD. Жаль что у нас нет такой удобной статистики :(


Показать сообщения за:  Поле сортировки  
Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 2730 • Страница 9 из 137<  1 ... 6  7  8  9  10  11  12 ... 137  >
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 6


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  
Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan