Часовой пояс: UTC + 3 часа




Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 40 • Страница 2 из 2<  1  2
  Пред. тема | След. тема 
В случае проблем с отображением форума, отключите блокировщик рекламы
Автор Сообщение
 

Продавец
Статус: Не в сети
Регистрация: 21.10.2003
Откуда: Москва
Столкнулся с проблемой, решил собрать дом. сервер под ESXi, взял AMD 3870K и мамку на A75 чипсете, собрал рейд 0 из трех дисков по терабайту которые до этого были под файловый сервер... и вот засада, драйверов то нет, ESXi не видит контроллер а значит и диски :(

Есть идеи что делать? На офф. сайте только под винду драйвера :(

_________________
★ ★ ★ ||| ★ ★ ★



Партнер
 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
flakessp я понял, вы хотите поставить esx на ноут? Не выйдет. Ему нужны аппаратные сетевые карты, а в ноутах ставят только полусофтовые. И usb сетевузи тоже софтовые.

Есть только один вариант, ставить vmware workstation и уже на его виртуальную машину ставить esx. Сам такую схему для экспериментов использую. Тормозит двойная виртуализация нехило, но вполне работает. Машина профильная.

orko в идеале на хосте должно быть 10 сетевых интерфейсов :-) но для тестовой среды и одного хватит. Конечно, для продакшена надо смотреть на нагрузки и требования к отказоустойчивости и там уже выбирать сколько карт надо.

Добавлено спустя 10 минут 42 секунды:
Рональдо беда и радость esx как раз в том, что он не работает со всяким софтовым отстоем, в большем случае это касается сетевушек и рэйдов. И сделать с этим ничего нельзя.

В очень редких случаях испрльзуя танцы с бубнами и драйверами линуха можно заставить софт работать, но это неправильно. Разве что для тестовой среды.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
Товарищи, я прошел обучение по VCP-5, скоро пойду сдавать экзамен.

Если кому надо внедрять продуктивные решения - вэлкам в личку.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
Хочу поделиться, теперь я VCP5 - VMware Certified Professional 5
С утра сдал экзамен.

Готов ответить на вопросы.

#77

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
Сегодня на профильной машине собрал тестовую лабораторию с удаленным доступом:
11 виртуальных машин с Server 2008R2 64 bit:
-AD 4GB
-iSCSI 4GB
-еще 9 машин по 2GB

плюс еще 9 виртуальных машин по 5GB для установки туда ESXi 5.0.0
Под каждой из этих ESXi крутится по 5 машинок с установленной Server 2003R2 32-bit, итого 45 машин с двойной виртуализацией.

Всего запущено 65 виртуальных машин. Все работают достаточно быстро. Установка server 2003R2 занимает 6 минут.
Перезагрузка любой машины с Server 2008R2 занимает примерно 12 секунд.

Напоминаю, всё это работает на одной домашней машинук с одним физическим процессором :)

Схема примерно такая:
#77
Для желающих могу дать удаленный доступ, чтобы могли посмотреть глазами.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Member
Статус: Не в сети
Регистрация: 27.10.2011
Откуда: Тольятти
Добрый вечер\день\утро :) . Интересует бесплатный сервер VmWare ESXi. Вопрос такой: можно ли данный сервер использовать для организации работы небольшого офиса (15-20 компьютеров)? Если да, то как клиенты будут получать доступ к своим виртуальным машинам(через какой софт, или как-то иначе : если можно то по-подробнее)? Заранее благодарен.

_________________
x79z 2.4c/Xeon 2660v2@2.7GHz/16GB DDR3 ECC REG@1660MHz/HD7750 DDR3 2gb/SSD64/HDD 1Tb/


 

Member
Статус: Не в сети
Регистрация: 29.02.2004
Откуда: ...Не скажу...
Добррого всем времени суток! Подскажите пожалуйста, в организации есть ESX на кластере, один из хостов которого несет ESX 5.1(остальные 4.xx), на наиболее "свежем" хосте крутится виртуалка с Win 2012. Хочу поднять на ней VDI. Вопрос: как?) При попытке добавить роль пишет, мол "hipervisor is already running", нагуглил исправление одной строчки конфига *.vmx , теперь другая ошибка, мол Ваш процессор не поддерживает виртуализацию...:( Куда копать? Гугл перерыл, у всех работает...:(


 

Member
Статус: Не в сети
Регистрация: 21.05.2005
Откуда: Kovrov
Sladky писал(а):
Сегодня на профильной машине собрал тестовую лабораторию с удаленным доступом:
11 виртуальных машин с Server 2008R2 64 bit:
-AD 4GB
-iSCSI 4GB
-еще 9 машин по 2GB

Пожалуйста, приведите подробности хоста ( CPU\RAM\Mb ), на котором раскручены 65 виртуальных машин.
Правильно понял, все 65 работают в реальном времени, без хибернейта., т.е. можно по сетевому сокету получить доступ к 65 хостам.


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
swatik Приветствую. Можно, там ограничения только по памяти хоста. То есть физической оперативко должно быть не более 32 ГБ. Соответственно, в её пределах и придётся работать. В принципе, никто не мешает рядом поставить еще один хост с беспланым ESX, будет суммарно 64 гига :)

Соответственно, машинки придется поднимать с малым потреблением оперативки. То есть скорее всего ХРюшки. В качестве дисковой подсистемы можно использовать либо платы RevoDrive олт OCZ, либо другие быстрые SSD. Не рекомендую строить дисковую подсистему для вашей задачи на классических дисках, даже SAS. У них не хватит IOPS. Будут ваши гости притормаживать.

Самый простой доступ к вашим машинкам - удаленный рабочий стол. То есть ставите в офисе роутер за 100$ и пользователи смогут работать со своими машинками как внутри офиса, так и снаружи, хоть с Канарских островов. Есть еще много вариантов удаленного подключения, вбирайте подходящий.

Hardwar ИМХО, у вас неправильный ход мысли.
1. У вас получается двойная виртуализация, скорость работы, мягко говоря, будет плохая.
2. 2012 сервер уже виртуальный. А все виртуалки не поддерживают аппаратную виртуализацию. Соостветственно, виртуальный процессор вашей 2012 винды - софтовый, он не умеет аппаратно делать виртуализацию. Отсюда проблемы. Сам подобную схему не реализововал, если чего. Делал ESX из под ESX.

Samd Да, вы всё правильно поняли. Запускалось на моей профильной машине. По моим подсчетам, если запускать Server 2003, то таких машинок влезет около 250. И все будут одновременно работать, и все будут одновременно доступны по сети. И даже тормозить это всё не будет, если расположить их диски на правильном SSD.

Граждане, в теме я появляюсь редко из за её "активности". Прошу кидать мессадж в личку, что написали тут вопрос, я тогда оперативно смогу ответить.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Продавец
Статус: Не в сети
Регистрация: 21.10.2003
Откуда: Москва
Samd

Странные вы вопросы задаете. Можно очень много виртуалок запустить, но какое отношение это имеет к реальности? Вот если бы Сладкий сказан что на профильном конфиге у него 500 юзеров сидит курочащих 1С какой нибудь, то я бы сказал ДААА... Это круто :D

swatik

Получилось что нибудь? Честно говоря из вашего описания не понял что же вы хотите сделать? Вы купили 20 тонких клиентов и нужен сервер чтобы разместить виртуалки? А где сейчас крутится остальная инфра? Или у вас обычные десктопы, но зачем тогда виртуалки? В общем задача не поставлена.

Добавлено спустя 3 минуты 1 секунду:
Sladky писал(а):
Hardwar ИМХО, у вас неправильный ход мысли.


Я думаю человек просто поиграться хочет, а не продакшен систему строит.

Hardwar писал(а):
Гугл перерыл, у всех работает


Найдете решение, черкните плиз.

Добавлено спустя 2 минуты 58 секунд:
Sladky писал(а):
Не рекомендую строить дисковую подсистему для вашей задачи на классических дисках, даже SAS. У них не хватит IOPS. Будут ваши гости притормаживать.


Не соглашусь, 15-20 виртуалок это не так уж и много. Одной полочки SAS 15к дисков хватит с запасом. А с SSD вы разоритесь т.к. уверен что юзера захотят по 100Гб места + отказоустойчивость как ни крути нужна имхо.

_________________
★ ★ ★ ||| ★ ★ ★


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
Рональдо писал(а):
Не соглашусь, 15-20 виртуалок это не так уж и много. Одной полочки SAS 15к дисков хватит с запасом.


Не соглашусь в свою очередь :) Я делал замеры как в тестах, так и на живых человеках. Так вот, один SSD уровня Vertex 3 уделывает 5!!! 15k SAS дисков в нулевом рэйде по IOPS примерно в 10 раз. Полка - это 12 дисков. То есть примерно 10 килобаксов суммарно. Теперь берем простенький рэйд контроллер уровня ASR 6805E, цепляем туда 4 SSD диска, собираем 0+1 или 5 массив + цепляем 4 SATA диска и собираем большую 5-ку. Отдаем гостам под системные диски с SSD, а под помойки - SATA.

Итог - все счастливы. Система у всех летает, места под помои много.

Теперь о реальной жизни.
у меня 12 пользователей сидели на одном SSD vertex3. Пока все просто работали - всё ОК. Но тут начали ставить SQL2008 все вместе и пинцет. Ставился он у них около часа. Не хватило им всем IOPSов. Там вроде 75.000 заявлено, но под реальной многопоточной нагрузкой они до 300 падают. Не заточены десктопные SSD на многопоточность.

Та же операция на 5шт 15k SAS RAID-0 положила всё еще круче. Там даже мышки рывками двигались :) Понятное дело, вряд-ли случится в жизни, что 12 человек разом кинутся ставить тяжелый софт, но сей момент надо учитывать. Всё зависит от задач.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Продавец
Статус: Не в сети
Регистрация: 21.10.2003
Откуда: Москва
Подробно завтра отвечу т.к. с телефона пишу. Кратко, нельзя сравнивать корпоративные решения и десктопные, а ты сначала сравнил а потом жалуешься :-)

Опять же я привел тупых юзеров, они все на диск С: будут складывать :-)

_________________
★ ★ ★ ||| ★ ★ ★


 

Member
Статус: Не в сети
Регистрация: 03.09.2004
Фото: 1
Sladky А не знаешь как у ESX с поддержкой IPv6? в связи в грядущей миграцией интересует совместимость с iSCSI.


 

Продавец
Статус: Не в сети
Регистрация: 21.10.2003
Откуда: Москва
Зум писал(а):
Sladky А не знаешь как у ESX с поддержкой IPv6? в связи в грядущей миграцией интересует совместимость с iSCSI.


Не Сладкий, но отвечу :oops:

Выше я задавал вопрос по стенду тестовому, в итоге построил - http://habrahabr.ru/users/infeneon/topics/ в статьях вроде про это не написано, но ipv6 работал хорошо насколько помню

Добавлено спустя 9 минут 11 секунд:
Sladky писал(а):
Так вот, один SSD уровня Vertex 3 уделывает 5!!! 15k SAS дисков в нулевом рэйде по IOPS примерно в 10 раз


SAS диск выдает порядка 170-200 iops, получается что вертекс должен выдать 180*5*10=9000, а это уже уровень нижней линейке хайэндов :) Причем это реальные iops-ы, в SPC1 тесте можно и 270 с SAS диска снять в пересчете на штуку (никто ессно не тестит один диск), но даже если мы гипотетически предположим что вертекс выдает 9000 IOPS (что конечно бред по отношению к реальным нагрузкам), то сколько он протянет в таком режиме учитывая что число циклом перезаписи у него 5-10к всего!!! По моим подсчетам получаются секунды :)

Добавлено спустя 10 минут 20 секунд:
Если же смотреть на равнозначные решения, то посмотрел вот лист прайс IBM-а...

полка с 12*100Gb SLC стоит 70к, а 24*600Gb порядка 80к

что мы видим? SSD почти в два раза дороже, при этом в 6 раз менее емкие - вот это правда жизни

Добавлено спустя 11 минут 17 секунд:
Sladky писал(а):
Полка - это 12 дисков


если 2.5" то 24 диска

Sladky писал(а):
Не заточены десктопные SSD на многопоточность.


и не только на это

Sladky писал(а):
Та же операция на 5шт 15k SAS RAID-0 положила всё еще круче.


плохой контроллер, диски не виноваты

Sladky писал(а):
что 12 человек разом кинутся ставить тяжелый софт


если вы строите инфру правильно, то тяжелый софт не должен быть внутри виртуалки пользователя, либо сервер (RDP/Citrix) либо нормальный десктоп

///

Что в итоге? Когда то давно я пересадил 100 бизнес критичных юзеров на VDI (теперь уже vmware view), крутились они на 4 лезвия HP-ных, причем это было явно с запасом, просто изначально был куплен бандл на 100 лицензий, 4 сервер и виртуальный центр. Данные лежали вообще на NAS-е от NetApp (там было место) так вот, в пиках они генерили 1500 иопсов а в среднем и вообще порядка 500, это подтвержает усредненные данные применимые для рассчета архитектуры, виртуалка юзера генерит порядка 10-15 IOPS, так что при кол-ве юзеров от 100, вполне можно расчитывать необходимое число дисков по объему т.к. IOPS хватит, можно даже 900Gb SAS диски брать чисто теоретически (я правда так не рискую и закладываю 600Gb 15k т.к. много еще накладных расходов все же).

Касательно 15-20 юзеров, я бы вообще не заморачивался с виртуалками для них, имхо, накладные расходы сожрут все бенефиты. Максимум что стоит сделать это сделать кластер из двух серверов на которых поднять виртуальные сервера под все нужны и загнать софт на терминальные сервера чтобы с поддержкой и лицензиями меньше гемороиться.

_________________
★ ★ ★ ||| ★ ★ ★


 

Junior
Статус: Не в сети
Регистрация: 03.05.2012
Если собираетесь использовать SSD, то только SLC. MLC для таких задач не подходит.
Решения VMWare позволяют видяху прокинуть в гостевую ОС из хоста?
Знает ли кто-нибудь подобные решения? (простите если немного офтоп)

Цитата:
Касательно 15-20 юзеров, я бы вообще не заморачивался с виртуалками для них, имхо, накладные расходы сожрут все бенефиты. Максимум что стоит сделать это сделать кластер из двух серверов на которых поднять виртуальные сервера под все нужны и загнать софт на терминальные сервера чтобы с поддержкой и лицензиями меньше гемороиться.

Для 15-20 юзеров достаточно 1 терминалки с нормальными бэкапами. Да и то вопрос. Нормальные ТК стоят не дешево. А администрировать 15 рабочих станций в домене сейчас довольно просто. Не надо выдумывать себе сложности. Просто заморочиться на настройку и бэкапы.
Цитата:
Данные лежали вообще на NAS-е от NetApp
А чем NAS плохо?


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
Рональдо Да я по большому со всем согласен, кроме отдельных моментов :) Вот RevoDrive-3 480GB реально выдаёт 15.000 честных IOPS (64 параллельных потока, 25% случайной записи и 75% случайного чтения). До кучи большие IOPS не убъют MLC диски так скоро. Да, они со временем сдохнут, но не так быстро. Не надо забывать про переназначение ячеек. По сути, КАЖДАЯ ячейка должна быть перезаписана несколько тысяч раз, чтобы исчерпать свой ресурс.

Допустим, я сейчас собираю самосборную хранилку на базе FreeNAS, где под read-кэш будет стоять в страйпе 4 диска OSZ Vector по 512 гигабайт. То есть будет 2 терабайта реад-кэша. Допустим, MLC в среднем выдержит 3000 циклов перезаписи. Умножаем 2 терабайта на 3000 и получаем 6 петабайт.

То есть нам надо записать в кэш по 131 ГИГАБАЙТУ данных каждый час в течение 5 лет, чтобы полностью убить эти SSD. Да Бог с ними, :) Меня это устраивает. А в случае выхода из строя, ну да, кэша станет меньше, хранилка станет работать чуть медленнее, надо будет менять SSD на новые.

climp На тему подходят или нет MLC под такие задачи - тут вопрос сложный. Да, допустим у SLC в 10 раз больше циклов перезаписи, но они дороже и меньше объемом. Получается, что покупая MLC - мы по факту покупает то же количество циклов перезаписи за те же деньги.

Посмотрим, как MLC диски поведут себя в хранилке.

А по поводу проброса видюхи - есть такая технология DirectPath I/O, позволяющая пробрасывать в гостевую ВМ любую железку физического сервера. Лячно я целиком RAID контроллер пробрасывал (как PCI-E устройство), и всё работало.

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Member
Статус: Не в сети
Регистрация: 27.10.2011
Откуда: Тольятти
Рональдо писал(а):
Получилось что нибудь? Честно говоря из вашего описания не понял что же вы хотите сделать? Вы купили 20 тонких клиентов и нужен сервер чтобы разместить виртуалки? А где сейчас крутится остальная инфра? Или у вас обычные десктопы, но зачем тогда виртуалки? В общем задача не поставлена.

Извиняюсь, что пропал, спасибо всем за посильную помощь.
Задачу не смог поставить, так как малокомпитентен в этой тематике :oops: . В эту ветку полез, чтобы хоть что-то понять про ESXi и как она работает.
C ESXi ничего не получилось(времени вникать было мало, да и нервы дороже). Смысл был в том, чтобы все приложения и данные пользователей хранились физически подальше от офиса, так как случались "проверки каких-то там органов" в ходе которых изымались рабочие компутеры с софтом и данными бухгалтерии\документами.. ничего криминального хоть и не находили, но работа вставала и иногда надолго.
Директор заключил договор с какой-то фирмой, они этот вопрос решили. Насколько я понял через сервер терминального доступа . Мой вопрос больше не актуален.

_________________
x79z 2.4c/Xeon 2660v2@2.7GHz/16GB DDR3 ECC REG@1660MHz/HD7750 DDR3 2gb/SSD64/HDD 1Tb/


 

Фреонщик
Статус: Не в сети
Регистрация: 15.10.2002
Откуда: Москва
swatik Будет желание - обращайтесь, я смогу аналогичные решения предложить. У меня есть свой хостинг :)

_________________
Сдаю в аренду серверные мощности (Dedicated, VDS, VPS, IaaS): http://vds4you.ru


 

Junior
Статус: Не в сети
Регистрация: 23.01.2010
Всем здравствуйте!
Столкнулся с такой проблемой - не понятно как сделать, чтобы ESXi на сервере-лезвии (blade) увидел LUN-раздел со встроенной системы хранения данных сервера IBM BladeCenter S. Перед этим я сделал mapping в веб-интерфейсах обоих модулей SAS RAID IO Module, в BIOS LSI SAS контроллера это устройство появилось, но вот ESXi на blade-сервере не видят LUN ни как. И полная переустановка ESXi не помогает, при инсталляции ESXi видит только локальные диски и все. Это что получается, нужно этот LUN подключать к ESXi вручную, через CLI? А как это сделать правильно, не подскажите?
Спасибо за ответ...

_________________
ASRock Z97M Pro4/Core i5 4690K@4,8Ghz/16Gb DDR3/GeForce 1080Ti/OCZ TL100 240Gb/X-Fi Titanium/Chieftec APS-700C/Win7 SP1 x64/27" 2k 144Hz Samsung


 

Member
Статус: Не в сети
Регистрация: 24.08.2008
Может кому пригодится, ESXi и чипсетный RAID:
Был собран образ на базе v.5.5.0, в образ были добавлены RAID-драйвера с помощью VMware vSphere PowerCLI 5.5, сам образ был установлен на сторонний HDD, после установки который корректно видел массив.
Режим работы контроллера жестких дисков установлен в режим ACHI. Мама Asus P8P67 (REV 3.1). Харды 2х Seagate NAS-SATA по 2Тб.


Показать сообщения за:  Поле сортировки  
Начать новую тему Новая тема / Ответить на тему Ответить  Сообщений: 40 • Страница 2 из 2<  1  2
-

Часовой пояс: UTC + 3 часа


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 16


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Перейти:  

Лаборатория














Новости

Создано на основе phpBB® Forum Software © phpBB Group
Русская поддержка phpBB | Kolobok smiles © Aiwan