?

Log in

No account? Create an account

Новая старая игрушка
at_it
О, Михеев выложил ссылку на мою любимую игрушку - IOmeter (под блестящей оберткой с названием VMWare I/O Analyzer), которая используется для тестирования производительности хранилищ ВМ. Надо заценить.

Использование vmWare Converter для преобразования P2v Windows 2000 Server
at_it
Эпиграф: Век живи, век учись, а все равно дураком помрешь.

Мои ранние попытки воспользоваться конвертером для преобразования машин под windows 2000 закончились неудачно потому, что начиная с версии 4.3, конвертер не поддерживает Windows 2000. Надо было брать 4.0.1. На новые попытки сконвертировать физическую машину в виртуальную меня подвергло чтение ссылок вот из этого поста, особенно вот этой. По мотивам своих упражнений я накатал нехитрую инструкцию, каковую и предлагаю Вашему вниманию.

Перенос сервера Windows 2000 в виртуальную среду с помощью vmWare Converter.

Я постараюсь работать "ручками" как можно больше для лучшего понимания процесса.

Текущая конфигурация:
Сервер HP Proliant 360 G4, 2*Xeon 3.4 Ghz, 2 Gb RAM, 2*72GB SCSI HDD @ Raid1.
Windows 2000 AS SP4 (последнее необходимо для работы конвертера).

У нас должен быть запущенный сервер vmware ESXi, я пользовался версией 4.1

1. Ставим vmWare Converter. Версии, начиная с 4.3 не работают с w2k, поэтому надо использовать версию 4.0.1
2. Отключаем все ненужные сервисы, ставим их в disabled. Желательно остановить все процессы по максимуму. В моем случае это сервисы Symantec antivirus, Automatic updates, Cisco serurity agent service. Также запоминаем сетевую конфигурацию (ipconfig /all) в файл и убеждаемся, что мы знаем пароль от учетки локального админа.
3. Ставим vmWare Converter, перезагружаемся.
4. После перезагрузки запускаем конвертер.
4.1. На первом экране задаем тип конвертации (Powered on machine) и источник (This local machine)
4.2. На втором экране задаем приемник конвертации. Им может быть и ВМ в файловом виде, но в данном случае выбираем vmWare infrastructure virtual machine, указываем адрес хоста (рекомендуется указывать его в виде ip), логин пользователя и пароль.
4.3. Необходимо указать имя виртуальной машины, версию виртуального железа и хранилище, на котором будет лежать машина.
4.4. На следующем экране необходимо походить по подэкранам, тыкая в те или иные пункты.
4.4.1. В экране Data to copy можно поменять размер виртуального диска, установить игнорирование файлов hibernate и pagefile,
4.4.2. В экране Devices можно поменять количество виртуальных процессоров, памяти для ВМ и, самое главное тип дискового контроллера. Я имею все основания полагать, что с установкой preserve: сконвертированная ВМ загружаться не будет. С установкой IDE - тоже (проверял). Поэтому надо поставить "родной" для vmWare SCSI, в моем случае предлагался только BusLogic.
4.4.3. В экране Networks можно выбрать количество сетевых адаптеров и сеть на хосте ESXi, в которую должна быть включена ВМ. Здесь можно указать сеть, не выходящую за пределы хоста ESXi, чтобы виртуальная машина оказалась в сетевой изоляции. Впрочем, настроить это можно будет и после конвертации.
4.4.4. В экране services можно указать, во-первых (на закладке Source) , какие сервисы останавливать перед конвертацией, а, во вторых (на закладке Destination), какие сервисы переводить в режим disabled на целевой ВМ. Можно поотключать все сервисы оборудования HP, например, хотя мне при конвертации они не мешали.
4.4.5. В экране advanced options нужно проверить, что включен режим Reconfigure destination virtual machine, остальное можно не указывать.
4.5. На следующем, последнем экране можно еще раз просмотреть всю информацию, которую Вы ввели ранее, и, если что, вернуться назад.
5. Процесс конвертации занимает довольно долгое время, поэтому тут можно сделать перерыв или заняться другими делами. Можно даже разлогиниться - vmWare converter продолжит работу.
6. Итак, сигара выпита, кофе выкурено, конвертер закончил работу. Выключаем реальную машину и начинаем разбираться с виртуальной.
7. Заходим в настройки ВМ и удаляем ненужные ей устройства - как правило, это com-порты, флопик и usb-контроллер. Также можно добавить сетевых контроллеров, поменять сеть и т.п.
8. Включаем нашу виртуальную машину. В принципе, РЕКОМЕНДУЕТСЯ включать ее первый раз в safe mode. Чтобы не промахнуться мимо F8, можно перед включением в свойствах ВМ на закладке Options, в пункте Boot options поставить The next time machine boots, force entry to BIOS screen. Там же, в БИОСе ВМ убрать флопик и поставить первым в очереди на загрузку жесткий диск.
9. Выходим из Биос, жмем F8, попадаем в Safe mode. Ждем, пока ВМ прочихается и найдет все новые устройства. Перезагружаемся. Перезагрузок дальше будет много, поэтому не буду о них писать :)
10. Удаляем ненужные программы, например - HP Proliant support pack и т.п. драйверы железа из Add / remove programs. В принципе, существует программа, автоматически удаляющая Proliant support pack (см. по ссылке выше), но можно и ручками.
11. Ставим vmWare Tools. Теперь все виртуальное оборудование должно видеться корректно, плюс можно выставить нормальное разрешение экрана.
12. Включаем ранее отключенные сервисы для того, чтобы связанные с ними псевдоустройства оказались задействованы.
13. Удаляем ненужное оборудование. Для этого нам понадобится батник из двух строк:
----
set devmgr_show_nonpresent_devices=1
devmgmt.msc
-----
После запуска Device Manager говорим View \ Show hidden devices, и последовательно убираем все ненужное, начиная с сетевых карт.
14. Даем сетевой карте (или картам) старые адреса.
15. Удаляем vmWare Converter.

После этого можно перезагрузиться и проверить работу всего необходимого ПО.

Два важных замечания по процессу.
1. Если в чем-то не уверены или что-то не получается - активно пользуйтесь встроенным в Esxi механизмом создания снапшотов. Только не забудьте их удалить после успешного завершения процесса :)
2. Если конвертация по каким-то причинам не удалась - всегда можно погасить ВМ и включить в работу реальную машину, подняв там все ранее отключенные сервисы. В случае конвертации высоконагруженного оборудования в нерабочие часы всегда оставляйте небольшой запас времени на подобный откат.

Подключение хостов ESXi к СХД и работа в мультисерверной среде.
at_it
Для начала, я хочу описать имеющуюся у нас сеть хранения данных. Сразу надо сказать, что подключение к СХД конкретного производителя может включать в себя разные нюансы, необходимо почитать о конкретном вендоре или конкретной железке документацию на сайте vmware. Но чем железка проще, тем проще ее подключить и использовать. :)

Общие принципы построения СХД гласят: управление - отдельно, СХД - отдельно. Использование СХД и сети управления по одному интерфейсу допустимо лишь в случае возможности аппаратного разграничения полосы пропускания для каждой из сетей, т.е. построения поверх физической сети виртуальной.

На текущий момент у нас подключены два устройства хранения данных: сервер NFS и дисковый массив HP MSA P2000 G3. nfs используется сугубо для хранения вспомогательных данных, а именно - бекапов. На MSA хранятся продуктовые данные.

Nfs сервер сконфигурирован просто: по пути /mnt/nfs/ отдается r/w каталог под данные. Можно складывать туда все, что хочешь: хоть ВМы, хоть образы дисков, хоть копии каталогов ВМ (offline backups). Пользоваться nfs-ом под VMWare чрезвычайно просто, некоторые, из-за этой простоты, предпочитают его iScsi, несмотря на 5% потерь в производительности (не на всех, понятно, задачах).

Подключить NFS-сервер просто: в закладке Configuration / Storage жмем Add storage, затем указываем имя или адрес сервера и путь, также можно включить режим read only, здесь же нужно указать имя Datastore. Есть только один важный нюанс: на всех серверах ESXi, использующих конкретный nfs-сервер, имя сервера нужно указывать одинаково: либо на всех серверах - через Ip-адрес, либо везде - через одинаковое dns-имя. С этим именем vmWare создает lock-файл для запущенной виртуальной машины.

Конфигурация MSA, конечно, будет посложнее.

Наша MSA имеет два контроллера, каждый содержат по 2 порта FC, 2 порта iSCSI, 1 порт SAS для полок расширения и 1 порт Ethernet под управление. MSA содержит в себе 24 диска 6G SAS DualPort 10k по 300Гб, что дает нам 7.2 Тб нераспределенного пространства. Диски разбиты на два массива, Raid-6 и Raid-10, на каждом из которых создано по одному виртуальному диску. Также присутствуют два диска в качестве Global spare.

Подключение к сети выполняется так: первый порт каждого контроллера цепляется к одному коммутатору, второй порт - к другому коммутатору. Это позволяет надеяться на работоспособность iSCSI-сети в случае выхода из строя любого коммутатора, патч-корда или контроллера MSA. Если сервер имеет два физических порта под iSCSI, то выход одного из них из строя также позволит конфигурации оставаться работоспособной.

"Сеть" FC, по причине отсутствия FC-коммутатора, настроена так: FC-порты MSA переведены в режим "точка-точка", серверный адаптер FC воткнут стандартным FC-патчем напрямую в MSA. У MSA есть одна неприятная особенность: она не понимает, если один и тот же хост к одному и тому же луну пытается получить доступ по разным протоколам (FC и iSCSI). Поэтому об идее fallback'а с FC на iScsi в автоматическом режиме в случае аварии придется забыть.

Итак, попробуем подключить наш свежеподнятый хост к iScsi. Не будем пока задействовать аппаратные возможности встроенных iScsi HBA.

Шаг1: заходим в Configuration / Networking и создаем там новый объект кнопкой Add networking, тип: VMKernel, выбираем порт для iScsi, зовем его понятным образом (я зову vmk-s), даем ip-адрес и vlan (если есть).

Шаг2: идем в Configuration/Storage Adapters и ищем там iScsi software adapter. Встаем на него и жмем кнопку Properties. По умолчанию он отключен, нажимаем кнопку Configure и говорим ему Enabled. Затем в закладке Dynamic discovery нажимаем кнопку add и добавляем туда адреса всех портов iScsi нашей MSA. Жмем Ok. VMWare предлагает пересканировать адаптеры, соглашаемся. Через какое-то время в списке устройств, подключенным через iScsi software Adapter, появятся два наших тома. Можно нажать кнопку paths и посмотреть, что все пути доступа к этим дискам живы-здоровы (зеленый ромбик). Также в пункте Storage появятся Datastores, заведенные на этих дисках.

Теперь про FC. Так как в моем сервере FC-адаптера сейчас нет (он лежит на столе в кулечке), я пойду его выключать. А вы никуда не уходите!

Прим.: Не забываем перед переключением на другой тип подключения убрать из Inventory все ВМ'ы, и отключить iSCSI подключение в iScsi adapter / configure / disable, причины изложены выше.

Итак, после установки FC-адаптера в сервер, включения его кабелем напрямую в MSA и перезагрузки ничего больше настраивать не надо - все просто работает, существующие диски VMFS сразу видны в пункте Storage и в качестве Datastores.

Теперь проделаем то, ради чего всё это затевалось: создадим ВМ так, чтобы видеть ее с двух серверов. Создавать ВМ мы уже умеем, так что выполним только вторую часть задачи - увидим ее на втором сервере. Чтобы ВМ нормально прописалась на второй (третий, четвертый и т.п.) сервер, нужно, чтобы она была выключена.

На закладке Summary в окне Datastores из меню по правой кнопке на нужном Datastore вызовем Datastore browser. Зайдем в каталог с нужной нам ВМ и найдем файл <имя ВМ>.vmx. Из меню по правой кнопке выберем Add to inventory, оставим имя по умолчанию - и ВМ появляется в списке доступных машин.

Есть только один нюанс: при запуске этой ВМ вылезет окно с вопросом "Вы эту машину переместили или скопировали?" Так как физически машина никуда не переезжала, а сменился только управляющий ей хост, я отвечаю "I moved it".

Теперь при поломке любого сервера ESXi нам достаточно импортировать все ВМ'ы с СХД и последовательно запустить их. В принципе, можно накатать простенький скрипт, который будет отслеживать существование ESXi серверов, и, если один из них упадет, давать команды на подъем виртуальных машин на других серверах. vmWare vCenter примерно этим и занимается :) Но т.к. отладка этого скрипта - дело долгое и муторное, а риск ошибки достаточно велик, я предпочитаю написать понятную инструкцию, и в случае падения железки сделать все руками.

Работа с VMWare ESXi 4.
at_it
Так как многие ESXi в глаза не видели, то кратко, без подробностей, опишу, как работать с ним и где чего там лежит.

Как и положено любой уважающей себя ОС, гипервизор распределяет между виртуальными машинами процессорное время, память, диски и сетевые ресурсы.

Процессорное время распределяется путем выделения виртуальным машинам виртуальных процессоров - от 1 до 8. Также можно ограничить используемые мегагерцы.

Память распределяется еще проще: каждой ВМ выделяется определенное Вами в конфигурации количество памяти. Хотя ESXi обладает весьма продвинутыми технологиями по экономии памяти хоста, снаружи этого не видно, все просто работает.

Дисковое пространство распределяется тоже достаточно просто: на каждом доступном дисковом ресурсе, за исключением nfs, создаем файловую систему VMFS - получаемый логический диск называется Datastore. При создании надо указать размер блока, который определяет максимальный размер одного файла, т.е. диска виртуальной машины. Самый маленький блок по умолчанию - 1 Mb, соответствующий размеру максимальному файла 256 Gb.

Во вкладке Summary / Datastores, так же, как и во вкладке Configuration / Storage виден список существующих Datastores. По умолчанию на том же диске, на который ставится ESXi, создается Datastore с именем datastore1. Если нажать на нем правой кнопкой и посмотреть Properties, то можно увидеть, что системный раздел VMWare занимает всего 4 Гб. Также раздел можно увеличить, если есть неиспользуемое дисковое пространство.

Также по правой кнопке можно выбрать Datastore browser. Этот браузер позволяет переносить файлы / каталоги виртуальных машин с datastore на datastore, сливать и закачивать на хост файлы и каталоги. Также именно отсюда происходит добавление существующих на диске виртуальных машин, что необходимо в мультисерверной среде (об этом - позже).

Для распределения сетевых ресурсов на хосте ESXi создаются виртуальные коммутаторы (vSwitch). Их можно подключать к физическим портам (в том числе к нескольким сразу), а можно - не подключать, в таком случае сеть будет существовать только внутри хоста. Поддерживаются vlan и ограничения трафика.

С другой стороны к виртуальным коммутаторам подключаются потребители - порты или портгруппы: либо сам хост VMWare, тогда такой потребитель называется "VMkernel port", либо группы виртуальных машин, тогда такой потребитель называется Virtual machine port group.

Управление сетями происходит во вкладке Configuration / Networking, Datastores - во вкладке Storage. По умолчанию при установке создается один vSwitch, подключенный к одному физическому порту, к нему, в свою очередь, подключен vmKernel port для управления хостом и одна Virtual machine port group, с названием VM network.

Создадим для примера виртуальную машину, например, с Windows XP.

В левой части экрана, где виден наш одинокий хост, нажимаем на нем правую кнопку и говорим "New Virtual machine". Затем мы оказываемся в достаточно простом и понятном диалоге (как будет по-русски "визард"?) создания ВМ. В первом окне нам предлагают выбрать режим создания - Typical или Custom. Для начала выберем простой режим. Нам последовательно предложат назвать ВМ, выбрать Datastore для нее, выбрать, какая ОС на ней будет установлена, выбрать размер системного виртуального диска, делать ли его "тонким", поддерживает ли данная ВМ кластерные функции, такие, как Fault Tolerance. На последней вкладке мы еще раз можем просмотреть заведенные нами данные, и включить галку "редактировать настройки ВМ после завершения", можно поставить эту галку либо войти в режим редактирования настроек ВМ по правой кнопке.

В режиме Custom мы сможем дополнительно указать количество виртуальных CPU, тип дискового контроллера, количество подключаемых сетевых плат и сети, к которым они подключены. Все это может быть изменено и из настроек ВМ.

В настройках ВМ мы можем изменить количество виртуальных процессоров, количество выделяемой памяти, сменить сеть, к которой будет подключена ВМ, и, самое главное, указать, откуда брать установочный диск: из файла-образа на хосте, из привода на хосте или из привода на клиенте. В последнем случае виртуальный CD-ROM может быть подключен к ВМ только после ее включения. Из-за слишком быстрой загрузки ВМ это доставляет определенные неудобства.

Чтобы меньше мучиться, можно в настройках ВМ зайти на вкладку Options, выбрать в меню пункт Boot options и указать галку "Force BIOS Setup". Это даст возможность спокойно подключить клиентский CD-ROM и загрузиться с него. Но, конечно, удобнее всего создать на диске сервера папку с образами дисков и указывать необходимый в качестве источника для CD-ROM, тогда можно будет указать галку Connect on power on в его свойствах.

Также в настройках ВМ можно добавить дополнительное оборудование. Это SCSI устройства, которые не видит хост ESXi, дополнительные сетевые карты, и USB-контроллер. Последний позволяет подключать к ВМ физические USB-устройства, такие, как флешки. Еще не пробовал, но говорят, что usb-ключи от разных хитромудрых приложений работают не всегда. Здесь же можно добавить дополнительный диск или подключить существующий, например, от другой ВМ. Это бывает необходимо при P2V-миграции (рассказывал ранее).

Теперь можно включать ВМ и запускать процесс установки ОС. Этот процесс ничем не отличается от установки ОС на реальное железо, только быстрее. До установки VMWare Tools ESXi не умеет автоматом передавать клавиатуру и мышь между vSphere client и консолью виртуальной машины. Чтобы войти в консоль ВМ, надо просто ткнуть в нее мышкой, а чтобы выйти - нажать Ctrl-Alt. Также полезное сочетание - Ctrl-Alt-Ins, заменитель Ctrl-Alt-Del для ВМ.

После установки гостевой ОС в ВМ надо установить в ней VMWare Tools. Для этого в меню Inventory / Virtual machine / Guest выбираем пункт Install/ upgrade vmware tools. VMware tools устанавливают драйвера на все виртуальное оборудование, и добавляют к ВМ дополнительную функциональность.

Надо сказать два слова об удалении ВМ. ВМ можно удалить двумя способами: удалить только из Inventory (списка ВМ) и удалить с диска. Первое необходимо, если каким-либо образом меняется расположение ВМ: мы хотим переместить ее на другой Datastore, или изменяем способ подключения к разделяемому ресурсу (например, c iSCSI на FC). Во втором случае машина именно уничтожается.

Установка гипервизора VMWare ESXi 4 на сервер HP.
at_it
Для того, чтобы избежать ненужных проблем с установкой, я буду ставить ESXi на сервер HP DL 360 G6 пошагово, и описывать результат каждого шага.

Шаг первый: подготовка к установке.

Нам понадобятся:
- Образ текущей версии VMWare ESXi;
- Клиент текущей версии VMWare ESXi;
- лицензия;

Дополнительно к основной установке:
- Драйвера от производителя;
- ssh-клиент (Putty);
- VMWare CLI или виртуальная машина VMware vSphere Management Assistant (у меня первое, установлено на XP)

Нарезаем болванку с ESXi и подкрадываемся к ничего не подозревающему серверу, которого принесем в заклание VMWare. Я, с вашего позволения, буду подкрадываться дистанционно, с помощью iLO.

Шаг 2: установка.

Сначала заходим в BIOS сервера и проверяем, включены ли там все опции виртуализации (у меня было не так), заходим в BIOS контроллера и создаем RAID-массив. Раздел с VMWare занимает всего 4 GB, и смысла делать под него отдельный аппаратный раздел нет.

Загружаемся заранее записанного образа и начинаем установку vmware, путем нажатия Enter и F11 для согласия с лицензией, затем выбираем раздел для установки, и ждем. В конце установки VMWare предлагает нам вынуть диск и нажать Enter.

Шаг 3: начальная установка на консоли.

После перезагрузки перед нами появляется красивое желтенькое окошко, с предложением нажать F2 для настройки системы. Логин в систему root, пароль - пустой. Первым же пунктом настройки идет пункт смены пароля рута, я всегда сразу меняю.

Затем - пункт настройка управляющей сети (configure management network), здесь задаем сетевой порт, на котором идет управление, ip-адрес и dns-имя. По умолчанию выбирается тот порт, который включен в сеть, а адрес берется из DHCP, так что при желании можно указывать только dns-имя. При выходе из пункта ESXi спросит - применить ли изменения и перестартовать ли управляющую сеть. Говорим "Y" и продолжаем.

Затем надо настроить важный пункт Troubleshooting options. В нем мы включаем оба пункта Local tech support и Remote tech support. Первый отвечает за возможность входа с командной строки в консоль по Alt-F1, второй - за вход с помощью ssh. После изменения надо сделать restart management agents, и все заработает.

Шаг 4: начальная установка клиентской части.

Для дальнейшей настройки необходимо установить vSphere client. Никаких особых сложностей в его установке возникнуть не должно. После установки запускаем клиент, в окне логина указываем ip-адрес нашего сервера, имя пользователя - root, пароль - введенный нами на шаге 3.

Открывается окно vSphere клиента. В принципе, уже можно начинать заводить виртуалки и работать на Evaluation-лицензии, но я обычно сразу иду во вкладку Configuration, выбираю пункт Licensed Features и ввожу туда свою бесплатную лицензию. Далее, в пункте Time configuration заводим ntp-сервер. В какой-то момент в пункте Authenitfication services появилась возможность ввести сервер ESXi в домен, но я этой возможностью еще не пользовался.

Шаг 5: установка драйверов на сервер HP.

Сразу скажу: руководствуясь принципом "не чини то, что не сломалось", я обычно драйвера не ставлю, так как и без них все оборудование нормально видится, в пункте Configuration / Health status видятся все вентиляторы, температурные датчики, диски и, кажется, вообще все, что можно. Но порядок изложения требует.

Переводим свежеустановленный ESXi в Maintenance Mode во вкладке Summary кнопкой Enter maintenance mode.
Итак, на чистую XP я накатываю VMWare CLI. Затем вызываем команду:
vihostupdate.pl --server --bundle hp-esxi4.1uX-bundle-1.0.zip -install
Перезагружаем ESXi,
и повторяем ее для второго пакета драйверов:
vihostupdate.pl --server --bundle hp-nmi-bundle-1.0.02.zip --install
После перезагрузки можно выйти из maintenance режима и начинать работу.

Первоначальная конфигурация закончена. Настройку СХД будем рассматривать отдельно.

ps. Нужно ли более подробно расписать процесс установки, или и так все понятно?

работа над ошибками
at_it
Коллега c08a подкинул очень важное замечание к предыдущему посту: нормально виртуальная машина, поднятая с копии диска, будет работать в случае одинаковой конфигурации дисковой подсистемы, читай: в случае ide-дисков и контроллеров. Собственно, конвертер именно тем и занимается, что заменяет реальные драйвера, используемые при загрузке, на драйвера виртуального железа.

Перенос систем из реальной среды в виртуальную.
at_it
Так как уже несколько человек задали подобный вопрос, то и начну с него.

Есть вполне официальный и бесплатный VMWare converter (скачивается там же). Но в первый и последний раз, когда я пытался перенести существующую задачу, работающую на windows 2000 server, он на w2k работать отказался. В этом случае у нас остается только два пути:

Первый, правильный и длинный - перестановка системы и всех приложений с нуля в ВМ, затем развертывание данных приложения с бэкапа.

Второй, более короткий и интересный - использование программ копирования образа диска. С помощью Norton Ghost я переносил Novell Netware 4.11, с помощью самописной программки dd - контроллер домена и вышеупомянутую задачу.

Достаточно надежный и удобный способ: взять чистый компьютер с XP, поставить на него триальную версию Acronis True Image, подключить диски и слить их образы. Затем взять чистую ВМ с XP, подключить диски виртуальной машины в качестве дополнительных, и залить туда образ диска. Ровно то же самое можно сделать с помощью Linux'ового dd, но я в линуксах не очень :)

После этого можно запускать полученную ВМ, затем придется подсовывать этой ВМ драйвера на стандартное виртуальное оборудование. Обычно самым важным для нас является виртуальная сетевая карта. В системах, которые не знают про VMWare (скажем, в SCO Unixware), она видится как Intel Pro/1000, совместимый драйвера обычно есть в составе ОС.

Прим.: описанный способ, кстати, вполне годится для любого гипервизора, лишь бы он поддерживал промежуточную и целевую ОС без установки дополнительных тулзов.

Вступление в виртуализацию.
at_it
Этим постом я начинаю небольшой цикл статей про виртуализацию на базе бесплатного ESXi, на базе своего практического опыта. Вдруг кому пригодится.

Виртуализацией занимается специальное ПО под названием "Гипервизор". Типы гипервизоров можно разделить на "персональные" и серверные, последние, в свою очередь, делятся на устанавливаемые поверх ОС и bare-metal (устанавливаемые поверх голого "железа"). Копий по поводу того, какие из двух последних лучше, сломано немало, сложилось мнение, что bare-metal гипервизоры немного производительнее, зато обычные не зависят от специальных драйверов.

Запущенный под гипервизором образ компьютера называется виртуальной машиной (ВМ).

Теперь немного о продуктах. Основными игроками на рынке виртуализации являются VMWare и Microsoft, прочие известные игроки - Citrix, Oracle, Parallels. Я знакомился с продукцией VMWare и Citrix. Неполный список гипервизоров:

Бесплатные персональные гипервизоры:
- Microsoft Virtual PC;
- Virtualbox,
- VMWare Player.

Бесплатные серверные гипервизоры:
- VMWare Server

Bare-metal гипервизоры
- VMWare ESXi;
- Citrix XenServer;
- Microsoft Hyper-V (может использоваться как часть ОС Windows Server 2008);
- Proxmox;
- VMWare vSphere (платный и полнофункциональный).
прим: Microsoft вынесен именно в этот раздел, так как для своей работы требует виндовые драйвера всего наличного железа, и более ничего.

Сравнение использовавшихся мной продуктов VMWare.

VMware player - самый ограниченный по функциональности продукт, но в то же время - самый простой в освоении. В версии 3.* умеет создавать виртуальные машины, имеет виртуальный сетевой коммутатор (vSwitch) с максимум 10 сетями. По умолчанию настроены три из них: host only, nat и bridge, на локальной машине большее количество бывает нужно редко. При выходе из Player'а запущенные виртуальные машины закрываются. Для тестирования ПО, sanbox'а и быстрого знакомства с концепцией виртуализации - самое оно.

VMWare Server - достаточно давно развиваемый продукт серверной виртуализации. По сравнению с VMWare Player'ом, имеет более развитый функционал, может управляться через сеть, и при выходе из консоли виртуальные машины не останавливаются. По сравнению с ESXi, значительно менее требователен к подбору железа, так как для работы используются виндовые (или линуксовые - смотря на что поставить) драйвера, так же нет проблем с доступом к виндовым файловым ресурсам для, скажем, резервного копирования файлов виртуальных машин.

Один из организаторов компании Veeam, разрабатывающей вспомогательное ПО для сред виртуализации, даже рекомендовал его (в Linux-варианте) вместо ESXi в силу меньшей нагрузки на память. Но при наличии нормального "железа" с достаточным количеством памяти и драйверами на ESXi, проще иметь один bare-metal гипервизор, чем возиться со "стеком" из ОС и отдельного гипервизора, да и точек отказа меньше.

VMWare ESXi - основной используемый в моем случае для виртуализации продукт. Так как у нас для работы гипервизора уже используются брендовые сервера, проблем с поддержкой железа и драйверами нет. В плане функциональности ESXi предоставляет возможности, которых нет в других рассмотренных версиях: прямой доступ к оборудованию, возможность прямого обращения ВМ к разделу на СХД (при подключении iSCSI или FC), есть поддержка vlan'ов, транкинга, мультипасинга, iScsi, и других страшных слов :). Также он наиболее простым образом конвертируется в более расширенную версию - простой сменой лицензии.

Очень важно отметить, что VMWare ESXi поддерживает довольно узкий спектр десктопного оборудования. В версии 4.* уже есть поддержка стандартных интеловых и амдшных чипсетов, но нет никакой поддержки дешевых RAID-контроллеров.

У VMWare также есть ознакомительные версии многих продуктов. При наличии желания, оборудования и свободного времени, можно ознакомиться с полным пакетом vSphere, демо-лицензия идет на 60 дней.

Как скачать?

Все упомянутые продукты VMWare доступны для скачивания на сайте vmware.com. Для получения доступа к скачиванию надо указать живой емейл и ввести регистрационную информацию. Если не указывать галку "информировать меня о новых продуктах и т.п.", то никакой лишней почты не будет.

Для серверных продуктов (ESXi и Server) требуется лицензия, которая предоставляется бесплатно после регистрации. Не помню уже, как в сервере, но ESXi по умолчанию ставится с 60-дневной демо лицензией с расширенным функционалом (как кусочек VMWare vSphere), так что не забудьте ввести свою бесплатную лицензию, или через два месяца все остановится.

В следующих сериях:
- Полезные ссылки, или не один я такой умный;
- Как конвертировать работающие машины?
- Установка и настройка ESXi
- Системы хранения данных: отсутствие средств - не препятствие!

подход 2
at_it
Есть, конечно, что написать.
Но то времени нет, то желания.
Попробую еще раз.

чудеса бывают
at_it
Сервер, позабыт-позаброшен, хоть включен и работает.
Недавно обнаружилось, что из 7 (семи) дисков сдохло 3(три)!
При этом - ни одна рейд-группа умудрилась не развалиться!
На дублирующем сервере (который, в силу практического отсутствия необходимости в дублировании задействован под другие задачи и мониторится) из 8 дисков один тоже сдох.

Что-то в этих 15-тысячниках не так.