Русфонд

пятница, 30 сентября 2011 г.

"Error: XML document empty" при настройке EMC MirrorView Adapter for VMware Site Recovery Manager

Настраиваем VMware Site Recovery Manager 4.1.1 с адаптером EMC MirrorView Adapter for VMware Site Recovery Manager 1.4.
При попытке соединения с дисковым массивом в Array Managers получаем ошибку Error: XML document empty.
KB1016149 подсказывает, что необходимо использовать 32-bit версию EMC Solution Enabler.

пятница, 23 сентября 2011 г.

Установка драйвера для HBA-адаптера Brocade 825 на ESXi 5 и ESX(i) 4.1

К сожалению ни ESX(i) 4.1, ни ESXi 5.0 не распознают HBA-адаптер Brocade 825, адаптер не отображается в доступных устройствах Storage Adapters. Необходима установка драйвера.
Для ESXi 5.0:
  1. Качаем драйвер с сайта VMware или с сайта Brocade, я скачал от Brocade пакет VMware ESXi 5.0 FC / FCoE Driver Offline Bundle, BCD-bfa-3.0.0.0-00000-offline_bundle-465342.zip.
  2. Разархивируем. Копируем файл Brocade_bootbank_scsi-bfa_3.0.0.0-1OEM.500.0.0.406165.vib на datastore1 в папку vib через клиент vSphere.
  3. В локальной консоли или через ssh (соответственно включаем ESXi Shell или SSH в Troubleshootng Mode Option в DCIU) выполняем команду: esxcli software vib install -v /vmfs/volumes/datastore1/vib/Brocade_bootbank_scsi-bfa_3.0.0.0-1OEM.500.0.0.406165.vib.
  4. Перезагружаем хост.
Для ESX(i) 4.1:
  1. Качаем драйвер с сайта VMware.
  2. Из скаченного iso забираем файл BCD-bfa-2.3.0.0-00000-offline_bundle-310895.zip, копируем его на сервер vMA с помощью утилиты WinSCP в папку /tmp/distr/.
  3. В vMA выполняем команду: vihostupdate -server <ESX name> --install --bundle /tmp/distr/BCD-bfa-2.3.0.0-00000-offline_bundle-310895.zip.
  4. Перезагружаем хост.

понедельник, 19 сентября 2011 г.

Тестовая лаборатория VMware vSphere

Делаем тестовую лабораторию на железном ESX 4.
Создаем виртуальную машину для виртуального vESX с параметрами:
  • Virtual Machine Version 7
  • Guest OS: Linux / Red Hat Enterprise Linux 6 (64-bit)
  • 2 VCPUs, 2GB RAM
  • NIC - e1000
  • LSI Logic Parallel
В Advanced Settings виртуальноq машины vESX добавляем параметр monitor_control.restrict_backdoor со значением true, чтобы на vESX можно было запускать виртуальные машины (виртуализация внутри).
Устанавливаем на виртуальной машине ESX(i)4/5.

понедельник, 12 сентября 2011 г.

PowerCLI: список виртуальных машин с RDM-дисками


Connect-VIServer <vCenter Name>
$report = @()
$vms = Get-VM | Get-View
foreach($vm in $vms){
  foreach($dev in $vm.Config.Hardware.Device){
    if(($dev.gettype()).Name -eq "VirtualDisk"){
 if(($dev.Backing.CompatibilityMode -eq "physicalMode") -or
    ($dev.Backing.CompatibilityMode -eq "virtualMode")){
   $row = "" | select VMName, HDDeviceName, HDFileName, HDMode
          $row.VMName = $vm.Name
   $row.HDDeviceName = $dev.Backing.DeviceName
   $row.HDFileName = $dev.Backing.FileName
   $row.HDMode = $dev.Backing.CompatibilityMode
   $report += $row
 }
}
  }
}
$report

пятница, 9 сентября 2011 г.

vMotion architecture, Performance and best practices in VMware vSphere 5

Новый официальный документ whitepaper от VMware.
Vroom! blog  опубликовал новый официальный документ, содержащий рекомендации по vMotion и производительности в vSphere 5.
vMotion в vSphere 5 включает в себя ряд улучшений производительности, которые позволяют использовать vMotion с минимальными накладными расходами даже для самых тяжелых виртуальных машин и корпоративных приложений.
Новый документ vMotion architecture, Performance and best practices in VMware vSphere 5 описывает архитектуру vMotion и представляет функции и улучшения, которые появились в vMotion vSphere 5.
Среди улучшений возможность использовать несколько сетевых адаптеров для vMotion, эффективное использование полосы 10Gb, Metro vMotion, уменьшение влияния на производительность приложений.
После обзора и описания функций  vMotion в vSphere 5 предлагается комплексно взглянуть на выполнение миграции виртуальных машин с типичными приложениями Web Server, MS Exchange, MS SQL Server и VMware View.
Тесты измеряли такие характеристики, как время миграции и работы приложения во время vMotion.
Результаты испытаний показывают: 

  • Уменьшение воздействия на производительность гостевых приложений при vMotion.
  • Выигрыш в производительности до 30% во время vMotion.
  • Серьезный прирост производительности по сравнению с vSphere 4.1 при использовании нескольких сетевых адаптеров в vSphere 5 (продолжительность миграции уменьшается более чем в три раза).

Наконец, даны несколько рекомендаций при работе с vMotion.

Автор, Sreekanth Setty, сотрудник команды VMware Performance Engineering. Его работа сфокусирована на производительности, с акцентом на построение сети и виртуализацию. Он публиковал свои выводы в ряде официальных документах и на различных конференциях.
Источник Vroom!.

PowerCLI: поиск виртуальной машины по MAC-адресу


Get-vm | Select Name, @{N="Network";E={$_ | Get-networkAdapter | ? {$_.macaddress -eq "<required MAC>"}}} |Where {$_.Network-ne ""}

На выходе получаем:

Name         Network
----           -------
VM2         Network adapter 1

четверг, 8 сентября 2011 г.

PowerCLI: массовая смена портгрупп

Массовое переключение виртуальных машин с старой подгруппы на новую:
1) в отдельной папке

$vCenter = "<vCenter Name>"
$Folder = "<Folder Name>
$OldNetwork = "<Old Port Group Name>
$NewNetwork = "<New Port Group Name>"
connetct-viserver -server $vCenter
Get-Folder $Folder |Get-VM |Get-NetworkAdapter |Where {$_.NetworkName -eq $OldNetwork } |Set-NetworkAdapter -NetworkName $NewNetwork -Confirm:$false

2) в кластере

$vCenter = "<vCenter Name>"
$Cluster = "<Cluster Name>
$OldNetwork = "<Old Port Group Name>
$NewNetwork = "<New Port Group Name>"
connetct-viserver -server $vCenter
Get-Cluster $Cluster |Get-VM |Get-NetworkAdapter |Where {$_.NetworkName -eq $OldNetwork } |Set-NetworkAdapter -NetworkName $NewNetwork -Confirm:$false

Параметр -Confirm:$false позволяет выполнять изменения без подтверждений.

пятница, 2 сентября 2011 г.

Не выключается виртуальная машина на ESXi-хосте

Если виртуальная машина не выключается с помощью VMware vSphere Client на ESXi 4.1 и ESXi 5, то зависший процесс можно убить с помощью esxtop.
  1. Подключиться напрямую к консоле ESXi, жмем Alt+F1 (должен быть включен режим Local Tech Support), или подключиться к ESXi через ssh (должен быть включен режим Remote Tech Support).
  2. Запустить esxtop.
  3. Нажать с для переключения в экран CPU resource utilization. Если виртуальная машина не отображается в списке, пробуем переключится в экран Memory, жмем m.
  4. Нажать f , добавить колонку world ID.
  5. Нажать k, набрать соответствующий world ID, нажать Enter.
Источник.