Передовыми разработчиками в этой технологии оказались компании VMWare с продуктом vSphere и Microsoft с технологий Hyper-V. Для выбора гипервизора для инфраструктуры ООО «Авантрейд» необходимо провести сравнительный анализ двух решений.

Обзор продуктов VMWare

Компания VMware занимается разработкой специализированных продуктов для виртуализации с 1998 года. Весь пакет продуктов компании, так или иначе, связан с технологиями виртуализации и возможностями их применения. Надо отметить, что среди трех основных игроков на рынке коммерческих продуктов для виртуализации (Citrix, Microsoft, VMware) только VMware является узко специализированной компанией на продуктах виртуализации, что позволяет ей идти впереди всех конкурентов по функциональным возможностям продуктов.

Флагманскими продуктами VMware являются VMware ESX/ESXi - гипервизоры, устанавливающиеся на «голое» железо. На текущий момент последней версией продукта является четвертая версия, выпущенная в середине 2009 года. Гипервизор является основой для виртуализации серверов, он позволяет разделять ресурсы таким образом, чтобы создавать отдельные, независимые среды для множества операционных систем на одном физическом сервере. Однако сам по себе гипервизор имеет весьма ограниченный круг возможностей, для реализации же всех преимуществ требуется решение, которое включает средства не только виртуализации, но и управления инфраструктурой (vCenter) - это комплексное решение называется vSphere.

Анализ эффективности использования серверного оборудования показывает, что большую часть рабочего времени загрузка составляет около 5-8% от максимальной, в нерабочее же время серверы просто простаивают, нагревая воздух. При использовании VMware vSphere мы консолидируем на одном физическом сервере нагрузку с нескольких серверов (переносим на один сервер не только приложения, но и операционные системы). Производительность современных серверов делает крайне неэффективной популярную ранее концепцию «одна задача один сервер», но благодаря виртуализации теперь можно использовать новую: «одна задача - одна виртуальная машина». Таким образом, решается проблема совместимости различного ПО - далеко не все приложения можно запустить в одном экземпляре операционной системы. Кроме того, часто в инфраструктуре используются старые приложения, которые уже не совместимы с текущими версиями ОС, а установка старых версий не поддерживается на новом оборудовании. Виртуализация решает и эту задачу - в виртуальной машине ESX можно запустить даже Windows NT 4.0 или MS-DOS.

Продукты виртуализации серверов находят свое применение в самых разных инфраструктурах: от небольших компаний до крупных предприятий.

В небольших компаниях продукт позволяет минимизировать количество серверного оборудования, при необходимости сохраняя возможность использовать различные операционные системы. С помощью технологий виртуализации, мы можем разместить все сервисы на одном-двух полноценных серверах (вместо нескольких обычных ПК, как это нередко бывает) и решить как вопросы качества оборудования, так и его количества.

В средних и крупных предприятиях виртуализация серверов позволяет повысить доступность сервисов с помощью технологий отказоустойчивости и миграции виртуальных серверов между физическими серверами. Возможность переместить виртуальные сервера с одного физического сервера на другой без остановки, позволяет существенно повысить доступность сервиса и облегчить обслуживание всей системы. Значительно сокращается время развертывания новых сервисов - уже не требуется ждать поставки нового сервера, достаточно за несколько минут развернуть новую виртуальную машину и установить необходимое ПО. За счет того, что для виртуальных машин не требуется установка специфических драйверов, обновление прошивок и т.д. задачи администрирования также существенно упрощаются.

VMware vSphere имеет универсальную систему мониторинга состояния элементов всей системы, как на уровне физических серверов, так и на уровне виртуальных серверов предприятия. Если стандартных средств мониторинга по каким-то причинам недостаточно, то существует целый ряд дополнительных приложений третьих фирм обладающих дополнительными возможностями.

Существует возможность обеспечения повышенной доступности виртуальных серверов, путем перезапуска на резервном физическом сервере в случае отказа основного, что показано на рисунке 2.3.

Рисунок 2.3 - Организация работы гипервизора при сбоях

Таким образом, благодаря доступности резервных серверов есть возможность быстрого восстановления работоспособности системы путем перемещения данных с основного сервера в случае отказа на резервный.


Гипервизоры (технологии виртуализации) существуют более 30 лет и за это время сумели стать одним из главных «винтиков» в составе облачной экосистемы. Многие компании, подбирающие решения для виртуализации, останавливают свой выбор на двух популярных гипервизорах - VMware и KVM. Предлагаем разобраться какой же из них лучше. Но для начала немного теории.

Что такое гипервизор?

Гипервизор - это программа, отделяющая операционную систему от железа. Гипервизоры виртуализируют ресурсы сервера (процессор, память, диск, сетевые интерфейсы и др.), позволяя использовать их как свои собственные, и создают на основе одного сервера несколько отдельных виртуальных машин. Каждая созданная виртуальная машина изолируется от соседей, чтобы не влиять на работу других. Для работы гипервизора необходима поддержка виртуализации: для процессоров Intel на процессоре Intel VT, а для процессоров AMD на AMD-V.

Гипервизоры делятся на два типа: первые работают непосредственно с сервером, а операционная система пользователей работает поверх гипервизора. Эти гипервизоры могут предоставлять некоторым пользователям функции управления сервером и большинство предприятий используют именно такие гипервизоры.

Гипервизоры второго типа, также известные как размещенные гипервизоры (Hosted Hypervisor), работают с операционной системой, установленной на сервере. А операционные системы для новых пользователей создаются поверх гипервизора.

Настольные гипервизоры, такие как Oracle VirtualBox или VMware Workstation, являются гипервизорами второго типа, а VMware и KVM – первого. VMware и KVM устанавливаются непосредственно на сервер и не требуют установки какой-либо операционной системы.

VMware vSphere

Перед покупкой VMware vSphere можно попробовать поработать в пробной версии (60 дней), после чего необходимо покупать лицензию, либо мириться с ограничениями бесплатной версии.

В бесплатной версии, которая называется VMware Free vSphere Hypervisor, нет ограничений для хоста по процессорам и памяти, зато есть ряд других:

  • API продукта доступно только для чтения;
  • виртуальная машина не может иметь более 8 ядер;
  • ее нельзя использовать вместе с Veeam для создания резервных копий;
  • подключение к vCenter Server не поддерживается;
  • не поддерживается и высокая доступность, а также технологии VM Host Live Migration и VM Storage Live Migration.

Продукт от VMware отличается от аналогов поддержкой большого количества операционных систем - Windows, Linux, Solaris, FreeBSD, Netware, MacOS и других.

Установка дистрибутива VMware на сервер очень проста: достаточно загрузиться с CD, флешки или через PXE. К тому же поддерживаются сценарии, позволяющие автоматизировать процесс инсталляции программного обеспечения, настройку сети и подключения к vCenter Server.

Немаловажно и наличие специального конвертера VMware vCenter Converter , позволяющего использовать в ESXi образы MS Virtual Server, Virtual PC, Hyper-V, а также физические серверы и образы дисковых разделов, созданных такими программами как Acronis True Image, Norton Ghost и другими.

У VMware vSphere есть встроенная интеграция с Microsoft Active Directory, то есть аутентификацию пользователей в частном или гибридном облаке можно производить при помощи доменных служб Microsoft. Гибкое распределение ресурсов позволяет использовать горячее добавление CPU, ОЗУ и жесткого диска (в том числе изменять размер текущего жесткого диска без перезагрузки).

VMware Fault Tolerate - технология VMware, предназначенная для защиты виртуальных машин с помощью кластеров непрерывной доступности. При отказе хоста (сервера ESXi) с основной (Primary) рабочей копией виртуальной машины, защищенная виртуальная машина мгновенно переключится на «вторичную» (Secondary) или «теневую» копию, работающую на другом сервере ESXi. Для машин, защищенных VMware Fault Tolerance, происходит постоянное (в реальном времени) копирование всего состояния памяти и процессорных инструкций с основной копии на «теневую». При сбое основного хоста ESXi, пользователи даже не заметят процесса переключения на второй узел. Именно этим Fault Tolerance отличается от High Availability. В High Availability при отказе физического сервера виртуальные машины будут перезапущены на других узлах, и пока операционные системы перезагружаются пользователи не смогут получить доступ к виртуальным серверам.

Кроме VMware Foult Tolerate, лицензия VMware vCloud Suite Enterprise обеспечивает высокую доступность, отказоустойчивость и восстановление после аварий с помощью функций vSphere HA, vMotion, Storage vMotion, и vCenter Site Recovery Manager.

Для уменьшения плановых остановок в обслуживании серверов или систем хранения данных (СХД), функции vMotion и Storage vMotion в онлайн-режиме переносят виртуальные машины и их диски без остановки работы приложений и пользователей. Функция vSphere Replication поддерживает разные варианты репликации vCenter Site Recovery Manager (SRM) для защиты от крупных аварий. SRM обеспечивает централизованное планирование послеаварийного восстановления, автоматические Failover и Failback с резервного сайта или из облака vCloud, а также тестирование послеаварийного восстановления без прерывания работы приложений.

К особенностям этого гипервизора стоит отнести избирательность к железу - перед установкой необходимо тщательно проверить имеющееся оборудование на совместимость с нужной версией ESXi. Для этого на сайте VMware есть специальная .

Лицензирование продуктов VMware имеет свои особенности. Дополнительную путаницу добавляют периодические изменения (от версии к версии vSphere) в лицензионной политике VMware. Существует несколько пунктов, которые нужно учесть перед приобретением лицензий VMware vSpere:

  • лицензирование гипервизора выполняется по числу физических процессоров (CPU). Каждый CPU сервера требует отдельной лицензии vSphere (ядра не являются физическими процессорами и не учитываются в лицензировании);
  • доступный функционал сервера ESXi определяется установленной на нем лицензией vSphere. Подробное руководство по лицензиям есть на ;
  • для каждой купленной лицензии vShpere необходимо приобретать пакет сервисной поддержки (минимум на год);
  • VMware не накладывает ограничения на количество памяти (RAM), установленной на сервере, и на количество запущенных виртуальных машин.

Управлять множеством хостов с гипервизорами ESXi, СХД и сетевым оборудованием можно с помощью еще одного продукта VMware - Vcenter Server. Подключаемые модули клиента vSphere, предоставляемые партнерами VMware, дают IT-администраторам возможность управлять сторонними элементами в дата-центре непосредственно из этой консоли. Поэтому пользователи vCenter могут выполнять резервное копирование, защищать данные, управлять серверами, сетями и безопасностью непосредственно из интерфейса vCenter. В этой же консоли можно настроить триггеры, которые оповестят о возникших проблемах, и получить данные о работе всей инфраструктуры в виде графиков или таблиц.

KVM

KVM - простой в использовании, легкий, нетребовательный к ресурсам и довольно функциональный гипервизор. Он позволяет за минимальные сроки развернуть площадку виртуализации и организовать виртуализацию под управлением операционной системы Linux. В процессе работы KMV осуществляет доступ к ядру операционной системы через специальный модуль (KVM-Intel или KVM-AMD). Изначально KVM поддерживал только процессоры x86, но современные версии KVM поддерживают самые разные процессоры и гостевые операционные системы, в том числе Linux, BSD, Solaris, Windows и др. Кстати, все Wiki-ресурсы (MediaWiki, Wikimedia Foundation, Wikipedia, Wikivoyage, Wikidata, Wikiversity) используют именно этот гипервизор.

Поскольку гостевые операционные системы взаимодействуют с гипервизором, который интегрирован в ядро Linux, у гостевых операционных систем есть возможность обращаться напрямую к оборудованию без нужды изменения гостевой операционной системы. За счет этого замедления работы гостевой операционной системы почти не происходит.

KVM позволяет виртуальным машинам использовать немодифицированные образы дисков QEMU, VMware и другие образы, содержащие операционные системы. Каждая виртуальная машина имеет своё собственное виртуальное аппаратное обеспечение: сетевые карты, диск, видеокарту и другое железо.

Благодаря поддержке немодифицированных образов VMware, физический сервер можно легко виртуализовать при помощи все той же утилиты VMware vServer Converter, а затем перенести полученный файл в гипервизор.

Установка KVM в операционной системе Linux заключается в инсталляции пакета KVM и библиотеки виртуализации Libvirt, а также в тщательной настройке среды виртуализации. В зависимости от используемой на хосте операционной системы необходимо настроить мост или подключение к VNC-консоли, с помощью которой виртуальные машины будут взаимодействовать с хостом.

Администрировать KVM сложнее, так как прозрачный доступ к файлам, процессам, консолям и сетевым интерфейсам отсутствует, это приходится настраивать самостоятельно. Перестройка параметров VM в KVM (CPU, RAM, HDD) не очень удобна и требует дополнительных действий, включающих перезагрузку ОС.

Сам проект не предлагает удобных графических инструментов для управления виртуальными машинами, только утилиту Virsh, реализующую все необходимые функции. Для удобного управления виртуальными машинами можно дополнительно установить пакет Virt-Manager.

У KVM нет встроенных инструментов, подобных Fault Tolerate для VMware, поэтому единственный способ создать кластер высокой доступности - использовать сетевую репликацию при помощи DRDB. Кластер DRBD поддерживает только два узла, а узлы синхронизируются без шифрования. То есть для более безопасной связи необходимо использовать VPN-соединение.

Кроме того, для построения кластера высокой доступности понадобится программа Heartbeat, которая позволяет обмениваться служебными сообщениями о своем состоянии узлам в кластере, и Pacemaker - менеджер ресурсов кластера.

Гипервизор KVM распространяется как продукт с открытым исходным кодом, а для корпоративных пользователей существует коммерческое решение Red Hat Virtualization (RHEL), основанное на KVM и платформе управления виртуальной инфраструктурой oVirt.

Несомненным преимуществом этого гипервизора является то, что он способен работать на любом сервере. Гипервизор довольно неприхотлив к ресурсам, что позволяет с легкостью использовать его для задач тестирования.

Следует учесть, что у KVM нет службы поддержки. Если что-то не получится, можно рассчитывать на форумы и помощь сообщества. Или перейти на RHEL.

Так что же выбрать?

Оба гипервизора являются зрелыми, надежными, высокопроизводительными системами виртуализации, у каждой из которых есть свои особенности, которые нужно учитывать при выборе.

KVM обычно более масштабируем, чем VMware, в первую очередь потому что vSphere имеет некоторые ограничения на серверы, которыми он может управлять. Кроме того, VMware добавила большое количество сетей хранения данных (SAN) для поддержки различных поставщиков. Эта функция означает, что VMware имеет больше вариантов хранения, чем KVM, но также усложняет поддержку хранилища VMware при расширении.

KVM обычно является наиболее популярным гипервизором для компаний, которые стремятся сократить стоимость внедрения и менее заинтересованы в функциях корпоративного уровня.

Исследования показали, что совокупная стоимость владения KVM, как правило, на 39 процентов ниже, чем у VMware, хотя фактическая совокупная стоимость владения зависит от специфичных факторов, таких как эксплуатационные параметры и рабочая нагрузка площадки.

Тесная интеграция с операционной системой на хосте является одной из наиболее распространенных причин, по которой разработчики выбирают KVM. Особенно те, кто использует Linux. Включение KVM во многие дистрибутивы Linux также делает его удобным выбором для разработчиков.

Облачные провайдеры, предлагающие своим клиентам услуги по модели IaaS, обычно выбирают инфраструктуру, построенную на продуктах VMware. Решения на основе VMware Sphere содержат все важные корпоративные функции по обеспечению высокой и непрерывной доступности, обеспечивают поддержку большего числа гостевых операционных систем и имеют возможность сопряжения инфраструктуры заказчика с облачными сервисами.

Сегодня я хотел бы рассказать вам о продуктах, которые раньше выпускались компанией VMware, но по тем или иным причинам были сняты с продаж и перестали развиваться. Список далеко не полный и содержит, по большей части, мое мнение о продуктах по результатам работы с ними.

VMware ESX Server

Начну, пожалуй, с самого значимого продукта, благодаря которому VMware стала лидером на рынке серверной виртуализации.

VMware ESX Server - первый гипервизор типа 1 для процессоров Intel x86. ESX не был первым серверным гипервизором, и даже не был первым продуктом VMware. Однако в нем впервые были реализованы такие функции, как живая миграция ВМ (vMotion), высокая доступность ВМ (High Availability), автоматическая балансировка (Distributed Resource Scheduler), управление питанием (Distributed Power Management) и многое другое.

Кстати, вы никогда не задавались вопросом, что значить аббревиатура ESX? Так вот, ESX - это Elastic Sky X. Что лишний раз доказывает, что еще в далеком 2002 VMware разрабатывала свои продукты с оглядкой на облачные вычисления...

ESX строился на базе монолитной архитектуры, все драйверы, сеть и подсистема ввода-вывода работали на уровне гипервизора. Однако для управления гиперзовиром на каждом хосте устанавливалась небольшая служебная ВМ - Service Console на базе модифицированного дистрибутива Red Hat Linux. С одной стороны, это накладывало ряд ограничений - служебная ВМ отъедала часть вычислительных ресурсов хоста, ее диски, как и любой другой ВМ требовалось размещать на VMFS хранилище, а каждый хост нуждался, по меньшей мере, в двух IP адресах, один - для VMKernel интерфейса, второй - для Service Console. С другой стороны, Service Console предоставляла возможность установки стороннего ПО (агентов, плагинов), которые расширяли возможности по мониторингу и управлению гипервизором. Наличие Service Console породило распространенное заблуждение, что гипервизор ESX является модифицированным Linux"ом.

Стоит упомянуть, что первые версии ESX устанавливались и управлялись по отдельности, однако, начиная ESX 2.0, для централизованного управления несколькими хостами появился VMware VirtualCenter (ныне хорошо известный под именем vCenter Server). Тогда, собственно, и появился Virtual Infrastructure, который представлял собой набор продуктов для виртуализации, состоящий из гипервизора ESX и ПО управления VirtualCenter. К версии 4.0 Virtual Infrastructure был переименован в vSphere.

В 2008 году появился альтернативный гипервизор - ESXi, который не нуждался в Service Console, был гораздо меньше в размере, но не поддерживал многое из того, что умел ESX (у ESXi отсутствовал WEB интерфейс, встроенный брандмауэр, возможность загрузки по SAN, интеграция с Active Directory и пр.). С каждой новой версией VMware постепенно наращивала функционал ESXi. VMware vSphere 4.1 стал последним релизом, включающим гипервизор ESX. Начиная с 5.0 VMware оставила только ESXi.

VMware GSX Server / Server

Долгие годы VMware GSX Server выпускался параллельно с VMware ESX. Ground Storm X (так расшифровывается аббревиатура GSX) представлял собой гипервизор второго типа и устанавливался поверх серверных ОС Microsoft Windows, RedHat или SUSE Linux. Использование гипервизора тип 2 имело свои плюсы. Во-первых, GSX поддерживал гораздо более широкий перечень оборудования и мог работать даже на десктопном железе в отличие от "капризного" ESX. Во-вторых, VMware GSX был крайне прост в установке и настройке, любой, кто работал с VMware Workstation, был способен управиться и с GSX. В-третьих, GSX имел встроенный NAT и DHCP сервер, что позволяло легко настраивать сеть для ВМ.

Как и старший собрат GSX поддерживал централизованное управление через VirtualCenter.

Позже GSX был переименован в VMware Server, получил при этом возможность запускать 64-битные ВМ, а также выделять ВМ несколько виртуальных процессоров. Вышедший в конце 2008 года VMware Server 2.0 стал бесплатным, обзавелся полноценным веб-интерфейсом и возможностью проброса USB устройств внутрь ВМ, однако потерял поддержку VMware VirtualCenter.

К этому времени гипервизоры ESX и ESXi заняли большую часть рынка серверной виртуализации. Выход бесплатных версий VMware ESXi Free и Microsoft Hyper-V Server стали последним гвоздем в крышку гроба VMware Server. VMware и Microsoft забросили свои гипервизоры для серверных ОС.

VMware vCenter Server Heartbeat

Продукт, предназначенный для обеспечения высокой доступности служб vCenter и смежных сервисов (СУБД, SSO, Update Manager), разрабатывался не самой VMware, а сторонней компанией - Neverfail Group .

В основе механизма защиты лежала идея организации двухузлового кластера, работающего в режиме active-passive. Пассивный узел следил за состоянием основного узла, и в случае его недоступности, запускал кластеризованные сервисы. Для работы кластера не требовалось общее хранилище, т.к. изменения, выполненые на активном узле периодически реплицировались на пассивный узел. vCenter Heartbeat обеспечивал защиту как физических, так и виртуальных, и даже смешанных конфигураций vCenter, когда один узел был физическим, а второй - виртуальным.

Хотя какое-то время vCenter Heartbeat и был единственным способом обеспечить защиту vCenter не только от аппаратных, но и от программных сбоев, реализация откровенно хромала. Сложная процедура установки и обслуживания кластера, а также масса багов сделали свое черное дело. В итоге, начиная с vSphere 5.5 U3 / vSphere 6.0 компания VMware отказалась от vCenter Heartbeat и вернулась к более привычному способу кластеризации средствами Microsoft Failover Cluster.

VMware vCenter Protect

Для тех из вас, кто работал с vSphere хотя бы с 4-й версии, должно быть известно, что в то время vCenter Update Manager поддерживал установку обновлений не только для гипервизоров ESX/ESXi, но также гостевых операционных систем и различного ПО. Однако начиная с 5.0 данный функционал был исключен из Update Manager, вместо этого VMware стала предлагать отдельный продукт - VMware vCenter Protect, который был приобретен вместе с компанией Shavlik.


Помимо обновления гостевых ОС, vCenter Protect позволял выполнять инвентаризацию программного и аппаратного обеспечения, запускать различные сценарии по расписанию, выполнять проверку на наличие уязвимостей.

Но, по всей вимости, продажи шли не очень хорошо, кроме того в портфеле VMware был vRealize Configuration Manager, приобретенный в 2010 у EMC, и выполнявший функции патч-менеджмента, инвентаризации и многого другого. Поэтому в 2013 vCenter Protect был продан компании LANDesk.

VMware Virtual Storage Appliance

Virtual Storage Appliance - первая попытка VMware играть на рынке программно-определяемых СХД. VSA предназначался для SMB и позволял создавать общую отказоустойчивую СХД на базе локальных дисков, устанавленных в сервер.


На каждом хосте ESXi развертывался специальный апплайнс VSA. Виртуальные диски VSA размещались на VMFS хранилище, созданном на томах локального RAID контроллера. Половина дискового пространства предназначалась для зеркалирования данных с другого VSA (этакий сетевой аналог RAID 1), расположенного на соседнем хосте, половина оставалась под полезные данные. Затем каждый апплайнс презентовал свое зеркалируемое хранилище по протоколу NFS обратно всем хостам виртуализации. Одна инсталляция поддерживала 2 или 3 хоста виртуализации, при использовании 2 хостов vCenter Server выполнял роль арбитра и должен был разворачиваться на отдельном физическом сервере или хосте ESXi, не входящем в VSA.

Функционал VSA был весьма ограниченным. Так, например, первая версия VSA поддерживала размещение только на VMFS томах с RAID 1 или 10, что приводило к высоким накладным расходам на хранение данных (фактически, полезное пространство составляло менее 1/4 от объема локальных дисков), отсутствовала поддержка VAAI, не было поддержки кэширования или тиринга.

Все это в совокупности с не слишком низкой ценой и невысокой производительностью не позволили VSA вытеснить привычные СХД из SMB сегмента. Поэтому вскоре после выхода первой версии Virtual SAN в 2014, продукт был снят с продаж.

VMware Virsto

Еще одна жертва Virtual SAN, продукт одноименной компании, которую VMware приобрела в 2013 году. Насколько мне известно, после покупки Virsto так и не появился в прайс-листах, а был практически сразу же помножен на ноль.

Перпективная разработка в области программно-определяемых хранилищ данных, Virsto представлял собой виртуальный апплайнс, выполняющий роль виртуализатора СХД, т.е. ресурсы СХД презентовались аплайнсу, а аплайнс, в свою очередь, отдавал дисковое пространство хостам по протоколу NFS. Сердцем Virsto была VirstoFS - специализированная файловая система, позволяющая оптимизировать операции записи и чтения за счет использования механизмов, схожих с теми, что можно видеть в СХД NetApp FAS. Virsto мог аккумулировать случайные операции записи в специальном журнале и затем последовательно записывать данные на СХД, что положительно сказывалось на IOPS и задержках. Кроме того, Virsto поддерживал многоуровневое хранение данных (тиринг) и оптимизировал работу со снапшотами за счет хранения в оперативной памяти метаданных о том, какой блок с данными в каком из снимков находится.


Несмотря на то, что продукт так и не вышел, старания разработчиков не прошли даром - в Virtual SAN 6.0 вместо VMFS-L появился новый формат разметки дисков на базе VirstoFS и поддержка "продвинутых" снапшотов.

VMware Lab Manager

Продукт для автоматизации развертывания и управления жизненным циклом ВМ в тестовых окружениях.

По сути Lab Manager являлся менеджером менеджеров, разворачивался поверх существующей инсталляции VMware ESX/ESXi и vCenter и позволял организовывать многопользовательский (многоарендный) доступ к общей виртуальной инфраструктуре, выделять пользователям необходимый набор вычислительных ресурсов, автоматически выдавать IP адреса ВМ из пулов, создавать изолированные сети для ВМ, указывать срок аренды для ВМ.

С ростом популярности темы облачных вычислений VMware переключилась на другой продукт - vCloud Director, постепенно перенеся из Lab Manager все наработанные фишки и закрыв его.

VMware ACE

Закончить обзор я хочу на достаточно редком звере - VMware ACE. Еще до появления VDI в своем классическом виде и широкого распространения BYOD компания VMware предлагала клиентам ПО для централизованного управления виртуальными рабочими станциями, которые могли запускаться на персональных компьютерах пользователей - VMware ACE.


ACE работал в связке с клиентскими гипервизорами VMware Workstation и Player и позволял управлять ВМ на основании заданных политик. С помощью политик администраторы могли ограничить функционал ВМ (например, отключить проброс USB устройств или контролировать доступ в сеть), принудительно шифровать виртуальные диски, разрешать доступ к ВМ только для авторизованных пользователей, настраивать срок жизни ВМ, по истечении которого ВМ переставала запускаться и т.д. ВМ вместе с политиками и гипервизором VMware Player могли быть экспортированы в виде готово пакета Pocket ACE и переданы пользователю любым удобным способом (на CD-диске, flash-накопителе или по сети). При необходимости, администратор мог развернуть в сети сервер ACE Management Server, к которому подключались клиентские гипервизоры и запрашивали актуальные настройки политик для ВМ.

Не смотря на интересный функционал, продукт не получил широкого распространения, и по словам VMware не отвечал всем требованиям тех немногих заказчиков, что его использовали, поэтому в 2011 он был снят с продажи. Спустя несколько лет на смену ACE пришел VMware Horizon FLEX, имеющий собственный механизм доставки ВМ на компьютеры пользователей, а также поддерживающий гипервизор VMware Fusion Pro для ОС Apple MAC OS X.

VMware vSphere Hypervisor — это бесплатный, мощный и надежный аппаратный гипервизор для использования в задачах виртуализации серверов и рабочих станций. В статье рассматривается установка и настройка гипервизора VMware Hypervisor, создание виртуальной машины, установка гостевой операционной системы.

Free vSphere Hypervisor: Технические требования, ограничения и совместимость

VMware vSphere Hypervisor можно установить на сервер, соответствующий следующим техническим требованиям:

Файл дистрибутива VMware vSphere Hypervisor имеет небольшой размер (311 МБ) и содержит только самые необходимые драйверы, в основном для серверов брендовых производителей. Но иногда и на серверы известных брендов не получается установить гипервизор. Часто производители серверов выпускают собственные дистрибутивы гипервизора со своими драйверами.

Проверить совместимость VMware vSphere Hypervisor с вашим сервером можно на странице:

Список оборудования, которое не поддерживается в ESXi 6.7: https://kb.vmware.com/s/article/52583

Рассмотрим основные ограничения бесплатного гипервизора vSphere Hypervisor в сравнении с полноценным VMWare ESXi:

  1. Не оказывается официальная техподержка VMWare;
  2. Одной ВМ можно выделить не более 8 виртуальных процессоров/ядер (vCPU) (в кстати ограничения по vCPU для gen1 поколения ВМ — 64);
  3. Хост нельзя подключать к vCenter;
  4. Не доступна vStorage API (не получится настроить нормальное резервное копирование, тот же Veeam не сможет забрать ВМ с хоста);
  5. Максимум 2 физических процессора (сокета) в сервере (ограничений по кол-ву ядер нет);
  6. Все APi доступны в режиме только чтения (т.е. вы не сможете изменить ни один из параметров сервера или ВМ через тот же ).

Однако бесплатная реакция Sphere Hypervisor позволяет без ограничений использовать все ядра и оперативную память физического сервера. Нет ограничений на общее количество RAM, процессоров, ядер или время работы хоста или ВМ. Работает PCI VMDirectPath/ USB redirection.

Как скачать и установить бесплатный VMware vSphere Hypervisor?

Актуальную версию гипервизора VMware Hypervisor vSphere 6.7 загружаем . Для этого нужно войти в ваш аккаунт VMWare или создать новый.

Если создаете новый аккаунт VMWare, то после заполнения формы регистрации, нужно подождать письмо для подтверждения аккаунта. Переходите по ссылке в письме, вводите свой пароль.

На следующем этапе вы получаете лицензионный ключ для бесплатной версии гипервизора и ссылку на скачивание VMware vSphere Hypervisor. Ключ обязательно сохраните.

Скачивается iso образ, который можно записать на флешку, CD/DVD диск. Теперь можете установить гипервизор на сервер (рабочую станцию или виртуальную машину).

Установка очень простая. Выберите “ESXi-6.7.0-2019xxx-standard installer” .

Укажите диск, на который будет установлена система. В данном примере доступен один диск размером 40 ГБ.

Выберите раскладку клавиатуры.

Введите и подтвердите пароль root (не менее 7 символов).

После установки появляется предупреждение, что гипервизор без лицензионного ключа будет работать 60 дней.

Перезагрузите компьютер.

Гипервизор VMware vSphere установлен. Если ваш сервер хотя бы одним сетевым интерфейсом подключен к сети с DHCP сервером, он автоматически получит IP адрес, который вы увидите в консоли гипервизора (называется она DCUI). Этот IP адрес используется для управления гипервизором из web- интерфейса.

Настройка VMware ESXi в консоли

Для управления настройками Hypervisor на экране DCUI нажмите F2 , введите логин (по умолчанию root) и пароль, заданный в процессе установки.

Откроется графическая консоль для первоначальной настройки гипервизора.

Здесь можно настроить следующие опции:


Первоначальная настройка VMware vSphere Hypervisor закончена. Можно подключаться через Web- интерфейс.

Веб-интерфейс управления VMware ESXi, установка бесплатной лицензии

Для того чтобы подключиться к гипервизору vSphere Hypervisor через Web – интерфейс, введите в адресную строку браузера IP-адрес сервера, назначенный при первоначальной настройке гипервизора. Затем логин (root) и пароль.

Обратите внимание, что сервер без лицензии будет работать 60 дней.

Активируйте лицензию, полученную при регистрации “Manage” -> “Licensing” -> “Assign License” .

Если не активировать лицензию, через 60 дней все запущенные ВМ продолжат работу, но вы не сможете включить новые ВМ или перезагрузить имеющиеся ВМ.


Для гипервизора активирована неограниченная по времени (Expires: Never) лицензия с неограниченным объемом оперативной памяти для виртуальных машин. Каждой виртуальной машине вы сможете выделить до 8 виртуальных vCPU (Up to 8-way virtual SMP).

“Manage” -> “System” -> “Time&date” -> “Edit settings”

Виртуальный коммутатор VMWare ESXi

Виртуальный коммутатор (vSphere Switch или vSwitch) – это виртуальное устройство, которое передает данные между виртуальными машинами внутри сервера и передает данные наружу через физический NIC. Есть два вида виртуальных коммутаторов:

  • Standard Switches — простой виртуальный коммутатор, логически находится внутри физического сервера.
  • Distributed Switches — распределенный виртуальный коммутатор, может быть распространен на несколько физических серверов (не доступен в бесплатной версии VMWare Hypervisor, да и в платной доступен только в Enterprise Plus редакции) .

После установки и запуска гипервизора уже имеется один виртуальный коммутатор vSwitch0 , который включает в себя один физический адаптер vmnic0 и две группу портов – служебная (Management Network) для управления гипервизором и сеть для передачи данных (VM Network). Интерфейс управления гипервизором vmk0 (vmkernel port) включен в группу Management Network.

В большинстве случаев на отдельно стоящем гипервизоре вам будет достаточно одного виртуального коммутатора. Групп портов нужно создавать, если вы хотите изолировать виртуальные машины друг от друга, использовать различные настройки VLAN для группы портов.

Без особой необходимости не нужно вносить изменения в Management Network или vmkernel port, иначе вы можете потерять доступ к вашему интерфейсу управления гипервизором. Если вы потеряли доступ к гипервизору, вы можете сбросить сетевые настройки с помощью меню Network Restore Options в консоли DCUI.

Создание виртуальной машины в VMWare Hypervisor

В Web-интерфейсе выберите “Virtual Machines” -> “Create / Register VM” -> “Create a new virtual machine”.

Назначьте имя виртуальной машины. Выберите тип и версию гостевой операционной системы. Включите чек-бокс “Windows Virtualization Based Security”, если хотите сделать виртуализацию оборудования, IOMMU, EFI и Secure Boot доступными для гостевой ОС.

Выберите хранилище данных (datastore) для файлов конфигурации виртуальной машины и всех ее виртуальных дисков.

Если свободное место на выбранном диске меньше, чем его объем, то вы получите сообщение, что необходимо увеличить объем datastore.

На этом шаге настраиваются все параметры виртуальной машины: количество CPU, объем оперативной памяти, размер и размещение жесткого диска, сетевые адаптеры, CD/DVD приводы и т.д. Чтобы получить доступ к сети в ВМ, достаточно поместить ее адаптер в группу портов VM Network на коммутаторе vSwitch0 (если вы ничего не перенастроили).

Все эти параметры, при необходимости, потом можно будет изменить при выключенной виртуальной машине.

На следующем экране будет предложено проверить все настройки виртуальной машины и подтвердить их.

Установка гостевой ОС на виртуальную машину

Для установки гостевой ОС на виртуальную машину необходимо загрузить дистрибутив iso образ с дистрибутивом нужной ОС на локальное хранилище. В меню Navigation выберите Storage и нажмите .

Создайте каталог для загрузки дистрибутивов.

Выберите созданный каталог, нажмите в верхнем левом углу Upload, выберите iso – образ загружаемой ОС и дождитесь окончания загрузки.

Выберите установленную виртуальную машину и нажмите “Actions” -> “Edit Settings”

Меняете настройки CD-DVD привода, как на скриншоте внизу. В CD/DVD Media выбираете закачанный iso-образ операционной системы.

Затем просто включаете виртуальную машину, ВМ пытается загрузиться с ISO образа и начинается установка гостевой ОС с виртуального CD/DVD, к которому привязан iso- образ.

После завершения установки гостевой ОС можете использовать ее, как обычно.

Надеюсь, эта небольшая обзорная статья по особенностям использования бесплатного гипервизора VMWare vSphere Hypervisor будет вам полезна.

Что нового в VMware Cloud Foundation 4?


Недавно мы рассказывали о новых возможностях платформы и прочих обновлениях продуктовой линейки VMware, анонсированных одновременно с флагманским продуктом. Напомним эти статьи:

Сегодня мы расскажем еще об одном важном апдейте - новой версии набора решений для гибридной инфраструктуры VMware Cloud Foundation 4 . О прошлой версии этого пакета VCF 3.9.1 мы писали . Как вы помните, он представляет собой комплексное программное решение, которое включает в себя компоненты VMware vRealize Suite, VMware vSphere Integrated Containers, VMware Integrated OpenStack, VMware Horizon, NSX и другие, работающие в онпремизной, облачной или гибридной инфраструктуре предприятия под управлением SDDC Manager.

Четвертая версия VCF включает в себя все самые последние компоненты, статьи с описанием которых мы привели выше:

  • vSphere 7
  • VMware vSAN 7
  • VMware NSX-T
  • VMware vRealize Suite 2019
  • с поддержкой Kubernetes

Как мы видим, в стеке VCF появился принципиально новый компонент - VMware Tanzu Kubernetes Grid. Об инфраструктуре поддержки контейнеров в новой версии платформы vSphere мы уже писали и . В новой архитектуре VCF администраторы могут развертывать и обслуживать приложения в кластерах Kubernetes с помощью Kubernetes tools и restful API.

В то же время, технология vSphere with Kubernetes (она же Project Pacific) будет обеспечивать следующую функциональность:

  • Службы vSphere Pod Service на базе Kubernetes позволят исполнять узлы напрямую в гипервизоре ESXi. Когда администратор развертывает контейнеры через службы vSphere Pod Service, они получают тот же уровень безопасности, изоляции и гарантии производительности, что и виртуальные машины.
  • Службы Registry Service позволяют разработчикам хранить и обслуживать образы Docker и OCI на платформе Harbor.
  • Службы Network Service позволяют разработчикам управлять компонентами Virtual Routers, Load Balancers и Firewall Rules.
  • Службы Storage Service позволяют разработчикам управлять постоянными (persistent) дисками для использования с контейнерами, кластерами Kubernetes и виртуальными машинами.

Все это позволяет получить все преимущества гибридной инфраструктуры (ВМ+контейнеры), о которых интересно рассказано .

В остальном, VCF 4 приобретает все самые новые возможности, которые дают уже перечисленные новые релизы продуктов vSphere, vSAN, NSX-T и прочие.

Отдельно надо отметить очень плотную интеграцию vSphere Lifecycle Manager (vLCM) с платформой vSphere 7. vLCM дополняет возможности по управлению жизненным циклом компонентов инфраструктуры виртуализации, которые уже есть в SDDC Manager, но на более глубоком уровне - а именно на уровне управления firmware для узлов vSAN ReadyNodes (например, обновления микрокода адаптеров HBA).

Как и все прочие обновления линейки vSphere, апдейт VCF 4.0 ожидается уже в апреле. За обновлениями можно следить на этой странице .


Таги: VMware, Cloud, VCF, Update, vCloud, Enterprse

Сегодня мы поговорим о службах Identity Federation, появившихся в VMware vSphere 7.

В современном мире в корпоративной инфраструктуре все чаще отходят от устаревшей аутентификации по паролям и переходят к практикам двухфакторной (2FA) или многофакторной (MFA) аутентификации. Процесс идентификации пользователей всегда основан на 3 ключевых вещах: что-то вы знаете (пароль), что-то у вас есть (телефон) или кем-то вы являетесь (отпечаток пальца).

Службы Identity Federation позволяют объединить инфраструктуру vCenter Server с другими Identity Providers, такими как Active Directory Federation Services (ADFS), в целях унификации процесса двух- или многофакторной авторизации. Иными словами, пользователи, логинящиеся через 2FA в свой десктоп или в облачный сервис, будут использовать ту же самую процедуру и для операций с vCenter Server.

Будучи подключенным к одному из провайдеров аутентификации (например, ADFS), клиент vSphere Client при логине будет перенаправлять на форму логина данного провайдера. После авторизации на стороне провайдера будет произведено обратное перенаправление с использованием защищенного токена, через который пользователь уже будет работать со службами vCenter.

С точки зрения пользовательского опыта это напоминает, например, логин на веб-сайт с помощью Google или Facebook. Для обмена информацией используются протоколы OAUTH2 и OIDC.

Если вы включите Identity Federation, вы сможете пользоваться традиционными службами Active Directory, Integrated Windows Authentication и LDAP/LDAPS для аутентификации в vCenter Server. Однако надо понимать, что все эти методы аутентификации не затрагивают vSphere Single Sign-on (SSO), который, по-прежнему, используется для внесения административных настроек в саму платформу vSphere.

Более подробно об этом механизме рассказывает Bob Plankers в видео ниже:


Таги: VMware, vSphere, Security, Client, Update

Вот что нового появилось в образе Ubuntu OVA for Horizon версии 1.2:

  • Поддержка минимально Horizon 7.11 / Horizon Client 5.3 и более поздних версий
  • Поддержка минимально vSphere 6.7 и более поздних версий
  • Обновленный базовый образ шаблона OVA на Ubuntu 18.04.4 LTS
  • Обновленное виртуальное железо - Virtual Hardware v14
  • Добавлена возможность настроить статический IP-адрес
  • Добавлена поддержка USB 3.0 и USB Redirection (через скрипт linux-agent-installer.sh)
  • Добавлена опция выбора окружения KDE Desktop
  • Добавлена опция выбора окружения Gnome (рекомендуется)
  • Опция Developer Desktop Package
  • Выбор раскладки клавиатуры
  • Возможность включить SSH
  • Удалена настройка runlevel 5
  • Исправлены ошибки с MOTD
  • Выключено автоматическое обновление ПО
  • Улучшена поддержка SSO
  • Улучшения скрипта оптимизации, который теперь называется optimize.sh
Таги: VMware, Labs, VDI, Horizon, Linux, Update, VMachines

Напомним также, что теперь у вас нет установщика vCenter Server for Windows. , vSphere 6.7 - это была последняя версия платформы, где для vCenter еще была версия под Windows. Теперь это только виртуальный модуль vCenter Server Appliance (vCSA) на базе Photon OS.

Ранее мы писали, что с помощью утилиты , которая появилась в , можно смигрировать внешний сервер Platform Services Controller (PSC) на простой в управлении embedded PSC, используя командный интерфейс vCenter Server CLI или графический клиент vSphere Client:

Также установщик vCenter 7 производит апгрейд vCenter и перенос всех сервисов на Embedded PSC в рамках единой задачи, поэтому результат апгрейда будет сразу законченным. Установщик нового vCenter 7 не имеет опции по развертыванию внешнего PSC:

2. Процесс миграции

Если вы проходите путь миграции с vCenter Server for Windows на vCenter Server Appliance (VCSA), то схема будет точно такой же - в итоге вы получите vCenter 7 на vCSA в встроенным PSC:

После того, как внешний PSC будет сконвертирован, он останется в консоли, и его удаление (decomission) - последующая задача администратора vSphere. Сделать это можно с помощью команды CMSSO-UTIL или из графического интерфейса клиента (в разделе System Configuration):

3. Пути апгрейда

Тут все просто. Апгрейд поддерживается согласно вот этой табличке:

Как видно из таблицы, апгрейд поддерживается, начиная с версии vSphere 6.5, но многие администраторы при обновлении виртуальной инфраструктуры предпочитают развертывать сервисы vCenter заново, чтобы не тащить за собой историю возможных багов, которые могут проявиться при апгрейде.

Перед апгрейдом нужно обязательно посмотреть документы и . Но помните, что до официального выпуска vSphere 7, эти документы не содержат актуальной информации о седьмой версии.


Таги: VMware, vCenter, Upgrade

Теперь же появилась возможность переопределения политик. Политики computer-based применяются при запуске системы. С помощью значения RefreshInterval можно контролировать, как часто эти настройки будут обновляться, до того, как пользователь залогинится в систему. А с помощью значения ContinueRefreshAfterLogon можно продолжать обновлять настройки и после логина пользователя.

Ну и заключительная интересная новая возможность DEM 9.11 - это поиск элементов (Find Items). Он позволит искать в шаблонах конфигурации доступных в Marketplace, в созданных вами политиках Horizon Smart Policy, в определенном наборе условий (condition set) и других элементах, что очень удобно для администраторов:

Скачать Dynamic Environment Manager 9.11 можно по этой ссылке . Release Notes доступны .


Таги: VMware, DEM, Update, VDI, EUC
Таги: VMware, Horizon, Update, VDI, DEM, Client, EUC

Давайте посмотрим, что нового появилось в vRealize Operations 8.1:

1. Операции с интегрированной инфраструктурой vSphere и Kubernetes.

vRealize Operations 8.1 позволяет обнаруживать и мониторить кластеры Kubernetes в рамках интегрированной с vSphere инфраструктуры с возможностью автодобавления объектов Supervisor Cluster, пространств имен (Namespaces), узлов (PODs) и кластеров , как только вы добавите их в vCenter, используя функции Workload Management.

После этого вам станут доступны страницы Summary для мониторинга производительности, емкости, использования ресурсов и конфигурации Kubernetes на платформе vSphere 7.0. Например, функции Capacity forecasting покажут узкие места инфраструктуры на уровне узлов, а для ежедневных операций будут полезны дашборды, отчеты, представления и алерты.

2. Операции в инфраструктуре VMware Cloud on AWS.

Теперь в облаке VMware Cloud on AWS можно использовать токен VMware Cloud Service Portal для автообнаружения датацентров SDDC и настройки средств мониторинга в несколько простых шагов. Также можно будет использовать один аккаунт для управления несколькими объектами SDDC на платформе VMware Cloud on AWS, включая сервисы vCenter, vSAN и NSX, а также будет полная интеграция с биллингом VMConAWS.

В облаке можно использовать следующие дашборды:

  • Отслеживание использования ресурсов и производительность виртуальных машин, включая сервисы NSX Edge, Controller и vCenter Server.
  • Мониторинг ключевых ресурсов, включая CPU, память, диск и сеть для всей инфраструктуры и виртуальных машин.
  • Отслеживание трендов потребления ресурсов и прогнозирование таких метрик, как Time Remaining, Capacity Remaining и Virtual Machines Remaining.
  • Нахождение виртуальных машин, которые потребляют неоправданно много ресурсов и требуют реконфигурации на базе исторических данных.

Кроме этого, для сервисов VMware NSX-T будет осуществляться полная поддержка средств визуализации и мониторинга:

Ну и в релизе vROPs 8.1 есть полная интеграция функционала отслеживания затрат VMware Cloud on AWS с решением vRealize Operations в интерфейсе портала. Это позволит контролировать уже сделанные и отложенные затраты, а также детализировать их по подпискам, потреблению и датам оплат.

Также обновился механизм обследования AWS migration assessment, который теперь позволяет сохранять несколько результатов разных сценариев для дальнейшего анализа. Эти сценарии включают в себя различные варианты параметров Reserved CPU, Reserved Memory, Fault Tolerance, Raid Level и Discounts.

3. Функции мониторинга нескольких облаков (Unified Multicloud monitoring).

Теперь средства мониторинга предоставляют еще более расширенные функции, такие как поддержка Google Cloud Platform, улучшенная поддержка AWS и новый пакет Cloud Health Management pack.

Теперь в vROPS 8.1 есть следующие сервисы GCP:

  • Compute Engine Instance
  • Storage Bucket
  • Cloud VPN
  • Big Query
  • Kubernetes Engine

Пакет AWS Management Pack теперь поддерживает следующие объекты AWS Objects:

  • Elastic Beanstalk
  • Direct Connect Gateway
  • Target Group
  • Transit Gateway
  • Internet Gateway
  • Elastic Network Interface (ENI)
  • EKS Cluster

Пакет CloudHealth Management Pack был также улучшен, он включает в себя возможность передать данные о перспективах и ценообразовании GCP в vRealize Operations 8.1. Также вы сможете создавать любое число кастомных дэшбордов, комбинируя цены на различное соотношение ресурсов публичного, гибридного или частного облаков.

Как ожидается, vRealize Operations 8.1 выйдет в апреле этого года одновременно с релизом VMware vSphere 7. Мы обязательно напишем об этом.


Таги: VMware, vRealize, Operations, Update, Monitoring, vSphere, Cloud
Таги: VMware, vCenter, VEBA, Labs
Таги: VMware, SRM, Update, DR, Replication, Enterprise

Сразу скажем, что это лишь анонс, а не объявление о доступности новой версии продукта для скачивания - как правило, GA версия vSphere появляется в течение месяца после анонса. Поэтому будем пока ожидать VMware vSphere 7 в апреле, а сегодня расскажем о новых возможностях этой платформы.

1. Улучшения сервисов VMware vCenter

Здесь можно отметить упрощение топологии vCenter Server SSO:

  • Возможность апгрейда vCenter Server для пользователей с внешним PSC на консолидированную топологию на базе одного сервера vCSA.
  • Embedded PSC теперь единственно возможный вариант развертывания. Внешний PSC больше не поддерживается.

Профили vCenter Server Profiles:

  • Эта новая возможность для серверов vCenter работает точно так же, как Host Profiles работает для хостов. Теперь вы можете сравнивать и экспортировать настройки серверов vCenter в формате JSON для целей резервного копирования или применения этих настроек к другому серверу vCenter через REST API.

Функции vCenter Multi-Homing:

  • Теперь для управляющего трафика vCSA можно использовать до 4 адаптеров vNIC, среди которых один vNIC зарезервирован для механизма vCHA.

Улучшения Content Library

  • Теперь появилось новое представление для управления шаблонами, в котором доступны функции Check-In и Check-Out для управления версиями шаблонов и возможностью откатиться к предыдущей версии.
  • Сначала делается Check-Out для открытия возможности внесения изменений, потом можно сделать Check-In для сохранения изменений в библиотеке.

Новая функция vCenter Server Update Planner:

  • Новая возможность доступна как часть vSphere Lifecycle Manager (vLCM) для серверов vCenter.
  • С помощью планировщика обновлений можно получать оповещения об обновлениях vCenter, планировать апгрейды, накатывать их, а также проводить анализ "что если" перед проведением обновления.
  • Возможность выполнения pre-upgrade проверок для выбранного сервера vCenter.

2 Улучшения механизма VMware DRS

  • Теперь DRS запускается каждую минуту, а не каждые 5 минут, как раньше.
  • Для генерации рекомендаций используется механизм VM DRS score (он же ).
  • Теперь это Workload centric механизм - это означает, что теперь в первую очередь учитываются потребности самой виртуальной машины и приложения в ней, а только потом использование ресурсов хоста.
  • Расчеты по памяти основываются на granted memory вместо стандартного отклонения по кластеру.
  • Появился механизм Scaleable Shares, который позволяет лучше выделать Shares в пуле ресурсов с точки зрения их балансировки.

3. Улучшения vMotion

Тут появились такие улучшения:

  • Улучшения миграций для Monster VM (с большими ресурсами и очень высокой нагрузкой), что позволяет увеличить шанс успешной миграции.
  • Использование только одного vCPU при отслеживании изменившихся страниц (page tracer) вместо всех vCPU, что меньше влияет на производительность во время миграции.
  • Уменьшение времени переключения контекста на другой сервер (теперь меньше одной секунды). Достигается за счет переключения в тот момент, когда compacted memory bitmap уже передана на целевой сервер, вместо ожидания передачи full bitmap.

4. Новые функции vSphere Lifecycle Manager (vLCM)

Здесь можно отметить 2 улучшения:

  • Функция Cluster Image Management, которая включает обновления firmware, драйверов и образов ESXi разных версий.
  • Первоначальная поддержка решений Dell OpenManage и HP OneView.

5. Возможности Application Acceleration (Tech Preview)

Эти функции пришли от приобретенной компании Bitfusion. Они позволяют оптимизировать использование GPU в пуле по сети, когда vGPU может быть частично расшарен между несколькими ВМ. Это может использоваться для рабочих нагрузок задач приложений AI/ML.

Все это позволяет организовать вычисления таким образом, что хосты ESXi с аппаратными модулями GPU выполняют виртуальные машины, а их ВМ-компаньоны на обычных серверах ESXi исполняют непосредственно приложения. При этом CUDA-инструкции от клиентских ВМ передаются серверным по сети. Подробнее можно почитать .

6. Функции Assignable Hardware

Эта возможность позволяет использовать так называемый Dynamic DirectPath I/O для машин, которым требуется работа с устройствами PCIe passthrough и Nvidia GRID. Теперь с его помощью можно подобрать хосты с определенными требованиями к аппаратным компонентам, такими как vGPU и PCIe. Это позволяет, в свою очередь, использовать для таких ВМ технологии HA и DRS Initial Placement в кластере, где есть совместимые по оборудованию хосты ESXi.

7. Управление сертификатами

Здесь 2 основных новых возможности:

  • Новый мастер импорта сертификатов.
  • Certificate API для управления сертификатами с помощью сценариев.

8. Возможности Identity Federation

Функции ADFS теперь поддерживаются из коробки, также будет поддерживаться больше IDP, использующих механизмы OAUTH2 и OIDC.

9. Функции vSphere Trust Authority (vTA)

  • vTA использует отдельный кластер хостов ESXi, чтобы создать отдельный аппаратный узел доверия.
  • Этот кластер сможет зашифровывать вычислительный кластер и его ВМ вместе с vCenter и другими управляющими компонентами.
  • Можно использовать механизм аттестации, когда требуются ключи шифрования.
  • Теперь проще добиться соблюдения принципа наименьших привилегий, а также расширить пространство аудита.

10. Возможность vSGX / Secures Enclaves (Intel)

  • Расширения Intel Software Guard Extensions (SGX) позволяют переместить чувствительную логику и хранилище приложения в защищенную область, к которой не имеют доступа гостевые ОС и гипервизор ESXi.
  • Возможности SGX исключают использование vMotion, снапшотов, Fault Tolerance и других технологий. Поэтому SGX лучше использовать только тогда, когда по-другому нельзя.

11. Новое издание vSphere with Kubernetes (Project Pacific)

О Project Pacific мы подробно рассказывали . Он представляет собой набор средств для преобразования среды VMware vSphere в нативную платформу для кластеров Kubernetes. vCenter Server предоставляет возможности по управлению кластерами k8s (любые кластеры старше n-2 будут обновлены). Также в решение интегрирован Harbor, который может быть включен для каждого пространства имен.

Доступно это пока только для пользователей VMware Cloud Foundation (4.0), так как решение завязано на компонент .

12. Улучшения VMware Tools

Функции Guest Store теперь доступны в гостевой ОС (такие как обновление VMware Tools из гостевой ОС).

13. Обновленное железо (VM Hardware v17)

Тут основные улучшения таковы:

  • Virtual Watchdog Timer - теперь нет зависимости от физического железа для рестарта ВМ в случае, если гостевая ОС не отвечает.
  • Precision Time Protocol (PTP) - для приложений очень чувствительных ко времени (например, торговые платформы для трейдеров) можно использовать PTP вместо NTP и назначать его использование для виртуальных машин.

14. Улучшения vSphere Client

Здесь появились следующие улучшения:

  • Начала сохраняться история поиска.
  • В API Explorer теперь лучше видны все доступные API.
  • Для Code Capture появилась возможность выбора языка сценариев - PowerCLI, Javascript, Python или Go.

Конечно же, это далеко не все новые возможности VMware vSphere 7, представленные на днях. В ближайшее время мы расскажем еще много нового о них, а кроме того, посмотрим также и на анонсированные решения семейства VMware Tanzu, VMware Cloud Foundation 4 и vRealize 8.1.


Таги: VMware, vSphere, Update, Enterprise, Kubernetes, vCenter

Для трансляции виртуальных адресов в физические используется таблица страниц (Page Table), содержащая записи PTE (Page Table Entries):

Записи PTE хранят в себе ссылки на реальные физические адреса и некоторые параметры страницы памяти (подробнее можно почитать ). Структуры записей PTE могут быть разного размера - это WORD (16 bits/2 bytes), DWORD (32 bits/4 bytes) и QWORD (64 bits/8 bytes). Они адресуют большие блоки адресов в физической памяти, к примеру, DWORD адресует блок адресов 4 килобайта (например, адреса от 4096 до 8191).

Память читается и передается гостевой системе и приложениям страницами по 4 КБ или 2 МБ - это позволяет читать содержимое ячеек памяти блоками, что существенно ускоряет быстродействие. Естественно, что при таком подходе есть фрагментация памяти - редко когда требуется записать целое число страниц, и часть памяти остается неиспользуемой. При увеличении размера страницы растет и их фрагментация, но увеличивается быстродействие.

Таблицы страниц (а их может быть несколько) управляются программным или аппаратным компонентом Memory Management Unit (MMU). В случае аппаратного MMU гипервизор передает функции по управлению трансляцией ему, а программный MMU реализован на уровне VMM (Virtual Machine Monitor, часть гипервизора ESXi):

Важный компонент MMU - это буфер ассоциативной трансляции (Translation Lookaside Buffer, TLB), который представляет собой кэш для MMU. TLB всегда находится как минимум в физической памяти, а для процессоров он часто реализован на уровне самого CPU, чтобы обращение к нему было максимально быстрым. Поэтому обычно время доступа к TLB на процессоре составляет около 10 наносекунд, в то время, как доступ к физической памяти составляет примерно 100 наносекунд. VMware vSphere поддерживает Hardware MMU Offload, то есть передачу функций управления памятью на сторону MMU физического процессора.

Итак, если от виртуальной машины появился запрос на доступ к виртуальному адресу 0x00004105 , то этот адрес разбивается на адрес виртуальной страницы (Virtual page number - 0x0004 ) и смещение (Offset - 0x105 - область внутри страницы, к которой идет обращение):

Смещение напрямую передается при доступе к физической странице памяти, а вот тэг виртуальной страницы ищется в TLB. В данном случае в TLB есть запись, что соответствующий этому тэгу адрес физической страницы это 0x0007 , соответственно трансляция виртуальной страницы в физическую прошла успешно. Это называется TLB Hit , то есть попадание в кэш.

Возможна и другая ситуация - при декомпозиции виртуального адреса получаемый тэг 0x0003 отсутствует в TLB. В этом случае происходит поиск страницы в физической памяти по тэгу (страницу номер 3) и уже ее адрес транслируется (0x006 ). Далее запись с этим тэгом добавляется в TLB (при этом старые записи из кэша вытесняются, если он заполнен):

Надо отметить, что такая операция вызывает несколько большую задержку (так как приходится искать в глобальной памяти), и такая ситуация называется TLB Miss , то есть промах TLB.

Но это не самая плохая ситуация, так как счет latency все равно идет на наносекунды. Но доступ может быть и гораздо более долгий (миллисекунды и даже секунды) в том случае, если нужная гостевой ОС страница засвопировалась на диск.

Посмотрим на пример:

Виртуальная машина обратилась к виртуальному адресу 0x00000460 , для которого есть тэг 0x0000 . В физической памяти для этого тэга выделена страница 0, которая означает, что искать эту страницу нужно на диске, куда страница была сброшена ввиду недостатка физической оперативной памяти.

В этом случае страница восстанавливается с диска в оперативную память (вытесняя самую старую по времени обращения страницу), ну и далее происходит трансляция адреса к этой странице. Эта ситуация называется отказ страницы (Page Fault ), что приводит к задержкам в операциях приложения, поэтому иногда полезно отслеживать Page Faults отдельных процессов, чтобы понимать причину падения быстродействия при работе с памятью.


Таги: VMware, vSphere, ESXi, Memory, Performance, Blogs

Существующие пользователи vSphere Platinum после объявленной даты получат лицензии vSphere Enterprise Plus, SaaS-продукт VMware AppDefense и плагин VMware AppDefense Plugin for vSphere (о том, где скачать этот плагин написано ). Для пользователей vCloud Suite Platinum и Cloud Foundation Platinum ничего не меняется, за исключением эволюции самой vSphere, входящей в состав пакетов.


Таги: VMware, vSphere, Platinum, Update, Support

Пакет сфокусирован на качестве кода, его повторном использовании, модульном тестировании, управлении взаимосвязями и параллельных релизах проектов под платформу vRealize. vRealize Build Tools представляют собой расширения (extensions), упакованные в формат репозитория Maven, которые поддерживают использование IDE (через Maven), а также интерфейса CLI для разработки, тестирования и развертывания решений для платформ vRA/vRO.

Давайте посмотрим что нового появилось во второй версии:

  • Поддержка решения , его блупринтов (blueprints), кастомных форм, подписок и механик flavor-mapping
  • Поддержка существующего контента и импорт его для vRO 8
  • Поддержка функций vRO 8 по экспорту рабочих процессов в структуру папок, созданную на базе их тэгов
  • Запуск рабочих процессов на vRO с использованием команды maven
  • Возможность сохранения JS Actions IDs на источнике в целях предотвращения конфликтов в среде vRO
  • Улучшения экспериментальной поддержки проектов TypeScript
  • Исправления ошибок и обновление документации

Для начала работы с vRealize Build Tools вам понадобятся следующие инструменты:

  • vRealize Orchestrator
  • Microsoft VS Code

Скачать vRealize Build Tools можно по этой ссылке .


Таги: VMware, Labs, vRealize, Automation, Orchestrator, Update

Помимо множества исправлений ошибок, в утилите появилось несколько новых командлетов:

  • Add-vRA-Project-Administrator
  • Add-vRA-Project-Member
  • Get-vRA-DeploymentFilters
  • Get-vRA-DeploymentFilterTypes
  • Get-vRA-FabricNetworksFilter
  • Get-vRA-FabricImagesFilter
  • Remove-vRA-Project-Administrator
  • Remove-vRA-Project-Member
  • Update-vRA-Project-ZoneConfig

Напомним, что этот модуль не поддерживается со стороны VMware (как и все утилиты на VMware Labs, находящиеся в статусе Tech Preview), поэтому используйте его осторожно.

Это средство может оказаться вам полезным в следующих случаях:

  • Когда нужно сравнить два кластера по производительности (например, на разном оборудовании)
  • Когда нужно понять влияние изменений конфигурации кластера на производительность
  • Когда нужно проверить корректность настройки нового кластера перед запуском его в производственную среду

Для запуска Weathervane вам нужно создать образы контейнеров, подготовить конфигурационный файл и запустить бенчмарк. Далее утилита сама развернет контейнеры в кластере, запустит приложения и соберет результаты тестирования.

Weathervane деплоит бенчмарк-приложение на узлах и подает туда нагрузку, которая генерируется через компонент Workload driver. Этот драйвер может располагаться как вместе с бенчмарк-приложением, так и во внешней среде, в отдельном кластере.

Weathervane можно установить на постоянную нагрузку для фиксированного числа симулируемых пользователей, а можно настроить на поиск максимального числа пользователей таким образом, чтобы выполнялись требования quality-of-service (QoS). В последнем случае результатом теста будет максимальное число WvUsers, которое способен выдержать кластер. Собственно, этот параметр и нужно использовать для сравнения кластеров по производительности.

Вот как выглядят компоненты решения Weathervane (компонент Run harness отвечает за исполнение тестовых прогонов и получение результатов тестирования):

Weathervane использует многоярусное веб-приложение, которое включает в себя stateless и stateful сервисы. Вы можете выбрать один из этих типов развертывания приложений. Несколько экземпляров приложений можно запускать в рамках одного прогона, что позволяет масштабировать тестирование в больших кластерах.

Приложение Weathervane состоит из нескольких ярусов. Логика приложения реализована через Java-сервисы, запущенные на сервере Tomcat, которые коммуницируют через REST API и сообщения RabbitMQ, а Zookeeper используют для координации. Бэкенд-хранилища реализованы средствами PostgreSQL и Cassandra. Фронтенд веб-серверы и прокси-кэш серверы реализованы на Nginx.


Таги: VMware, Kubernetes, Weathvane, Update, Performance

В России тоже набралось уже 10 человек носителей vExpert, не так много, но и не мало (на уровне Швеции и Норвегии). Понятное дело, что большинство vExpert из тех стран, где все хорошо с английским, так как аудитория блогов на английском языке шире, что мотивирует авторов писать посты (а в целом vExpert дают за ведение блога).

Вот так выглядит первая десятка:

А вот те специалисты из России, кто получил vExpert в этом году:


Таги: VMware, vExpert, Blogs

Производительность сервера VMware vCenter Server 6.7 при работе с виртуальной инфраструктурой серверов VMware ESXi удаленных офисов и филиалов


Многие пользователи платформы VMware vSphere знают, что есть такой вариант развертывания и эксплуатации распределенной виртуальной инфраструктуры как ROBO (Remote or Brunch Offices). Она подразумевает наличие одного или нескольких главных датацентров, откуда производится управление небольшими удаленными офисами, где размещено несколько серверов VMware ESXi под управлением собственного vCenter или без него.

В конце прошлого года компания VMware выпустила интересный документ "Performance of VMware vCenter Server 6.7 in Remote Offices and Branch Offices " (мы уже немного рассказывали о нем ), где рассматривается главный аспект применения такого сценария - производительность. Ведь удаленные офисы могут располагаться в других городах, странах и даже континентах, доступ к которым осуществляется по разным типам соединений (например, 4G или спутник), поэтому очень важно, сколько трафика потребляют различные операции, и как быстро они отрабатывают с точки зрения администратора.

Параметры различных типов сетевых соединений в VMware свели в табличку (в правой колонке, что получалось в результате использования тестовой конфигурации, а в левой - как бывает в сценариях с реальными датацентрами):

Для тестирования использовалась удаленная конфигурация из 128 хостов ESXi, где было зарегистрировано 3840 виртуальных машин (960 ВМ на кластер, 30 на хост), из которых включалось до 3000 машин одновременно.



Эта статья также доступна на следующих языках: Тайский

  • Next

    Огромное Вам СПАСИБО за очень полезную информацию в статье. Очень понятно все изложено. Чувствуется, что проделана большая работа по анализу работы магазина eBay

    • Спасибо вам и другим постоянным читателям моего блога. Без вас у меня не было бы достаточной мотивации, чтобы посвящать много времени ведению этого сайта. У меня мозги так устроены: люблю копнуть вглубь, систематизировать разрозненные данные, пробовать то, что раньше до меня никто не делал, либо не смотрел под таким углом зрения. Жаль, что только нашим соотечественникам из-за кризиса в России отнюдь не до шоппинга на eBay. Покупают на Алиэкспрессе из Китая, так как там в разы дешевле товары (часто в ущерб качеству). Но онлайн-аукционы eBay, Amazon, ETSY легко дадут китайцам фору по ассортименту брендовых вещей, винтажных вещей, ручной работы и разных этнических товаров.

      • Next

        В ваших статьях ценно именно ваше личное отношение и анализ темы. Вы этот блог не бросайте, я сюда часто заглядываю. Нас таких много должно быть. Мне на эл. почту пришло недавно предложение о том, что научат торговать на Амазоне и eBay. И я вспомнила про ваши подробные статьи об этих торг. площ. Перечитала все заново и сделала вывод, что курсы- это лохотрон. Сама на eBay еще ничего не покупала. Я не из России , а из Казахстана (г. Алматы). Но нам тоже лишних трат пока не надо. Желаю вам удачи и берегите себя в азиатских краях.

  • Еще приятно, что попытки eBay по руссификации интерфейса для пользователей из России и стран СНГ, начали приносить плоды. Ведь подавляющая часть граждан стран бывшего СССР не сильна познаниями иностранных языков. Английский язык знают не более 5% населения. Среди молодежи — побольше. Поэтому хотя бы интерфейс на русском языке — это большая помощь для онлайн-шоппинга на этой торговой площадке. Ебей не пошел по пути китайского собрата Алиэкспресс, где совершается машинный (очень корявый и непонятный, местами вызывающий смех) перевод описания товаров. Надеюсь, что на более продвинутом этапе развития искусственного интеллекта станет реальностью качественный машинный перевод с любого языка на любой за считанные доли секунды. Пока имеем вот что (профиль одного из продавцов на ебей с русским интерфейсом, но англоязычным описанием):
    https://uploads.disquscdn.com/images/7a52c9a89108b922159a4fad35de0ab0bee0c8804b9731f56d8a1dc659655d60.png