Установка и настройка windows hyper-v server 2019

Проверка результатов

Если все перечисленные шаги проделаны без ошибок, то для эксперимента можно создать пару «Красных» и пару «Синих» ВМ на одном или нескольких физических хостах Hyper-V и убедиться в том, что полученные ВМ работают с адресами из сети 10.0.0.0/24, возможно даже IP-адреса «Синих» и «Красных» полностью совпадают, но при всем при этом «Красные» видят друг друга и полностью изолированы от «Синих».

Давайте посмотрим, как выглядит отклик одного из упомянутых в начале поста командлетов в моей тестовой среде. Ниже фактически изображена политика виртуализации на одном из хостов:

В частности видно, что машине Red-Web1 был выделен CA-адрес 10.0.0.2 (первый доступный адрес в пуле) и ассоциирован с PA-адресом 192.168.1.52. ВМ принадлежит подсети с VSID=15184632 и относится к Customer Network с идентификатором RDID={206146EB-F035-4A19-A625-054C49DEEBD7}.

Еще один очень интересный параметр «Rule» со значением «TranslationMethodEncap» говорит о том, что для виртуализации IP-адресов используется механизм NVGRE. Этот механизм применяется по умолчанию при настройке NV в VMM и рекомендуется для большинства сценариев виртуализации сети. Можно проверить работу механизма инкапсуляции, сделав c машины Red-Web1 ping на адрес 10.0.0.3 и посмотрев сетевым монитором на структуру передаваемых пакетов.

Во-первых, можно наблюдать, что пинги передаются в виде GRE-пакетов между хостами с PA-адресами 192.168.1.52 и 192.168.1.53. Во-вторых, в заголовке GRE указано, что внутри лежит пакет некоторого протокола с номером 0x6558 (выделен на рисунке синим), каковым и является стандарт NVGRE. В-третьих, по спецификации NVGRE следующие 24 бита (обведены красным) содержат VSID. Действительно, если 0xE7B2F8 перевести в десятичный вид, получим VSID=15184632, что является подсетью «Красных».

Таким образом, мы настроили и выполнили проверку работоспособности технологии Hyper-V Network Virtualization. Однако пожалуй, это не более чем лабораторные испытания, поскольку мы не обеспечили взаимодействие ВМ с внешним миром. О том, как это выглядит с архитектурной точки зрения и как настраивается, поговорим в следующем посте.

А пока вы можете:

Надеюсь, материал был полезен.

Установка Hyper-V Server 2019

Скачать бесплатный Hyper-V Server можно с сайта microsoft со специальной страницы с ознакомительными версиями, где в том числе обитают и бесплатные гипервизоры — https://www.microsoft.com/en-us/evalcenter/evaluate-hyper-v-server-2019. К сожалению, требуется регистрация, но это стандартная практика.

Настоятельно рекомендую качать английскую версию и выбирать английский язык в процессе установки. Это избавит вас от лишних ошибок, упростит настройку и решение проблем в будущем. Не относитесь прохладно к этой рекомендации, а в самом деле сделайте так.

Дальше выполняете установку стандартным способом, как и любую другую Windows систему. Загружаетесь с iso образа и следуете по шагам инсталлятора

Каких-то нюансов или проблем с тем, чтобы установить hyper-v server нет, так что я не буду заострять на этом внимание. Обращу внимание только на самый конец установки

У меня появилось вот такое окно:

При этом я не мог ничего сделать или выбрать. Я нажал ctrl+alt+delete и появилось предложение задать пароль администратора. Я сделал это, установка завершилась, загрузилось окно со стандартным интерфейсом управления:

Если вы по какой-то причине закроете это окно, вызвать его снова можно в командной строке с помощью команды sconfig. На этом установка Windows Hyper-V server 2019 закончена. Переходим к настройке.

Настройка Hyper-V Network Virtualization с помощью PowerShell

На хосте с развернутой ролью Hyper-V доступно несколько командлетов PowerShell, с помощью которых выполняется настройка требуемой конфигурации NV. Основных командлета четыре:

Как обычно для PowerShell, существуют аналогичные команды с префиксами Get-, Set-, Remove- для получения текущих параметров, изменения и удаления соответственно.

Самый простой способ познакомиться с перечисленными командлетами – изучить и попробовать применить в тестовой среде два скрипта-примера, разработанных моими коллегами. Каждый скрипт содержит детальные комментарии, описание моделируемой среды и указание на те переменные и константы, которые вам необходимо заменить на собственные значения. Найти и скачать скрипты можно здесь:

Проверял лично, работает. 🙂 Но, думаю очевидно, что в масштабах ЦОД-а манипуляция подобными скриптами превращается в крайне сложную задачу. Поэтому далее гораздо более детально я рассмотрю настройку NV с помощью VMM.

Включение SMT на гостевых виртуальных машинахEnabling SMT in guest virtual machines

Когда гипервизор узла виртуализации настроен для использования основного типа планировщика, Гостевые виртуальные машины могут быть настроены на использование SMT при необходимости.Once the virtualization host’s hypervisor is configured to use the core scheduler type, guest virtual machines may be configured to utilize SMT if desired. Предоставление доступа к тому факту, что ВПС-потоков на гостевую виртуальную машину, позволяет планировщику в гостевой операционной системе и рабочим нагрузкам, выполняемым на ВИРТУАЛЬНОЙ машине, обнаруживать и использовать топологию SMT в собственном планировании работы.Exposing the fact that VPs are hyperthreaded to a guest virtual machine allows the scheduler in the guest operating system and workloads running in the VM to detect and utilize the SMT topology in their own work scheduling. В Windows Server 2016 Гостевая SMT не настроена по умолчанию и должна быть явно включена администратором узла Hyper-V.On Windows Server 2016, guest SMT is not configured by default and must be explicitly enabled by the Hyper-V host administrator. Начиная с Windows Server 2019, новые виртуальные машины, созданные на узле, по умолчанию наследуют топологию SMT узла.Starting with Windows Server 2019, new VMs created on the host inherits the host’s SMT topology by default. Таким образом, виртуальная машина версии 9,0, созданная на узле с 2 SMT потоками на ядро, также увидит 2 SMT потока на ядро.That is, a version 9.0 VM created on a host with 2 SMT threads per core would also see 2 SMT threads per core.

Для включения SMT в гостевой виртуальной машине необходимо использовать PowerShell. в диспетчере Hyper-V не предоставлен пользовательский интерфейс.PowerShell must be used to enable SMT in a guest virtual machine; there is no user interface provided in Hyper-V Manager.
Чтобы включить SMT на гостевой виртуальной машине, откройте окно PowerShell с достаточными разрешениями и введите:To enable SMT in a guest virtual machine, open a PowerShell window with sufficient permissions, and type:

Где — число потоков SMT на ядро, которое видит Гостевая виртуальная машина.Where is the number of SMT threads per core the guest VM sees.
Обратите внимание, что = 0 задает значение хвсреадкаунтперкоре, совпадающее с количеством потоков SMT узла на значение ядра.Note that = 0 sets the HwThreadCountPerCore value to match the host’s SMT thread count per core value. Примечание

Примечание

Параметр Хвсреадкаунтперкоре = 0 поддерживается начиная с Windows Server 2019.Setting HwThreadCountPerCore = 0 is supported beginning with Windows Server 2019.

Ниже приведен пример системной информации, полученной из гостевой операционной системы, работающей на виртуальной машине с 2 виртуальными процессорами и SMT.Below is an example of System Information taken from the guest operating system running in a virtual machine with 2 virtual processors and SMT enabled. Операционная система на виртуальной машине обнаруживает 2 логических процессора, принадлежащих одному и тому же ядру.The guest operating system is detecting 2 logical processors belonging to the same core.

Простое управление Hyper-V Server 2019 через 5nine Manager

Раньше программа 5nine Manager для управления Hyper-V была другой. Я рассказывал о ней в отдельной статье. Сейчас этой программы вообще нет, а вместо нее 5nine Cloud Manager. Он более громоздкий и тормозной. Для установки требует sql сервер. Подойдет бесплатная редакция express. Нужно отдельно ставить серверную часть, отдельно консоль для управления, отдельно агент на hyper-v сервер.

Все стало намного сложнее по структуре, но в целом, если вам не хочется заморачиваться с описанными выше действиями, то можно попробовать с 5nine. В целом, процесс простой и выполняется все мышкой и визардами с кликанием далее — делее — делее. Чтобы все было понятно, расскажу по этапам.

  1. Скачиваете и устанавливаете Microsoft SQL Server Express ни гипервизор.
  2. Скачиваете 5nine Cloud Manager. Устанавливаете на гипервизор серверную часть приложения, которая работает с sql базой, на машину управления ставите консоль для подключения к серверной части.
  3. Подключаетесь консолью и устанавливаете бесплатную лицензию, которая придет в письме после регистрации на сайте программы. Лицензия сроком на год, потом не знаю, что с ней делать, придется продлевать или будет и так работать. На прошлых версиях программы работала и так, продлевать было не обязательно.
  4. Ставите консоль на гипервизор и подключаетесь теперь напрямую с гипервизора через rdp. Сразу так не сделал, потому что с гипервизора нельзя было добавить лицензию. Выскакивала ошибка. Наверно связано с тем, что гипервизор без gui, а визарду по добавлении лицензии он нужен. Могли бы это как-то исправить, было бы проще. Раньше все можно было сразу делать на гипервизоре.

Теперь подробнее и с картинками. Скачиваем и устанавливаем на Hyper-V Microsoft SQL Server Express с сайта Microsoft. Выбирайте тот же язык, что и в гипервизоре. Установка подойдет дефолтная. Установщик можно передать так же, как я показывал раньше, через \\hyperv2019\c$.

Дальше ставите 5nine Cloud Manager, серверную часть. В установщике она называется 5nine Management Service.

Установщик сам найдет установленную локально базу. В качестве авторизации в базе используйте системную учетную запись windows пользователя, от которого вы ставили SQL Server Express. Все остальные настройки установщика я оставлял дефолные.

Теперь переходите на любую клиентскую систему windows, с которой есть доступ к гипервизору и устанавливайте туда консоль управления.

Подключайтесь через эту консоль и добавляйте лицензию, которую вам должны были прислать на почту вместе со ссылкой на скачивание программы.

После того, как добавите лицензию, можно идти на гипервизор, ставить туда же консоль и подключаться. После установки, ярлык для запуска будет лежать в C:\Users\All Users\Desktop. Я запускал оттуда. Когда запустите, сверните все, что открыто. Окно авторизации будет в фоне. Я не сразу это заметил и не мог понять, почему программа не запускается. По факту, она нормально работает на самом гипервизоре, кроме подключения к экрану виртуальной машины. Тут будет ошибка 🙁 А все остальное вроде работает.

Далее нужно добавить гипервизор в панель и дождаться, пока установится агент.

После установки агента, гипервизор с виртуальными машинами появится в панели.

Конечно, все получилось не так удобно, как хотелось бы, но в целом программа функциональная. Все основные действия с виртуальными машинами производить в ней можно. Жаль, что нельзя обойтись только гипервизором. Было бы удобно, если бы все работало на нем.

Управление

VMware vSphere 6.0 Enterprise Plus Microsoft Hyper-V 2012 R2 Datacenter
Централизованное управление Да (vCenter Server + усовершенствованный веб-клиент vSphere, vCenter Server Appliance, SSO Да (System Center 2012 R2 VMM) (SCVMM)
Интеграция с Active Directory Да (хосты vCenter и ESXi), усовершенствованный SSO Да (SCVNN)
Управление через браузер Да (улучшенный веб-клиент vSphere с усовершенствованным SSO и плагин для BDE (Big Data Extension) Не ограничено через портал самообслуживания (Self Service Portal, SSP)
Обновление гипервизора Да (через VMware Update Manager, CLI и AutоDeploy) Да (Cluster Aware Update, Fabric Update, Management Server)
Межплатформенное управление Бесплатный Add-on Multi-Hypervisor Manager SCVMM может управлять виртуальными средами VMware и Citrix
Обновление ВМ Да (Update Manager и vCenter Configuration Manager (vCM) Да (контрольные точки), включает «живой» экспорт
Поддержка Maintenаnce Mode Да (автоматическая миграция ВМ средствами vMotion на другой хост в кластере DRS Да
Средство управления питанием Да, с распределением питания Да, с оптимизацией питания
API для интеграции с системами резервного копирования Да (vStorage API Data Protection) Да (VSS API)
Шаблоны ВМ Да, с многосайтовой библиотекой контента Да, включая шаблоны Gen2
Профили хостов Да (профили хостов, усовершенствованные для автоматического развертывания) Да (профили физических компьютеров)
P2V,V2V Да (VMware Converter) Нет (более не поддерживается, но можно использовать прежние версии VMM)
Живая миграция ВМ Да (vMotion через vSwitch, vCenter Server и без общих ресурсов хранения, удаленная vMotion при RTT до 100 мс) Да (неограниченная одновременная, без общих ресурсов — Shared Nothing; новы опции — сжатие и SMB3)
Миграция хранилища (Storage Migration) Да (Live Storage vMotion, включая реплицированные ВМ), опциональное задание места хранилища для каждого диска ВМ Да («живая» и Shared Nothing)
Профили хранения Да (управление хранением по политикам) Да (классификация хранения)
Защита VM LOCKSTEP Да (Fault Tolerance), поддерживается 4 vCPU без ограничений на типы дисков Нет

Установка Hyper-V

Сначала необходимо включить компонент Hyper-V. Войдите в «Панель управления», далее «Программы и компоненты», нажмите на «Включение или отключение компонентов Windows».

В окне «Компоненты Windows» поставьте галку напротив «Hyper-V», а затем нажмите на кнопку «ОК».

После поиска требуемых файлов и применения изменений, необходимо перезагрузить компьютер.

В меню «Пуск», в папке «Средства администрирования Windows», вы увидите классическое приложение Диспетчер Hyper-V. Запустите программу на компьютере.

В окне приложения нажмите на имя компьютера, справа откроется колонка со списком команд, которые доступны из меню «Действия».

Теперь можно настроить соединение с интернетом.

Нажмите на пункт «Диспетчер виртуальных коммутаторов». В следующем окне, в разделе «Создать виртуальный коммутатор» выберите тип коммутатора «Внешняя», а затем нажмите на кнопку «Создать виртуальный коммутатор».

Далее в пункте «Внешняя сеть» придумайте имя для виртуального коммутатора, затем из списка доступных сетевых адаптеров, выберите адаптер, используемый для подключения к интернету на вашем компьютере. После выбора настроек, нажмите на кнопку «ОК».

В открывшемся окне с предупреждением, согласитесь на применение изменений на компьютере.

Создание внешнего коммутатора vSwitch

Мастер создания предлагает вам выбор нескольких настроек при создании внешнего vSwitch.

  1. Можно выбрать нужный физический сетевой адаптер, если подходящих vSwitch у вас несколько.
  2. Опция Allow management OS to share this network adapter(Разрешить управляющей операционной системе создавать общий доступ к этому сетевому адаптеру) по умолчанию включена. Отключение этой опции лишит ОС гипервизора возможности сетевого подключения. Будьте осторожнее при создании vSwitch удаленно. Это может полностью разорвать соединение с удаленным хостом.
  3. SR-IOV(Single Root I/O Virtualization) (Виртуализация ввода-вывода с единым корнем) позволяет подготовить такую конфигурацию, которая может увеличить пропускную способность сети путем перенаправления трафика напрямую в ВМ в обход коммутатора vSwitch. Информация о включении опции SR-IOV доступна здесь. Необходимо учесть несколько аппаратных и системных требований: совместимость BIOS, поддержка SLAT процессором и сетевой картой SR-IOV PCIe в вашей системе. Убедитесь заранее, что вы знаете, что делаете.ПРИМЕЧАНИЕ: Вы не сможете включить опцию SR-IOV для существующего коммутатора vSwitch.
  4. VLAN ID: Эта настройка разрешает создание виртуальной локальной сети (VLAN) в управляющей ОС. Верно это и для физической среды, настройка позволяет выделить трафик гипервизора путем предоставления отдельных широковещательных доменов внутри единой сети.

Рис. 3. Создание внешнего коммутатора vSwitch

Нажав кнопку Apply (Применить), будьте готовы потерять возможность физического сетевого подключения на время, пока среда Hyper-V выключит физический сетевой адаптер, настроит коммутатор vSwitch и заново их включит:

Рис. 4. Предупреждение при создании внешнего vSwitch

Процедура создания внутреннего и частного коммутатора vSwitch аналогична, хотя некоторые настройки, такие как общий доступ к сети и SR-IOV будут недоступны и выделены серым цветом, что связано с самим характером этих коммутаторов.

Рис. 5. Создание внутреннего коммутатора vSwitch

ПРИМЕЧАНИЕ: Возможна автоматизация процедуры с помощью скрипта PowerShell, как и в случае других административных операций Windows 2012 R2. Полный синтаксис скрипта нуждается в проверке на сайте TechNet, но несколько примеров скриптов PS приведено ниже.

ПОДСКАЗКА: Не забудьте запустить консоль PowerShell с повышенными правами.

Следующая команда создает внешний коммутатор vSwitch для сетевого адаптера “Ethernet”:

Следующая команда создает внутренний коммутатор vSwitch:

Тип коммутатора vSwitch определяется параметром “-SwitchType «Internal/Private» или в случае внешнего vSwitch одним из следующих параметров: “-NetAdapterName «имя физического сетевого адаптера» / -NetAdapterInterfaceDescription «описание физического сетевого адаптера»”.

Создав коммутаторы vSwitch, вы можете их использовать в настройках сетевого подключения ваших ВМ.

Рис. 6. Мастер создания новой ВМ

ПОДСКАЗКА: Проверьте, к какому из всех vSwitch подключены ваши ВМ, с помощью команды:

Get-VMNetworkAdapter -VMName *

Заключение

Постарался рассмотреть все наиболее значимые аспекты в работе с бесплатным гипервизором от Microsoft. Можете сравнить его с бесплатным гипервизором на kvm — proxmox, который я рассматривал в своей статье установка и настройка proxmox. В proxmox мне нравится управление через web браузер. Не нужно ничего ставить на компьютер. После установки гипервизор сразу готов к работе.

В hyper-v удобно, что все системы его поддерживают без проблем. На kvm, к примеру, в proxmox, после установки windows систем в качестве гостевых машин, нужно будет устанавливать драйвера с отдельного диска, либо использовать готовые образы, где они будут уже интегрированы. Мелочь, но все равно не так удобно.

Буду рад любым замечаниям по статье, подсказкам или указаниям на ошибки. Так же было бы любопытно узнать, какой гипервизор вы предпочитаете использовать и по какой причине. Какие преимущества по сравнению с остальными гипервизорами вы видите в своем выборе.

Прошлые статьи по Hyper-V:

  • Установка и настройка Windows Hyper-V Server 2012 R2
  • Установка и настройка Windows Hyper-V Server 2016
  • Добавить iSCSI диск на сервер Windows Hyper-v
  • Установка и настройка apcupsd на Hyper-V Server

Заключение

Отдельные пользователи пренебрегают этапом настроек по «Преобразованию сетевых адресов (NAT)», который описан в инструкции выше. Однако этот механизм обеспечивает доступ ВМ к сети через объединение IP основной электронно-вычислительной машины с портом через внутренний коммутатор Hyper-V. В итоге приобретаются несколько следующих преимуществ:

  1. Применяется внутренний коммутатор, что понижает загрузку сета электронно-вычислительной машины;
  2. Несколько ВМ могут размещать программы, требующие внутренние порты связи, просто соотнося их с индивидуальными внешними интерфейсами;
  3. Экономятся IP по причине сопоставления внешнего IP и порта со значительно увеличенным перечнем внутренних IP.

Виртуальные локальные сети (VLANs @ no__t-1 предлагают один из способов изоляции сетевого трафика. Virtual local area networks (VLANs) offer one way to isolate network traffic. Виртуальные ЛС настраиваются в коммутаторах и маршрутизаторах, поддерживающих 802.1 q. VLANs are configured in switches and routers that support 802.1q. Если вы настроили несколько виртуальных ЛС и хотите, чтобы между ними происходил обмен данными, необходимо настроить сетевые устройства, чтобы это разрешить. If you configure multiple VLANs and want communication to occur between them, you’ll need to configure the network devices to allow that.

Для настройки виртуальных ЛС потребуется следующее: You will need the following to configure VLANs:

  • Физический сетевой адаптер и драйвер, поддерживающие маркировку VLAN 802.1 q. A physical network adapter and driver that supports 802.1q VLAN tagging.
  • Физический сетевой коммутатор, поддерживающий маркировку VLAN 802.1 q. A physical network switch that supports 802.1q VLAN tagging.

На узле вы настроите виртуальный коммутатор, чтобы разрешить сетевой трафик на порте физического коммутатора. On the host, you’ll configure the virtual switch to allow network traffic on the physical switch port. Это для идентификаторов виртуальных ЛС, которые вы хотите использовать для внутренних целей с виртуальными машинами. This is for the VLAN IDs that you want to use internally with virtual machines. Затем настройте виртуальную машину, чтобы указать виртуальную ЛС, которую виртуальная машина будет использовать для всех сетевых подключений. Next, you configure the virtual machine to specify the VLAN that the virtual machine will use for all network communications.

Откройте Hyper @ no__t-0V Manager. Open Hyper-V Manager.

В меню действия выберите Диспетчер виртуальных коммутаторов. From the Actions menu, click Virtual Switch Manager.

В разделе виртуальные коммутаторывыберите виртуальный коммутатор, подключенный к физическому сетевому адаптеру, который поддерживает виртуальные ЛС. Under Virtual Switches, select a virtual switch connected to a physical network adapter that supports VLANs.

В области справа в разделе идентификатор виртуальной ЛС выберите включить идентификацию виртуальной локальной сети , а затем введите номер виртуальной ЛС. In the right pane, under VLAN ID, select Enable virtual LAN identification and then type a number for the VLAN ID.

Весь трафик, проходящий через физический сетевой адаптер, подключенный к виртуальному коммутатору, будет помечен заданным ИДЕНТИФИКАТОРом виртуальной ЛС. All traffic that goes through the physical network adapter connected to the virtual switch will be tagged with the VLAN ID you set.

Заключение

Постарался рассмотреть все наиболее значимые аспекты в работе с бесплатным гипервизором от Microsoft. Сам еще не проверял его в работе и особо не интересовался нововведениями, пока не было времени. Смотрел на него только в тестовых стендах. Можете сравнить его с бесплатным гипервизором на kvm — proxmox, который я рассматривал в своей статье установка и настройка proxmox.

Самым большим преимуществом последнего является возможность установки на программный рейд. Hyper-V сервер я никогда не пробовал установить на программный рейд, я даже не знаю, возможно ли это. Так что использовать его можно только там, где есть аппаратный рейд, либо в тестовых вариантах. Лично я никогда не ставлю гипервизоры в продакшн на одиночные диски. Все остальное дело привычки и удобства. В proxmox мне нравится управление через web браузер. Не нужно ничего ставить на компьютер. После установки гипервизор сразу готов к работе.

В hyper-v удобно, что все системы его поддерживают без проблем. На kvm, к примеру, в proxmox, после установки windows систем в качестве гостевых машин, нужно будет устанавливать драйвера с отдельного диска, либо использовать готовые образы, где они будут уже интегрированы. Мелочь, но все равно не так удобно.

Буду рад любым замечаниям по статье, подсказкам или указаниям на ошибки. Так же было бы любопытно узнать, какой гипервизор вы предпочитаете использовать и по какой причине. Какие преимущества по сравнению с остальными гипервизорами вы видите в своем выборе.

Оцените статью
Рейтинг автора
5
Материал подготовил
Андрей Измаилов
Наш эксперт
Написано статей
116
Добавить комментарий