Руководство по вопросам разработки структуры виртуализации
Для кого предназначено это руководство? Для специалистов по информационным технологиям (ИТ) в средних и крупных организациях, которые отвечают за проектирование структуры виртуализации, поддерживающей множество виртуальных машин. Далее в этом документе они будут называться администраторами структуры. Лица, которые администрируют размещенные в структуре виртуальные машины (администраторы виртуальных машин) не являются целевой аудиторией этого документа. В организации один человек может выполнять обе эти роли.
В чем поможет вам это руководство? Это руководство может помочь вам в разработке структуры виртуализации, в которой можно разместить много виртуальных машин организации. В этом документе совокупность серверов, низкоуровневых оболочек, хранилища и сетевого оборудования, используемая для размещения виртуальных машин в пределах организации, называется структурой виртуализации. Ее пример приведен на схеме ниже.
Рис. 1.Пример структуры виртуализации
Примечание. Каждая схема, используемая в этом документе, приведена на отдельной вкладке в документе Схемы проектирования структуры виртуализации, который можно скачать, щелкнув подпись к любому рисунку.
Хотя каждая структура виртуализации и содержит серверы для хранения данных и размещения виртуальных машин, а также соединяющие их сети, ее схема в любой организации скорее всего будет отличаться от примера, приведенного на рис. 1, из-за различий в требованиях.
В этом руководстве подробно описываются последовательности действий и задач, которые помогут вам спроектировать структуру виртуализации, отвечающую уникальным требованиям вашей организации. Описание этих действий и задач сопровождается описанием соответствующих технологий и компонентов, которые помогут вам выполнить требования к функциональности и качеству обслуживания (например, доступности, масштабируемости, производительности, управляемости и безопасности).
Хотя этот документ и может помочь вам спроектировать управляемую структуру виртуализации, в нем не рассматриваются вопросы, связанные с эксплуатацией структуры виртуализации и управлением ею с помощью определенного продукта, такого как Microsoft System Center 2012 или System Center 2012 R2. Подробности см. в статье System Center 2012 в библиотеке TechNet.
Это руководство поможет вам спроектировать структуру виртуализации с помощью Windows Server 2012 R2 и Windows Server 2012 и оборудования, независимого от поставщика. Некоторые возможности, рассматриваемые в этом документе, уникальны для Windows Server 2012 R2, на что указывается отдельно.
Допущения: у вас есть некоторый опыт развертывания Hyper-V, виртуальных машин, виртуальных сетей, файловых служб Windows Server и отказоустойчивой кластеризации, а также опыт развертывания физических серверов, систем хранения данных и сетевого оборудования.
Дополнительные ресурсы
Перед проектированием структуры виртуализации может быть полезна информация в следующих документах:
Эталонная архитектура платформы облачных служб Майкрософт — эталонная модель
Эталонная архитектура платформы облачных служб Майкрософт — принципы, понятия и шаблоны
В этих двух документах описываются фундаментальные принципы, которые наблюдаются в различных структурах виртуализации и могут служить основой для проектирования любой такой структуры.
Отзывы: чтобы предоставить отзыв об этом документе, отправьте сообщение на адрес virtua@microsoft.com.
Обзор рекомендаций по проектированию
Далее в этом документе описывается ряд действий и задач, которые помогут вам спроектировать структуру виртуализации, наиболее полно отвечающую вашим требованиям. Действия приводятся по порядку. Рекомендации по проектированию на последующих этапах могут потребовать изменения принятых ранее решений вследствие конфликтов. На протяжении документа мы стараемся предупреждать вас о всех возможных конфликтах.
Оптимальный проект можно получить только после повторного выполнения всех действий необходимое число раз с учетом всех рекомендаций.
Шаг 1. Определение требований виртуальных машин к ресурсам
Шаг 2. Планирование конфигурации виртуальных машин
Шаг 3. Планирование групп узлов серверов виртуализации
Шаг 4. Планирование узлов серверов виртуализации
Шаг 5. Планирование особенностей архитектуры структуры виртуализации
Шаг 6. Планирование начальных характеристик
Шаг 1. Определение требований виртуальных машин к ресурсам
Первым шагом при проектировании структуры виртуализации является определение требований к ресурсам для виртуальных машин, которые будут размещаться в структуре. Структура должна включать в себя физическое оборудование, необходимое для выполнения этих требований. Требования виртуальных машин к ресурсам обуславливаются операционными системами и приложениями, выполняющимися в виртуальных машинах. Далее в этом документе сочетание операционной системы и приложений, выполняющихся в виртуальной машине, называется рабочей нагрузкой. Задачи на этом шаге позволят вам определить требования рабочих нагрузок к ресурсам.
Совет. Вместо того чтобы оценивать требования к ресурсам для текущих рабочих нагрузок, а затем проектировать структуру виртуализации, поддерживающую каждую из них, вы можете спроектировать структуру виртуализации, способную удовлетворять потребности большинства стандартных рабочих нагрузок. После этого вы можете уделить внимание отдельным рабочим нагрузкам с уникальными требованиями.
Примерами таких структур виртуализации могут служить структуры, предлагаемые поставщиками общедоступных облачных сред, например Microsoft Azure (Azure). Подробности см. в статье Размеры виртуальных машин и облачных служб для Azure.
Поставщики общедоступных облачных сред обычно предлагают на выбор ряд конфигураций виртуальных машин, отвечающих потребностям большинства рабочих нагрузок. Если вы решите применить такой подход, то можете сразу переходить к Шаг 2. Планирование конфигурации виртуальных машин в этом документе. Ниже перечислены дополнительные преимущества этого подхода.
Если вы решите перенести некоторые локальные виртуальные машины в общедоступное облако, то сделать это будет легче, если конфигурации этих виртуальных машин сходны с предлагаемыми поставщиком облачной среды.
Это может упростить прогнозирование требований к емкости и обеспечить возможность самостоятельной подготовки для структуры виртуализации. Таким образом, администраторы виртуальных машин в организации смогут автоматически подготавливать новые виртуальные машины без участия администраторов структуры.
Задача 1. Определение требований рабочих нагрузок к ресурсам
Каждая рабочая нагрузка предъявляет определенные требования к указанным ниже ресурсам. В первую очередь нужно ответить на приведенные ниже вопросы для каждой из рабочих нагрузок.
Процессор: Какое быстродействие, архитектура (Intel или AMD) и число процессоров требуется?
Сеть: Какова требуемая пропускная способность сети в гигабитах в секунду (Гбит/с) для входящего и исходящего трафика? Какова максимальная задержка сети для надлежащего выполнения рабочей нагрузки?
Хранилище: Сколько гигабайт (ГБ) хранилища требуется для файлов приложений и операционной системы рабочей нагрузки? Сколько ГБ хранилища требуется для данных рабочей нагрузки? Какова требуемая скорость ввода-вывода хранилища (в операциях в секунду) для рабочей нагрузки?
Память: Какой объем памяти в гигабайтах (ГБ) требуется рабочей нагрузке? Поддерживает ли рабочая нагрузка архитектуру NUMA?
Помимо определения перечисленных выше требований к ресурсам, также важно ответить на указанные ниже вопросы.
Являются ли требования к ресурсам минимальными или рекомендуемыми?
Каковы пиковые и средние требования к каждому из компонентов оборудования (из расчета в час, день, неделю, месяц и год)?
Какова допустимая длительность простоя в месяц (в минутах) для рабочей нагрузки и ее данных. При ее определении примите во внимание указанные ниже факторы.
Выполняется ли рабочая нагрузка на основе только одной виртуальной машины или набора виртуальных машин, выступающих как одно целое, например набора серверов с балансировкой сетевой нагрузки, на которых выполняется одна и та же рабочая нагрузка? Если используется набор серверов, необходимо ясно указать, относится ли простой к каждому серверу в наборе, всем серверам или всему набору.
Рабочие и нерабочие часы. Например, если никто не будет использовать рабочую нагрузку в период с 21:00 до 6:00, но с 6:00 до 21:00 она должна быть максимально доступна и допустимое время простоя в этот период не должно превышать десяти минут в месяц, это требование необходимо зафиксировать.
Каков допустимый объем потерь данных в случае непредвиденного сбоя виртуальной инфраструктуры? Он выражается в минутах, так как стратегии репликации виртуальных инфраструктур обычно строятся на основе временных показателей. Хотя зачастую ставится требование полного отсутствия потерь данных, учтите, что его выполнение обычно связано с высокими финансовыми затратами, а также, возможно, снижением производительности.
Должны ли файлы и данные рабочей нагрузки шифроваться на диске и должны ли ее данные шифроваться при передаче между виртуальными машинами и конечными пользователями.
Определить перечисленные выше требования к ресурсам можно указанными ниже способами.
Option |
Преимущества |
Недостатки |
---|---|---|
Оценка использования ресурсов вручную и его регистрация в журнале |
Возможность составления отчетов по любым показателям |
Может потребовать значительных ручных усилий |
Использование набора средств Microsoft Assessment and Planning Toolkit для автоматической оценки и регистрации использования ресурсов в журнале |
|
Отчеты могут содержать, а могут и не содержать всех необходимых данных |
Примечание. Если вы решили определить требования к ресурсам вручную, то можете скачать таблицы к руководству по вопросам разработки структуры виртуализации и ввести данные на листе "Workload resource req." (Требования рабочих нагрузок к ресурсам). В данном руководстве приводятся ссылки на определенные листы в этом документе.
Задача 2. Определение характеристик рабочих нагрузок
В среде можно определить сколько угодно характеристик рабочих нагрузок. Приведенные ниже примеры были выбраны потому, что в каждом из них требуется разная конфигурация компонентов структуры виртуализации (подробнее об этом см. в описании дальнейших шагов).
Рабочие нагрузки без учета состояния: не записывают уникальных данных на локальный жесткий диск после первоначальной подготовки и присвоения уникальных имен компьютеров и сетевых адресов. Однако они могут записывать уникальные данные в отдельное хранилище, например базу данных. Рабочие нагрузки без учета состояния оптимальны для выполнения в структуре виртуализации, так как для виртуальной машины можно создать главный образ. Этот образ можно легко скопировать и загрузить в структуре виртуализации, чтобы масштабировать рабочую нагрузку или быстро заменить виртуальную машину, которая стала недоступна из-за сбоя узла виртуализации. Примером рабочей нагрузки без учета состояния является веб-сервер, на котором запущено интерфейсное веб-приложение.
Рабочие нагрузки с учетом состояния: записывают уникальные данные на локальный жесткий диск после первоначальной подготовки и присвоения уникальных имен компьютеров и сетевых адресов. Они также могут записывать уникальные данные в отдельное хранилище, например базу данных. Рабочие нагрузки с учетом состояния, как правило, требуют более сложных стратегий подготовки и масштабирования, чем нагрузки без учета состояния. Стратегии обеспечения высокой доступности для рабочих нагрузок с учетом состояния могут требовать общего состояния с другими виртуальными машинами. Примером рабочей нагрузки с учетом состояния является ядро СУБД SQL Server.
Общие с учетом состояния: рабочие нагрузки с учетом состояния, требующие некоторого общего состояния с другими виртуальными машинами. Для обеспечения высокой доступности такие рабочие нагрузки часто используют отказоустойчивую кластеризацию в Windows Server, которая требует доступа к общему хранилищу. Примером общей рабочей нагрузки с учетом состояния является Microsoft System Center Virtual Machine Manager.
Прочие: рабочие нагрузки, которые могут не выполняться в структуре виртуализации или выполняться неоптимальным образом. Для них характерны указанные ниже требования.
Доступ к физическим периферийным устройствам. Примером может быть рабочая нагрузка телефонии, которая связывается с сетевым адаптером телефонии на физическом узле.
Требования к ресурсам, значительно превышающие требования других рабочих нагрузок. Примером является приложение, которое работает в режиме реального времени и требует задержки между уровнями приложения менее одной миллисекунды.
Эти приложения могут выполняться или не выполняться в структуре виртуализации, а также могут требовать особого оборудования или конфигураций, не используемых большинством остальных рабочих нагрузок.
Примечание. Вы можете определить характеристики рабочих нагрузок на листе Settings (Параметры), а затем выбрать подходящую характеристику для каждой рабочей нагрузки на листе Workload resource req. (Требования рабочих нагрузок к ресурсам).
Шаг 2. Планирование конфигурации виртуальных машин
На этом этапе вы определите типы виртуальных машин, которые потребуются для выполнения требований к ресурсам и обеспечения характеристик рабочих нагрузок, определенных на шаге 1.
Задача 1. Определение конфигурации вычислительных ресурсов
В рамках это задачи вы определите объем памяти и характеристики процессоров для каждой виртуальной машины.
Задача 1а. Определение поколения виртуальных машин
В Windows Server 2012 R2 появились виртуальные машины второго поколения. Они поддерживают оборудование и функции виртуализации, которые не поддерживаются виртуальными машинами первого поколения. Важно сразу правильно определить требования, так как после создания виртуальной машины ее тип изменить нельзя.
Виртуальные машины второго поколения предоставляют следующие новые функциональные возможности:
PXE-загрузка с помощью стандартного сетевого адаптера;
загрузка с виртуального жесткого диска SCSI;
загрузка с виртуального DVD-диска SCSI;
безопасная загрузка (включена по умолчанию);
поддержка встроенного ПО UEFI.
Виртуальные машины второго поколения поддерживают следующие операционные системы:
Windows Server 2012 R2
Windows Server 2012
64-разрядные версии Windows 8.1.
64-разрядные версии Windows 8.
Некоторые версии Linux. Список дистрибутивов и версий, которые поддерживают виртуальные машины второго поколения, см. в статье Виртуальные машины Linux в Hyper-V.
В таблице ниже перечислены преимущества и недостатки виртуальных машин первого и второго поколений.
Option |
Преимущества |
Недостатки |
---|---|---|
Поколение 1 |
|
Нет доступа к новым функциональным возможностям виртуальных машин |
Поколение 2 |
|
|
Внимание! Виртуальные машины Linux второго поколения не поддерживают безопасную загрузку. Если вы создаете виртуальную машину и намереваетесь установить Linux, то вам необходимо отключить безопасную загрузку в параметрах виртуальной машины.
Дополнительные сведения:
Обзор виртуальных машин второго поколения
Задача 1б. Определение памяти
Вам необходимо спланировать размер памяти для виртуальных машин так же, как это обычно делается для серверных приложений на физическом компьютере. Ее должно быть достаточно для ожидаемой нагрузки в обычное время и в пиковые периоды. Нехватка памяти может значительно увеличить время отклика и загрузку ЦП или подсистемы ввода-вывода.
Статическая или динамическая память
Статическая память — это объем памяти, выделенный виртуальной машине. Он выделяется при запуске виртуальной машины и не изменяется в процессе ее работы. Весь объем памяти назначается виртуальной машине при запуске, а память, которая не используется виртуальной машиной, недоступна другим виртуальным машинам. Если на узле недостаточно памяти для виртуальной машины в момент ее запуска, то она не будет запущена.
Статическая память хорошо подходит для рабочих нагрузок с интенсивным использованием памяти или с собственными системами управления памятью, например SQL Server. Производительность таких рабочих нагрузок будет выше со статической памятью.
Примечание. Параметра для включения статической памяти нет. Статическая память включается, если отключен параметр динамической памяти.
Динамическая память позволяет оптимальнее использовать физическую память системы благодаря балансировке общего ее объема между несколькими виртуальными машинами. При этом интенсивно используемым виртуальным машинам выделяется больше памяти, а у слабо используемых память отбирается. Это позволяет достичь более высокой степени консолидации, особенно в динамических средах, таких как инфраструктура виртуальных рабочих столов (VDI) или веб-серверы.
Если при использовании статической памяти виртуальной машине выделяется 10 ГБ памяти, но она использует только 3 ГБ, то остальные 7 ГБ недоступны другим виртуальным машинам. Если для виртуальной машины включена динамическая память, то она использует только необходимый объем памяти, но не меньше заданного минимального размера ОЗУ. Это позволяет высвободить больше памяти для других виртуальных машин.
В таблице ниже перечислены преимущества и недостатки статической и динамической памяти.
Option |
Преимущества |
Недостатки |
---|---|---|
Статическая память |
|
|
Динамическая память |
|
|
Ниже перечислены параметры конфигурации памяти.
ОЗУ для запуска: объем памяти, необходимый для запуска виртуальной машины. Это значение должно быть достаточным для запуска операционной системы на виртуальной машине, но при этом максимально низким для оптимального использования памяти и, возможно, более высокой степени консолидации.
Минимальный объем ОЗУ: минимальный объем памяти, который следует выделить виртуальной машине после ее запуска. Это значение можно установить в диапазоне от 32 МБ до максимального значения параметра "ОЗУ для запуска". Этот параметр доступен, только если включена динамическая память.
Максимальный объем ОЗУ: максимальный объем памяти, который разрешено использовать данной виртуальной машине. Это значение можно установить в диапазоне от значения параметра "ОЗУ для запуска" до 1 ТБ. Однако виртуальная машина не может использовать больше памяти, чем поддерживается ее операционной системой. Например, если вы зададите 64 ГБ для виртуальной машины, в которой выполняется операционная система, поддерживающая максимум 32 ГБ, то виртуальная машина не сможет использовать более 32 ГБ. Этот параметр доступен, только если включена динамическая память.
Вес памяти: позволяет Hyper-V определять, как распределять память между виртуальными машинами, если на узле недостаточно физической памяти для предоставления каждой виртуальной машине запрошенного объема памяти. Виртуальные машины с более высоким весом памяти имеют приоритет над виртуальными машинами с более низким весом.
Примечания.
Динамическую память и виртуальную архитектуру NUMA нельзя использовать одновременно. Виртуальная машина, для которой включена динамическая память, имеет только один виртуальный узел NUMA и ей не предоставляется топология NUMA вне зависимости от параметров виртуальной архитектуры NUMA.
Во время установки или обновления операционной системы виртуальной машины ей доступен объем памяти, определяемый параметром "ОЗУ для запуска". Даже если для виртуальной машины настроена динамическая память, она использует только тот объем памяти, который указан в параметре "ОЗУ для запуска". Убедитесь в том, что значение "ОЗУ для запуска" соответствует требованиям к минимальному размеру памяти для операционной системы во время процедур установки или обновления.
Операционная система, выполняющаяся в виртуальной машине, должна поддерживать динамическую память.
Сложные приложения баз данных, например SQL Server или Exchange Server, реализуют собственные диспетчеры памяти. Чтобы определить, совместима ли рабочая нагрузка с динамической памятью, обратитесь к документации по ней.
Дополнительные сведения:
Задача 1в. Определение характеристик процессоров
Для настройки виртуальных машин необходимо определить указанные ниже параметры конфигурации.
Определите число процессоров, необходимое для каждой виртуальной машины. Оно часто совпадает с числом процессоров, необходимым для рабочей нагрузки. Hyper-V поддерживает максимум 64 виртуальных процессора на виртуальную машину.
Примите решение в отношении контроля ресурсов для каждой виртуальной машины. Установив пределы, можно гарантировать, что ни одна виртуальная машина не сможет монополизировать процессорные ресурсы узла виртуализации.
Определите топологию NUMA. Для высокопроизводительных рабочих нагрузок с поддержкой NUMA можно указать максимальное число процессоров, объем памяти, разрешенный для одного виртуального узла NUMA, и максимальное разрешенное число узлов на сокет процессора. Подробности см. в разделе Обзор виртуальной топологии архитектуры NUMA Hyper-V.
Примечание. Виртуальную архитектуру NUMA и динамическую память нельзя использовать одновременно. Если вы пытаетесь решить, следует ли использовать динамическую память или NUMA, ответьте на приведенные ниже вопросы. Если ответ на оба из них утвердительный, то включите виртуальную архитектуру NUMA и не включайте динамическую память.
Поддерживает ли рабочая нагрузка, выполняющаяся в виртуальной машине, архитектуру NUMA?
Будет ли виртуальная машина потреблять больше ресурсов, процессоров или памяти, чем доступно в одном физическом узле NUMA?
Задача 1г. Определение поддерживаемых операционных систем
Вам необходимо убедиться в том, что операционная система, требуемая рабочей нагрузкой, поддерживается виртуальной машиной. Рекомендуется учесть следующие моменты.
Supported Windows Guest Operating Systems for Hyper-V in Windows Server 2012 R2 and Windows 8.1
Supported Windows Guest Operating Systems for Hyper-V in Windows Server 2012 and Windows 8
Для Linux: информацию о поддерживаемых дистрибутивах Linux см. в статье Виртуальные машины Linux в Hyper-V.
Примечание. В состав Hyper-V входит пакет ПО для поддерживаемых операционных систем на виртуальных машинах, который повышает производительность и улучшает интеграцию физического компьютера и виртуальной машины. Этот набор служб и программных драйверов называется службами интеграции. Для обеспечения максимальной производительности в виртуальных машинах должны быть запущены службы интеграции последней версии.
Лицензирование
Операционные системы на виртуальных машинах должны иметь надлежащие лицензии. При запуске виртуализированной среды ознакомьтесь с требованиями к лицензированию в документации поставщика.
В Windows Server 2012 R2 появилась функция автоматической активации виртуальной машины (AVMA). Она привязывает активацию виртуальной машины к лицензированному серверу виртуализации и активирует виртуальную машину при запуске. Это избавляет от необходимости вводить сведения о лицензии и активировать каждую виртуальную машину по отдельности.
Для использования AVMA необходимо, чтобы узел работал под управлением Windows Server 2012 R2 Datacenter, а в виртуальной машине была установлена ОС Windows Server 2012 R2 Datacenter, Windows Server 2012 R2 Standard или Windows Server 2012 R2 Essentials.
Примечание. Функцию AVMA нужно настроить на каждом узле, развернутом в структуре виртуализации.
Дополнительные сведения:
Автоматическая активация виртуальной машины
Задача 1д. Определение соглашения об именовании виртуальных машин
Существующая стратегия именования компьютеров может учитывать физическое местонахождение компьютера или сервера. Виртуальные машины могут переноситься с одного узла на другой и даже между центрами обработки данных, поэтому существующая стратегия именования может оказаться непригодной. Если обновить существующее соглашение об именовании так, чтобы в нем учитывалось то, что компьютер является виртуальной машиной, это поможет определять место выполнения виртуальных машин.
Задача 2. Определение конфигурации сети
Каждая виртуальная машина будет принимать или отправлять различные типы сетевого трафика. Каждый тип сетевого трафика предъявляет разные требования к производительности, доступности и безопасности.
Виртуальные машины первого поколения могут иметь не более 12 сетевых адаптеров — 4 традиционных и 8 виртуальных. Виртуальные машины второго поколения не поддерживают традиционные сетевые адаптеры, поэтому максимальное число адаптеров равно 8.
Задача 2а. Определение типов сетевого трафика
Каждая виртуальная машина будет отправлять и получать различные типы данных, например:
данные приложений;
резервные копии данных;
данные взаимодействия с клиентскими компьютерами, серверами или службами;
данные взаимодействия внутри кластера, если рабочая нагрузка входит в отказоустойчивый кластер гостевых виртуальных машин;
Поддержка
Хранилище
Если у вас уже есть сети, предназначенные для передачи различных типов трафика, то вы можете использовать их для выполнения этой задачи. Если вы проектируете новые сети для поддержки структуры виртуализации, то для каждой виртуальной машины можно определить поддерживаемые типы сетевого трафика.
Задача 2б. Определение производительности для сетевого трафика
Каждый тип сетевого трафика предъявляет определенные требования к максимальной пропускной способности и минимальной задержке. В таблице ниже приведены стратегии, с помощью которых можно обеспечить выполнение различных требований к производительности сети.
Стратегия |
Преимущества |
Недостатки |
---|---|---|
Разделение типов трафика по физическим сетевым адаптерам |
Каждый адаптер используется только для определенного типа трафика |
|
Управление пропускной способностью Hyper-V (качество обслуживания Hyper-V) |
|
|
SR-IOV |
|
|
|
|
|
Кадры крупного размера |
|
|
Задача 2в. Определение доступности для сетевого трафика
Объединение сетевых карт, известное также под названием балансировки нагрузки и обеспечения отказоустойчивости (LBFO), позволяет группировать несколько сетевых адаптеров в целях агрегирования пропускной способности и обеспечения отказоустойчивости при передаче трафика. Это позволяет избежать потери связи при отказе сетевого компонента. Объединение сетевых карт обычно настраивается на узле. При создании виртуального коммутатора он привязывается к группе сетевых адаптеров.
Развертываемые сетевые коммутаторы определяют режим объединения сетевых карт. Параметров по умолчанию в Windows Server 2012 R2 должно быть достаточно для большинства развертываний.
Примечание. Технология SR-IOV несовместима с объединением сетевых карт. Подробности об SR-IOV см. в разделе Задача 2б. Определение производительности для сетевого трафика.
Дополнительные сведения:
Обзор объединения сетевых карт
Задача 2г. Определение параметров безопасности для сетевого трафика
Каждый тип сетевого трафика может иметь особые требования к безопасности, например, связанные с изоляцией и шифрованием. В таблице ниже описываются стратегии, с помощью которых можно обеспечить выполнение различных требований к безопасности.
Стратегия |
Преимущества |
Недостатки |
---|---|---|
Разделение по сетевым адаптерам |
Отделение трафика определенного типа от трафика других типов |
Плохая масштабируемость. Чем больше у вас сетей, тем больше сетевых адаптеров необходимо установить на узле и тем большим количеством адаптеров необходимо управлять. |
IPsec с разгрузкой задач IPsec |
|
|
Разметка виртуальной ЛС |
|
|
|
|
|
|
Минимальное влияние на производительность. |
|
|
Минимальное влияние на производительность. |
Проектное решение — вы можете скачать таблицы к руководству по вопросам разработки структуры виртуализации и изменить приведенные для примера данные на листе "Virtual machine configs." (Конфигурации виртуальных машин), чтобы зафиксировать решения, принятые при выполнении всех предыдущих задач этого шага. При принятии дальнейших проектных решений введите данные на других листах, на которые приводятся ссылки в этом руководстве.
Задача 2д. Определение виртуальных сетевых адаптеров
При анализе типов трафика, используемых виртуальными машинами, помимо стратегий обеспечения производительности, доступности и безопасности трафика, вы можете определить число виртуальных сетевых адаптеров, требуемых для каждой виртуальной машины.
Виртуальный сетевой адаптер подключается к виртуальному коммутатору. Существует три типа виртуальных коммутаторов:
внешний виртуальный коммутатор;
внутренний виртуальный коммутатор;
частный виртуальный коммутатор.
Внешний виртуальный коммутатор предоставляет виртуальной машине доступ к физической сети через сетевой адаптер, связанный с виртуальным коммутатором, к которому он подключен. Физический сетевой адаптер на узле можно связать только с одним внешним коммутатором.
Виртуальные машины первого поколения могут иметь не более 12 сетевых адаптеров — 4 традиционных и 8 виртуальных. Виртуальные машины второго поколения не поддерживают традиционные сетевые адаптеры, поэтому максимальное поддерживаемое число адаптеров равно 8. Виртуальному сетевому адаптеру может быть назначен один идентификатор виртуальной ЛС, если только для него не настроен магистральный режим.
Если вы собираетесь назначить трафик виртуальной машины разным виртуальным ЛС, на узле необходимо установить сетевой адаптер, поддерживающий виртуальные ЛС, и назначить его виртуальному коммутатору. Идентификатор виртуальной ЛС можно задать для виртуальной машины в ее свойствах. Идентификатор виртуальной ЛС, задаваемый в виртуальном коммутаторе, — это идентификатор, который будет назначен виртуальному сетевому адаптеру, связанному с операционной системой сервера виртуальных машин.
Примечание. Если виртуальной машине требуется доступ к сетям, число которых превышает число доступных адаптеров, вы можете включить магистральный режим виртуальной ЛС для сетевого адаптера виртуальной машины с помощью командлета Windows PowerShell Set-VMNetworkAdapterVlan.
Задача 2е. Определение стратегии назначения IP-адресов
Вам необходимо определить, как будут назначаться IP-адреса виртуальным машинам. Если этого не сделать, могут возникать конфликты IP-адресов, что может отрицательно сказаться на работе виртуальных машин и физических устройств в сети.
Кроме того, неавторизованные DHCP-серверы могут создать проблемы в сетевой инфраструктуре, которые может быть особенно трудно отследить, если сервер работает как виртуальная машина. Чтобы защитить сеть от неавторизованных DHCP-серверов, работающих как виртуальные машины, можно включить охранник DHCP в параметрах виртуальных машин. Охранник DHCP обеспечивает защиту от вредоносных виртуальных машин выдающих себя за DHCP-серверы для проведения атак "злоумышленник в середине".
Дополнительные сведения:
Общие сведения об управлении IP-адресами (IPAM)
Задача 3. Определение конфигурации хранилища
Чтобы определить конфигурацию хранилища, необходимо определить типы данных, которые будут сохраняться виртуальными машинами, и нужный им тип хранилища.
Задача 3а. Определение типов данных
В таблице ниже перечислены типы данных, которые могут сохраняться виртуальной машиной, и места, где обычно сохраняются данные каждого типа.
Тип данных |
Место хранения данных |
---|---|
Файлы операционной системы |
В файле виртуального жесткого диска, который сохраняется в узле виртуализации. Вопросы, касающиеся хранения узла виртуализации, рассматриваются далее в разделе "Шаг 4. Планирование узлов серверов виртуализации" ниже. |
Файл подкачки Windows |
Часто хранится в том же месте, что и файлы операционной системы. |
Программные файлы приложений |
Часто хранится в том же месте, что и файлы операционной системы. |
Данные конфигурации приложений |
Часто хранится в том же месте, что и файлы операционной системы. |
Данные приложений |
Часто хранятся отдельно от файлов приложений и операционной системы. Например, в случае с приложением базы данных файлы базы данных часто хранятся в эффективном сетевом хранилище с высокой доступностью отдельно от места хранения файлов ОС и приложений. |
Кластерные общие тома (CSV) и диск-свидетель (необходимый для кластеризации гостевых виртуальных машин) |
Часто хранятся отдельно от файлов приложений и операционной системы.
|
Файлы аварийного дампа |
Часто хранятся в том же месте, что и файлы операционной системы. |
Задача 3б. Определение типов хранилищ
В таблице ниже перечислены типы хранилищ, которые могут использоваться для типов данных, определенных ранее в шаге 2, задаче 2а.
Тип хранилища |
Особенности |
---|---|
Виртуальный диск IDE |
Виртуальные машины первого поколения:
Виртуальные машины второго поколения не поддерживают устройства IDE. |
Виртуальный диск SCSI |
|
Инициатор iSCSI в виртуальной машине |
|
Виртуальный адаптер Fibre Channel |
|
SMB 3.0 |
Доступ к файлам, хранящимся в общих ресурсах Server Message Block (SMB) 3.0, из виртуальной машины. |
Задача 3в. Определение формата и типа виртуального жесткого диска
Если в качестве хранилища вы используете виртуальный жесткий диск, сначала нужно выбрать его формат из списка вариантов, приведенных в таблице ниже.
Формат диска |
Преимущества |
Недостатки |
---|---|---|
VHD |
|
|
|
|
|
Используется в качестве общего хранилища для кластеров гостевых виртуальных машин. |
|
Далее выберите тип диска из списка вариантов, приведенных в таблице ниже.
Тип диска |
Преимущества |
Недостатки |
---|---|---|
Фиксированный |
|
|
Динамический |
Используется не все предоставленное пространство, а лишь необходимое. |
|
Разностный |
Используемое место на диске может быть меньше, если несколько разностных дисков имеют один родительский. |
|
При выборе типа и формата виртуального жесткого диска примите во внимание указанные ниже факторы.
С форматом VHDX можно использовать динамический диск, так как он обеспечивает устойчивость и экономию места благодаря выделению пространства только при необходимости.
Фиксированный диск можно использовать вне зависимости от формата, если активный мониторинг хранилища на томе размещения не ведется. Таким образом обеспечивается наличие достаточного места при расширении файла VHD во время выполнения.
С помощью контрольных точек (ранее известных как моментальные снимки) виртуальной машины создается разностный виртуальный жесткий диск для сохранения записываемых данных. При малом количестве контрольных точек загрузка ЦП при операциях ввода-вывода с хранилищем может возрасти, но на производительность это может не повлиять заметно (кроме серверных рабочих нагрузок с высокой интенсивностью ввода-вывода).
Длинная цепочка контрольных точек может заметно повлиять на производительность, так как считывание данных с виртуальных жестких дисков может потребовать проверки запрошенных блоков на многих разностных дисках. Для обеспечения высокой производительности дисковых операций ввода-вывода цепочки контрольных точек должны быть достаточно короткими.
Задача 3г. Определение типа хранилища для каждого типа данных
Определив типы данных, сохраняемых виртуальными машинами, и типы хранилищ, вы можете решить, какой тип хранилища и какие формат и тип виртуального диска будут использоваться для каждого типа данных.
Задача 4. Определение стратегии доступности виртуальных машин
Хотя ответственность за доступность структуры несут ее администраторы, за доступность виртуальных машин отвечают администраторы виртуальных машин. Поэтому администратор виртуальных машин должен понимать возможности структуры, чтобы разработать надлежащую стратегию обеспечения доступности виртуальных машин.
В таблицах ниже анализируются три стратегии доступности виртуальных машин, в которых выполняются рабочие нагрузки с характеристиками, определенными в шаге 1, задаче 2 выше. Как правило, администратор структуры заранее сообщает администраторам виртуальных машин о запланированных простоях структуры, чтобы те могли соответствующим образом спланировать свои действия. Возможны три стратегии обеспечения доступности:
Без учета состояния
С учетом состояния
Общий доступ с учетом состояния
Без учета состояния
Option |
Особенности |
---|---|
Динамическая миграция виртуальных машин на уровне узла |
|
Кластеры с балансировкой нагрузки (на основе балансировки сетевой нагрузки Windows) |
|
Кластеры с балансировкой нагрузки (на основе устройства балансировки нагрузки) |
|
С учетом состояния
Option |
Особенности |
---|---|
|
Общий доступ с учетом состояния
При выполнении кластерных рабочих нагрузок можно обеспечить дополнительный уровень доступности, включив кластеризацию гостевых систем виртуальных машин. Кластеризация гостевых систем обеспечивает высокую доступность рабочих нагрузок в виртуальных машинах. Кластеризация гостевых систем защищает рабочую нагрузку, выполняющуюся в виртуальной машине, даже если во время ее работы происходит сбой узла. Так как рабочая нагрузка защищена с помощью отказоустойчивой кластеризации, она переносится в виртуальную машину на другом узле автоматически.
Option |
Особенности |
---|---|
|
Дополнительные сведения:
Развертывание гостевого кластера с помощью общего виртуального жесткого диска
Использование кластеризации гостевых систем для обеспечения высокой доступности
Аварийное восстановление
Как быстро в случае аварии вы можете восстановить выполнение рабочих нагрузок и обслуживание клиентов? В ряде случаев это необходимо сделать всего за несколько минут.
Для обеспечения репликации актуальных данных с допустимым уровнем потерь вследствие задержек требуется репликация из главных центров обработки данных в центры аварийного восстановления. Благодаря выполнению рабочих нагрузок в виртуальных машинах можно реплицировать виртуальные жесткие диски и файлы конфигурации виртуальных машин с основного сайта на сайт реплики.
В таблице ниже сравниваются различные варианты аварийного восстановления.
Option |
Особенности |
---|---|
Реплика Hyper-V |
|
Резервное копирование |
|
Примечания.
Для централизованного управления репликацией и ее автоматизации при использовании System Center 2012 R2 Virtual Machine Manager необходимо применять службу Microsoft Azure Site Recovery.
Для репликации виртуальных машин в Azure используйте службу Microsoft Azure Site Recovery. Функция репликации виртуальных машин в Azure в настоящее время находится в режиме предварительной версии.
Дополнительные сведения:
Внимание!
Используйте планировщик ресурсов реплики Hyper-V для анализа влияния реплики Hyper-V на сетевую инфраструктуру, загрузки процессоров на основных серверах, серверах репликации и серверах расширенной репликации, использования памяти на основных серверах и серверах репликации, а также скорости дисковых операций ввода-вывода на основных серверах, серверах репликации и серверах расширенной репликации в соответствии с существующими виртуальными машинами.
Рабочая нагрузка может иметь встроенное решение для аварийного восстановления, например группы доступности AlwaysOn в SQL Server. Чтобы проверить, поддерживается ли реплика Hyper-V рабочей нагрузкой, обратитесь к документации по рабочей нагрузке.
Дополнительные сведения:
System Center Data Protection Manager
Задача 5. Определение типов виртуальных машин
Для поддержки рабочих нагрузок в среде можно создать виртуальные машины с уникальными требованиями к ресурсам. Аналогичный подход можно применить в отношении поставщиков общедоступных служб размещения виртуальных машин (также называемых поставщиками инфраструктуры как услуги (IaaS)).
Описание конфигураций виртуальных машин, предлагаемых службами инфраструктуры Microsoft Azure, можно найти в статье Размеры виртуальных машин и облачных служб для Azure. На момент написания настоящего документа служба поддерживала 13 конфигураций виртуальных машин, каждая из которых характеризуется особым сочетанием процессоров, памяти, хранилища и показателей скорости ввода-вывода.
Проектное решение — решения, принимаемые при выполнении различных задач этого этапа, можно вводить на листе "Virtual machine configs" (Конфигурации виртуальных машин).
Шаг 3. Планирование групп узлов серверов виртуализации
Перед определением отдельных узлов серверов может потребоваться сначала определить группы узлов. Группа узлов — это просто именованный набор серверов, которые выполняют общие задачи, описываемые далее в этом шаге.
Задача 1. Определение физических расположений
Объединение аппаратных ресурсов и управление ими скорее всего будет осуществляться в соответствии с физическим расположением. Поэтому сначала нужно определить расположения внутри организации, где будут находиться ресурсы структуры.
Задача 2. Определение типов групп узлов
Узлы могут объединяться в группы по различным признакам. Например, можно создать группы узлов для размещения рабочих нагрузок, имеющих следующие общие признаки:
характеристики рабочих нагрузок;
требования к ресурсам;
требования к качеству обслуживания.
На рисунке ниже показана организация, в которой созданы пять групп узлов в двух расположениях.
Рис. 2.Пример групп узлов
Организация создала группы узлов по причинам, указанным в таблице ниже.
Группа узлов |
Причины создания |
---|---|
Рабочая нагрузка без учета и с учетом состояния |
|
Рабочие нагрузки с учетом и без учета состояния в бухгалтерском отделе |
Хотя конфигурация оборудования серверов в этой группе узлов такая же, как в других группах узлов с рабочими нагрузками без учета и с учетом состояния, в бухгалтерском отделе есть приложения, которые предъявляют более высокие требования к безопасности, чем в других отделах. Поэтому для них была создана выделенная группа узлов, которую можно защитить иначе, чем остальные группы узлов в структуре. |
Общие рабочие группы с учетом состояния |
Рабочие нагрузки, размещаемые в этой группе узлов, требуют общее хранилище, так как для обеспечения их доступности используется отказоустойчивая кластеризация в Windows Server. Эти рабочие нагрузки размещаются в выделенной группе узлов, так как конфигурация этих виртуальных машин отличается от конфигурации остальных виртуальных машин в организации. |
Рабочие нагрузки с учетом состояния и интенсивным вводом-выводом |
Узлы в этой группе подключены к более быстрым сетям, чем узлы в других группах. |
Хотя организация могла бы создать группы узлов, охватывающие несколько расположений, она предпочла разместить все члены каждой группы в одном расположении, чтобы упростить управление. Как видно в этом примере, группы узлов можно создавать по разным причинам, которые будут особыми в каждой организации. Чем больше типов групп узлов создано в организации, тем сложнее будет управлять средой, что в конечном итоге скажется на стоимости размещения виртуальных машин.
Совет. Чем более стандартизированным является оборудование серверов в пределах группы узлов, тем легче будет масштабировать и обслуживать группу в будущем. Если вы решили стандартизировать оборудование в пределах группы узлов, вы можете добавить описание стандартной конфигурации на листе "Host groups" (Группы узлов) в таблицах к руководству по вопросам разработки структуры виртуализации. Подробности о вопросах, связанных с физическим оборудованием, см в разделе Шаг 4. Планирование узлов серверов виртуализации.
Имейте в виду, что в настоящее время большинство поставщиков общедоступных облачных сред, размещающих виртуальные машины:
размещают только виртуальные машины, не требующие общего состояния;
часто предлагают всем клиентам только один набор показателей качества обслуживания;
не предлагают клиентам выделенное оборудование.
Мы рекомендуем вам начать с одного типа групп узлов с одинаковым оборудованием и добавлять дополнительные типы, только если преимущества от этого перевешивают затраты.
Задача 3. Определение необходимости в кластеризации членов группы узлов
В прошлом отказоустойчивая кластеризация в Windows Server использовалась только для повышения доступности серверов, однако в дальнейшем ее функциональные возможности значительно расширились. Информация, приведенная в таблице ниже, поможет вам решить, требуется ли кластеризовать члены группы узлов.
Option |
Преимущества |
Недостатки |
---|---|---|
Члены группы узлов входят в отказоустойчивый кластер |
|
|
Члены группы узлов не входят в отказоустойчивый кластер |
|
При сбое узла выполнявшиеся на нем виртуальные машины необходимо вручную (или с помощью каких-либо средств автоматизации) перенести в сохранивший работоспособность узел и перезапустить. |
Проектное решение — решения, принимаемые при выполнении различных задач этого этапа, можно вводить на листе "Settings" (Параметры).
Шаг 4. Планирование узлов серверов виртуализации
На этом этапе определяются типы узлов, требуемые для размещения виртуальных машин, которые вы планируете запускать в структуре виртуализации. Чтобы снизить затраты на приобретение и поддержку, желательно ограничить число конфигураций узлов (в некоторых ситуациях одной единственной конфигурацией). Приобретение неподходящего оборудования также повышает затраты на развертывание.
Cloud Platform System
Корпорация Майкрософт воплощает все свои знания и опыт эксплуатации нескольких крупнейших центов обработки данных и облачных служб в интегрированной и полностью проверенной конвергированной системе. Система Cloud Platform System (CPS) сочетает в себе набор признанного программного обеспечения Майкрософт — Windows Server 2012 R2, System Center 2012 R2 и Пакет Windows Azure — и оборудование Dell для серверов, хранилища и сетевой инфраструктуры облака. Представляя собой масштабируемую основу вашего облака, CPS сокращает время разработки и вывода на рынок, а также обеспечивает согласованную процедуру работы с облаком.
CPS предоставляет мультитенантную облачную среду на основе самообслуживания для решений типа "платформа как услуга" и виртуальных машин Windows и Linux, а также включает в себя оптимизированные пакеты развертывания для приложений Майкрософт, таких как SQL Server, SharePoint и Exchange. Встроенная интеграция уменьшает риск и уровень сложности, а также сокращает длительность развертывания с нескольких месяцев до нескольких дней. Упрощенный процесс поддержки и автоматизация типичных задач, связанных с инфраструктурой, также помогают высвободить ИТ-ресурсы и сконцентрироваться на инновациях.
Подробности см. на сайте Cloud Platform System.
Fast Track
Вместо разработки собственной конфигурации оборудования (и программного обеспечения) вы можете приобрести готовые конфигурации от различных партнеров по программе Microsoft Private Cloud Fast Track.
Fast Track — это совместная программа корпорации Майкрософт и ее партнеров по разработке оборудования, нацеленная на создание проверенных, заранее настроенных решений, которые позволяют снизить сложность и риски при внедрении структуры виртуализации и средств управления ею.
Программа Fast Track предлагает клиентам гибкие и разнообразные решения на базе технологий партнеров-поставщиков оборудования. Она предполагает использование базовых возможностей операционной системы Windows Server, технологии Hyper-V и Microsoft System Center для предоставления стандартных блоков, с помощью которых можно создавать инфраструктуру частного облака, предлагаемую в виде услуги.
Дополнительные сведения:
Сайт Microsoft Private Cloud Fast Track
Задача 1. Определение конфигурации вычислительных ресурсов
В рамках этой задачи определяется объем памяти, число процессоров и версия Windows Server для каждого узла. Число виртуальных машин, выполняемых на узле, будет определяться компонентами оборудования, рассматриваемыми в этом разделе.
Примечание. Для обеспечения полной поддержки решения все приобретаемое оборудование должно иметь эмблему "Certified for Windows Server" для используемой версии Windows Server.
Эмблема "Certified for Windows Server" свидетельствует о том, что серверная система отвечает высочайшим техническим требованиям Майкрософт к безопасности, надежности и управляемости. В сочетании с другими сертифицированными устройствами и драйверами она поддерживает роли, компоненты и интерфейсы для облачных и корпоративных рабочих нагрузок, а также критически важных бизнес-приложений.
Новейший список оборудования с эмблемой "Certified for Windows Server" можно найти в каталоге Windows Server.
Задача 1а. Определение характеристик процессоров
Hyper-V предоставляет логические процессоры каждой активной виртуальной машине в виде одного или нескольких виртуальных процессоров. Повысить эффективность выполнения можно с помощью процессоров, поддерживающих технологии преобразования адресов второго уровня (SLAT), такие как EPT или NPT. Hyper-V в Windows Server 2012 R2 поддерживает до 320 логических процессоров.
Замечания:
Для рабочих нагрузок, не загружающих процессор интенсивно, следует настроить использование одного виртуального процессора. Отслеживайте загрузку процессоров узла с течением времени, чтобы убедиться в максимально эффективном выделении процессоров.
Рабочим нагрузкам, интенсивно использующим ЦП, следует назначить два или более виртуальных процессора. Виртуальной машине можно назначить до 64 виртуальных процессоров. Число виртуальных процессоров, распознаваемое виртуальной машиной, зависит от ее операционной системы. Например, ОС Windows Server 2008 с пакетом обновления 2 (SP2) распознает только четыре виртуальных процессора.
Дополнительные сведения:
Настройка производительности серверов Hyper-V
Задача 1б. Определение памяти
Физическому серверу требуется достаточно памяти для размещения и выполнения виртуальных машин. Узлу требуется память для эффективного выполнения ввода-вывода от имени виртуальных машин и других операций, таких как создание контрольных точек виртуальных машин. Hyper-V обеспечивает доступность достаточного объема памяти для узла и позволяет выделять оставшуюся память виртуальным машинам. Размер виртуальных машин должен определяться исходя из планируемой нагрузки на каждую из них.
Низкоуровневая оболочка виртуализирует физическую память гостевой системы для изоляции виртуальных машин друг от друга и обеспечения для каждой операционной системы на виртуальной машине непрерывного, отсчитываемого от нуля пространства памяти, аналогичного пространствам в невиртуализированных системах. Чтобы обеспечить максимальную производительность, используйте оборудование на основе SLAT. Оно позволяет свести к минимуму издержки, связанные с виртуализацией памяти.
Определите размер памяти для виртуальных машин так же, как это обычно делается для серверных приложений на физическом компьютере. Объема памяти, выделяемого виртуальной машине, должно быть достаточно для ожидаемой нагрузки в обычное время и в пиковые периоды. Нехватка памяти может значительно увеличить время отклика и загрузку ЦП или подсистемы ввода-вывода.
При выделении памяти виртуальной машине сокращается объем памяти, доступный другим виртуальным машинам. Если на узле недостаточно свободной памяти, виртуальная машина не запустится.
Динамическая память позволяет достичь более высоких показателей консолидации и повысить надежность операций перезапуска. Это может привести к снижению затрат, особенно в средах с большим числом простаивающих виртуальных машин или виртуальных машин с низкой нагрузкой, например в средах VDI, организованных в виде пулов. Возможность изменения конфигурации динамической памяти во время выполнения позволяет сократить простои и повысить гибкость реагирования на изменения требований.
Подробности о динамической памяти см. в разделе Задача 1б. Определение памяти, в котором описывается, как определить память для виртуальной машины.
Дополнительные сведения:
Обзор виртуальной архитектуры NUMA
Задача 1в. Определение выпуска операционной системы Windows Server
Наборы функций в Windows Server Standard и Windows Server Datacenter абсолютно одинаковы. Windows Server Datacenter предоставляет неограниченное количество виртуальных машин. В Windows Server Standard число виртуальных машин ограничено двумя.
В Windows Server 2012 R2 появилась функция автоматической активации виртуальных машин (AVMA). AVMA позволяет устанавливать виртуальные машины на надлежащим образом активированных серверах без необходимости управления ключами продуктов для каждой виртуальной машины даже в разрозненных средах.
Для использования AVMA необходимо, чтобы операционной системой на виртуальной машине была Windows Server 2012 R2 Datacenter, Windows Server 2012 R2 Standard или Windows Server 2012 R2 Essentials. В таблице ниже сравниваются выпуски ОС.
Выпуск |
Преимущества |
Недостатки |
---|---|---|
Standard |
|
Число виртуальных машин ограничено двумя. |
Datacenter |
|
Выше стоимость. |
Hyper-V можно установить, выбрав вариант "Установка основных серверных компонентов" в Windows Server. Этот вариант сокращает требования к свободному пространству на диске, уменьшает поле для потенциальных атак и, самое главное, снижает требования к обслуживанию. При его выборе управление сервером осуществляется с помощью командной строки, Windows PowerShell или удаленными методами.
Важно изучить условия лицензии на программное обеспечение, которое вы планируете использовать.
Microsoft Hyper-V Server
Microsoft Hyper-V Server предоставляет простое и надежное решение виртуализации, помогающее организациям повысить эффективность использования серверов и сократить затраты. Это отдельный продукт, который включает в себя только низкоуровневую оболочку Windows, модель драйверов Windows Server и компоненты виртуализации.
Решение Hyper-V Server может быть интегрировано в существующую ИТ-среду клиента с использованием имеющихся процессов подготовки и управления, а также средств поддержки. Оно поддерживает те же возможности оборудования, что и соответствующие выпуски Windows Server, и полностью интегрируется с технологиями Microsoft System Center и Windows, такими как Центр обновления Windows, Active Directory и отказоустойчивая кластеризация.
Hyper-V Server доступен для бесплатного скачивания и не требует активации после установки. Однако каждая операционная система, выполняющаяся в размещенной виртуальной машине, требует наличия лицензии.
Дополнительные сведения:
Автоматическая активация виртуальных машин
Удаленное управление Hyper-V Server
Задача 2. Определение конфигурации сети
В шаге 2, задаче 2 выше мы рассмотрели вопросы, связанные с проектированием сетевого взаимодействия виртуальных машин. Теперь мы обсудим особенности сетевого взаимодействия узла. При развертывании Hyper-V необходимо принять во внимание несколько типов сетевого трафика. Разрабатывая конфигурацию сети, следует ставить перед собой следующие цели:
обеспечения качества обслуживания сети;
обеспечение избыточности сети;
изоляция трафика между сетями.
Задача 2а. Определение типов сетевого трафика
При развертывании кластера Hyper-V необходимо спланировать несколько типов сетевого трафика. В таблице ниже приводятся общие сведения о них.
Тип трафика |
Описание |
---|---|
Управление |
|
Кластер и общие тома кластера |
|
Динамическая миграция |
Используется для динамической миграции виртуальных машин и динамической миграции без общих ресурсов. |
Хранилище |
Используется для трафика SMB или iSCSI. |
Реплика |
Используется для передачи трафика репликации виртуальных машин с помощью реплики Hyper-V. |
Трафик виртуальной машины (клиента) |
Примечание. Список типов трафика виртуальных машин см. в разделе Шаг 2. Планирование конфигурации виртуальных машин. |
Резервное копирование |
Используется для резервного копирования файлов виртуальных жестких дисков. |
Задача 2б. Определение производительности для сетевого трафика
Каждый тип сетевого трафика предъявляет определенные требования к максимальной и минимальной пропускной способности и минимальной задержке. Ниже приведены стратегии, с помощью которых можно обеспечить выполнение различных требований к производительности сети.
Качество обслуживания на основе политик
При развертывания кластера Hyper-V требуется по крайней мере шесть моделей трафика или сетей. Каждая сеть должна обладать избыточностью. Для начала на узле требуется 12 сетевых адаптеров. Можно установить несколько счетверенных адаптеров, но рано или поздно все слоты на узле окажутся заняты.
Сетевое оборудование становится быстрее. Не так давно передовыми считались сетевые адаптеры со скоростью 1 Гбит/с. Сейчас на серверах все чаще встречаются адаптеры со скоростью 10 Гбит/с, а цены на поддержку инфраструктуры с такой скоростью становятся все более доступными.
Два объединенных сетевых адаптера со скоростью 10 Гбит/с обеспечивают большую пропускную способность, чем два счетверенных адаптера со скоростью 1 Гбит/с. Кроме того они занимают меньше портов коммутатора и упрощают кабельное подключение. В условиях, когда объединенные сетевые адаптеры со скоростью 10 Гбит/с используются для передачи все более разнообразных типов сетевого трафика, качество обслуживания на основе политик позволяет управлять сетевым трафиком для удовлетворения потребностей инфраструктуры виртуализации.
Качество обслуживания на основе политик дает возможность регулировать пропускную способность сети в соответствии с типом приложений, пользователями и компьютерами. Политики качества обслуживания позволяют выполнять требования к обслуживанию рабочей нагрузки или приложения путем измерения пропускной способности сети, отслеживания изменений состояния сети (например, используемой или доступной пропускной способности) и определения приоритетов (или регулирования) сетевого трафика.
Помимо возможности установки максимальной пропускной способности, политики качества обслуживания в Windows Server 2012 R2 предоставляют новую функцию управления пропускной способностью: задание ее минимального значения. В отличие от максимальной пропускной способности, минимальная задает нижний предел. Таким образом типу трафика гарантированно выделяется определенная пропускная способность. Вы можете одновременно установить и минимальный, и максимальный пределы пропускной способности.
Преимущества |
Недостатки |
---|---|
|
|
Дополнительные сведения:
Обзор качества обслуживания (QoS)
Качество обслуживания на основе политик
Data Center Bridging
Мост для центра обработки данных (DCB) обеспечивает распределение пропускной способности на основе оборудования конкретным видам трафика и повышает надежность передачи Ethernet с помощью управления потоками на основе приоритета. DCB рекомендуется при использовании FCoE и iSCSI.
Преимущества |
Недостатки |
---|---|
|
|
Дополнительные сведения:
Обзор моста для центра обработки данных (DCB)
SMB Direct
SMB Direct (SMB с удаленным доступом к памяти (RDMA)) — это протокол хранения данных в Windows Server 2012 R2. Он обеспечивает прямую передачу данных из памяти в память между сервером и хранилищем. Он минимально загружает ЦП и использует стандартные сетевые адаптеры с поддержкой RDMA. Таким образом обеспечивается крайне быстрый ответ на сетевые запросы. В результате по времени ответа удаленное файловое хранилища не уступает непосредственно подключенному блочному хранилищу.
Преимущества |
Недостатки |
---|---|
|
|
Объединение полученных сегментов
Объединение полученных сегментов (RSC) уменьшает загрузку ЦП при обработке входящего сетевого трафика благодаря переносу задач с ЦП на сетевой адаптер с поддержкой RSC.
Преимущества |
Недостатки |
---|---|
|
|
Масштабирование на стороне приема
Масштабирование на стороне приема (RSS) позволяет сетевым адаптерам распределять нагрузку, связанную с обработкой сетевого трафика в режиме ядра, между несколькими ядрами процессора в компьютерах с многоядерными ЦП. Распределенная обработка позволяет поддерживать более высокую нагрузку сетевого трафика, чем при использовании одного ядра. Для этого функция RSS распределяет нагрузку, связанную с обработкой сетевого трафика, между несколькими процессорами и осуществляет активную балансировку нагрузки для трафика, передача которого завершается по протоколу TCP.
Преимущества |
Недостатки |
---|---|
|
|
SR-IOV
Hyper-V поддерживает сетевые устройства с поддержкой SR-IOV и позволяет напрямую назначать виртуальную функцию SR-IOV физического сетевого адаптера виртуальной машине. Благодаря этому увеличивается пропускная способность сети, сокращаются задержки в сети и уменьшается загрузка ЦП узла, связанная с обработкой сетевого трафика.
Подробности об SR-IOV см. в разделе Задача 2б. Определение производительности для сетевого трафика выше.
Задача 2в. Определение стратегии обеспечения высокой доступности сети и агрегирования пропускной способности
Объединение сетевых карт, известное также под названием балансировки нагрузки и обеспечения отказоустойчивости (LBFO), позволяет группировать несколько сетевых адаптеров в целях агрегирования пропускной способности и обеспечения отказоустойчивости при передаче трафика. Это позволяет избежать потери связи при отказе сетевого компонента.
Эта функция предоставлялась поставщиками сетевых адаптеров. Объединение сетевых карт, появившееся в Windows Server 2012, теперь входит в состав функций операционной системы Windows Server.
Объединение сетевых карт совместимо со всеми сетевыми возможностями Windows Server 2012 R2, кроме следующих трех:
SR-IOV;
RDMA;
Проверка подлинности 802.1X.
Если говорить о масштабируемости, в Windows Server 2012 R2 в одну группу можно включить от 1 до 32 сетевых адаптеров. На одном узле можно создать неограниченное число групп.
Дополнительные сведения:
Обзор объединения сетевых карт
Виртуальная академия Майкрософт: объединение сетевых карт в Windows Server 2012
Командлеты объединения сетевых карт (NetLBFO) в Windows PowerShell
Развертывание объединения сетевых карт (LBFO) Windows Server 2012 R2 и управление им
Конвергентный центр обработки данных с хранилищем файлового сервера
Задача 2г. Определение стратегии изоляции и защиты сетевого трафика
Каждый тип сетевого трафика может иметь особые требования к безопасности, например, связанные с изоляцией и шифрованием. В таблице ниже перечислены стратегии, с помощью которых можно обеспечить выполнение различных требований к безопасности.
Стратегия |
Преимущества |
Недостатки |
---|---|---|
Шифрование (IPsec) |
Трафик защищается при передаче по проводам. |
|
Отдельные физические сети. |
Сеть отделена физически. |
|
Виртуальная локальная сеть |
|
|
Задача 2д. Определение виртуальных сетевых адаптеров
Определив типы трафика, которые требуются узлам серверов виртуализации, а также стратегии обеспечения производительности, доступности и безопасности трафика, вы можете решить, сколько физических сетевых адаптеров необходимо для каждого узла и сетевой трафик каких типов будет передаваться через каждый адаптер.
Задача 2е. Определение виртуальных коммутаторов
Чтобы подключить виртуальную машину к сети, вам нужно подключить сетевой адаптер к виртуальному коммутатору Hyper-V.
В Hyper-V можно создать виртуальные коммутаторы трех типов:
Внешний виртуальный коммутатор
Используйте внешний виртуальный коммутатор, если виртуальным машинам нужно предоставить доступ к физической сети для обмена данными с внешними серверами и клиентами. Виртуальный коммутатор этого типа также позволяет виртуальным машинам на одном узле обмениваться данными друг с другом. Этот тип сети также может быть доступен для использования операционной системой сервера виртуальных машин в зависимости от настройки сетевого взаимодействия.
Внимание! Физический сетевой адаптер одновременно может быть привязан только к одному виртуальному коммутатору.
Внутренний виртуальный коммутатор
Используйте внутренний виртуальный коммутатор, если нужно обеспечить обмен данными между виртуальными машинами на одном узле, а также между виртуальными машинами и операционной системой сервера виртуальных машин. Виртуальный коммутатор этого типа обычно используется для создания тестовой среды, в которой нужно подключаться к виртуальным машинам из операционной системы сервера виртуальных машин. Внутренний виртуальный коммутатор не привязан к физическому сетевому адаптеру. Поэтому внутренняя виртуальная сеть изолирована от внешнего сетевого трафика.
Частный виртуальный коммутатор
Используйте частный виртуальный коммутатор, если нужно обеспечить обмен данными только между виртуальными машинами на одном узле. Частный виртуальный коммутатор не привязан к физическому сетевому адаптеру. Частный виртуальный коммутатор изолирован от всего внешнего сетевого трафика на сервере виртуализации и от всего сетевого трафика между операционной системой сервера виртуальных машин и внешней сетью. Сеть этого типа полезна, если нужно создать изолированную сетевую среду, например изолированный тестовый домен.
Примечание. Частные и внутренние виртуальные коммутаторы не используют возможности аппаратного ускорения, которые доступны виртуальным машинам, подключенным к внешнему виртуальному коммутатору.
Проектное решение — решения, принимаемые при выполнении различных задач этого этапа, можно вводить на листе "Virtualization hosts" (Узлы виртуализации).
Совет. Виртуальные коммутаторы на разных узлах, подключающиеся к одной сети, должны иметь одинаковые имена. Это позволяет избежать путаницы при определении виртуального коммутатора, к которому должна подключаться виртуальная машина, и упрощает перенос виртуальной машины с одного узла на другой. Командлет Windows PowerShell Move-VM завершится сбоем, если на целевом узле не будет найден виртуальный коммутатор с тем же именем.
Задача 3. Определение конфигурации хранилища
Помимо хранилища, необходимого операционной системе сервера виртуальных машин, каждому узлу требуется доступ к хранилищу с файлами конфигурации виртуальных машин и виртуальными жесткими дисками. В рамках этой задачи будет рассмотрено хранилище для виртуальных машин.
Задача 3а. Определение типов данных
Ниже приведены примеры типов данных, которые необходимо учесть при определении требований к хранилищу.
Тип данных |
Место хранения данных |
---|---|
Файлы операционной системы сервера виртуальных машин |
Обычно на локальном жестком диске |
Файл подкачки узла и аварийные дампы в Windows |
Обычно локальный жесткий диск |
Общее состояние отказоустойчивого кластера |
Общее сетевое хранилище или общий том кластера |
Файлы виртуальных жестких дисков и файл конфигурации виртуальных машин |
Обычно общее сетевое хранилище или общий том кластера |
Далее в этом шаге рассматривается хранилище, необходимое для виртуальных машин.
Задача 3б. Варианты хранилищ
Для хранения файлов конфигурации виртуальных машин и виртуальных жестких дисков доступны приведенные ниже варианты.
Вариант 1. Непосредственно подключенное хранилище
Под непосредственно подключенным хранилищем понимается компьютерная система хранения данных, подключенная непосредственно к серверу, а не к сети. Непосредственно подключенные хранилища не ограничиваются только внутренними хранилищами. Это также могут быть внешние дисковые модули с жесткими дисками, включая модули JBOD и модули, подключенные через SAS или другой дисковый контроллер.
Преимущества |
Недостатки |
---|---|
|
|
Вариант 2. Запоминающее устройство, подключаемое к сети
Запоминающие устройства, подключаемые к сети, обеспечивают подключение хранилища к сети, в которой они доступны посредством общих файловых ресурсов. В отличие от непосредственно подключенных хранилищ, они не подключаются к компьютеру напрямую.
Запоминающие устройства, подключаемые к сети, поддерживают подключения Ethernet и обычно позволяют администратору управлять дисковым пространством, устанавливать дисковые квоты, обеспечивать безопасность и использовать технологии контрольных точек. Запоминающие устройства, подключаемые к сети, поддерживают множество протоколов. В их число входят файловые системы, подключаемые к сети, CIFS и SMB.
Преимущества |
Недостатки |
---|---|
|
|
Вариант 3. Сеть хранения данных
Сеть хранения данных (SAN) — это специальная сеть, которая обеспечивает общий доступ к хранилищу. Сеть SAN состоит из запоминающего устройства, связующей сетевой инфраструктуры (коммутаторов, адаптеров шины и кабелей) и серверов, подключающихся к сети. Устройства SAN обеспечивают быстрый непрерывный доступ к большим объемам данных. Механизм взаимодействия и передачи данных для конкретного развертывания обычно называется структурой хранилища.
Для SAN используется отдельная сеть, которая обычно недоступна другим устройствам через локальную сеть. Сетью SAN можно управлять с помощью протокола SMI-S, SNMP или собственного протокола управления.
Сеть SAN не обеспечивает файловый уровень абстракции, позволяя выполнять операции только на уровне блоков. К самым распространенным протоколам SAN относятся iSCSI, Fiber Channel и Fiber Channel over Ethernet (FCoE). Протокол SMI-S или собственный протокол управления может предоставлять дополнительные возможности, такие как разделение дисков на зоны, сопоставление дисков, маскировка LUN и устранение сбоев.
Преимущества |
Недостатки |
---|---|
|
|
Вариант 4. Общие файловые ресурсы SMB 3.0
В Hyper-V файлы виртуальных машин, например файлы конфигурации, файлы виртуальных жестких дисков и контрольные точки, могут храниться в общих файловых ресурсах, использующих протокол SMB 3.0. Для обеспечения избыточности общие файловые ресурсы обычно размещаются на горизонтально масштабируемом файловом сервере. Если в процессе работы горизонтально масштабируемого файлового сервера один из узлов отключается, общие файловые ресурсы по-прежнему доступны из других узлов сервера.
Преимущества |
Недостатки |
---|---|
|
|
SMB Direct
SMB Direct является встроенной функцией общих файловых ресурсов SMB. Для обеспечения доступа к хранилищу с максимальной скоростью и низкой задержкой SMB Direct требует сетевые адаптеры и коммутаторы, поддерживающие RDMA. SMB Direct позволяет удаленным файловым серверам работать так же, как локальное и непосредственно подключенное хранилище. Помимо преимуществ SMB, SMB Direct имеет перечисленные ниже преимущества и недостатки.
Преимущества |
Недостатки |
---|---|
|
|
Рис. 3.Пример горизонтально масштабируемого файлового сервера, использующего конвергентную сеть с RDMA
Дополнительные сведения:
Предоставление экономичного хранилища для рабочих нагрузок Hyper-V с помощью Windows Server
Конвергентный центр обработки данных с хранилищем файлового сервера
Задача 3в. Определение типов архитектуры физических дисков
Тип архитектуры физических дисков, выбранный для хранилища, влияет на производительность решения для хранения данных. Подробности о типах дисков см. в разделе 7.1 статьи Архитектура семейства продуктов "инфраструктура как услуга".
Задача 3г. Определение типа сети хранилища
Используемые типы контроллеров хранилища или контроллеров сети хранилища зависят от варианта хранилища, выбранного для каждой группы узлов. Подробнее см. в разделе Задача 3б. Варианты хранилищ.
Задача 3д. Определение типа хранилища для каждого типа данных
Определив типы данных, можно решить, какой вариант хранилища, контроллеры хранилища, контроллеры сети хранилища и архитектура физических дисков лучше всего отвечают вашим требованиям.
Проектное решение — решения, принимаемые при выполнении этой задачи, можно вводить на листе "Virtualization hosts" (Узлы виртуализации).
Дополнительные сведения:
Конфигурации сетей для Hyper-V по SMB в Windows Server 2012 и Windows Server 2012 R2
Плакат с архитектурой компонентов Windows Server 2012 Hyper-V и сопутствующая справочная информация
Задача 4. Определение единиц масштабирования для узлов серверов виртуализации
Если приобретать отдельные серверы, то каждый из них потребуется устанавливать и настраивать. Единицы масштабирования позволяют покупать наборы предварительно настроенных серверов (обычно имеющих одинаковое оборудование). Таким образом вы можете увеличивать емкость центра обработки данных, добавляя единицы масштабирования, а не отдельные серверы.
На рисунке ниже показана единица масштабирования, которую можно было бы приобрести у многих поставщиков оборудования. Он включает в себя стойку, источник бесперебойного питания (ИБП), два сетевых коммутатора (основной и резервный) для серверов в стойке и десять серверов.
Рис. 4.Пример единицы масштабирования узла серверов виртуализации
Единица масштабирования поставляется в предварительно настроенном состоянии и уже подключена к ИБП и сетевым коммутаторам. Ее нужно просто добавить в центр обработки данных и подключить к электросети, сети передачи данных и хранилищу. После этого она готова к использованию. Если приобретать отдельные компоненты не в составе единицы масштабирования, то их потребуется монтировать в стойке и подключать самостоятельно.
Проектное решение — если вы решили использовать единицы масштабирования узла сервера виртуализации, то вы можете определить требуемое для них оборудование на листе "Host scale units" (Единицы масштабирования узла).
Совет. Вы можете приобрести предварительно настроенные единицы масштабирования у различных партнеров Майкрософт по разработке оборудования в рамках программы Microsoft Private Cloud Fast Track.
Задача 5. Определение стратегии доступности для узлов серверов виртуализации
Недоступность узлов серверов виртуализации может быть вызвана плановыми процедурами (например, обслуживанием) или незапланированными происшествиями. Ниже описываются стратегии, которые можно применять в обоих случаях.
Запланировано
Вы можете использовать динамическую миграцию для переноса виртуальных машин с одного узла на другой. При этом виртуальные машины не простаивают.
Незапланированные ситуации
Стратегия в этом сценарии зависит от характеристик рабочих нагрузок, размещенных на узле.
Для общих рабочих нагрузок с учетом состояния используйте отказоустойчивую кластеризацию в виртуальных машинах.
Для рабочих нагрузок с учетом состояния используйте высокодоступные виртуальные машины в кластере Hyper-V.
Для рабочих нагрузок без учета состояния запускайте новые экземпляры вручную или с помощью каких-либо средств автоматизации.
Если вы применяете отказоустойчивую кластеризацию в Windows Server с Hyper-V, решите, следует ли использовать функции, перечисленные в таблице ниже. Чтобы узнать больше о каждой функции, щелкните гиперссылку.
Функция |
Особенности |
---|---|
Отслеживайте виртуальную машину для обнаружения сбоев сети и хранилища, которые не отслеживаются службой отказоустойчивой кластеризации. |
|
|
|
Запрет близости виртуальных машин |
Установите запрет близости для виртуальных машин, которые не должны выполняться на одном и том же узле кластера Hyper-V. Это можно сделать для виртуальных машин, обеспечивающих избыточность службы или входящих в гостевой кластер виртуальных машин. Примечание. Параметры запрета близости настраиваются с помощью Windows PowerShell. |
|
|
|
|
Еще одной причиной установки приоритетов для виртуальных машин является то, что служба кластеров может отключить виртуальную машину с низким приоритетом, если для запуска виртуальной машины с более высоким приоритетом недостаточно памяти или других ресурсов.
|
Примечание. Кластеры Hyper-V могут содержать не более 64 узлов и 8 000 виртуальных машин.
Шаг 5. Планирование особенностей архитектуры структуры виртуализации
На этом этапе разрабатывается логическая концепция, в соответствии с которой будет строиться архитектура структуры.
Задача 1. Определение доменов обслуживания
Домены обслуживания — это логические наборы серверов, которые обслуживаются вместе. Обслуживание может состоять в модернизации оборудования, обновлении программного обеспечения или изменении конфигурации. Домены обслуживания обычно совпадают по охвату с группами узлов определенного типа или в определенном расположении, хотя это не обязательно. Их цель — предотвратить негативные последствия от обслуживания серверов для рабочих нагрузок.
Примечание. Эта концепция относится к физическим компонентам сети и хранилища.
Задача 2. Определение физических доменов сбоя
Группы узлов серверов виртуализации часто отказывают вместе из-за сбоя общего компонента инфраструктуры, например сетевого коммутатора или источника бесперебойного питания (ИБП). Физические домены сбоя помогают обеспечить отказоустойчивость структуры виртуализации. Важно понимать, как домен сбоя влияет на каждую из групп узлов, определенных для структуры.
Примечание. Эта концепция относится к физическим компонентам сети и хранилища.
Рассмотрите пример на рисунке ниже. На нем показан набор групп узлов в центре обработки данных, на который наложены домены обслуживания и физические домены сбоя.
Рис. 5.Пример определения доменов обслуживания и физических доменов сбоя
В этом примере каждая стойка серверов определена как отдельный физический домен сбоя, имеющий свой номер. Связано это с тем, что каждая стойка содержит сетевой коммутатор вверху и ИБП внизу. Работа всех серверов в стойке зависит от этих двух компонентов. Если откажет один их них, откажут и все серверы в стойке.
Так как все серверы в стойке также входят в уникальные группы узлов, такая конструкция не предусматривает ограничения возможных проблем в случае выхода из строя любого из физических доменов сбоя. Чтобы ограничить проблемы, можно добавить физические домены сбоя для каждого типа групп узлов. В средах меньшего размера в каждую стойку можно добавить резервные коммутаторы и источники питания или воспользоваться отказоустойчивой кластеризацией для узлов серверов виртуализации, относящихся к разным физическим доменам сбоя.
На рис. 5 каждый домен обслуживания (они обозначены MD 1–5) обведен цветной пунктирной линией. Обратите внимание, что каждый сервер в кластере виртуальных машин с балансировкой нагрузки размещен в узле серверов виртуализации, входящем в отдельный домен обслуживания и отдельный физический домен сбоя.
Это позволяет администратору структуры отключать все узлы серверов виртуализации в домене обслуживания без значительных последствий для приложений, выполняющихся на нескольких серверах, относящихся к разным доменам обслуживания. Это также означает, что приложение, выполняющееся в кластере с балансировкой нагрузки, не станет полностью недоступным в случае отказа физического домена сбоя.
Проектное решение — решения, принимаемые при выполнении задач 1 и 2, можно вводить на листе "Settings" (Параметры).
Задача 3. Определение резервной мощности
Отказы отдельных серверов в структуре неизбежны. Конструкция структуры должна предусматривать сбои отдельных серверов, так же как она предусматривает сбои наборов серверов в доменах сбоя и обслуживания. Приведенный ниже рисунок аналогичен рисунку 5, но на нем красным отмечены три неисправных сервера.
Рис. 6.Неисправные серверы
На рис. 6 узлы серверов виртуализации отказали в перечисленных ниже группах узлов, доменах обслуживания и физических доменах сбоя.
Группа узлов |
Физический домен сбоя |
Домен обслуживания |
---|---|---|
2 |
2 |
3 |
3 |
3 |
2 |
4 |
4 |
2 |
Приложение, выполняющееся в кластере с балансировкой нагрузки, по-прежнему доступно, даже несмотря на отказ узла в физическом домене сбоя 2, но его мощность уменьшилась на треть.
Рассмотрим, что произойдет, если узел серверов виртуализации, в котором размещается одна из виртуальных машин из физического домена сбоя 3, также откажет или если домен обслуживания 2 будет отключен для обслуживания. В этих случаях мощность приложения уменьшится на 2/3.
Вы можете решить, что это недопустимо для вашей структуры виртуализации. Чтобы смягчить последствия отказа серверов, можно обеспечить достаточную резервную мощность в каждом физическом домене сбоя и домене обслуживания. Таким образом, мощность никогда не будет опускаться ниже определенного допустимого уровня.
Подробности о расчете резервной мощности см. в разделе Резервная мощность в статье "Эталонная архитектура платформы облачных служб — принципы, понятия и шаблоны".
Шаг 6. Планирование начальных характеристик
Выполнив все описанные в этом документе задачи, вы сможете определить начальные затраты на размещение виртуальных машин и хранилища в структуре, а также исходные уровни качества обслуживания, которые может обеспечить структура. Однако вы не сможете завершить ни одну из этих задач, пока не обеспечите наличие средств управления структурой и персонала, которые рассматриваются в разделе "Дальнейшие действия" этого документа.
Задача 1. Определение начальных показателей соглашения об уровне обслуживания для хранилища и виртуальных машин
Администратору структуры может быть необходимо разработать соглашение об уровне обслуживания (SLA), в котором описываются показатели качества обслуживания для структуры. Для планирования использования структуры администраторы виртуальных машин должны быть ознакомлены с этим соглашением.
Соглашение, скорее всего, будет включать в себя по крайней мере показатель доступности, но может содержать и другие показатели. Чтобы получить представление о базовых показателях SLA для структуры виртуализации, вы можете изучить соглашения, предлагаемые поставщиками общедоступных облачных служб, такими как Microsoft Azure. В случае с размещением виртуальных машин соглашение SLA гарантирует, что когда клиент развертывает два или несколько экземпляров виртуальной машины для выполнения одной рабочей нагрузки в разных доменах сбоя и обновления (называемых в этом документе доменами обслуживания), по крайней мере одна из этих виртуальных машин будет доступна в течение 99,95 % времени.
Полное описание соглашения SLA Azure см. на странице Соглашения об уровне обслуживания. В идеале показатели вашей структуры виртуализации должны быть не ниже показателей поставщиков общедоступных облачных служб.
Задача 2. Определение начальных затрат на размещение хранилища и виртуальных машин
Спроектировав структуру, вы также сможете рассчитать следующие значения:
затраты на оборудование, помещения, электропитание и охлаждение структуры;
емкость размещения структуры.
Эта информация в сочетании с другими затратами, например на средства управления структурой и персонал, позволит вам определить итоговую стоимость размещения виртуальных машин и хранилища.
Чтобы получить представление о базовых затратах на виртуальные машины и хранилище, вы можете изучить стоимость размещения у поставщиков общедоступных облачных служб, таких как Microsoft Azure. Подробности см. на странице Сведения о расценках на виртуальные машины.
Хотя это и не всегда так, но обычно ваши затраты на размещение будут выше, чем расценки поставщиков общедоступных служб, так как ваша структура гораздо меньше, чем у этих поставщиков, получающих оптовые скидки при покупке оборудования, электроэнергии и помещений для центра обработки данных.
Дальнейшие действия
Выполнив все описанные в этом документе задачи, вы получите проект структуры, отвечающий требованиям вашей организации. Вы также определите начальные характеристики, которые включают в себя показатели затрат и уровня обслуживания. Вы не сможете определить итоговые показатели уровня обслуживания и затраты, пока не установите затраты на персонал, а также средства и процессы управления структурой.
Microsoft System Center 2012 предоставляет исчерпывающий набор возможностей по подготовке, мониторингу и обслуживанию структуры виртуализации. Чтобы узнать больше об использовании System Center для управления структурой, обратитесь к следующим ресурсам: