Windows Server 2008

Wprowadzenie do Hyper-V w systemie Windows Server 2008 Udostępnij na: Facebook

Autor: Rajiv Arunkundram

Opublikowano: 24 października 2008

Zawartość strony
 Rynek wirtualizacji serwerów   Rynek wirtualizacji serwerów
 Jak działa wirtualizacja serwera   Jak działa wirtualizacja serwera
 Typy rozwiązań wirtualizacji   Typy rozwiązań wirtualizacji
 Hiperwizor Windows   Hiperwizor Windows
 Partycja nadrzędna   Partycja nadrzędna
 Architektura współużytkowania urządzeń   Architektura współużytkowania urządzeń
 Komponenty integrujące   Komponenty integrujące
 Zestaw funkcji Hyper-V   Zestaw funkcji Hyper-V
 Skalowalność   Skalowalność
 Wysoka dostępność   Wysoka dostępność
 Bezpieczeństwo   Bezpieczeństwo
 Zarządzalność   Zarządzalność
 Podsumowanie   Podsumowanie

Ostatnio dużo mówiło się na temat wirtualizacji, a większość dyskusji dotyczyła zwłaszcza wirtualizacji serwera. Jest to jeden z najbardziej fascynujących trendów w branży, który może w ciągu kilku następnym kilku lat zmienić model wdrażania systemów IT. Lecz wirtualizacja serwera nie tylko zmieni sposób myślenia administratorów i architektów o wykorzystaniu serwerów i systemów, lecz także będzie miała wpływ na procesy i narzędzia stosowane do zarządzania, które z pewnością stają się środowiskiem coraz bardziej dynamicznym.

Tak naprawdę wirtualizacja istnieje już od jakiegoś czasu, lecz jej technologia nadal się rozwija. W rzeczywistości samo słowo wirtualizacja nadal oznacza różne rzeczy dla różnych ludzi. Jednak w szerszych kategoriach wirtualizacja dotyczy wyodrębniania jednej warstwy technologii ze stosu technologii z następnej warstwy, tak jak pamięci z serwerów lub systemu operacyjnego z aplikacji. Wyodrębnianie różnych warstw umożliwia z kolei konsolidację i lepsze możliwości zarządzania.

Pojęcie wirtualizacji stosuje się do pamięci, sieci, serwerów, aplikacji oraz dostępu. Kiedy popatrzymy na pamięć oraz sieci, to celem wirtualizacji jest zebranie różnych urządzeń tak, aby całkowita pula zasobów wyglądała i działała jak pojedyncza jednostka. Na przykład można skonfigurować rozwiązanie z 40 TB pamięci zamiast zestawu 20 urządzeń pamięci po 2 TB. Jednak w przypadku innych komponentów wirtualizacja działa w przeciwnym kierunku, pomagając nam w tworzeniu pojedynczego systemu, który wydaje się być wieloma systemami. Najbardziej popularnym tego przykładem jest wirtualizacja serwera, z pojedynczymi egzemplarzami wielu systemów operacyjnych oraz środowisk na pojedynczym serwerze.

Microsoft podszedł do wirtualizacji na wielu różnych poziomach, rozciągających się od pulpitu po centrum danych z rozwiązaniami dla wirtualizacji serwera, wirtualizacji aplikacji, wirtualizacji prezentacji oraz wirtualizacji pulpitu. Wspólnym wątkiem w nich wszystkich jest zarządzanie za pomocą Microsoft System Center. W tym artykule koncentruję się na komponencie wirtualizacji serwera, a w szczególności na tym, jak Hyper-V, kluczowa funkcja Windows Server 2008, pasuje do równania na dynamiczne centrum danych.

Rynek wirtualizacji serwerów

Po pierwsze, warto przyjrzeć się temu, co istnieje w dzisiejszym środowisku oraz w którą stronę kieruje się cały rynek. Według analiz szacuje się, że od 5 do 9 procent serwerów fizycznych obecnie sprzedawanych używanych jest jako hosty wirtualizacji (w różnych badaniach możemy przeczytać różne liczby). Można traktować to jako znaczną część systemów na rynku, na który co roku dostarcza się ponad dziewięć milionów serwerów fizycznych. Lecz jedna rzecz jest pewna: nadal istnieją ogromne możliwości rynkowe, ponieważ coraz więcej klientów jest zadowolonych z wirtualizacji i chce ją stosować.

Ważne jest, aby zauważyć, gdzie wirtualizacja znajduje zastosowanie. Klienci firmowi z pewnością ponoszą koszty testowania oraz będą wczesnymi użytkownikami. Jednak wirtualizację wdrażają również małe i średnie przedsiębiorstwa. Przyjmowanie wirtualizacji rozciąga się na różne typy obciążenia pracą – od aplikacji biznesowych i zarządzania do sieci Web i poczty e-mail.

Dlaczego więc tak głośno teraz o wirtualizacji? Jest kilka czynników, z których nie bez znaczenia jest termin. W tym samym czasie spotkało się kilka kluczowych czynników branżowych, pomagając w popchnięciu rosnącego zastosowania wirtualizacji. Te czynniki obejmują przejście na 64-bitowe przetwarzanie, procesory wielordzeniowe, a nawet działania zmierzające do zrównoważonego przetwarzania w celu poprawy wykorzystania systemu.

Systemy stają się dużo większe i wymagają technologii takiej jak wirtualizacja, aby w pełni wykorzystać ich moc. Podczas gdy prawdą jest, że podstawowa technologia (i prawo Moore'a) ma stale przewagę w kategoriach tworzenia większych możliwości przetwarzania niż mogą być wykorzystywane przez systemy, teraz jesteśmy bardziej świadomi wpływu na środowisko, wymagań na pobór mocy oraz kosztów chłodzenia.

Wszystkie te czynniki, plus proste uzasadnienie zwrotu z inwestycji (ROI) z zastosowania wirtualizacji, powinny razem przyspieszyć przyjęcie wirtualizacji zarówno w dużym, jak i małym biznesie. A my, jako profesjonaliści, możemy oczekiwać, że główni gracze będą nadal inwestować w tę technologię przez następnych klika lat i ulepszać jej elementy oraz funkcjonalność.

 Do początku strony Do początku strony

Jak działa wirtualizacja serwera

W ogólnych kategoriach wirtualizacja serwera pozwala nam wziąć pojedyncze urządzenie fizyczne i zainstalować (oraz uruchomić jednocześnie) dwa lub więcej środowiska systemów operacyjnych, które są potencjalnie różne i mają różne tożsamości, stosy aplikacji i tak dalej. Hyper-V jest następną generacją 64-bitowej technologii wirtualizacji opartej na hiperwizorze, która oferuje niezawodne oraz skalowalne możliwości platformy. Wraz z System Center oferuje ona pojedynczy zestaw zintegrowanych narzędzi zarządzania zarówno dla zasobów fizycznych, jak i wirtualnych.

Wszystko to pracuje na rzecz zmniejszenia kosztów, lepszego wykorzystania, optymalizacji infrastruktury oraz pozwala przedsiębiorstwom na szybkie dostarczenie nowych serwerów. Aby lepiej zrozumieć budowę Hyper-V, popatrzmy najpierw na różne rodzaje rozwiązań wirtualizacji.

 Do początku strony Do początku strony

Typy rozwiązań wirtualizacji

Zasadniczo istnieją trzy ogólne architektury stosowane dla wirtualizacji serwera, pokazane na rysunku 1. Podstawowe różnice dotyczą relacji pomiędzy warstwą wirtualizacji a sprzętem fizycznym. Przez warstwę wirtualizacji rozumiem warstwę oprogramowania nazwaną monitorem maszyny wirtualnej (Virtual Machine Monitor, w skrócie VMM, której nie należy mylić z menedżerem maszyny wirtualnej, Virtual Machine Manager). To ta warstwa daje możliwość tworzenia wielu odrębnych instancji, które współużytkują ten sam podstawowy sprzęt.

Rysunek 1: Trzy architektury wirtualizacji.

Przykładem architektury VMM typu 2 jest Java Virtual Machines. Tutaj celem wirtualizacji jest tworzenie środowiska uruchomieniowego, w którym proces może wykonywać zestaw instrukcji bez opierania się na systemie hosta. W tym przypadku izolacja dotyczy różnych procesów i pozwala, aby pojedyncza aplikacja była uruchamiana na różnych systemach operacyjnych bez martwienia się o zależności systemu operacyjnego. Wirtualizacja serwera nie należy do tej kategorii.

VMM typu 1 oraz monitory hybrydowe to dwa podejścia, które najczęściej można spotkać w szerokim użyciu. Hybrydowy VMM jest miejscem, w którym VMM jest uruchomiony równolegle z systemem operacyjnym hosta i pomaga tworzyć wirtualne maszyny w jego najwyższej warstwie. Przykładami hybrydowego monitora VMM są Microsoft Virtual Server, Microsoft Virtual PC, VMware Workstation oraz VMware Player. Trzeba zauważyć, że podczas gdy te typy rozwiązań są doskonałe dla scenariusza klienta, gdzie maszyny wirtualne są uruchomione tylko przez jakąś część czasu, monitory VMM wnoszą znaczne koszty ogólne i dlatego nie nadają się dla obciążeń roboczych intensywnie wykorzystujących zasoby.

W architekturze VMM typu 1 warstwa VMM działa bezpośrednio na najwyższym poziomie sprzętu. Często jest ona nazywana warstwą hiperwizora. Ta architektura była pierwotnie zaprojektowana w latach 60. XX wieku przez IBM dla systemów mainframe, a ostatnio została udostępniona na platformach x86/x64 z różnymi rozwiązaniami, włącznie z Windows Server 2008 Hyper-V.

Dostępne są również rozwiązania, w których hiperwizor jest wbudowaną częścią oprogramowania sprzętowego (firmware). To jednak jest po prostu kwestia opakowania i w rzeczywistości nie zmienia podstawowej technologii.

Gdy popatrzymy na monitory VMM typu 1, są tam zasadniczo dwie metody budowania rozwiązań hiperwizora: z mikrojądrem oraz monolityczna. Obydwa te podejścia, jak pokazano na rysunku 2, są monitorami VMM typu 1, które mają zainstalowany hiperwizor bezpośrednio na sprzęcie fizycznym.

Rysunek 2: Dwie metody budowania rozwiązań hiperwizora.

Rozwiązanie z hiperwizorem monolitycznym zawiera hiperwizor/VMM w pojedynczej warstwie, która obejmuje również większość wymaganych komponentów, takich jak jądro, sterowniki urządzeń oraz stos we/wy. Jest to podejście stosowane przez takie rozwiązania, jak VMware ESX oraz tradycyjne systemy mainframe.

W podejściu z mikrojądrem stosowany jest bardzo uproszczony, specjalizowany hiperwizor, który wykonuje tylko podstawowe zadania izolacji partycji oraz zarządzania pamięcią. Ta warstwa nie obejmuje stosu we/wy lub sterowników urządzeń. Jest to podejście stosowane w Hyper-V. W tej architekturze wirtualizacji sterowniki urządzeń właściwe dla sprzętu są umieszczone w specjalnej partycji zwanej partycją nadrzędną.

 Do początku strony Do początku strony

Hiperwizor Windows

Mocna separacja pomiędzy wieloma systemami operacyjnymi jest zapewniana poprzez tworzenie wirtualnych procesów, pamięci, zegarów oraz kontrolerów przerwań. Systemy operacyjne stosują te zasoby wirtualne, tak jakby używały ich fizycznych odpowiedników.

Hiperwizor Windows, będący częścią Hyper-V, wykonuje następujące zadania:

  • Tworzy partycje logiczne.
  • Zarządza pamięcią oraz tworzeniem harmonogramu procesora dla systemów operacyjnych gości.
  • Dostarcza mechanizmy służące do wirtualizacji wejścia/wyjścia oraz komunikacji między partycjami.
  • Narzuca zasady dostępu do pamięci.
  • Narzuca zasady wykorzystania procesora.
  • Udostępnia proste interfejsy programistyczne znane pod nazwą hypercall.

Ponieważ jest w nim użyte podejście z mikrojądrem, hiperwizor Windows jest całkiem mały – ma mniej niż 1 MB. Ten minimalny rozmiar poprawia całkowite bezpieczeństwo systemu.

Jednym z wymagań dotyczących uruchomienia Hyper-V jest posiadanie systemu x64 zawierającego technologie Intel VT lub AMD-V. Technologia x64 udostępnia większą przestrzeń adresową oraz obsługę systemów z większą pamięcią, czyli więcej wirtualnych maszyn w pojedynczym systemie hosta. Intel VT oraz AMD-V są rozwiązaniami wirtualizacji wspomaganymi sprzętem, które dostarczają superuprzywilejowaną warstwę w architekturze pierścienia, co pomaga oddzielić środowisko wykonawcze hiperwizora od reszty systemu. Rozwiązania te umożliwiają także, aby Hyper-V uruchamiał niemodyfikowany system operacyjny gościa, bez ponoszenia znacznych strat w wydajności przy emulacji.

 Do początku strony Do początku strony

Partycja nadrzędna

Hyper-V składa się jednej partycji nadrzędnej, która jest zasadniczo maszyną wirtualną mającą specjalny lub uprzywilejowany dostęp. Jest to jedyna maszyna wirtualna z bezpośrednim dostępem do zasobów sprzętowych. Wszystkie pozostałe maszyny wirtualne, znane jako partycje Goście, przechodzą przez partycję nadrzędną, aby uzyskać dostęp do urządzenia.

Istnienie partycji nadrzędnej jest dość przezroczyste. Kiedy zaczynamy instalować Hyper-V, pierwszą rzeczą, jaką musimy zrobić, jest zainstalowanie Windows Server 2008 x64 Edition na systemie fizycznym. Następnie trzeba przejść do menedżera serwera (Server Manager), włączyć rolę Hyper-V i zrestartować system. Po zrestartowaniu systemu najpierw ładowany jest hiperwizor Windows, a następnie reszta stosu jest przekształcana, aby pełnić rolę partycji nadrzędnej.

Partycja nadrzędna jest właścicielem klawiatury, myszy, ekranu i innych urządzeń dołączonych do serwera hosta. Nie ma ona bezpośredniej kontroli nad zegarami i kontrolerami przerwań, które wykorzystuje hiperwizor.

Partycja nadrzędna zawiera dostawcę WMI (Windows Management Instrumentation), aby ułatwić zarządzanie wszystkimi aspektami wirtualizowanego środowiska, jak również wirtualizowanego stosu (Virtualization Stack), który w imieniu podrzędnych partycji wykonuje zadania związane ze sprzętem. Ponadto wszelkie sterowniki IHV (Independent Hardware Vendor) potrzebne do sprzętu systemu hosta są zawarte w partycji nadrzędnej, a ewentualne sterowniki utworzone dla edycji Windows Server 2008 x64 będą także działać w partycji nadrzędnej.

 Do początku strony Do początku strony

Architektura współużytkowania urządzeń

Jednym z innowacyjnych elementów w Hyper-V jest nowa architektura współużytkowania urządzeń, która obsługuje urządzenia emulowane oraz syntetyczne w każdym systemie operacyjnym gościa. Emulacja urządzenia jest całkiem przydatna do obsługi starszych systemów operacyjnych za pomocą sterowników urządzeń zaprojektowanych dla starszej generacji sprzętu. Przykładowo, Hyper-V zawiera emulację adaptera sieciowego Intel 21140, nazywanego adapterem DEC 21140 w czasach, gdy dostarczana była duża ilość starszych systemów operacyjnych.

Ogólnie rzecz biorąc, emulacja urządzenia jest powolna, nie jest łatwa do rozszerzenia i nie skaluje się dobrze. Lecz emulacja jest nadal ważna, ponieważ pozwala uruchomić większość systemów operacyjnych x86 na Hyper-V. Ponieważ wirtualizacja przenosi się teraz z niszy technologicznej dla celów testowania oraz rozwoju, do podstawowych technologii w środowiskach eksploatacyjnych, użytkownicy wymagają lepszej wydajności, aby mieć możliwość obsługi większych obciążeń. Emulowane urządzenia już nie spełniają tych rosnących wymagań.

Alternatywnym rozwiązaniem jest użycie syntetycznych urządzeń Hyper-V. Urządzenia syntetyczne są urządzeniami wirtualnymi, które są mapowane bezpośrednio na urządzenia fizyczne. Inaczej niż w przypadku emulowanych urządzeń, urządzenia syntetyczne nie emulują starszego sprzętu. Za pomocą modelu współużytkowania sprzętu Hyper-V, obsługiwane systemy operacyjne gości mogą bezpośrednio komunikować się z urządzeniami syntetycznymi, które nie mają fizycznych odpowiedników. Te systemy operacyjne wykorzystują klientów VCS (Virtual Service Clients), które pełnią funkcję sterowników w systemach operacyjnych gości.

Zamiast bezpośredniego dostępu do sprzętu fizycznego, klienty VSC wykorzystują VMBus, który jest szybką magistralą znajdującą się w pamięci, w celu udostępnienia wirtualnych dostawców usług (Virtual Service Providers, VPS) w nadrzędnej partycji. Dostawcy VPS partycji nadrzędnej zarządzają wtedy dostępem do podstawowego sprzętu fizycznego, jak pokazano na rysunku 3 . Kluczową zaletą urządzeń syntetycznych jest fakt, że ich wydajność poprzez VMBus jest bliższa wydajności niewirtualizowanych urządzeń sprzętowych.

Rysunek 3: Klienty VSC używają VMBus do dostępu do dostawców VSP, którzy następnie zarządzają dostępem do podstawowego sprzętu fizycznego.

 Do początku strony Do początku strony

Komponenty integrujące

Hyper-V został tak zbudowany, aby zapewnić mocne granice pomiędzy różnymi instancjami uruchomionymi na jednym komputerze. Aby zapewnić komunikację pomiędzy systemem operacyjnym gościa a systemem hosta oraz zapewnić dodatkową funkcjonalność dla obsługiwanych systemów operacyjnych gości, Hyper-V dostarcza komponenty integrujące (Integration Componenets).

Komponenty integrujące Hyper-V obsługują następujące funkcje:

  • synchronizację czasu,
  • usługę kopiowania woluminów w tle (Volume Shadow Copy Service, VSS),
  • funkcjonalność sygnału taktowania,
  • zamknięcie systemu gościa,
  • wymianę pary wartości kluczy (używana do dostępu do rejestru systemu operacyjnego gościa),
  • identyfikację systemu operacyjnego.

 Do początku strony Do początku strony

Zestaw funkcji Hyper-V

Nie trzeba mówić, że im platforma wirtualizacji jest bliższa działaniu serwera fizycznego, tym łatwiejsze staje się dla organizacji jej wdrażanie i funkcjonowanie w oparciu o obciążenie wirtualne. Według mnie istnieją cztery kluczowe obszary, w których można zobaczyć różne funkcje platformy wirtualizacji.

Większość dzisiejszych rozwiązań wirtualizacji opartych na hiperwizorach jest bardzo do siebie zbliżona pod względem charakterystyk i funkcjonalności. Idąc dalej, najważniejszymi, różniącymi je cechami są takie elementy jak całkowity koszt posiadania (TCO) oraz łatwość użycia. Będą nadal prowadzone inwestycje i rozwój rozwiązań zarządzania, aby zbliżyć nas do wizji dynamicznego środowiska IT, w którym infrastruktura jest na tyle elastyczna, aby można ją było przystosować do potrzeb biznesu, zaś modele i zasady pomagają w kierowaniu rosnącą automatyzacją oraz zarządzaniem.

 Do początku strony Do początku strony

Skalowalność

Przy zastosowaniu architektury hiperwizora z mikrojądrem, Hyper-V ma bardzo małe wykorzystanie procesora, co pozostawia dużo miejsca na obciążenia wirtualizacji. Dzięki możliwości korzystania przez maszyny wirtualne z doskonałych funkcji oraz sprzętu, takich jak technologia wielordzeniowa, ulepszony dostęp do dysku oraz większa pamięć, Hyper-V poprawia skalowalność oraz wydajność platformy wirtualizacji.

W połączeniu z resztą możliwości systemu Windows Server 2008, Hyper-V pozwala nam skonsolidować większość obciążeń – łącznie z obciążeniami 32- oraz 64-bitowymi – w pojedynczym systemie. To może pomóc w zrównoważeniu zastosowania 64-bitowej technologii z utrzymywaną obsługą 32-bitowych obciążeń, które są już stosowane w całym środowisku.

Fakt, że Hyper-V wymaga 64-bitowego systemu hosta z wirtualizacją wspomaganą sprzętowo pozwala systemowi hosta na dostęp do dużej puli zasobów pamięci. Hyper-V może obsługiwać do 1TB pamięci na hoście oraz do 64 GB pamięci na maszynę wirtualną. Jest to kluczowe dla tych, którzy planują wirtualizację pamięciochłonnych obciążeń, takich jak Exchange Server i SQL Server.

Hyper-V obsługuje także do 16 procesorów logicznych w systemie hosta, co powoduje, że Hyper-V skaluje się do większości dostępnych na rynku systemów dwu- oraz czterogniazdowych z wieloma rdzeniami. Można również utworzyć wirtualną maszynę z maksymalnie czterema wirtualnymi procesorami, aby obsłużyć ładunki wymagające wykorzystania możliwości wielu procesorów.

Konsolidowanie serwerów poprzez Hyper-V pozwala także na wykorzystanie przez te serwery szerokiej obsługi sieciowej, obejmującej VLAN, Network Address Translation (NAT) oraz zasady NAP (Network Access Protection) (kwarantanna). Jako funkcja systemu Windows Server 2008, Hyper-V pracuje dobrze z innymi funkcjami systemu Windows Server, takimi jak BitLocker oraz Windows PowerShell.

 Do początku strony Do początku strony

Wysoka dostępność

Wysoka dostępność jest scenariuszem, w którym Hyper-V oraz możliwości klastrowania hosta działają razem, aby zapewnić ciągłość biznesową oraz odpowiedzieć na potrzeby odzyskiwania po awarii. Ciągłość biznesowa oznacza możliwość zminimalizowania przestojów planowanych oraz nieplanowanych. Obejmuje ona czas stracony na rutynowe funkcje, takie jak konserwacja i tworzenie kopii zapasowej, a także nieoczekiwane przestoje.

Odzyskiwanie po awarii jest ważnym elementem ciągłości biznesowej. Naturalne katastrofy, złośliwe ataki, a nawet proste problemy z konfiguracją, takie jak konflikty oprogramowania, mogą unieruchomić usługi oraz aplikacje zanim administratorzy rozwiążą problemy i odzyskają dane. Niezawodna strategia biznesowa i odzyskiwanie po awarii musi oferować minimalną utratę danych oraz mocne możliwości zdalnego zarządzania.

Patrząc na wysoką dostępność, trzeba wziąć pod uwagę trzy różne kategorie – planowany przestój, nieplanowany przestój oraz kopie zapasowe. Zabezpieczenie planowanego przestoju jest zwykle potrzebne, aby pomóc przenieść maszyny wirtualne z systemów hosta i by można było wykonywać konserwację albo zastosować korekty systemu hosta lub platformy aktualizacji (które ewentualnie mogą wymagać ponownego uruchomienia systemu).

Większość organizacji zaplanowała okienka konserwacji, a to, co faktycznie jest tam do zrobienia, to minimalizacja lub eliminacja okresu, w którym maszyny wirtualne nie będą dostępne, podczas gdy host jest wyłączony dla celów konserwacji. Za pomocą funkcji szybkiej migracji (Quick Migration) można w ciągu sekund przenieść uruchomioną maszynę wirtualną z jednego węzła fizycznego do innego. W ten sposób możemy utrzymywać maszyny wirtualne dostępne do eksploatacji, gdy wykonujemy konserwację na pierwotnym hoście. Po wykonaniu konserwacji można użyć funkcji Quick Migration, aby przywrócić wirtualną maszynę do pierwotnego systemu hosta.

Przestój nieplanowany jest przestojem, który nie został przewidziany. Może to być katastrofa naturalna lub po prostu przypadkowe rozłączenie przez kogoś kabla zasilającego i wyłączenie serwera. Chociaż może to brzmieć nieprawdopodobnie, przez lata spotkałem sporo administratorów na Tech-Ed, VMworld i innych konferencjach, którzy opowiadali, jak serwer został przypadkowo wyłączony przez kolegę.

Za pomocą Hyper-V można zainstalować klaster hosta dla różnych systemów hosta i skonfigurować wszystkie maszyny wirtualne jako zasoby klastra, które mogą być awaryjnie przełączone na inny system w przypadku awarii hostów. Możliwości klastrowania w wielu lokalizacjach w systemie Windows Server 2008 umożliwią nam zainstalowanie geograficznie rozproszonego klastra tak, aby w przypadku awarii głównego centrum danych można było odzyskać różne maszyny wirtualne do zdanego centrum danych.

Jest to również wygodne w celu ochrony wszystkich biur oddziałów. Jedną z zalet obsługi nieplanowanych przestojów za pomocą Hyper-V jest obojętność na system operacyjny gościa, co oznacza, że można rozszerzyć jego wysoką dostępność na linuksowe maszyny wirtualne lub starsze wersje Windows Server, aby w podobny sposób chronić i odzyskiwać te systemy.

Gdy patrzymy na nieplanowany przestój, warto zauważyć, że odzyskiwanie jest równoważne wyłączeniu systemu i jego ponownemu uruchomieniu, co oznacza, ze tracimy wszystkie informacje o stanie. Zależnie od obciążenia uruchomionego na maszynie wirtualnej, to może, lecz nie musi być problemem. Dlatego ważne jest przyjrzenie się kopii zapasowej w kontekście wysokiej dostępności.

Hyper-V pozwala tworzyć kopie zapasowe każdej maszyny wirtualnej lub użyć VSS do tworzenia spójnych kopii zapasowych wszystkich maszyn wirtualnych rozpoznających VSS, podczas gdy są nadal uruchomione. Za pomocą usługi VSS można określić kopie zapasowe tak, aby były one tworzone w ustalonych odstępach bez wpływu na dostępność obciążenia eksploatacyjnego. W ten sposób można jednocześnie zapewnić plan tworzenia ciągłych kopii zapasowych, który pomoże w łatwy sposób przywrócić stan w przypadku nieplanowanego przestoju. Więcej informacji na temat wysoko dostępnych rozwiązań z Hyper-V można znaleźć w artykule Stevena Ekrena, „Achieving High Availability for Hyper-V” w listopadowym wydaniu TechNet Magazine (technet.microsoft.com/magazine/cc837977).

 Do początku strony Do początku strony

Bezpieczeństwo

Architektura hiperwizora z mikrojądrem została zaprojektowana w celu minimalizacji powierzchni ataku i poprawy bezpieczeństwa, szczególnie gdy Hyper-V jest implementowany w roli podstawowego serwera (Server Core). Server Core jest opcją instalacji Windows Server 2008. Hipewizor nie zawiera żadnych sterowników urządzeń lub kodów innych firm, co stanowi bardziej stabilną, uproszczoną i bezpieczną podstawę dla uruchomionych maszyn wirtualnych. Hyper-V zapewnia także silne bezpieczeństwo oparte na rolach z integracją Active Directory. Hyper-V pozwala też maszynom wirtualnym korzystać z funkcji zabezpieczeń na poziomie sprzętu, takich jak bit blokady wykonywania (NX), co dalej zwiększa bezpieczeństwo maszyn wirtualnych.

Tak jak pozostałe komponenty Windows Server, Hyper-V przeszedł przez proces Secure Development Lifecycle (SDL), podczas którego wykonano szerokie modelowanie i analizy zagrożenia, aby uczynić Hyper-V wysoce bezpieczną platformą wirtualizacji. Przy wdrażaniu Hyper-V trzeba być pewnym, że postępuje się według najlepszych praktyk wdrażania Windows Server 2008 oraz Hyper-V. Active Directory, a także rozwiązania antywirusowe oraz chroniące przez złośliwym oprogramowaniem, powinny być częścią naszego planu. Aby zapewnić właściwe stosowanie uprawnień dostępu administratora dla hostów Hyper-V trzeba użyć delegowanych możliwości administracyjnych.

 Do początku strony Do początku strony

Zarządzalność

Łatwo jest przejść od problemu budowy niewielkiego serwera do tworzenia ogromnej maszyny wirtualnej. Jest to ryzyko ze względu na łatwość wdrożenia maszyn wirtualnych. A przy rosnącej mobilności maszyn wirtualnych mamy dodatkowa odpowiedzialność związaną z informacjami o miejscu działania różnych maszyn wirtualnych, śledzenia ich kontekstu zabezpieczeń i tak dalej.

Na szczęście, mając Hyper-V nie trzeba tworzyć osobnej infrastruktury zarządzania dla środowiska wirtualnego. Jest on zintegrowany z narzędziami zarządzania firmy Microsoft, System Center Virtual Machine Manager oraz Microsoft System Center Operations Manager, a także z narzędziami zarządzania innych firm. To pozwala nam zarządzać naszymi wszystkimi zasobami fizycznymi i wirtualnymi z jednej konsoli. Szczegóły na temat System Center Virtual Machine Manager 2008 można znaleźć w artykule Edwina Yuena, „Manage Your Virtual Environments with VMM 2008”, w listopadowym wydaniu TechNet Magazine (technet.microsoft.com/magazine/cc836456). Tymczasem obsługa Windows PowerShell ułatwia automatyzację zadań.

Hyper-V dostarcza również maszyny wirtualne z bezprecedensową możliwością użycia dostępnego sprzętu. Ponieważ wszystkie sterowniki zatwierdzone przez WHQL (Windows Hardware Quality Lab) mogą być uruchomione w partycji nadrzędnej, Hyper-V wprowadza szeroką zgodność dla sterowników i urządzeń, ułatwiając zarządzanie różnymi sterownikami, które są uruchomione w naszym środowisku.

 Do początku strony Do początku strony

Podsumowanie

Jak wcześniej wspomniałem, zarządzanie stanie się kluczowym obszarem rozwoju i zróżnicowania. W nadchodzących latach zauważymy z pewnością dużo działań w tym obszarze. W sumie jest to faktycznie pasjonujący czas, ponieważ rola wirtualizacji bardziej wkracza w główny nurt. Ci, którzy jeszcze nie wypróbowali Hyper-V lub chcą po prostu uzyskać więcej informacji, mogą przejść do strony microsoft.com/Hyper-V.

O autorze

Rajiv Arunkundram jest starszym menedżerem produktu (Senior Product Manager) w firmie Microsoft i skupia się na wirtualizacji serwerów w dziale marketingu dla Windows. Do jego podstawowych obowiązków należy praca z klientami oraz partnerami i pomaganie im w zrozumieniu strategii wirtualizacji oraz rozwiązań firmy Microsoft z technicznego i biznesowego punktu widzenia.

 Do początku strony Do początku strony

Windows Server 2008