Hyper-V – Najlepsze praktyki wdrażania  Udostępnij na: Facebook

Tłumaczenie na podstawie Hyper-V: Deployment Best Practices: Michał Twierkowski

Opublikowano: 2012-10-04

Zanim zaczniemy pracę

Hyper-V jest jedną z ról dostępnych w systemie Windows Server. Dostępna jest także odrębna, darmowa edycja Hyper-V Server, dedykowana funkcjom wirtualizacji. Wirtualizacja systemów pomaga administratorom uzyskać dostęp do wielu systemów operacyjnych jednocześnie, bez potrzeby dzielenia powierzchni fizycznego dysku na mniejsze partycje.

Najlepsze praktyki

1. Unikanie przeciążenia serwera.

Administratorzy systemów Windows Server, którzy decydują się na używanie oprogramowania Hyper-V powinni mieć na uwadze dostępne zasoby. Decydując się na wykorzystanie narzędzi do wirtualizacji systemów, powinniśmy na samym początku określić, ile maszyn wirtualnych będzie obsługiwanych przez serwer Hyper-V. Wykorzystywanie systemu Windows Server 2012 Datacenter pozwala na wsparcie większych procesorów i ilości pamięci operacyjnej w stosunku do innych edycji. Omawiana edycja systemu obsługuje maksymalnie 64 procesory, 2 terabajty pamięci fizycznej oraz 16 węzłów klastra pracy awaryjnej dla przypadków szybkiej migracji. Ilość maszyn wirtualnych
Hyper-V jest nieograniczona w przypadku tej edycji systemu. Edycja Standard systemu Windows Server 2012 pozwala na uruchomienie do dwóch maszyn wirtualnych oraz wsparcia do dwóch procesorów.

2. Zapewnienie szybkiego dostępu do pamięci masowej.

Aby zapewnić możliwie szybki dostęp do pamięci masowej należy rozważyć użycie sieci pamięci masowej (SAN, ang. Storage Area Network) przy wykorzystaniu dysków wysokoobrotowych. Kupując nowy dysk twardy, warto zwrócić uwagę na prędkość obrotu talerzy. Im większą wartość odczytamy, tym większą możemy mieć pewność, że dostęp do danych będzie znacznie szybszy. Decydując się na wydajniejsze dyski twarde (mające nawet prędkość 10 000 obrotów/minutę) musimy pamiętać, że wydajność idzie w parze z większym zapotrzebowaniem na energię oraz na większe wydzielanie ciepła podczas pracy dysków. Istnieje kilka rodzajów i topologii sieci SAN. Najodpowiedniejszym w tym przypadku rozwiązaniem, będzie wykorzystanie SAN w architekturze Punkt-do-Punktu (ang. Point-to-Point). Dzięki temu, wykluczamy urządzenia pośredniczące w transmisji, które mogłyby zwiększać czas dostępu do danych. W przypadku braku możliwości zbudowania własnej sieci SAN, używany jest również alternatywny protokół iSCSI (ang. Internet SCSI), który ma swoje zastosowanie przy budowaniu systemów pamięci masowej SAN przy wykorzystaniu sieci Ethernet (używającej protokołu TCP/IP) oraz macierzy dyskowych SCSI (ang. Small Computer Systems Interface).

3. Instalacja wielu kart interfejsu sieciowego.

Funkcjonowanie szybkiego i bezawaryjnego ruchu sieciowego fizycznego serwera oraz mieszczących się na nim maszyn wirtualnych powinno opierać się na wykorzystywaniu wielu kart sieciowych. Współdzielenie jednej karty interfejsu sieciowego przez kilka maszyn wirtualnych oraz fizycznego serwera może (lecz nie musi) drastycznie zmniejszyć wydajność tego interfejsu.

Zróżnicowanie konfiguracji sprzętowej serwerów wprowadza pewne ograniczenia dla osób korzystających z maszyn wyposażonych w jeden interfejs sieciowy. Współdzieląc jedną kartę sieciową, należy upewnić się, że współużytkowanie karty fizycznej przez maszyny wirtualne, nie spowoduje nagłego spadku wydajności sieci fizycznej. Dostępny monitor wydajności pozwala na ustanowienie odpowiedniego planu bazowego wydajności dla obciążenia sieciowego oraz odpowiednią konfigurację interfejsu sieciowego, dostosowaną do potrzeb systemów.

4. Unikanie przechowywania plików systemowych na dyskach używanych do Hyper-V.

Warto zasugerować się radą, zgodnie z którą, pliki systemowe nie były przechowywane na dyskach dedykowanych do przechowywania danych maszyny wirtualnej. Różnego rodzaju przypadki uszkodzeń logicznych, jak i fizycznych dysków twardych mogą spowodować całkowitą utratę danych. W razie usterki dysku z plikami systemowymi, mamy pewność, że dane, zawarte w systemach maszyn wirtualnych, pozostaną w stanie nienaruszonym i będą mogły zostać ponownie odczytane.

5. Monitorowanie wydajności pracy serwera.

Dobry serwer to bezawaryjny serwer. Oczywiście, nic nie może wykluczyć awarii systemu czy sprzętu, ale zachowując kilka podstawowych zasad eksploatacji sprzętu, możemy uniknąć nieprzyjemnych sytuacji przymusowego wstrzymania pracy serwera. Uruchamiając wiele maszyn wirtualnych, musimy mieć na uwadze wielkość obciążenia serwera bazowego Hyper-V. Konfiguracja sprzętu serwera fizycznego musi być odpowiednia dla stabilnej pracy wszystkich maszyn z nim związanych – zarówno maszyny bazowej, jak i wirtualnej, utworzonej poprzez Hyper-V. Należy unikać przeciążeń systemów, ponieważ to może doprowadzić do całkowitego „zawieszenia” systemu bazowego, co prowadzi do zatrzymania pracy wszystkich maszyn. Jeżeli rozbudowa maszyny fizycznej o dodatkowe procesory i pamięć operacyjną nie jest możliwa, należy zastanowić się nad migracją maszyn wirtualnych na inne serwery Hyper-V.

6. Konfiguracja systemu wykluczającego bazowe procesy związane z Hyper-V.

Używając oprogramowania antywirusowego na serwerze fizycznym, warto rozważyć możliwość wykluczenia głównych procesów wirtualizacji z obszaru skanowania. Mowa tu o plikach Vmms.exe oraz Vmswp.exe. Dodatkowo, warto zatroszczyć się o wykluczenie wszystkich katalogów, które zawierają pliki konfiguracyjne maszyn wirtualnych oraz dysków z aktywnym skanowaniem. Pliki maszyn wirtualnych mogą zostać wykryte przez oprogramowanie antywirusowe jako szkodliwe. Najczęstszym efektem takiego działania jest wyłączanie tych plików z pracy systemu, co może powodować zatrzymanie niektórych funkcji maszyn wirtualnych Hyper-V. Administrator, instalując oprogramowanie antywirusowe na systemie bazowym, nie musi powtarzać tej operacji na każdej z maszyn wirtualnych. Program sam przeskanuje całą zawartość systemu bazowego, zapewniając ochronę każdemu plikowi znajdującemu się na dysku fizycznym serwera.