W projektach wirtualizacyjnych dużo uwagi poświęca się serwerom, ale sukces wdrożeń zależy też od sieci i pamięci masowych. Zagadnienia związane z dostępnością i wydajnością w dużym stopniu są bowiem pochodną także tych elementów infrastruktury IT.

Chociaż wirtualizacja nie jest już niczym nowym, to w centrach danych zapewnienie przestrzeni dyskowej dla aplikacji w maszynach wirtualnych wciąż jest wyzwaniem dla specjalistów IT. Losowa charakterystyka operacji I/O – która jest unikatowa dla środowisk wirtualnych – to poważny test dla macierzy. Kilka maszyn wirtualnych potrafi wykorzystać całą dostępną przepustowość, pozostawiając pozostałe aplikacje bez szybkiego dostępu do danych. Dodatkowo konfiguracja LUN’ów i woluminów dla maszyn wirtualnych może być bardzo skomplikowana.

W ostatnich latach technologie pamięci masowych znacznie się rozwinęły i nadążanie za tymi trendami jest konieczne, aby dysponować optymalnym systemem pamięci masowych dla maszyn wirtualnych. Dzisiaj bowiem wybór systemów pamięci masowych do wirtualizacji nie ogranicza się do SAN. Możliwości niektórych macierzy NAS są wystarczające, aby spełnić wymagania maszyn wirtualnych. Na tym nie koniec.

Wirtualne zasoby dyskowe

O ile większość środowisk wirtualnych wykorzystuje współdzielone systemy pamięci masowych, od pewnego czasu widać rosnące zainteresowanie wykorzystaniem dysków podłączanych bezpośrednio do serwerów. Ich zaletą są przede wszystkim niskie koszty, ale warto dodać, że w ostatnich latach zostały one znacznie udoskonalone od strony niezawodności i pojemności. Rosnąca liczba producentów oferuje oprogramowanie umożliwiające realizację takiego scenariusza. Początkowo były to firmy z obszaru pamięci masowych, np. DataCore i Fusion-io. Przykładowo DataCore SANsymphony-V agreguje lokalne dyski z kilku serwerów w jedną, współdzieloną pulę. To zapewnia wysoką dostępność i redundancję, jakimi charakteryzują się rozwiązania korporacyjne. Do tego podejścia z czasem przekonał się także VMware, wprowadzając do oferty VirtualSAN.

Na rynku są też macierze potrafiące rozpoznać, że z ich zasobów korzysta platforma wirtualizacji serwerów, dając administratorom lepszy wgląd w wirtualne maszyny, statystyki dotyczące operacji IOPS i wykorzystanie dostępnej przestrzeni dyskowej. Ułatwia to zapobieganie problemom z wydajnością, zanim w ogóle się pojawią. Będąc administratorem, warto wiedzieć ile operacji I/O generują poszczególne maszyny wirtualne, które z nich zapisują duże ilości danych oraz ile maszyn wirtualnych korzysta z macierzy. Przydatna jest też informacja o łącznej liczbie operacji I/O dla całego środowiska wirtualnego. Takich informacji dostarczają tzw. „świadome” wirtualizacji macierze.

Ich zaletą jest możliwość wykrywania tzw. wąskich gardeł. Z reguły administratorzy obwiniają macierze dyskowe za problemy wydajnościowe, których nie są w stanie zidentyfikować. Obecnie macierze dostarczają szczegółowych statystyk. Ułatwia to rozwiązywanie takich problemów. Ponadto macierze zintegrowane z platformą wirtualną mogą przejąć niektóre zadania, jak tworzenie klonów czy migawek poszczególnych maszyn wirtualnych.

Optymalizacja sieci

W czasach przed wirtualizacją większość serwerów wykorzystywała tylko ułamek dostępnej dla nich przepustowości sieciowej, a pojedyncza karta sieciowa wystarczała, aby zapewnić wydajną komunikację. Dzisiaj – kiedy na jednym serwerze fizycznym może działać kilkadziesiąt maszyn wirtualnych – karta lub karty sieciowe serwerów są poddawane silnemu obciążeniu. Problemy sieciowe, jak duża liczba operacji I/O na sekundę, należą do największych wyzwań, którym muszą sprostać administratorzy IT. Wybór odpowiedniego sprzętu sieciowego sprawi, że te problemy będą łatwiejsze do pokonania. Jednocześnie wydajniejszy sprzęt sieciowy pozwala na uruchomienie większej liczby maszyn wirtualnych w przeliczeniu na jeden serwer.

Ponieważ z jednego interfejsu sieciowego może korzystać wiele maszyn wirtualnych, zdarza się, że szybko staje się on wąskim gardłem. Najprostszym sposobem na zwiększenie dostępnej przepustowości jest montaż dodatkowej karty sieciowej. Jednak w serwerze można zamontować ograniczoną ich ilość. Dodatkowo czasem ich łączna przepustowość może okazać się niewystarczająca. Wtedy warto sięgnąć po karty wyposażone w klika interfejsów sieciowych. Na rynku są m.in. model PCI-X oraz PCIe wyposażone w cztery interfejsy. Zewnętrzne karty sieciowe można też podłączać do złączy USB serwera. Nie jest to jednak dobre rozwiązanie m.in. dlatego, że nie wszystkie platformy wirtualizacyjne dają maszynom wirtualnym dostęp do portów USB. Co istotne, z jednego, fizycznego interfejsu sieciowego może korzystać wiele maszyn wirtualnych. Dlatego zastosowanie szybszych łączy, np. 10 GB Ethernet znacznie przyczyni się do poprawy wydajności maszyn wirtualnych.

Ważne jest także ograniczenie ruchu sieciowego wychodzącego z serwera fizycznego. Chodzi o to, aby w jego obrębie zamknąć komunikację między maszynami wirtualnymi. Można to osiągnąć, np. poprzez segmentację sieci za pomocą VLAN. Takie platformy jak Microsoft Hyper-V czy VMware vSphere mają wbudowaną funkcjonalność sieci wirtualnej. Każda fizyczna karta sieciowa serwera jest podłączona do wirtualnego przełącznika. Ten z kolei ma połączenia z wirtualnymi interfejsami sieciowymi maszyn wirtualnych. Sieć wirtualna daje maszynom wirtualnym dostęp do sieci fizycznej. Jednocześnie możliwe jest utworzenie segmentu sieci, który będzie całkowicie wirtualny, aby w ten sposób odciążyć sieć fizyczną.

Przykładowo, jeśli serwer WWW regularnie wysyła kwerendy do serwera SQL działającego w innej maszynie wirtualnej – ale na tym samym serwerze fizycznym – warto zadbać o to, aby te zapytania nie były przesyłane przez sieć fizyczną, lecz przez dedykowany segment sieci wirtualnej. W ten sposób fizyczna przepustowość sieci dostępna dla maszyn wirtualnych zwiększy się bez konieczności dokładania nowych kart sieciowych czy innych zmian w infrastrukturze.

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn