Wirtualizacja to nie tylko sposób na lepsze wykorzystanie dostępnych zasobów sprzętowych i znaczne oszczędności. Ta technologia daje w wielu obszarach także ogromną elastyczność.

Elastyczność centrum danych można rozpatrywać pod różnymi względami. Z punktu widzenia administratorów IT oznacza znaczne usprawnienie zarządzania. W środowisku wirtualnym można ze sporą swobodą dysponować zasobami. Uzyskana dzięki wirtualizacji elastyczność umożliwia, m.in. redukcję liczby niezbędnych maszyn fizycznych, łatwiejsze utrzymanie płynności pracy czy też wykonywanie kopii zapasowych. Jeśli dojdzie do awarii, łatwo można przywrócić działanie maszyny wirtualnej w stanie sprzed awarii.

Uwolnić się od sprzętu

Urok wirtualizacji polega na tym, że uwalnia nas od wielu ograniczeń sprzętowych, jeśli chodzi o projektowanie systemów i wykonywanie codziennych zadań. Przykładowo, maszyny wirtualne można łatwo przenosić pomiędzy serwerami, a na jednym serwerze jednocześnie mogą działać Windows i Linux. Systemy operacyjne stają się modułami uzupełniającymi sprzęt, a modułowość przynosi elastyczność. Jak jednak wirtualizacja realizuje tę obietnicę elastyczności?

Serwery traktowane jak klocki

Oprogramowanie do wirtualizacji serwerów nie potrzebuje specjalizowanego sprzętu. Może działać na przeciętnym serwerze x84 z kilkoma rdzeniami procesorów, nośnikami danych (HDD lub SDD) oraz sporą ilością pamięci RAM. Takie masowe urządzenia charakteryzują się modułowością, której zaletą jest elastyczność. W tym przypadku serwery można traktować jako łatwo wymienialne części, które nadają się poza tym do ponownego użycia w innych zastosowaniach. Przykładowo po wyjściu z produkcji serwery można użyć do budowy środowiska testowego.

Z drugiej strony, zaletą specjalizowanego sprzętu jest lepsze dopasowanie do wykonywanych zadań. Jednak kosztem takiej specjalizacji jest brak modułowości. Przykładem takiego sprzętu są pamięci masowe SAN. Charakteryzują się świetną wydajnością, ale ich wymiana nie jest łatwa. W pewnym momencie mogą więc okazać się poważnym ograniczeniem. Potwierdza to rozwój samego oprogramowania do wirtualizacji serwerów. Podstawą jego działania jest współdzielona pamięć masowa. Jeszcze kilka lat temu w grę wchodziły przede wszystkim macierze SAN. Z czasem pojawiły się na rynku produkty NAS, które spełniały wymagania wirtualnych serwerów. To jednak wciąż było mało. Producenci udostępnili więc programowe rozwiązania, umożliwiające stworzenie współdzielonej pamięci masowej na bazie dysków HDD lub SSD podłączonych bezpośrednio do serwerów fizycznych tworzących środowisko wirtualne. Na tym przykładzie widać doskonale przejście od rozwiązań specjalizowanych do masowego produktu, jakim są pamięci masowe HDD i SSD. Ich wirtualizacja to kolejny, logiczny krok po wirtualizacji serwerów. Technologia SDS (Software Defined Storage) umożliwia budowanie systemów pamięci masowych z wykorzystaniem standardowych serwerów x64, zamiast stosowania specjalistycznego sprzętu. Dzięki temu osiąga się jeszcze większą elastyczność.

Wirtualizacja serwerów – jak i pamięci masowych – upraszcza infrastrukturę sprzętową, przynosząc scentralizowane zarządzanie oraz dużą elastyczność we współdzieleniu zasobów. Administrator może łączyć zasoby w pule oraz centralnie zarządzać ich współdzieleniem.  Wirtualizacja diametralnie ułatwia też tworzenie środowisk dla programistów czy na potrzeby testowe. Bardzo łatwo można odizolować te środowiska od środowiska produkcyjnego. Przygotowanie maszyn wirtualnych dla programistów sprowadza się do kilku kliknięcie. Mając gotowe obrazy wirtualek, da się błyskawicznie uruchomić aplikacje potrzebne deweloperom, np. serwer bazodanowy. Równie łatwe jest usunięcie takich maszyn wirtualnych i skonfigurowanej dla nich sieci. Przygotowane środowisko testowe umożliwia bezpieczne sprawdzenie, jak zachowają się systemy lub urządzenia po zaplanowanych zmianach, zanim faktycznie zostaną wprowadzone.

Dwa filary elastyczności

Są dwa elementy wymagane, aby elastyczność rozwiązań zwirtualizowanych stała się rzeczywistością. Pierwszy to abstrakcja warstwy sprzętowej, co jest powszechne w dzisiejszych centrach danych za sprawą wirtualizacji. Nie chodzi wyłącznie o wirtualizację serwerów (abstrakcja mocy obliczeniowej), ponieważ coraz częściej stosuje się też podobne pod względem koncepcji rozwiązania w macierzach dyskowych i urządzeniach sieciowych. Warstwa abstrakcji daje elastyczność, jaka wiążę się z realizowaniem zadań programowo.

Jednakże abstrakcja wciąż wymaga człowieka do zainicjowania i sterowania zadaniami. Dlatego jest jeszcze drugi element – warstwa kontrolna. To zautomatyzowany system podejmujący decyzje za administratora tak, aby zapewnić aplikacjom wymagane zasoby sprzętowe w centrum danych. Mając mechanizm kontrolny, można czerpać znacznie więcej korzyści z abstrakcji sprzętu, m.in. zwiększyć elastyczność.

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn