Warto przypomnieć sobie, jakie korzyści niesie wirtualizacja, ponieważ po podboju świata serwerów, coraz śmielej wkracza ona w obszary systemów pamięci masowych i sieci komputerowych…

Rewolucja ta zaczęła się od serwerów i stopniowo zaczęła rozlewać się na pozostałe obszary środowiska IT: macierze i infrastrukturę sieci. Wirtualizacja serwerów to już dojrzała technologia, SDN (Software Defined Network) i SDS (Software Defined Storage) zaczynają dopiero podbijać rynek. Warto przyjrzeć się korzyściom płynącym z wirtualizacji i budowy SDDN (Software Defined Data Center). Korzyści, które może przynieść wdrożenie strategii wirtualizacji, jest bowiem naprawdę wiele. Organizacje, które już wdrożyły wirtualizację serwerów czy innego obszaru infrastruktury, nie widzą już możliwości funkcjonowania bez tej technologii. Większość uważa, że nie ma już powrotu do fizycznego środowiska IT.

Niższe koszty zarządzania i obsługi

W parze z wirtualizacją idzie konsolidacja i znacznie lepsze wykorzystanie dostępnych zasobów sprzętowych. W przypadku serwerów średnie obciążenie maszyn fizycznych z kilkunastu procent wrasta do ponad 50%. Podobnie w środowisku macierzowym, np. dzięki mechanizmom Thin Provisioning, następuje znaczny spadek wolnego miejsca na dyskach rezerwowanego na wyrost. Przeniesienie aplikacji z wielu serwerów fizycznych do środowiska wirtualnego i „upchnięcie” ich na jednej maszynie przekłada się korzystnie na comiesięczne rachunki za prąd i chłodzenie centrum danych.

Mniejsza liczba serwerów to również mniejsza liczba sprzętu sieciowego czy szaf rackowych. Dzięki temu zmniejsza się wykorzystanie powierzchni w serwerowni. To otwiera dalsze możliwości, np. opłacalne staje się zrezygnowanie z własnego centrum danych i korzystanie z kolokacji. Dużemu uproszczeniu i automatyzacji ulegają zadania związane z administracją, co również przekłada się na oszczędności związane z utrzymaniem środowiska IT. Jeśli po zakończeniu wdrożenia wirtualizacji zostanie trochę „niepotrzebnego” sprzętu, można go przeznaczyć, np. dla deweloperów, do prowadzenia testów. Co więcej, wirtualizacja sama w sobie umożliwia szybkie budowanie środowisk testowych odizolowanych od produkcyjnych.

Szybsze dostarczanie zasobów

Wirtualizacja upraszcza, a nawet automatyzuje procesy związane z dostarczaniem użytkownikom wymaganych przez nich zasobów. Administrator może, np. korzystać z szablonów czy klonować obrazy maszyn wirtualnych, aby w kilka minut udostępnić użytkownikom potrzebny im serwer, w dodatku przy minimalnych kosztach. Jest to zupełnie inna rzeczywistość. W świecie fizycznym kupno nowego serwera czy macierzy dyskowej to zarówno spore koszty, jak i kilkumiesięczny okres oczekiwania na dostawę i wdrożenie. W środowisku wirtualnym także utworzenie nowej maszyny wirtualnej może być czasochłonne. Taki problem może wystąpić, jeśli zwirtualizowana jest tylko infrastruktura serwerowa i po utworzeniu nowej maszyny wirtualnej konieczna jest jeszcze interwencja administratora sieci (utworzenie odpowiednich konfiguracji sieciowych czy nowych reguł w firewallu).

Związanie się z jednym dostawcą sprzętu nie zawsze jest złym rozwiązaniem, ale ma wady i może być frustrujące. Ponieważ wirtualizacja oddziela aplikacje od sprzętu warstwą abstrakcji i zastępuje komponenty sprzętowe ich wirtualnymi odpowiednikami, użytkownik ma dużą elastyczność w wyborze sprzętu. Poprawia to pozycję negocjacyjną w rozmowach z producentem, kiedy przyjdzie czas zakupu nowych urządzeń.

Wysoka dostępność i łatwe przywracanie po awarii

Platformy wirtualizacyjne oferują wiele zaawansowanych funkcji, które umożliwiają zwiększenie dostępności aplikacji i poprawienie ciągłości biznesowej. Są to, m.in. takie funkcje, jak migracja “na żywo” aplikacji między serwerami czy macierzami, odporność na błędy czy automatyczne przywracanie w przypadku wystąpienia awarii sprzętowej. Te technologie przekładają się na większą ciągłość działania aplikacji. Jedną z największych zalet wirtualizacji serwerów jest możliwość przenoszenia aplikacji między serwerami fizycznymi bez przerywania ich pracy. Rozwój technologii idzie w kierunku mającym umożliwić taką migrację na coraz większe odległości między dwoma serwerowniami.

Wirtualizacja oferuje trzy mechanizmy, które są bardzo istotne przy budowaniu rozwiązań przywracania po awarii. Pierwszym jest abstrakcja warstwy sprzętowej. Dzięki pozbyciu się zależności oprogramowania od sprzętu lokalizacja awaryjna nie musi być już identyczna ze środowiskiem produkcyjnym. Użytkownik może ograniczyć wydatki, kupując tańszy sprzęt do lokalizacji zapasowej, w której będzie on rzadziej używany. Drugim jest konsolidacja powodująca znaczne ograniczenie ilości używanego sprzętu, co z kolei ułatwia zbudowanie lokalizacji zapasowej. Trzecim są mechanizmy powodujące automatyczne przełączenie w momencie wystąpienia awarii. Z reguły umożliwiają one również przetestowanie poprawności przebiegu przełączenia do lokalizacji zapasowej.

Środowisko dla starszych aplikacji i wsparcie migracji do chmury

W prawie każdej firmie znajdą się wiekowe aplikacje, które wciąż są w użyciu. Dla działu IT to zmora, bo oznacza, np. konieczność utrzymania przestarzałego sprzętu, dla którego skończył się okres wsparcia technicznego. Często też do takich aplikacji nikt nie chce się „dotykać” z obawy, że wystąpi jakiś problem, który będzie później trudny do usunięcia. Świetnym rozwiązaniem okazuje się przeniesienie takiej aplikacji do maszyny wirtualnej. Poprzez abstrakcję warstwy sprzętowej – co jest nieodzownym elementem wirtualizacji – organizacje mimowolnie przygotowują też środowiska do migracji do chmury. Kolejnym krokiem może przekształcenie środowiska wirtualnego w chmurę prywatną. Następnym zaś wdrożenie chmury hybrydowej, łączącej lokalne i zdalne zasoby w jednym środowisku…

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn