W sieciach korporacyjnych możemy spodziewać się wielu nowości. Wi-Fi staje się szybsze od firmowego Ethernetu. Diametralnie zmienia się też spojrzenie na architekturę bezpieczeństwa. Urządzenia mobilne zacierają granice sieci.

Administratorzy sieci nie mogą narzekać na nudę. Technologie sieciowe rozwijają się dynamicznie i następuje to w bardzo różnych obszarach. Można wskazać pięć najistotniejszych trendów w rozwoju sieci korporacyjnych, którym warto się przyglądać.

Ethernet dostosowany do konkretnych potrzeb

Technologia Ethernet powstała 40 lat temu, ale wciąż jest dynamicznie rozwijana. Co kilka lat przepustowość sieci w tym standardzie zwiększa się 10-krotnie. Początkowo maksymalny transfer wynosił 10 Mb/s, osiągając następnie 100 Mb/s, 1 Gb/s i 10 Gb/s. Dzisiaj w użyciu są już sieci 100 Gb/s, zarówno miedziane jak i optyczne. Kolejna wersja Ethernetu, nad którą pracuje organizacja IEEE, to 400 Gb/s. Niewykluczone, że do użycia wejdą również pośrednie szybkości. Co istotne, zmieniają się założenia rozwoju tego standardu. Celem przestaje być osiąganie coraz większych przepustowości, a staje się nim dostosowanie Ethernetu do specyficznych potrzeb.

Najlepszym przykładem są propozycje wprowadzenia Ethernetu 2,5 Gb/s oraz 5 Gb/s, które promuje organizacja NBASE-T Alliance. Przewiduje się bowiem, że infrastruktura LAN będzie miała problemy z obsłużeniem bezprzewodowych standardów 802.11ac Wave 2 oraz 802.11ad, charakteryzujących się kilkugigabitową przepustowością. Powszechnie używana, kablowa infrastruktura 1 Gb/s stanie się wąskim gardłem. Najbardziej popularne okablowanie kategorii 5 i 6 nie nadaje się bowiem do transmisji z szybkością 10 Gb/s, dlatego potrzebne jest inne rozwiązanie. Z tego powodu możemy spodziewać się nowych wersji Ethernetu o szybkości 2,5 Gb/s i 5 Gb/s, działających na standardowej skrętce o maksymalnej długości 100 metrów między urządzeniami sieciowymi.

Wi-Fi ze znacznym przyspieszeniem transmisji

Sieci bezprzewodowe już są powszechnie używane, a możemy przypuszczać, że staną się one wszechobecne. W najbliższych latach będziemy świadkami wchodzenia do użytku coraz szybszych wersji standardu 802.11, o większym zasięgu i z nowymi możliwościami zastosowania. Już od jakiegoś czasu na rynku istnieją urządzenia 802.11ac, które zbliżyły się do transmisji z przepustowością 1 Gb/s. Wprawdzie wciąż są one znacznie droższe, niż modele 802.11n, ale ich ceny będą sukcesywnie spadać.

Trudno przewidzieć, w jakim kierunku rozwijać się będzie superszybki standard 802.11ad, znany jako WiGig. Wykorzystuje on pasmo 60 GHz, w którym umożliwia transmisję z szybkością do 7 Gb/s na krótkim dystansie. To przepustowość wystarczająca do transmisji nieskompresowanego strumienia wideo. Układy zgodne z tym standardem są już w produkcji, a kilka pierwszych punków dostępowych pojawiło się już w sprzedaży.

Wprowadzenie koncepcji zerowego zaufania

Rosnąca liczba ataków na sieci korporacyjnej pokazuje, że zabezpieczenia koncentrujące się na ochronie brzegu sieci przestały być efektywne. Dlatego w firmowych sieciach coraz częściej wdrażana będzie koncepcja Zero-trust. Stosuje ją już, m.in. Google. Naczelną zasadą Zero-trust jest: „nikomu nie ufaj, zawsze weryfikuj”. Nie ma żadnych elementów, które byłyby zaufane, niezależnie co to jest (urządzenie, aplikacja, pakiet sieciowy) i gdzie się znajduje. W praktyce oznacza to separację między kluczowymi elementami sieci. Obecnie najczęściej taka separacja ma miejsce tylko na styku sieci lokalnej i publicznej.

Koncepcja Zero-trust to także dokładne kontrolowanie ruchu pomiędzy nimi. Przykładowo, komputery użytkowników nie mają możliwości bezpośredniego komunikowania się z serwerami czy drukarkami bez pośrednictwa zapory sieciowej, która odpowiada za kontrolę dostępu. Problem z tą koncepcją polega na tym, że wymaga stosowania bardzo wydajnych zapór sieciowych wewnątrz sieci korporacyjnej do analizy lokalnego ruchu. W wielu firmach stosuje się mechanizm VLAN, ale to rozwiązanie izoluje tylko ruch sieciowy, nie dając możliwości kontrolowania go czy wykrywania w nim zagrożeń. W sieci Zero-trust jest potrzebna platforma bezpieczeństwa, która potrafi rozróżnić aplikacje, użytkowników i inne dodatkowe parametry.

Sieci bardziej programowe

Od dekad w sieciach komputerowych zachowywana była równowaga między sprzętem i oprogramowaniem. W ostatnim czasie można zaobserwować jednak przesuwanie środka ciężkości w kierunku oprogramowania. Rozbudowa obecnych sieci w tempie mogącym dotrzymać kroku gwałtownemu przyrostowi ilości ruchu (szczególnie wideo), stała się bardzo trudna. Odpowiedzią mają być różne rozwiązania programowe. Open Networking Foundation (ONF) definiuje SDN (Software-Defined Network) jako rozwijającą się architekturę sieciową, w której funkcje kontroli sieci są oddzielone od mechanizmów przekazywania ruchu sieciowego i są programowalne.

Kolejnym programowym podejściem do sieci jest NFV (Network Function Virtualization). W tym przypadku celem jest przeniesienie niektórych operacji sieciowych realizowanych sprzętowo do wirtualnych maszyn, działających na standardowym sprzęcie. To powinno prowadzić do lepszego wykorzystania dostępnych zasobów sprzętowych i obniżenia kosztów. Panuje przekonanie, że NFV znajdzie zastosowanie w połączeniu z rozwiązaniami SDN, co powinno przełożyć się na zwiększenie wydajności sieci. Systemy SDN oraz NFV nie są jeszcze powszechnie stosowane, ale ich popularność rośnie i ten trend będziemy obserwować przez kilka najbliższych lat.

Mobilność otwiera środowisko lokalne na zagrożenia

Smartfony i tablety odmieniły krajobraz urządzeń końcowych znajdujących się w rękach użytkowników, a firmy zostały zmuszone do zmierzenia się z wyzwaniami, jakie stwarzają one w sieciach korporacyjnych. Trzeba zastanowić się, jak wymuszać stosowanie korporacyjnych reguł w urządzeniach mobilnych, szczególnie jeśli należą do pracowników (BYOD), jak chronić je przed zagrożeniami, a także jak chronić firmowe zasoby (np. dane). Mobilność powoduje bowiem, że zacierają się granice między środowiskiem lokalnym a internetem.

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn