Przestarzałe systemy i infrastruktura IT mogą utrudniać zbieranie, przechowywanie i analizę danych. Stanowią też przeszkodę w integracji silosów z informacjami i zarządzanie nieustrukturyzowanymi danymi. Rozwiązanie tych problemów może ciągnąć się latami. Można jednak szybko udostępnić narzędzia, pozwalające organizacji szybko wdrożyć koncepcję Data Driven Company, po prostu odpowiednio określając priorytety.

Jednym z istotnych czynników decydujących o transformacji przedsiębiorstwa w tzw. Data Driven Company jest wydajna infrastruktura, która będzie w stanie sprostać stale rosnącym wymaganiom, np. coraz większym ilościom zbieranych danych. Rosnące wymagania napędzają innowacje i rozwój rozwiązań związanych z przetwarzaniem dużych ilości danych, włączając w to systemy pamięci masowych, sieć i oprogramowanie. Biorąc pod uwagę to, jak istotne dla biznesu stało się sięganie po korzyści, które oferuje współczesna analityka, firmy inwestują w rozbudowę infrastruktury na jej potrzeby. Jednakże wydaje się, że wciąż większość organizacji nie przygotowała się na wymagania stawiane przez Big Data. Można wyróżnić trzy charakterystyki opisujące infrastrukturę gotową na Big Data. Są to: ciągłość działania, dostęp i szybkość.

1. Ciągłość działania jest krytycznym czynnikiem zapewniającym, że ludzie i procesy otrzymają dostęp do informacji zawsze wtedy, kiedy go potrzebują i w dowolnym miejscu, w którym się znajdują. Takie warunki przekładają się, m.in na poprawę współpracy między pracownikami i sprawniejsze rozwiązywanie problemów.

2. Podobnie infrastruktura powinna zaspokajać wymagania związane z dostępem, dzięki czemu można uzyskać lepszy wgląd w działalność operacyjną czy informacje o klientach.

3. Natomiast szybkość jest istotna, aby wgląd w dane możliwy był w czasie rzeczywistym. Czas potrzebny do podejmowania decyzji można skrócić, jeśli wbuduje się analitykę w procesy operacyjne przy użyciu zintegrowanej, bardzo wydajnej infrastruktury.

Ważnym wyzwaniem stojącym przed firmami zamierzającymi wdrożyć koncepcję Data Driven Company jest konieczność przeanalizowania posiadanej infrastruktury informatycznej, systemów, narzędzi i procesów pod kątem niezbędnych zmian. Takie zmiany bez wątpienia powodują, że systemy IT stają się bardziej złożone, ale są nieuniknione, jeśli firma chce czerpać korzyści z analityki Big Data. Dość powszechny jest opór przed wprowadzaniem tych zmian. Dlatego dostawcy rozwiązań IT starają się przekonać użytkowników, że są to bezpieczne i niezawodne produkty. Co istotne, firmy powinny poświęcić uwagę zarówno infrastrukturze sprzętowej, jak i programowej, aby sprostać różnym i zmieniającym się zastosowaniom Big Data.

Użytkownicy oczekują możliwości wglądu w dane w czasie zbliżonym do rzeczywistego, co jest szczególnie widoczne w niektórych branżach, np. marketingu cyfrowym. W rezultacie niezbędna jest optymalizacja infrastruktury sprzętowej i programowej. Jednym z podstawowych wyzwań jest to, że analityka może znaleźć dwa różne zastosowania. Pierwszym jest analityka danych transakcyjnych, która powinna się odbywać w czasie rzeczywistym. Drugim zaś bardziej szczegółowa analityka danych offline realizowana w trybie wsadowym. Wiele firm jest zainteresowanych obydwoma zastosowaniami. Tymczasem każde z nich wymaga innej infrastruktury.

Analityka w czasie rzeczywistym to, m.in. interaktywne śledzenie sesji na stronach internetowych czy analiza predykcyjna. Chociaż organizacje coraz częściej rozumieją, jakie korzyści przynosi analityka danych, muszą mieć realny plan dotyczy modernizacji infrastruktury IT, która sprosta dzisiejszym i przyszłym wymaganiom. Bez rozbudowanej infrastruktury sieciowej analityka nie będzie nawet w połowie tak przydatna, jak mogłaby być. W ankiecie przeprowadzonej przez QuinStreet aż 40% decydentów IT wskazało, że zwiększenie przepustowości sieci jest jednym z głównych priorytetów.

Prawdziwe wyzwanie wykracza poza przechwytywanie i analizowanie danych. Chodzi o zrozumienie, co należy zrobić z wynikami analizy danych. Pytanie brzmi, czy infrastruktura sieciowa jest na to gotowa? Może się bowiem okazać wąskim gardłem uniemożliwiającym osiągnięcie pełnego potencjału korzyści.

Od początku do końca

Proces przetwarzania danych obejmuje ich zbieranie, przesyłanie, przechowywanie, analizowanie i archiwizację. Dane pochodzą obecnie z bardzo wielu, także nowych, źródeł. Firmy zbierają te ogromne ilości danych, przechowują i analizują. Potrzebują więc platformy do zarządzania danymi, która umożliwia obsłużenie całego procesu przetwarzania wszystkich posiadanych danych. Firmy mogą taką platformę wdrożyć w lokalnym środowisku lub zdecydować się na odpowiednie usługi chmurowe. Zaletą cloud computing jest nie tylko brak konieczności posiadania własnej infrastruktury, ale również możliwość szybkiego wdrożenia. Ważna jest też otwartość takiej platformy. Bardzo trudno jest dokładnie przewidzieć, jak będą zmieniać się wymagania i w jakim kierunku pójdzie rozwój technologii za kilka lat.

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn