Generacja C na brzegu sieci – jak na branżę IT wpłynie edge computing?

Szacuje się, że do 2021 r. internetowy ruch generowany przez urządzenia mobilne wzrośnie czterokrotnie, a transfer związany ze strumieniowym wideo i grami online – pięciokrotnie. Coraz więcej danych nie tylko pobieramy z internetu, ale także przesyłamy. Do tego dochodzi rosnąca popularność urządzeń, które generują i przetwarzają ogromne ilości informacji, jak np. samochody autonomiczne. Wszystko to przekłada się na wzrost popytu na szybkie, lokalne przetwarzania danych na brzegu sieci (edge computing). Wyniki analiz przeprowadzonych przez firmę Grand View Research prognozują roczną stopę wzrostu rynku edge computing na poziomie 54% do roku 2025[1].

Czym jest brzeg sieci?

Administratorzy IT w przedsiębiorstwach w niemal każdej branży widzą potrzebę zmniejszania „dystansu” pomiędzy użytkownikami i ich urządzeniami, a lokalizacją, w której są przechowywane i przetwarzane dane. Ta zmiana jest konieczna ze względu na rosnącą liczbę osób i urządzeń połączonych z siecią oraz ogromne ilości generowanych i pobieranych danych. – Zaspokajająca tę potrzebę koncepcja edge computingu polega na tym, że dane są przetwarzane i gromadzone w urządzeniach końcowych, takich jak komputery, sprzęt mobilny czy lokalne serwerownie, a więc na brzegu sieci. Nie są przesyłane w całości do dużych centrów danych, gdzie znajduje się rdzeń sieci. Tam z kolei trafiają tylko wyniki obliczeń lub dane szczątkowe, potrzebne do późniejszych analiztłumaczy Bartłomiej Raab, Country Manager z Vertiv Polska.

 „Generacja C” – sieci społecznościowe, zakupy internetowe i ciągła łączność z internetem

W miarę jak na brzegu sieci przetwarzanych jest coraz więcej danych, konieczne staje się przeanalizowanie, kto jest ich faktycznym użytkownikiem. Główną siłą napędową tego zjawiska jest tzw. „Generacja C”, czyli przede wszystkim millenialsi – osoby, które w wysokim stopniu interesują się tworzeniem, organizowaniem, przesyłaniem treści oraz mediami społecznościowymi. Są one potężną, nową siłą kultury konsumpcyjnej. Michael Tobin, autor książki „Live, Love, Work, Prosper”, tak opisuje to pokolenie: „Przez pojęcie Generacja C rozumiemy określone zachowania, a nie wiek osoby. Członkowie tej grupy, kiedy nie pracują, nie robią zakupów lub nie korzystają z bankowości online, a udzielają się w mediach społecznościowych. To pokolenie ocenia Wasze przedsiębiorstwa poprzez pryzmat firmowej strony internetowej i obecności na Twitterze, Facebooku oraz Instagramie.”

Osoby z Generacji C wyznaczają nowe trendy, które wpływają na media społecznościowe i pozostają cały czas połączone z internetem. YouTube i Netflix są dla nich źródłem rozrywki, a wideo na żądanie – codziennością. Prawie 90% z nich posiada profil w mediach społecznościowych, a trzy czwarte aktualizuje jego treść codziennie oraz przesyła zdjęcia i filmy.

Zmiana kierunku przesyłu i ilości danych w egde computingu

Obecnie ok. 80-90% generowanego w sieci ruchu to „konsumpcja” informacji przez użytkowników. Trend ten jednak niedługo się zmieni – ilość danych pobieranych i wysyłanych wyrówna się. Do tego dojdzie mnóstwo urządzeń internetu rzeczy, które będą głównie produkowały dane, a nie je pobierały. Charakter danych przetwarzanych na brzegu sieci spowoduje, że obszar ten nabierze krytycznego znaczenia, i to z wielu perspektyw. Według ekspertów Vertiv infrastrukturę sieciową należy projektować i budować tak, aby mogła wspierać transmisję danych, wobec których istnieje ryzyko wystąpienia czterech negatywnych zjawisk opisanych poniżej:

  • Nadmiar informacji – w wielu przypadkach ilość generowanych danych sprawia, że ​​przesyłanie ich przez sieć do głównego centrum danych jest niepraktyczne ze względu na objętość, koszty lub problemy z przepustowością. Przykładem mogą być tu informacje produkowane przez systemy w inteligentnych miastach, fabrykach, domach/budynkach czy nagrania wideo w dużej rozdzielczości.
  • Opóźnienia wpływające na komfort pracy użytkownika – w wielu rodzajach aplikacji charakter interakcji z nimi wpływa na komfort użytkownika. Dlatego opóźnienia w transmisji danych nie są akceptowane w przypadku takich narzędzi jak sklepy internetowe, urządzenia do współpracy z rozszerzoną rzeczywistością czy aplikacje przetwarzające w czasie rzeczywistym język naturalny.
  • Opóźnienia w transmisji danych między urządzeniami – liczba rodzajów zastosowań rozwiązań internetu rzeczy jest wręcz nieskończona, nic dziwnego więc, że wśród nich pojawiają się takie, które nie „tolerują” opóźnień. Maszyny są w stanie przetwarzać dane znacznie szybciej niż ludzie, więc powolne ich dostarczanie wiąże się z konkretnymi konsekwencjami. Na elektronicznych giełdach ceny wahają się w ułamkach sekundy, więc potencjalne zyski mogą zmienić się w straty. Podobnie jest w przypadku wszelkiego typu rozwiązań o zastosowaniu militarnym czy wykorzystywanych do analizy w czasie rzeczywistym.
  • Ryzyko dla zdrowia i życia – istnieje cały szereg sytuacji, w których urządzenia odpowiadają za bezpieczeństwo ludzi. Oprócz rozwiązań medycznych do tej kategorii zaliczyć można także autonomiczne samochody, sterowany centralnie, inteligentny transport publiczny, drony i roboty. Ingerencja w ich działanie lub przerwa w transmisji danych mogą skończyć się tragicznie.

W przyszłości zadania stawiane przed sieciami, w których coraz więcej danych przetwarzanych jest na brzegu sieci, zostaną rozszerzone. Rosnąca ilość wysyłanych przez użytkowników danych wymusi wprowadzenie modułów zarządzających ruchem, zapewniających bezpieczeństwo oraz szeroko rozumianą analitykę. Konieczne będzie więc stworzenie sieciowej infrastruktury IT wspierającej różnego typu podmioty, np. handel detaliczny, firmy telekomunikacyjne czy ośrodki uniwersyteckie. Kluczowe znaczenie dla powodzenia tego projektu będą mieć takie czynniki, jak niskie opóźnienia w transmisji danych czy odporność na awarie, które przełożą się na wysoki poziom zadowolenia użytkowników – dodaje Bartłomiej Raab.



[1] https://www.grandviewresearch.com/press-release/global-edge-computing-market

Dodaj komentarz