Badanie Sophos: Czy Polacy boją się sztucznej inteligencji?

31% polskich użytkowników mediów społecznościowych używało już takich narzędzi jak ChatGPT i DALL·E 2. Korzystaniu ze sztucznej inteligencji towarzyszy ciekawość, ale i obawy. Jak wynika z badania firmy Sophos, dwóch na trzech ankietowanych uważa, że dane wprowadzane do programów AI mogą zostać niewłaściwie wykorzystane przez właścicieli aplikacji lub cyberprzestępców. Podobny odsetek użytkowników obawia się, że nie będzie w stanie odróżnić treści stworzonych przez człowieka od tych, których autorami są algorytmy.

ChatGPT – Polacy są ciekawi, ale też zaniepokojeni

Blisko jeden na trzech z badanych Polaków (35% mężczyzn i 28% kobiet) miał styczność z modelem językowym ChatGPT lub generatorem obrazów DALL·E 2. To wynik wyższy niż wśród respondentów z Czech (25%) i Węgier (zaledwie 13%). Blisko połowa respondentów z grupy wiekowej od 18 do 24 lat używała narzędzi AI. Najczęściej korzystają z nich osoby z wyższym wykształceniem (38%), mieszkające w największych polskich miastach (40%) oraz te pracujące w IT (54%), mediach i reklamie (50%), a także kulturze (46%). Wśród najstarszych ankietowanych, mających 55 i więcej lat, 13% posługiwało się sztuczną inteligencją.

Badanie jednoznacznie wskazuje, że wraz z wiekiem maleje zainteresowanie tą technologią, rosną za to związane z nią obawy. Aż 67% Polaków korzystających z mediów społecznościowych (75% z najstarszej grupy badanych) niepokoi się, że dane wprowadzane do korzystających z AI aplikacji mogą wpaść w niepowołane ręce. Na takie niebezpieczeństwo wskazują zwłaszcza osoby zatrudnione w administracji publicznej (85%), opiece zdrowotnej (74%), szkolnictwie (74%) oraz finansach i bankowości (72%). Zagrożenia związane z przetwarzaniem przez sztuczną inteligencję poufnych informacji użytkowników dostrzega też 57% ankietowanych Czechów i 44% Węgrów.

Już teraz cyberprzestępcy zarabiają miliony dzięki kiepsko spreparowanym fałszywym tekstom. Czy czatując z korzystającym z zaawansowanego SI botem przez komunikatory, takie jak WhatsApp czy Microsoft Teams, w ogóle wiedzielibyśmy, że nie rozmawiamy z człowiekiem? Tworzenie tekstowych wiadomości do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustw daje SI – mówi Chester Wisniewski, dyrektor ds. technologii w firmie Sophos. – Należy być podejrzliwym i sprawdzać wszystkie SMS-y i maile, zwłaszcza te z prośbami o dane logowania czy na temat kwestii finansowych. Warto poświęcić kilka chwil, aby upewnić się, z czym faktycznie ma się do czynienia, a w razie wątpliwości prosić o pomoc. To nie paranoja – naprawdę jesteśmy na celowniku cyberprzestępców – dodaje.

Człowiek czy AI? Najtrudniejsze pytanie nadchodzących lat

37% respondentów z Polski uważa, że w ciągu najbliższych trzech lat będą w stanie odróżnić dzieło człowieka od treści wygenerowanej przez sztuczną inteligencję. Najbardziej pewni swoich osądów są ankietowani w przedziale wiekowym od 18 do 34 lat (średnio 41%) i pracownicy branży medialnej oraz IT (średnio 51%). Wśród badanych mających powyżej 55 lat takie przekonanie ma tylko co czwarta osoba.

Dla porównania zaledwie 13% wszystkich użytkowników mediów społecznościowych w Czechach wierzy, że w niedalekiej przyszłości dostrzeże różnice między wytworem człowieka a rezultatem pracy AI. Wśród ankietowanych Węgrów odsetek ten wynosi 34%.

Bot po drugiej stronie słuchawki

Formą sztucznej inteligencji, z którą często spotykają się Polacy, są również boty-sprzedawcy, z których korzystają m.in. firmy telemarketerskie. Ponad 61% uczestników badania przeprowadzonego przez firmę Sophos twierdzi, że rozpoznało dzwoniący do nich automat. Najczęściej (67%) deklarują to ankietowani w wieku od 18 do 24 lat oraz osoby z wyższym wykształceniem (65%), najrzadziej osoby starsze (54%) i gorzej wykształcone (50%).

Prawie połowa ankietowanych Czechów (48%) i co trzeci Węgier (36%) również deklaruje, że są w stanie poprawnie zidentyfikować, czy rozmawiają z człowiekiem, czy też z botem.

53% respondentów z Polski uważa, że w najbliższej przyszłości wciąż będzie umieć wskazać kto naprawdę znajduje się po drugiej stronie słuchawki. Odpowiedzi „nie wiem” udziela 34% badanych.

Szybki skok popularności narzędzi AI, w tym chatbotów, wynikać może z ich wysokiej użyteczności i prostoty użycia. Należy jednak pamiętać, że są to technologie stworzone w celu imitowania rozmowy z człowiekiem, a nie dostarczania zweryfikowanej wiedzy. Poczucie obcowania z żywą osobą bywa tak przemożne, szczególnie w połączeniu ze skłonnością niektórych osób do antropomorfizacji (uczłowieczania) sztucznych bytów, że co piąty badany słusznie podaje w wątpliwość swoje możliwości odróżnienia człowieka od bota – tłumaczy dr Damian Gałuszka, socjolog, adiunkt na Wydziale Humanistycznym AGH, a także członek Laboratorium EduVRLab.

Ekspert badający wpływ technologii cyfrowych na życie społeczne ostrzega też, że gwałtowny rozwój technologii AI ma również ogromny potencjał dezinformacyjny. Dodaje, że najbardziej podatni na nieprawdziwe treści wygenerowane przez AI mogą być ci, którzy deklarują, że bez większych problemów odróżniają boty od ludzi.

Dodaj komentarz