Future Mind: blisko połowa Polaków korzysta z GenAI po pracy [raport]

fot. mat. prasowe

Sztuczna inteligencja coraz częściej wykracza poza sferę zawodową i towarzyszy Polakom także w życiu prywatnym. Od organizacji codziennych obowiązków po wsparcie w zdobywaniu wiedzy – możliwości AI są coraz bardziej różnorodne. Jak jednak wygląda nasz stosunek do tej technologii w kontekście ochrony danych i regulacji? Według raportu „Jak AI zmienia codzienność Polaków? Sztuczna inteligencja w pracy i życiu osobistym” firmy doradczo-technologicznej Future Mind, niemal połowa respondentów uważa, że korzystanie z tej technologii powinno być mocniej regulowane przez instytucje publiczne.

Jak wynika z badania Future Mind, co czwarty Polak posługuje się narzędziami opartymi o GenAI w życiu prywatnym w ciągu każdego miesiąca lub rzadziej. 17 proc. badanych korzysta z nich przynajmniej raz w tygodniu, a 7 proc. – codziennie. Narzędzia te pomagają nie tylko w pracy, ale także w rozwijaniu osobistych pasji, zarządzaniu codziennymi obowiązkami czy organizowaniu czasu wolnego. Według respondentów AI w przyszłości mogłoby pomóc w poszerzaniu wiedzy i umiejętności (44 proc.), pełnić funkcję ich osobistego asystenta (30 proc.), czy też współpracownika (14 proc.). Nie brakuje również głosów, że technologia ta mogłaby nawet wcielić się w rolę terapeuty. Wskazało tak 12 proc. uczestników badania.

Patrząc na wyniki naszego badania, można pokusić się  o stwierdzenie, że generatywna sztuczna inteligencja „zadomowiła się” w naszym życiu. Szczególnie zauważalne jest to wśród najmłodszej grupy respondentów (20-34 lata), która jest najbardziej oswojona z innowacyjnymi technologiami. Aż 55 proc. ankietowanych z tego przedziału wiekowego korzysta z GenAI w różnym stopniu – od codziennego użytkowania, po sporadyczne. Wraz z wiekiem respondentów odsetek ten spada – odpowiednio do 45 proc. dla grupy wiekowej 35-49 lat oraz 37 proc. dla grupy wiekowej 50-65 lat – komentuje Jakub Nawrocki, lead UX researcher w Future Mind. – GenAI to technologia, z której warto korzystać, ale ważne, aby robić to w sposób świadomy. Wspieranie naszych działań przez inteligentne algorytmy może przynieść wiele korzyści, ale kluczowe jest zrozumienie jej możliwości i ograniczeń – dodaje.

Wciąż pełni obaw

Choć innowacyjne technologie niosą za sobą wiele korzyści, Polacy nadal obawiają się negatywnych skutków ich częstego używania. Aż 44 proc. badanych wskazuje na ryzyko naruszenia prywatności, jako jedno z największych zagrożeń związanych z rozwojem GenAI. Ponadto, respondenci wskazali także na szerzenie dezinformacji i manipulacji (43 proc.), tworzenie nowoczesnej groźnej broni (37 proc.) oraz inwigilację przez algorytmy (34 proc.), jako jedne z głównych negatywnych skutków wykorzystania tej technologii w przyszłości.

– Polacy nadal podchodzą do kwestii GenAI z dozą ostrożności i sceptycyzmu. Co ciekawe – poza zidentyfikowaniem negatywnych konsekwencji jej używania, na szerszą – nawet globalną – skalę, coraz częściej zauważamy też problemy, które mogą dotknąć nas samych, bądź naszego najbliższego otoczenia. W naszym badaniu respondenci wskazali chociażby na dehumanizację relacji międzyludzkich (35 proc.) oraz obniżenie zdolności krytycznego myślenia (25 proc.). Szybki rozwój sztucznej inteligencji zmusza nas do zastanowienia się, w jaki sposób możemy zarządzać jej rozwojem, jednocześnie wykorzystując jej innowacyjny potencjał. W tym przypadku Polacy wskazują na wdrożenie odpowiednich regulacji. Co drugi uczestnik naszego badania deklaruje, że chciałby bardziej rygorystycznych norm prawnych dotyczących  AI – podkreśla Jakub Nawrocki, lead UX Researcher w Future Mind.

W ramach prawa

Akt o Sztucznej Inteligencji, który wszedł w życie z dniem 1 sierpnia 2024 roku, to pierwsze tego typu na świecie prawo, które ma uregulować sektor AI. Bazuje on na kalkulacji ryzyka, uzależniając obowiązki dostawców i podmiotów wdrażających modele i systemy AI od potencjalnego zagrożenia dla obywateli, społeczeństw i gospodarek. Pomimo jego wprowadzenia, kwestia powszechności AI wciąż budzi dyskusje – zwłaszcza w odniesieniu do związanych z jej wykorzystaniem przepisów prawa. Niemal połowa badanych (48 proc.) uważa, że AI powinna być mocniej regulowana przez instytucje publiczne, takie jak państwo czy Unia Europejska.

Z kolei 28 proc. respondentów, twierdzi, że obecne przepisy są wystarczające, a co dziesiąty deklaruje, że regulacji powinno być mniej niż obecnie. Tak wyraźny podział opinii sugeruje, że regulacje są niezbędne, ale  należy je dopasować do potrzeb i obaw społeczeństwa. Przyszłość AI zależy jednak nie tylko od samego rozwoju technologii, ale również od świadomego jej wykorzystywania przez użytkowników oraz od odpowiedzialnych norm prawnych.