Z badań polskiej firmy AMP, zajmującej się cyberbezpieczeństwem wynika, że jedynie 1 na 3 polskie firmy wprowadziły jakiekolwiek formalne zasady dotyczące używania AI, a w sektorze publicznym – w samorządach, szpitalach i przychodniach – odsetek ten jest jeszcze niższy. Z analizy wynika także, że 69% pracowników w Polsce korzysta z narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka. Największym problemem jest zjawisko Shadow AI, czyli korzystanie z narzędzi AI poza wiedzą i nadzorem organizacji. Niewłaściwe korzystanie z AI przez pracowników może prowadzić do strat finansowych, wycieku poufnych danych a także do przygotowania fałszywych analiz lub porad na podstawie sfałszowanych przez cyberprzestępców danych wykorzystywanych przez sztuczną inteligencję. Jak ustrzec się przed nieodwracalnymi stratami dla firmy- radzi Przemysław Wójcik, Prezes polskiej firmy AMP.
Na świecie dostępnych jest ponad 30 tysięcy narzędzi AI. Do 2026 r. ponad 80% pracowników będzie korzystać z AI codziennie – często bez świadomości ryzyka. Tymczasem polskie firmy wciąż nie nadążają za wdrażaniem zabezpieczeń. Jeszcze przed tym, zanim większość polskich firm w ogóle zorientowała się, jak poważnym narzędziem stała się sztuczna inteligencja, pracownicy zaczęli wykorzystywać ją do wszystkiego – także do rzeczy, które nigdy nie powinny trafić poza mury organizacji.
– W jednym z europejskich banków pracownik wkleił do darmowej wersji ChatGPT pełne dane klientów: numery PESEL, salda kont, treści umów. W globalnym koncernie technologicznym – Samsungu – inżynierowie kopiowali fragmenty kodu źródłowego do publicznych modeli AI, aby szybciej diagnozować błędy, nieświadomie udostępniając strategiczne informacje. W firmach przemysłowych pracownicy wpisywali do generatywnych modeli konfiguracje sterowników PLC wraz z hasłami dostępu, co doprowadziło do ataków na infrastrukturę. Zespoły programistyczne wklejały klucze API i loginy, co w jednej z firm zakończyło się przejęciem repozytoriów i paraliżem kilku projektów. To nie są wyjątki – to codzienność – komentuje Przemysław Wójcik, prezes polskiej firmy AMP.
Tylko co 3 firma zabezpiecza się przed niewłaściwym użyciem AI
Według danych ESET z pierwszej połowy 2025 roku to właśnie Polska była najczęściej atakowanym krajem w zakresie ransomware, odpowiadając za ok. 6% globalnych incydentów tego typu. Sztuczna inteligencja stała się dostępna szybciej, niż firmy były w stanie wdrożyć jakiekolwiek zabezpieczenia. W ciągu kilku lat powstało ponad 30 tysięcy narzędzi AI, wykorzystywanych zarówno w pracy biurowej, jak i w środowiskach przemysłowych, medycznych czy administracyjnych. Większość z nich działa w chmurze, a darmowe wersje systemów generatywnych przechowują treści użytkowników na serwerach poza UE, często wykorzystując je do dalszego trenowania modeli. Oznacza to, że wszelkie dane, które tam wprowadzimy – konfiguracje, opisy procesów, dane osobowe, dokumentację medyczną, kody źródłowe, wyniki badań, grafiki, analizy – mogą trafić w miejsca, nad którymi organizacje nie mają żadnej kontroli. Wyciek takich danych jest z definicji nieodwracalny.
– Według naszych danych aż 69% pracowników w Polsce korzysta z narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka. Jednak najbardziej alarmujące jest to, że tylko co trzecia firma w Polsce wdrożyła jakiekolwiek zasady dotyczące korzystania z AI. W sektorze publicznym sytuacja wygląda jeszcze gorzej: samorządy, przychodnie i szpitale – instytucje przetwarzające najbardziej wrażliwe dane – w ogromnej większości nie mają żadnych procedur, narzędzi kontrolnych ani świadomości zagrożeń. A to wszystko dzieje się w czasie, gdy Polska stała się jednym z najbardziej atakowanych cybernetycznie krajów na świecie – komentuje Przemysław Wójcik, prezes polskiej firmy AMP.
AI jest w cieniu
Największym problemem jest zjawisko Shadow AI, czyli korzystanie z narzędzi AI poza wiedzą i nadzorem organizacji. Większość pracowników nie robi tego w złej wierze – po prostu chce przyspieszyć swoją pracę. Jednak brak świadomości powoduje, że do systemów generatywnych trafiają treści objęte tajemnicą przedsiębiorstwa, informacją niejawną, danymi medycznymi lub konfiguracjami systemów, które zgodnie z procedurami NIS2 powinny być ściśle chronione. Z perspektywy cyberbezpieczeństwa jest to dziś jeden z głównych wektorów ryzyka. Pracownik korzystający z AI bez odpowiednich uprawnień i wiedzy może w praktyce stworzyć incydent, który spełnia kryteria poważnego incydentu bezpieczeństwa i musi zostać zgłoszony w ciągu 24 godzin do CSIRT NASK.
– Co gorsza, sztuczna inteligencja może stać się narzędziem ataku. Modele genAI są podatne na manipulacje: cyberprzestępcy mogą wstrzykiwać do nich fałszywe dane, przejmować odpowiedzi poprzez prompt injection, modyfikować rekomendacje, a nawet generować przekonujące, spersonalizowane komunikaty phishingowe, które trudno odróżnić od prawdziwych. W ostatnich latach pojawiły się przypadki, w których AI generowała raporty techniczne zawierające błędne parametry urządzeń przemysłowych, co mogło doprowadzić do awarii infrastruktury. Ataki na media – jak przejęcie konta PAP i publikacja fałszywej depeszy o mobilizacji wojsk – pokazują, że manipulowanie informacją stało się jedną z najskuteczniejszych metod destabilizacji – komentuje Przemysław Wójcik, prezes polskiej firmy AMP.
W środowisku medycznym czy publicznym ryzyko jest jeszcze większe. Pracownicy szpitali coraz częściej używają AI do „szybkiego streszczenia dokumentacji”, pracownicy urzędów – do redagowania pism, a nauczyciele – do tworzenia ocen opisowych. W wielu przypadkach odbywa się to na prywatnych kontach i bez żadnych zabezpieczeń. Dane pacjentów, dane wrażliwe, dane kadrowe, informacje o stanie zdrowia – to wszystko trafia do systemów, nad którymi nie ma żadnej kontroli. Tymczasem zgodnie z RODO i przepisami o cyberbezpieczeństwie sektor publiczny ma obowiązek utrzymywania najwyższych standardów ochrony danych, a incydenty dotyczące AI powinny być zgłaszane i dokumentowane tak samo, jak wszystkie inne naruszenia bezpieczeństwa informacji.
Jak zabezpieczyć firmę?
Brakuje jednak procedur, szkoleń i świadomości. Większość organizacji nie ma polityki AI, nie monitoruje ruchu do usług generatywnych, nie stosuje systemów DLP ani CASB, nie szkoli pracowników i nie wie, jak klasyfikować dane przed wprowadzeniem ich do AI. Tymczasem polska polityka bezpieczeństwa zgodna z ISO 27001 i NIS2 jednoznacznie wskazuje, że wszelkie systemy przetwarzające informacje – także te oparte na AI – muszą podlegać zasadom kontroli dostępu, monitorowania, klasyfikacji danych, audytu i rejestracji incydentów. Bez tego każda organizacja jest narażona na poważne naruszenia bezpieczeństwa, które mogą skutkować odpowiedzialnością prawną, finansową, a nawet paraliżem działalności.
– Sztuczna inteligencja nie jest zagrożeniem sama w sobie. Zagrożeniem jest jej nieświadome, niekontrolowane używanie. Odpowiednio wdrożona polityka AI, szkolenia, regularne audyty Shadow AI, stosowanie narzędzi monitorujących oraz rygorystyczna klasyfikacja danych są dziś absolutnym minimum, jeśli organizacje chcą uniknąć najpoważniejszych incydentów. W świecie, w którym Polska stała się jednym z najczęściej atakowanych cybernetycznie krajów, a AI wykorzystywana jest zarówno przez pracowników, jak i cyberprzestępców, brak odpowiedzialnego podejścia do nowych technologii może kosztować więcej, niż ktokolwiek się spodziewa – komentuje Przemysław Wójcik, prezes polskiej firmy AMP.
7 Zasad bezpiecznego korzystania z AI
1. Nie wklejaj danych wrażliwych.
2. Korzystaj tylko z narzędzi zatwierdzonych przez IT.
3. Anonimizuj dane przed wprowadzeniem do AI.
4. Weryfikuj każdą odpowiedź AI.
5. Zgłaszaj Shadow AI.
6. Chroń hasła, klucze i konfiguracje.
7. Pamiętaj, że AI może kłamać.



