30 listopada 2023 roku, w dniu otwarcia przez Google nowego centrum cyberbezpieczeństwa w Europie, platforma wymiany informacji o cyberzagrożeniach VirusTotal opublikowała wyniki badań, które pokazują, jak w rozwiązaniach z zakresu cyberbezpieczeństwa można wykorzystać AI do ulepszenia analizy złośliwego oprogramowania.
Raport „Empowering Defenders: How AI is shaping malware analysis” powstał w wyniku przeprowadzonych w okresie 6 miesięcy analiz setek tysięcy próbek złośliwego oprogramowania w ramach inicjatywy Crowdsourced AI. Okazało się, że sztuczna inteligencja niezwykle skutecznie analizuje złośliwy kod, ponieważ rozpoznaje 70% więcej złośliwych skryptów niż tradycyjne techniki i jest od nich nawet do 300% dokładniejsza, jeśli chodzi o wykrywanie prób atakowania urządzeń z powszechnymi lukami w zabezpieczeniach przy użyciu złośliwych skryptów lub exploitów.
Cyberbezpieczeństwo to kwestia spędzająca sen z powiek mieszkańców Europy oraz tutejszych firm i instytucji państwowych. Złośliwe oprogramowanie wymieniane jest jako jedno z największych zagrożeń w UE. Co więcej, w Europie brakuje ekspertów ds. cyberbezpieczeństwa, więc analiza złośliwego oprogramowania jest jedną z najbardziej pożądanych umiejętności wymagających wiedzy technicznej. Opublikowane dziś wyniki badań pokazują, w jaki sposób sztuczna inteligencja może przyspieszyć analizę złośliwego oprogramowania, zwiększyć jej dokładność oraz ułatwić przeprowadzanie tego procesu osobom, które nie mają specjalistycznej wiedzy bądź doświadczenia, a w konsekwencji zwiększyć bezpieczeństwo europejskich organizacji.
Raport VirusTotal stanowi uzupełnienie opublikowanej w zeszłym miesiącu przez zespół ekspertów i ekspertek Google Cloud prognozy dotyczącej cyberbezpieczeństwa na rok 2024, w której możemy przeczytać, że w ramach ochrony przed zagrożeniami w sieci będziemy korzystać z technologii generatywnej AI w celu poprawy wykrywania i identyfikowania zagrożeń oraz reagowania na nie, a także w celu przyspieszenia analizy złośliwego oprogramowania oraz innych czasochłonnych zadań, takich jak analiza wsteczna. Specjaliści i specjalistki ds. bezpieczeństwa z Google Cloud przewidują, że sztuczna inteligencja będzie pomagać w analizie i kontekstualizacji dużych ilości danych.
Dzięki udostępnieniu w pierwszej połowie tego roku funkcji Code Insight osoby przeprowadzające badanie z firmy VirusTotal odkryły, że sztuczna inteligencja może przyspieszyć niegdyś wykonywany ręcznie proces analizowania złożonych skryptów w celu wykrycia złośliwego kodu, ale także wyjaśnić analitykom prostym językiem, czy kod jest złośliwy i do czego jest przeznaczony. Funkcja ta dodatkowo zwiększa skuteczność istniejących narzędzi używanych do zapewniania cyberbezpieczeństwa, ponieważ dostarcza bardziej szczegółowych informacji na temat analizowanego kodu (jego przeznaczenia i sposobu działania) oraz znacznie rozszerza możliwości tych narzędzi związane z niwelowaniem potencjalnych zagrożeń.
– Technologia może tworzyć nowe zagrożenia, ale może też pomóc nam z nimi walczyć. Możliwości AI w zakresie analizowania i wyjaśniania złośliwych skryptów będą mieć ogromne znaczenie dla cyberbezpieczeństwa, ponieważ osoby, które nie mają specjalistycznej wiedzy, będą mogły wykrywać ataki złośliwego oprogramowania i im zapobiegać. Badaczom i osobom czuwającym nad cyberbezpieczeństwem AI pozwoli zaoszczędzić ogromną ilość czasu i umożliwi obronę przed różnego rodzaju atakami i narzędziami stosowanymi przez osoby przeprowadzające ataki – mówi Vicente Diaz, strateg ds. analizy zagrożeń w zespole VirusTotal.
W swojej prognozie dotyczącej cyberbezpieczeństwa na rok 2024 eksperci i ekspertki Google Cloud przewidują, że generatywna AI i duże modele językowe mogą być wykorzystywane do ataków phishingowych, ataków przy użyciu SMS-ów, a także w ramach innych działań z zakresu inżynierii społecznej, aby treści wyglądały na bardziej wiarygodne. Badania przeprowadzone przez VirusTotal wykazały, że osoby przeprowadzające ataki w sieci coraz częściej tworzą złośliwe oprogramowanie podszywające się pod rozwiązania oparte na sztucznej inteligencji, w których wykorzystują tekst i obrazy generowane przez AI, aby wzbudzać większe zaufanie użytkowników. Na przykład udostępniają strony internetowe, na których używają ikon znanych rozwiązań opartych na AI, co ma zwiększyć ich wiarygodność. W efekcie oszukany użytkownik pobiera złośliwe oprogramowanie lub pada ofiarą kradzieży danych.
– Nieustannie pracujemy nad stworzeniem bezpieczniejszego i bardziej godnego zaufania internetu. Podstawową rolą naszego właśnie uruchomionego Inżynierskiego Centrum Bezpieczeństwa w Maladze będzie udostępnianie informacji o zagrożeniach i analizowanie nowych zagrożeń bezpieczeństwa, tak jak zostało to zrobione w raporcie. Choć niepokojące jest to, że oprogramowanie typu adware podszywa się pod rozwiązania online oparte na AI, jednocześnie sztuczna inteligencja może pomóc w wykrywaniu powszechnych luk w zabezpieczeniach i exploitów, a także w ochronie przed ich wykorzystywaniem, z nawet 300% większą dokładnością. Co ważne, w miarę trenowania sztuczna inteligencja będzie coraz lepiej radzić sobie z wykrywaniem zagrożeń i zapobieganiem im, więc najlepsze jeszcze przed nami – mówi Phil Venables, główny specjalista ds. bezpieczeństwa informacji w Google Cloud.