Amerykanie chcą zakazać korzystania ze sztucznej inteligencji w kampaniach wyborczych

Fot. Unsplash.com

Całościowych regulacji dotyczących użycia sztucznej inteligencji w kampaniach wyborczych, nie ma ani w Polsce, ani w USA, ani w żadnym innym demokratycznym kraju. Tam, gdzie trwa polityczna walka, możemy być świadkiem wielu nieczystych zagrań z użyciem np. „deepfejków”. Również ChatGPT okazał się narzędziem, które sprzyja zdobywaniu wyborców. Bardzo łatwo przy jego użyciu kierować przekaz do ściśle określonych grup. Coś, co kiedyś wymagało tygodni, jeśli nie miesięcy przygotowań – dziś można zrobić w kilka chwil. Co ciekawe takie zagrania są wbrew regulaminowi narzędzia. Jednak OpenAI nie ma odpowiednich zasobów kontrolnych, aby temu zapobiegać.

Zasady były szczytne. Kiedy w zeszłym roku OpenAI uruchomiło ChatGPT, to zarazem autorzy oprogramowania zakazali sztabom politycznym korzystania z chatbota opartego na sztucznej inteligencji. Firma uznała tym samym ryzyko manipulacji wyborami, jakie stwarza to narzędzie. Po kilku miesiącach firma skorygowała stanowisko i zabroniła jedynie wykorzystywania ChatGPT do tworzenia materiałów skierowanych do określonych grup demograficznych. Zdaniem autorów narzędzie mogłoby zostać wykorzystane do „rozpowszechniania dostosowanej do indywidualnych potrzeb dezinformacji na bezprecedensową skalę”. Natomiast jeśli polityk chciałby wykorzystać narzędzie do napisania przemówienia lub chatbota namawiającego do wzięcia udziału w wyborach, to OpenAI służy pomocą.

AI wie, jak z mizogina zrobić szarmanckiego dżentelmena

Jednak analiza przeprowadzona przez The Washington Post pokazuje, że OpenAI od miesięcy nie egzekwuje swojego zakazu. Sztaby w USA (ale zakładamy, że nie tylko tam) bez trudu generują w kilka sekund dostosowane do wyborców treści. Trzeba przyznać, że kampanijni specjaliści muszą odczuwać ulgę, bo przecież wiele godzin zajęłoby im wymyślenie „dziesięciu powodów, dla których kobiety w Nowym Yorku powinny głosować na Donalda Trumpa”. ChatGPT zrobi to od ręki. 

Personalizacja przekazu, mikrotargetowanie, czyli dobór odbiorców tak aby podzielić ich na małe grupy, to klucz w działalności internetowej podczas wyborów. To co działa na wyborców np. dużych miast i co podkreślają politycy na antenach ogólnopolskich telewizji, niekoniecznie musi interesować mieszkańca małej miejscowości. On jednak dostanie przekaz tylko dla niego podczas np. oglądania filmiku w serwisie streamingowym. Ten sam filmik i czas reklamowy wykorzystywany przez konkretną partię może różnić się nawet na obszarze tego samego województwa. Co innego dostanie rolnik, a co innego nauczyciel – opisuje Agata Borek-Romańska, koordynatorka działu reklamy internetowej w ZnajdźReklamę.pl.

W internecie czas biegnie znacznie szybciej. Już dziś stworzenie skutecznej kampanii i dostosowanie przekazu do konkretnej części okręgu wyborczego jest proste, więc każde narzędzie, które ułatwia prowadzenie kampanii w internecie, personalizacje przekazu czy segregowanie grup odbiorców jest na wagę złota. Każda minuta zwłoki może spowodować, że to nasz polityczny konkurent szybciej dotrze ze swoim przekazem do nowych wyborców w internecie – dodaje Agata Borek-Romańska.

Wiara w samoregulację rynku…

Przedstawiciele OpenAI przyznali w czerwcu, że generowanie treści kampanijnych narusza regulamin, ale zarazem dodają, że pracują nad narzędziami do wykrywania, kiedy ludzie korzystają z ChatGPT do tworzenia materiałów politycznych. Jednak parę miesięcy później nadal problem istnieje, a to szczególnie ważne w miejscach, gdzie trwają wybory jak w USA (prawybory prezydenckie) czy np. w Polsce. 

Zdjęcia i filmy wygenerowane przez sztuczną inteligencję wywołały poruszenie wśród socjologów którzy zajmują się kampaniami politycznymi. Ostrzegają, że sfabrykowane zdjęcia i filmy mogą wprowadzić wyborców w błąd, co może prowadzić do zafałszowania wyborów. 

Przykładów daleko szukać nie musimy. W trwającej w Polsce kampanii wyborczej sztabowcy Koalicji Obywatelskiej zaznaczyli, że część materiału została wygenerowana przez sztuczną inteligencję. Chodziło o to, że dokument rządowy czytany był przez odpowiedniego polityka, ale jego głos został stworzony przez AI na podstawie innych wypowiedzi. Sztab KO oznaczył materiał jednak dopiero po tym, gdy został skrytykowany przez ekspertów zajmujących się na co dzień sztuczną inteligencją. W Polsce konkretnych rozwiązań prawnych nadal bowiem brakuje. 

Podobnie jest w USA, gdzie brakuje ogólnokrajowych regulacji. Przykładów – i to znacznie jaskrawszych – na użycie AI w złej wierze jest tam bez liku. Jak choćby ten, kiedy sztab kampanii prezydenckiej gubernatora Florydy Rona DeSantisa zamieścił reklamę przedstawiającą Donalda Trumpa przytulającego i całującego byłego doradcę medycznego Białego Domu Anthony’ego Fauciego (tak naprawdę obaj mieli inne spojrzenie np. na przeciwdziałanie pandemii Covid-19). Natomiast Komitet Narodowy Republikanów opublikował fałszywą reklamę polityczną, w której przedstawiano apokaliptyczną Amerykę podczas drugiej kadencji prezydenta Joe Bidena. W tych i wielu innych materiałach zastosowano elementy „deepfake”, czyli użyto sztucznej inteligencji w taki sposób, że ludzkim okiem nie da się określić tego, że np. przedstawione postacie są stworzone przez AI.

Na razie większość działań opiera się na samokontroli wśród tworzących oprogramowanie. Jak widać średnio skutecznie. Sam Altman, dyrektor generalny OpenAI, opublikował nawet w mediach społecznościowych post, że jest „zdenerwowany” wpływem sztucznej inteligencji na przyszłe wybory i pisał dalej, że „firma jest ciekawa pomysłów na rozwiązanie tego problemu i, że należy podnosić świadomość użytkowników.” 

Natomiast Google już od listopada wprowadzi aktualizację zasad dotyczących treści politycznych. Wszyscy zweryfikowani reklamodawcy polityczni będą mogli używać AI w swoich przekazach, ale zostaną zobowiązani, by wyraźnie to zakomunikować w reklamach wyborczych na platformach Google’a, np. tak: „Ten dźwięk został wygenerowany komputerowo” lub: „Ten obraz nie przedstawia prawdziwych wydarzeń”.

…ale i polityk musi uważać na agencje

Zalew nowych narzędzi może być dobrodziejstwem dla małych kampanii, ułatwiając skuteczne docieranie do odbiorców, mikrosondy lub testowanie wiadomości. Może jednak również otworzyć nową erę dezinformacji, umożliwiając szybsze i tańsze rozpowszechnianie ukierunkowanych kłamstw politycznych w kampaniach, które są coraz trudniejsze do śledzenia. 

Dlaczego? Pozostańmy w Polsce. Skrytykowanie użycia sztucznej inteligencji bez jej podpisania było możliwe tylko dlatego, że sztab zrobił to w kampanii ogólnopolskiej. Jeśli taka reklama trafi jednak do nielicznej grupy odbiorców (np. tysiąca) bardzo trudno o obywatelską kontrolę. Wyłapanie ewentualnej dezinformacji jest wtedy skrajnie trudne. 

Nie tylko Google wprowadza swoje obostrzenia (na razie nie wiemy, czy będą one dotyczyły również Polski). Kilka stanów, w tym Kalifornia, Teksas i Minnesota, przyjęło własne regulacje dotyczące sztucznej inteligencji, a inne stany podążają ich śladem. Co ciekawe kongresmanka Yvette Clarke (ze stanu Nowy Jork) przedstawiła projekt ustawy, który wymagałby ujawniania informacji na temat wytwarzania sztucznej inteligencji w reklamach politycznych. Jednak prawo najprawdopodobniej nie przybierze ogólnokrajowego wymiaru, gdyż oczekuje się, że ustawa ta nie zdobędzie poparcia Republikanów w kontrolowanej przez nich Izbie Reprezentantów. 

W trakcie kampanii, zarówno w Polsce, jak i w USA czy w innych miejscach na świecie, nie ma co liczyć na to, że politycy choćby hipotetycznie i na niewielką skalę ograniczą swoją wolność ekspresji. 

Co ważne, nawet we wprowadzanych zmianach przez Google, to drobne zmiany np. przy tworzeniu kampanijnych materiałów graficznych jak poprawa jakości, nie wymagają ujawnienia. Dlatego na billboardach i na innych nośnikach politycy będą wyglądali znacznie korzystniej niż na co dzień. Nic w tej kwestii się nie zmieni, a taką manipulację traktujemy wszyscy z przymrużeniem oka. Narzędzia AI po prostu ułatwiają działanie – mówi Agata Borek-Romańska ze ZnajdźReklamę.pl. – Agencje reklamowe czy firmy posiadające nośniki mają jednak z tyłu głowy to, że na wyborach świat się nie kończy i część krytyki może spaść na nich. W momencie, gdy otrzymujemy informację, czego ma dotyczyć dana kampania, to przedstawiamy te nośniki, na których można realnie i z jak najkorzystniejszym efektem dla klienta ją przeprowadzić. W umowie są jednak zastrzeżenia, że możemy odmówić, jeżeli zostaniemy wprowadzeni w błąd – dodaje  Agata Borek-Romańska.

Kwestia dotyczy choćby promowania alkoholu czy nikotyny, ale też kontrowersyjnych treści politycznych. Na nośnikach zewnętrznych takich jak np. billboardy o kontrolę jest jednak równie łatwo jak w przypadku ogólnopolskiej kampanii telewizyjnej czy internetowej. Billboardy trafiają bowiem nawet do tych, którzy jak ognia unikają kampanijnej zawieruchy. Nie można go przełączyć jak kanału w tv czy radiu, wyłączyć poprzez blokadę reklam w internecie lub przejść na inną stronę. Co ważne dociera też do różnych grup wyborców, którzy dziś zbierają się wokół określonych mediów czy grup społecznych. Billboard wymyka się tym granicom i jego przekaz może przekonać niezdecydowanych do głosowania albo zasiać ziarno niepewności tym, do których nie docierają informacje spoza określonej bańki. Taka reklama bardzo szybko może zatem trafić do masowego odbiorcy, więc i pod czujne oko krytyków.