Reklama

Polityka i prawo

#CyberMagazyn: Dezinformacja, fake newsy i sztuczna inteligencja. Czy jesteśmy gotowi na kampanię?

Fot. Pxhere/CC0
Fot. Pxhere/CC0

Nadchodzące miesiące upłyną pod znakiem politycznych obietnic i przepychanek. Kto da więcej, kto obiecał, kto zabrał, a kto słowa nie dotrzymał. Kampania przed zbliżającymi się wyborami parlamentarnymi wchodzi jednak nie tylko w nową fazę pod względem coraz bardziej zaogniającego się, politycznego sporu, ale także w kontekście technologicznym. Czy jesteśmy gotowi na falę dezinformacji, deep fake«ów i treści wygenerowanych przez sztuczną inteligencję?

Reklama

Amerykańscy politycy już szykują się na nadchodzącą falę dezinformacji w czasie kampanii prezydenckiej w 2024 roku, co zadeklarowali w czasie konferencji National Association of Secretaries of State w połowie lipca. Jak zaznaczyli, są świadomi zagrożenia nie tylko wynikającego z klasycznej dezinformacji i misinformacji, ale też mają zamiar podjąć „bezprecedensowe kroki”, by walczyć z deepfake'ami i treściami wygenerowanymi przez sztuczną inteligencję. Nie jest tajemnicą, że - dzięki technologii - manipulowanie wyborcami i celowe wprowadzanie ich w błąd będzie jeszcze prostsze.

Reklama

„Musimy wyprzedzić to, co dzieje się pod względem technologii i jak to może wpłynąć na demokrację” - powiedział sekretarz stanu Waszyngton Steve Hobbs, cytowany przez serwis Cyberscoop .

Czytaj też

Sprawa polska a dezinformacja

Choć w Polsce coraz więcej mówi się o zagrożeniu związanym z dezinformacją, powstaje coraz więcej inicjatyw z tym związanych (portale fact-checkingowe, fundacje i szkolenia) to wciąż problem - w starciu z prędkością, z jaką rozchodzą się fake newsy – jest olbrzymi. Nie tak dawno analitycy Demagoga ogłosili, że w związku z trwającą prekampanią wyborczą wspólnie z Radiem Zet ruszają z projektem fact-checkingowym, w ramach którego będą sprawdzać wypowiedzi polityków m.in. na bazie programu tej stacji - „Gość Radia Zet”.

Reklama

Prawda jest jednak taka, że to kropla w morzu potrzeb. Czy jesteśmy gotowi na samą kampanię w czasie której – możemy się założyć – politycy będą obrzucać się wzajemnymi oskarżeniami o fake newsy?

Kolejnym zagrożeniem są wspomniane już deepfake, czyli materiały audio i/lub wideo, wygenerowane przy pomocy algorytmów uczenia maszynowego. O ile są wykorzystywane w celach rozrywkowych nie mamy się czego obawiać, nie ma co jednak naiwnie wierzyć w dobre intencje ich twórców. Dodatkowo treści wygenerowane przez sztuczną inteligencję – czy to teksty, czy obrazy tworzone przy pomocy pojawiających się jak grzyby po deszczu chatbotów – budują nam niewesoły obraz nadchodzących miesięcy, w których internauta będzie musiał oddzielić prawdę od fałszu.

Czy polscy wyborcy są gotowi na treści polityczne, wygenerowane przez AI w czasie kampanii? Jakub Śliż ze Stowarzyszenia Pravda uważa, że nie. „Chociaż konflikt na Ukrainie z pewnością zwiększył świadomość ludzi na temat dezinformacji, czy to w postaci manipulacji zdjęciami czy też innych technik, pełnoskalowa inwazja deepfake'ów mogłaby mieć dewastujący efekt" – zaznacza.

Jak dodaje, wyobraźmy sobie sytuację, w której deepfake audio przedstawiający rozmowę kandydata politycznego jest rozpowszechniany jako autentyczne wypowiedzi, ale w rzeczywistości zostały one sfabrykowane. „Weryfikacja takiego materiału byłaby znacznie trudniejsza niż w przypadku manipulacji wizualnych, ponieważ jakość dźwięku, ukryte mikrofony czy inne czynniki mogą wpływać na odbiór i analizę. To właśnie takie mniej ewidentne wygenerowane przez AI treści, moim zdaniem mogą zdziałać najwięcej zła” - mówi dla CyberDefence24.pl.

Czytaj też

O tę kwestię zapytaliśmy także Marcela Kiełtykę ze Stowarzyszenia Demagog. W jego opinii, w kwestii dezinformacji, jaką może generować AI jest jeszcze dużo do zrobienia. „Polscy wyborcy nadal nabierają się na fake newsy, które nie są generowane przez sztuczną inteligencję. Mowa tutaj o najprostszych sposobach manipulacji, czyli np. o fotomontażach, nawet tych mniej subtelnych, które w łatwy sposób można zdemaskować, mając podstawowe kompetencje cyfrowe. W sieci nadal pojawia się też sporo zmyślonych cytatów, wypowiedzi polityków wyrwanych z kontekstu, czy po prostu zmyślonych informacji, które nie zawsze są weryfikowane jako fałszywe przez wyborców. Bardzo często nawet satyra i memy odbierane są jako fakty” - wskazuje.

Osobną sprawą są treści dezinformujące, wygenerowane przez AI. „To jest duże ryzyko tego, że tak stworzone obrazy czy filmy wywołają sporo zamieszania i chaosu w okresie wyborczym. Wyobrażam sobie hipotetyczną sytuację kryzysową w czasie kampanii wyborczej. Pamiętajmy, że za naszą wschodnią granicą ciągle trwa wojna, coraz więcej dzieje się również na Białorusi, coraz popularniejsze stają się różne teorie spiskowe, w której pojawia się nagranie wideo czy audio z politykiem wygłaszającym bardzo kontrowersyjne tezy i decyzje. Taki deepfaake prędzej czy później zostanie zdementowany, natomiast w krótkim czasie może wprowadzić wiele zamieszania, w myśl przysłowia - >>zanim prawda zdąży włożyć buty, kłamstwo obiegnie cały świat<<” - komentuje dla CyberDefence24.pl.

Nadchodzi kampania...

Nie ma co także łudzić się, że politykom zależy na tym, by istniały skuteczne mechanizmy walki z dezinformacją. Zdystansowane podejście do tego, co jest prawdą, a co tylko wyborczą manipulacją prezentuje każda ze stron sceny politycznej. Za każdym razem także – gdy zapowiadają „walkę z fake newsami” - powinna się nam raczej zapalić "czerwona lampka", niż powinniśmy przyklaskiwać ich pomysłom na kolejne regulacje.

Problem – choć w jakim stopniu dopiero się przekonamy – częściowo ma pomóc rozwiązać tzw. AI Act, czyli Akt o sztucznej inteligencji, który między innymi będzie wymagał oznaczania treści generowanych przez AI. Niestety jest za mało czasu, aby dotyczyło to nadchodzącej, jesiennej kampanii (ledwo w połowie czerwca br. przyjął go Parlament Europejski ).

Dlaczego to ważne? Wystarczy podać przykład spotu Republikanów z kwietnia br. w którym przedstawiono USA po wyborach w 2024 roku – wedle wizji z deepfake'owego wideo – wygranych przez administrację Joe Bidena, co miałoby być równoznaczne z chaosem w Ameryce.

Czy czekają nas podobne spoty w Polsce? „Pierwsze przykłady już pojawiają się w sieci. Czy wyborcy będą w stanie rozróżnić je od tych nagranych w tradycyjny sposób? Czy w ogóle będą czuli taką potrzebę? Wydaje mi się, że większość obywateli nie jest odpowiednio przygotowana do identyfikacji tego typu informacji. Sztuczna inteligencja rozwija się bardzo szybko i jakość materiałów tak wyprodukowanych jest coraz wyższa, coraz trudniej odróżnić fake od prawdy gołym okiem. Trwa wyścig zbrojeń, z jednej strony powstają kolejne narzędzia, które pomogą nam w weryfikacji, z drugiej jednak strony aktorzy szerzący dezinformację są również wyposażani w coraz to bardziej zaawansowane i skuteczne technologie. A stworzenie dobrego jakościowo deepfake'a staje się coraz szybsze i tańsze” - mówi nam Marcel Kiełtyka.

Z kolei Jakub Śliż uważa odwrotnie: nie czeka nas jeszcze zalew politycznych treści, wprowadzających w błąd, przygotowanych przy wsparciu AI. „Mimo, że technologia się rozwija jej pełne wykorzystane przykładowo do produkcji siatek botów czy filmów - wymaga cały czas większych budżetów. Trudno mi wyobrazić sobie, żeby politycy ryzykowali tak wiele w tym momencie. Na pewno możemy spodziewać się kilku głośniejszych case'ów, ale nie sądzę, żeby miały one znaczny wpływ na wybory” - ocenia.

„W naszej pracy już widzimy wzmożoną aktywność polityków, których słowa codziennie weryfikujemy. Identyfikujemy też pierwsze narracje, które mogą posłużyć do walki politycznej poprzez dezinformację. Mowa tutaj m.in. o tym, że wybory w Polsce mogą zostać sfałszowane - przykład świetnie znany z USA i Brazylii, co doprowadziło do tragedii i zajmowania budynków rządowych przez wyznawców teorii spiskowych - wykorzystywanie manipulacji do uderzania w środowiska LGBT+ czy dezinformacja wokół zmian klimatu i relacji Polski z Unią Europejską” - wymienia Marcel Kiełtyka

Jak stwierdza, narracji dezinformacyjnych będzie pojawiało się pewnie więcej i prawdopodobnie część z nich będzie wspomagana poprzez sztuczną inteligencję. „Dlatego warto być świadomym mechanizmów powstawania fałszywych informacji i nie wierzyć we wszystko, co zobaczymy w sieci, szczególnie jeśli coś wywołuje w nas duże emocje” - przypomina.

Co na to Big Techy?

Jedno to działalność fact-checkerów, którzy niczym pszczoły w ulu codziennie swoją pracę zaczynają od nowa, przeczesując internet w poszukiwaniu szkodliwych przypadków fałszywych treści. Drugie, to odpowiedzialność Big Techów, których podejście – jak wynika z naszych rozmów z przedstawicielami fundacji i stowarzyszeń fact-checkingowych – wciąż pozostawia wiele do życzenia.

Wystarczy podać przykład Twittera, który zawsze miał problem z trollami i botami, jednak od czasów przejęcia platformy przez Elona Muska tego typu konta rozgościły się tam na dobre. Prym wiedzie także rosyjska propaganda, której zasięg postów nie jest już ograniczany, a konta pochodzące z instytucji rządowych nie są oznaczane jako „treści powiązane z państwem” (co wcześniej miało ułatwić odbiorcy identyfikowanie kont, które rozpowszechniają oficjalną, propagandową linię Kremla).

Czytaj też

Musk ograniczył także zespół odpowiadający za walkę z dezinformacją, podobnie jak Meta , której masowe cięcia wśród personelu objęły działy odpowiedzialne za moderację.

I choć w związku z zapisami aktu o usługach cyfrowych (DSA – Digital Services Act) oraz aktu o rynkach cyfrowych (DMA – Digital Market Act) platformy będą miały szereg nowych obowiązków – w tym transparentną moderację treści oraz właśnie – większą ochronę użytkowników przed treściami wprowadzającymi w błąd – to jak na razie wydaje się, że niewiele sobie z tego robią.

Czy zatem chociaż polski rząd podejmuje – zdaniem fact-checkerów adekwatne działania, by edukować odbiorców, a w czasie nadchodzącej jesieni – wyborców, by potrafili sami namierzać fake newsy?

Czytaj też

Marcel Kiełtyka stwierdza, że od pewnego czasu widzą pewne inicjatywy i działania, które podejmuje rząd w celu walki z dezinformacją. „Te działania zaczęły się tak naprawdę dopiero podczas kryzysu związanego z pandemią COVID-19 oraz wybuchem pełnoskalowej wojny w Ukrainie. To jednak zdecydowanie za późno i za mało” - dodaje.

Jego zdaniem - w kwestii walki z dezinformacją, która będzie napędzana przez AI - potrzebne są systemowe działania edukacyjne, obejmujące podstawę programową w szkołach. „To działania strategiczne i długofalowe, ale bardzo potrzebne. Wychodzimy z założenia, że najlepszą brronią na fake news w naszych rękach jest krytyczny umysł i świadome społeczeństwo, a to możemy osiągnąć tylko dzięki wspólnym działaniom edukacyjnym. Najlepiej zaczynając już od najmłodszych, idąc wzorem państw skandynawskich. Co nie oznacza, że kampania edukacyjna na temat rozróżniania fałszywych informacji w okresie wyborczym byłaby złym pomysłem. Pytanie tylko, czy politycy mają interes w tym, aby uczyć społeczeństwo jak bronić się przed polityczną manipulacją?” - pyta retorycznie ekspert Demagoga.

Natomiast Jakub Śliż ze Stowarzyszenia Pravda jednoznacznie recenzuje postawę polskich władz wobec rosnącego problemu politycznej dezinformacji: „Kompletny brak jakichkolwiek działań” - podsumowuje.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama