Innowacyjne rozwiązanie do walki z dezinformacją melodią przyszłości. Amerykańskie wojsko wkracza do akcji

September 10, 2019, 13:10
36588125251_3f71597ce8_b
Fot. Mike MacKenzie/flickr

Fake newsy oraz posty w mediach społecznościowych stanowią obecnie jedno z głównych zagrożeń dla bezpieczeństwa Stanów Zjednoczonych. W związku z czym Departament Obrony USA zlecił rozpoczęcie projektu mającego na celu odparcie i neutralizację „automatycznych ataków dezinformacyjnych na dużą skalę” – informuje agencja Bloomberga.

Defense Advanced Research Projects Agency (DARPA) chce opracować wyspecjalizowane oprogramowanie, które byłoby w stanie wykryć zaawansowane kampanie dezinformacyjne. Jeśli realizacja założeń pójdzie zgodnie z planem, innowacyjne rozwiązanie o nazwie SemaFor w ciągu czterech lat może zostać wykorzystane do wykrywania, a nawet zapobiegania złośliwym kampanią z użyciem fake newsów.

„Dziesięć lat temu dzisiejszy poziom techniki zostałby odebrany jako science fiction - tak szybko nastąpiły zmiany i udoskonalenia” – zaznaczył przedstawiciel środowiska naukowego Uniwersytetu Stanforda Andrew Grotto. – „Nie ma żadnych przesłanek na to, że postęp technologiczny spowolni w najbliższym czasie”.

Jak podaje agencja Bloomberga, amerykańskie władze już teraz intensywnie pracują, aby skutecznie zabezpieczyć zbliżające się wybory prezydenckie przed złośliwą działalnością hakerów lub aktorów państwowych. Waszyngton robi wszystko, aby zapobiec rozbudowanym kampaniom fake newsów.

Czynnik ryzyka

Prezydent Donald Trump wielokrotnie odpierał zarzuty mówiące, że fikcyjne treści zamieszczane w mediach społecznościowych oraz innych witrynach przyczyniły się do jego zwycięstwa w ostatnich wyborach prezydenckich. Jednak do dziś obóz przeciwników głowy państwa podnosi argumentację o celowym zmanipulowaniu obywateli w taki sposób, aby Hillary Clinton przegrała kampanię o fotel prezydencki.

„Czynnikiem ryzyka jest wykorzystywanie mediów społecznościowych i użycie ich do wywierania wpływu na wybory” – zaznaczyła cytowana przez Blooberga Jennifer Grygiel, przedstawicielka Uniwersytetu Syracuse. – „To naprawdę interesujące, że DARPA próbuje stworzyć system wykrywania dezinformacji. Ale to nie będzie idealne rozwiązanie dopóki nie będzie nadzoru legislacyjnego. Tu jest ogromna luka i to jest problem”.

Fikcyjne wiadomości są coraz bardziej zaawansowane, co sprawia, że ich wykrycie staję się prawie niemożliwe. Spreparowane obrazy wytworzone przez sztuczną inteligencję wykorzystuje się obecnie nawet przy produkcji światowych hitów Hollywood. To wszystko sprawia, że innowacyjne rozwiązania stwarzają możliwość nie tylko tworzenia fałszywych wiadomości, ale także obrazów wideo czy dźwięków audio.

„Szczególnie przerażające są perspektywy złośliwych aktorów łączących różne formy fałszywych treści w jednolitą i spójną całość” – podkreślił Andrew Grotto. – „Specjaliści mogą już teraz tworzyć przekonujące fikcyjne filmy, generować przekonująco realistyczny tekst i wdrażać chatboty do interakcji z ludźmi’.

Walka z fake newsami

Jak wskazuje agencja Bloomberga, DARPA intensywnie pracuje nad systemem, który pozwoli szybko i skutecznie neutralizować złośliwe kampanie dezinformacyjne prowadzone przez wrogów USA. „Ta technologia pomoże zidentyfikować, powstrzymać i zrozumieć kampanie dezinformacyjne przeciwników” – stwierdzili specjaliści agencji.

Rozwiązania wykorzystywane obecnie są podatne na błędy. Dlatego też DARPA rozwija program o nazwie MediFor, który próbuje wypełnić lukę technologiczną służącą do uwierzytelniania obrazów. Dużym problemem jest jednak brak kompleksowego systemu odpowiedzialnego za weryfikację wiadomości zamieszczonych w sieci oraz mediach. Odpowiedzią na rosnące zagrożenie ma być SemaFor.

Projekt realizowany przez DARPA ma jednak być rozwijany przez cztery lata, co oznacza, że jego wykorzystanie podczas zbliżającej się kampanii prezydenckiej w 2020 roku będzie niemożliwe. „Jest niewiele czasu do wyborów i zastanawiam się, czy rozmowa o tym projekcie nie jest tylko działaniem czysto PR-owskim” – powiedziała Jennifer Grygiel, cytowana przez Bloomberga. – „Edukacja społeczeństwa w zakresie umiejętności korzystania z mediów, wraz z przepisami, jest ważna. Ale wybranym przedstawicielom władzy brakuje motywacji do zmiany. Chodzi o konflikt interesów. Przecież korzystają oni właśnie z tych platform, by zostać wybranymi”.

KomentarzeLiczba komentarzy: 5
Andrettoni
Friday, September 13, 2019, 01:16

Nie wierzę w skuteczność żadnego podobnego systemu - oczywiście cenzura może wszystko blokować, ale kto dokona oceny co jest słuszne, a co nie? Bóg? Prezydent USA? Szef korporacji posiadającej wyszukiwarkę np. google? Jak już kiedyś pisałem podstawa oceny informacji może być tylko ocena wiarygodności dostawcy informacji i nasz rozsadek. Przykładowo niedawno w internecie doszło do powstania licznych "fake news" dotyczących pożarów w lasach Amazonii. Bardzo znane osobistości zamieszczały swoje wypowiedzi opatrując je stosownymi zdjęciami. Problem polega na tym, że były to zdjęcia pożarów z innych lat, a często miejsc... Tym samym te osoby - prawdo podobnie w dobrej wierze rozpowszechniły nieprawdziwe fotografie - to tak jakbym zamiast zdjęcia np. Abramsa dał zdjęcie Shermana... Tymczasem ważne jest by wiedzieć kto te informacje rozpowszechnia - czy jest to prawdziwe konto czy tylko ktoś się podszywa (do tego wystarczy podpis elektroniczny) oraz czy dana osoba ma w ogóle jakieś -pojecie na dany temat. Przykładowo znana gwiazda muzyki może mieć dużą siłę oddziaływania na innych, ale nie koniecznie musi mieć rzetelną wiedzę na temat np. gotowania. Niektóre osoby, kraje czy organizacje mają za sobą długą historię konfabulowania i powinny być uznane jako mało wiarygodne, co nie oznacza, że kłamią zawsze, często same są w błędzie. Wyłowienie tego wymaga wiedzy i rozsądku. Niestety korporacje od wielu lat wydawały dużo pieniędzy na temat kształtowania konsumentów - wpływania na nich reklamami itp. Rozwinęło się to tak, że można wpływać na wizerunek każdego przedmiotu i osoby. Bogate osoby i organizacje mogą praktycznie wszystko zmanipulować - jest to tylko kwestia czasu i kosztów. Na przeciwdziałanie tym oddziaływaniom pojedyncza osoba nie jest w stanie nic wydać. Dlatego warto by było opracować "system wiarygodności", coś w rodzaju bibliografii - czy jest to wiedza własna autora czy ma swoje źródło, np z jakiejś agencji prasowej. Przykładowo jako człowiek rozsądny czytając ten artykuł i będąc nim zainteresowany poszukam jakichś informacji na stronie DARPA lub Departamentu Obrony USA, co i tak będzie tylko liźnięciem tematu, sprawdzeniem czy istnieje. Większość ludzi przyjmie wiadomość bezkrytycznie i nic nie sprawdzi. Nie zarzucam tu autorowi kłamstwa - przedstawiam tylko mechanizm postępowania. Nasze lenistwo pozwala wprowadzać nas w błąd nawet w sprawach łatwych do sprawdzenia. Przykładowo często wypowiadam się krytycznie na temat rozbudowy naszej floty - oczywiście nie jestem wybitnym znawcą, ale nie wypowiadam się posługując wiedza z głowy, tylko przeprowadziłem kilkudniowe badania, które naprawdę nie są trudne, a dają argumenty do dyskusji. Po prostu policzyłem ilu mamy admirałów, ilu mieliśmy za czasów PRL i ilu za czasów II RP i porównałem to z liczbami okrętów. Wyliczyłem, że obecnie mamy największa ilość admirałów w porównaniu do liczby okrętów. Dlatego istnieje duże lobby, lobby, które naciska na posiadanie dużych okrętów przez nasz kraj i każda wypowiedź przeciwna kontrowana jest wypowiedziami specjalistów - właśnie z tego środowiska. Małe okręty nie potrzebują admirałów, dlatego admirałowie ich nie chcą. Wolą złom, który jest duży i zapewnia stanowisko od małej nowoczesnej jednostki, która im stanowiska nie da. oczywiście jest to moja interpretacja(nikt nie musi uznać jej za prawdziwą), ale przynajmniej zadałem sobie trud wyszukania tych informacji. Nawet jeżeli się mylę, to wykazałem się pewna dociekliwością i rzetelnością szukając argumentów. Jak teraz można porównać informację, która może być błędna, ale jest oparta na badaniach z informacja, która może być prawdziwa, ale jest opatrzona fałszywymi zdjęciami? (dodam, że jestem zdecydowanym zwolennikiem dbania o lasy i sadzenia jak największej ilości drzew - chodzi po prostu o nieprawdziwe zdjęcia). Wydaje mi się, że w tej sytuacji o mojej wiarygodności może świadczyć tylko identyfikacja, że ja to ja i ocena mojej wiarygodności. Oczywiście taka ocena jest subiektywna - w części obiektywnej mogę dostarczyć źródła z których czerpie informacje, ale w części subiektywnej każdy musi sam ocenić czy umiem wysnuć odpowiednie wnioski z tych danych. Czy może to zrobić jakiś program, algorytm? Kto to ma ocenić? Czy moja wypowiedź ma być zablokowana, bo na przykład nasz premier chce mieć duże okręty i krytyczne wypowiedzi każe zablokować?

Stary Grzyb
Wednesday, September 11, 2019, 22:36

Słusznie, że DARPA myśli i działa przyszłościowo, ale przecież całe kampanie fake newsów tworzono już dawno i trwa to w najlepsze. Przykładowo, ruchy "pacyfistyczne", "proekologiczne", różni "bojownicy o sprawiedliwość społeczną", gender, globalne ocieplenie, itd., itp. zostały wymyślone i wdrożone w czasach, kiedy o AI nikt nie słyszał, a podstawą sukcesu było wykorzystanie ludzkiej głupoty. To samo jest bazą rozwijania "fake newsów" i dzisiaj, więc nie wiem, czy najlepszy nawet program coś tu poradzi.

qwert
Wednesday, September 11, 2019, 19:04

Mistrzami produkcji "fejk niusów"są niewątpliwie amerykanie, ci to potrafią wmówić dziecko w brzuch, albo broń masowego rażenia Husajnowi że o innych "reżimach nie wspomnę

Thursday, September 12, 2019, 14:55

Reklama
Reklama
Tweets CyberDefence24