Nowa broń w wojnie informacyjnej

2 lipca 2018, 11:19
Information_as_weapon
Fot. Pacaf.af.mil

Generowane komputerowo treści wideo, tzw. "deepfake", to pole do działania dla oszustów chcących ingerować np. w nastroje polityczne w społeczeństwie, a także nowa broń w wojnie informacyjnej - ocenia w poniedziałek agencja Associated Press.

Nowa technologia pozwala każdemu stworzyć materiał wideo, w którym pojawiają się znane postaci, np. prezydent USA Donald Trump czy wysocy rangą dyplomaci, wypowiadający się na kontrowersyjne tematy w sposób podburzający opinię publiczną - informuje AP.

Jak donosi agencja, zarówno Republikanie jak i Demokraci w USA doceniają obecnie wagę problemu, jaki niesie ze sobą możliwość tworzenia treści, w których generowane komputerowo obrazy znanych postaci życia publicznego wypowiadają bulwersujące twierdzenia i są nie do odróżnienia od prawdziwych osób, które udają. Materiały wideo tego rodzaju, zwane "deepfake", zdaniem władz USA są potencjalnym zagrożeniem dla bezpieczeństwa wewnętrznego kraju, a także mogą stać się narzędziem wpływu na zbliżające się wybory.

Zdaniem ekspertów, obawy władz są zasadne, a pytanie które należy postawić w tym temacie nie dotyczy tego, czy materiały tego rodzaju zostaną wykorzystane do wywierania wpływu na wybory polityczne Amerykanów, ale kiedy to się stanie.

Według specjalisty z zakresu kryminalistyki cyfrowej Hany'ego Farida, "w USA najpewniej wykorzystanie tej technologii będzie miało po raz pierwszy miejsce w kampanii przed wyborami uzupełniającymi zaplanowanymi na ten rok, później zaś - za dwa lata, przed wyborami powszechnymi. Technologia ta oczywiście nie zna granic, zatem zagrożone są nie tylko Stany Zjednoczone" - zauważa.

"Wkroczyliśmy w nową rzeczywistość, w której bardzo trudne stanie się stwierdzenie, czy to co widzimy jest zgodne z prawdą" - ocenia. Zdaniem Farida, prawdopodobny jest również scenariusz, w ramach którego ludzie zaczną uważać prawdziwe wypowiedzi polityków i celebrytów za sfabrykowane. Jak zauważa ekspert, sytuacja taka stanowi poważne zagrożenie dla demokracji.

Wideo typu "deepfake" powstaje z wykorzystaniem sztucznej inteligencji działającej w oparciu o algorytmy głębokiego uczenia. Materiałem wyjściowym dla treści tego rodzaju stają się często zdjęcia bądź filmy przedstawiające daną osobę, a także zapisy dźwiękowe jej głosu. Algorytm uczy się, jak naśladować i odtwarzać mimikę danej osoby, jej głos, intonację oraz rodzaj używanego słownictwa. Bardzo często oszuści tworzący materiały typu "deepfake" wykorzystują autentyczne nagrania, które łączą ze sztucznie wygenerowanym obrazem - zauważa agencja AP.

Jak ocenia badacz bezpieczeństwa międzynarodowego związany z Uniwersytetem Stanforda w Kalifornii Andrew Grotto, "w ciągu najbliższego roku lub dwóch lat rozróżnienie między prawdziwym nagraniem wideo a sfabrykowanym materiałem dla zwykłego odbiorcy stanie się niezwykle trudne". Jego zdaniem "technologia ta (pozwalająca na tworzenie materiałów "deepfake" - PAP) będzie naturalnym narzędziem wykorzystywanym przez państwa celem manipulowania opinią publiczną i przeprowadzania kampanii dezinformujących, a także podkopywania wiary w obecnie istniejące instytucje".

Według AP, technologia tworzenia fałszywych materiałów wideo mogła już być wykorzystana do celów politycznych. Agencja powołuje się na opinię byłego ambasadora USA w Rosji Michaela McFaula, który swoją funkcję pełnił w latach 2012-2014. Jego zdaniem, Rosjanie wykorzystywali tego rodzaju treści wideo w kampaniach dezinformacyjnych, wymierzonych w cele polityczne na przestrzeni lat, a on sam stał się ofiarą jednej z nich. Jak twierdzi McFaul, został on przedstawiony w treściach wideo rosyjskiej propagandy, w których "pocięto jego przemówienia i zmontowano" w sposób świadczący o tym, że "powiedział rzeczy, o których nigdy nie myślał, a nawet oskarżono go o pedofilię".

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 4
TowariszczJacho
poniedziałek, 23 lipca 2018, 18:42

Wymiar sprawiedliwości nie z takimi problemami sobie radził i pewnie nadal sobie poradzi tylko ile kasy dostanie ... czyli kasa kasa ... a reszta da się zrobić

Karol
czwartek, 5 lipca 2018, 02:22

Bodajże na Uniwersytecie Łobaczewskiego Rosjanie niedawno opracowali równania matematyczne (zaadaptowane z fizyki, z symulacji ruchu cząstek Browna), pokazujące czy w przypadku określonych działań dojdzie do konfliktu społecznego. Czyli Rosja posiadła wiedzę, jak zbudować symulator dla służb specjalnych, na którym mogą testować najskuteczniejsze metody wzniecania konfliktów społecznych. Przerażające. Spodziewam się lawinowego wzrostu ilości konfliktów w nadchodzących latach. Pewnie wiele będzie nowych, egzotycznych. Nie wątpię, że FSB skorzysta z chwilowej przewagi technologicznej nad Zachodem.

rozczochrany
wtorek, 3 lipca 2018, 13:16

Media głównego nurtu już nie informują tylko uprawiają propagandę. Ludzie szukają informacji i są coraz bardziej świadomi. Władzy się to nie podoba. Ludzie już nie łykną kłamstw. Ludzie informują się wzajemnie i organizują . I stąd ta panika władz.

Stary Grzyb
poniedziałek, 2 lipca 2018, 23:16

Problemem nie są żadne materiały typu \"deepfake\". Problemem jest to, że coraz szersze rzesze, zwłaszcza młodych, nie rozumieją w sposób automatyczny, że informacje rozpowszechniane w mediach klasycznych dzielą się na wysoce prawdopodobne (nekrologi), dosyć prawdopodobne (prognoza pogody), i podejrzane (wszystkie pozostałe), zaś w tzw. \"mediach społecznościowych\" wszystkie bez wyjątku informacje należą do trzeciej ze wskazanych grup. Co gorsza, rzesze te są całkowicie pozbawione zdolności analizowania serwowanego im przekazu.