Deepfake oszukał media i uniwersytet

17 lipca 2020, 14:34
ezgif. - mirror - com-webp-to-jpg
Fot. Pxhere/CC0

Eksperci zidentyfikowali w sieci użytkownika, którego zdjęcie profilowe zostało stworzone za pomocą technologii deepfake. Przedstawiał się jako student angielskiego uniwersytetu, a jego artykuły prasowe były publikowane w popularnych gazetach. Dopiero dogłębne analizy przeprowadzone za pomocą zaawansowanej technologii wykazały, że zdjęcie postaci zostało całkowicie spreparowane.

Specjaliści wykryli w sieci profil użytkownika, który przedstawia się jako Olivier Taylor. Wskazuje, że jest studentem angielskiego uniwersytetu w Birmingham i ma ponad dwadzieścia lat. Co więcej, mężczyzna angażuje się w życie polityczne, komentując liczne wydarzenia oraz problemy związane antysemityzmem i państwowością Izraela. Olivier Taylor swoje zdanie często przedstawia w formie niezależnych artykułów oraz publikacji na blogach.

Opis mężczyzny wydaje się bardzo realistyczny, a jego aktywność w sieci sugeruje, że jest wykształcony i posiada wiedzę na tematy bieżące. Potrafi tworzyć interesujące artykuły, które wielokrotnie były publikowane w lokalnych gazetach, w tym dzienniku The Jerusalem Post. W rzeczywistości Olivier Taylor nie istnieje – informuje agencja Reutersa.

Sprawa wyszła na jaw, gdy uniwersytet w Birmingham nie był w stanie przedstawić żadnych danych na temat rzekomego studenta, a gazety, które korzystały z artykułów nie miały możliwości potwierdzenia jego tożsamości. Szczegółowa analiza za pomocą najnowocześniejszych technologii pozwoliła odkryć, że zdjęcia na profilu Oliviera Taylora jest przykładem świetnie wykorzystanej technologii deepfake. Obecnie nie wiadomo kto stoi za opracowaniem tak starannego modelu.

Pierwszą osobą, która nabrała podejrzeń był londyński naukowiec Mazen Masri. Olivier Taylor w jednym z artykułów w gazecie The Algemeiner przedstawił specjalistę i jego żonę Ryvkę Barnard jako znanych sympatyków terroryzmu – informuje agencja Reutera.

Analiza zdjęcia profilowego pozwoliła specjalistom odkryć, że postać studenta w rzeczywistości nie istnieje i jest to jedynie przykład sprawnego wykorzystania technologii deepfake. „Zniekształcenia i niespójności w tle są charakterystycznym znakiem zsyntetyzowanego obrazu, podobnie jak kilka szarpnięć na szyi i kołnierzu” – tłumaczy dla agencji Reutera Hany Farid, wykładowca na University of California.

Postać Oliviera Taylora jest przykładem wykorzystania technologii, której produkt – deepfake – jest uznawany za jedno z zagrożeń przyszłego świata. W Stanach Zjednoczonych już obecnie mówi się, że w ten sposób spreparowane treści mogą zamienić przywódców państw w „manekiny”.

Dan Brahmy, właściciel izraelskiej firmy Cyabra, podkreślił, że deepfake jest niebezpieczny ze względu na fakt, że umożliwia stworzenie praktycznie niemożliwej do wykrycia tożsamości. „To poszukiwanie igły w stogu siana – tyle, że igła nie istnieje” – posłużył się porównaniem w wywiadzie dla agencji Reutera.

Artykuły prasowe stworzone przez postać Oliviera Taylora zostały opublikowane w lokalnych gazetach na podstawie e-maila, w którym rzekomy student w sposób wyczerpujący przedstawił swoją sylwetkę. Po interwencji agencji Reutera materiały autorstwa Oliviera Taylora zostały usunięte. Wówczas do redakcji zaczęły spływać skargi przeciwko zniesieniu artykułów. „Nie jesteśmy agencją kontrwywiadowczą” – skomentował sprawę Dovid Efune, redaktor naczelny The Algemeiner.

W tym miejscu warto wspomnieć o eksperymencie przeprowadzonym w Polsce przez redaktorów serwisu Eneregetyka24.com. Stworzyli oni fikcyjną postać – Piotra Niewiechowicza – która przedstawiała się jako specjalista ds. rynku ropy i gazu. Profil został „od początku do końca stworzony w zaciszu redakcji Energetyka24 w ramach dziennikarskiej prowokacji” – czytamy na stronie serwisu.

Działając tylko za pośrednictwem konta na Twitterze i skrzynki mailowej, fikcyjny ekspert był w stanie zdobyć wrażliwe i niepubliczne informacje dotyczące jednej z najważniejszych inwestycji w historii Polski, opublikować kompletnie niemerytoryczny tekst, otworzyć sobie możliwość przekazania jednemu z liderów opozycji manipulacyjnych materiałów oraz nawiązać kontakty z wieloma przedstawicielami branży energetycznej. 

Przedstawione wyżej przykłady pokazują, w jaki sposób można wykorzystać technologię do manipulowania nie tylko użytkownikami sieci, ale także społeczeństwem i elitami władzy. W erze innowacyjnych narzędzi przeznaczonych do tworzenia fikcyjnych wizerunków, tego typu sytuacje staną się coraz częstszym zjawiskiem, co będzie miało wpływ na bezpieczeństwo zarówno państwa jak i jego obywateli. Wynika to z faktu, że deepfake jest doskonałym narzędziem do rozpowszechniania dezinformacji i prowadzenia kampanii wpływu.

KomentarzeLiczba komentarzy: 2
yyyyyyyyyyyyyyy
poniedziałek, 20 lipca 2020, 00:59

Stworzenie fikcyjnej tożsamości może mieć na celu kilka rzeczy: dezinformacja- wpływanie na opinię publiczną, ośmieszenie adresatów , wywiad - wykradzenie informacji, wywiad- poznanie intencji adresata, wywiad przemysłowy - poznanie cen i warunków konkurencji itd.. lub akcje bardziej skomplikowane - dotarcie do pewnych wpływowych osób - np akcja z agentem Tomkiem. Tworzenie fikcyjnych tożsamości powinno być zastrzeżone tylko dla służb specjalnych ;akcje obywatelskie, dziennikarskie , prankowe powinny być surowo karalne za wyjątkiem akcji dziennikarskich jeżeli układ polityczny konserwuje pewne zmowy milczenia jak w przypadku głośnej afery w Sopocie i innych. Takie akcje dziennikarskie muszą jednakże być mocno udokumentowane, tym że prokuratorzy wiedzą o przestępstwach a nie robią kompletnie nic bo sami są zamieszani w dany proceder.

Kiks
niedziela, 19 lipca 2020, 11:14

Politycy od dawien dawna to manekiny..

Tweets CyberDefence24