Reklama

Cyberbezpieczeństwo

#CyberMagazyn: Kiedy nadejdzie Sora. Czy czeka nas nowy poziom deepfake’ów?

Czy Sora od OpenAI przyczyni się do tworzenia deepfake'ów?
Czy Sora od OpenAI przyczyni się do tworzenia deepfake'ów?
Autor. Sora AI/ OpenAI

Wpisujesz kilka słów, zatwierdzasz i dostajesz… film z efektami specjalnymi na wysokim poziomie – wkrótce będzie to możliwe dzięki narzędziu Sora od OpenAI. W rozmowie z „The Wall Street Journal” dyrektor ds. technologii OpenAI Mira Murati zapowiada, że generator nagrań zostanie udostępniony w ciągu kilku najbliższych miesięcy. Co to dla nas oznacza? Czy narzędzie sprawi, że deepfake wejdzie na nowy poziom?

Obrazy generowane przez sztuczną inteligencję (AI) nie dziwią już nikogo. W końcu stały się ogólnodostępne i bez problemu można je znaleźć w social mediach. Jednak jest to tylko zalążek tego, co wkrótce może umożliwić nam AI. Nowe rozwiązania sprawiają, że treści tworzone przez narzędzia oparte na sztucznej inteligencji stają się coraz bardziej przekonujące i powszechne. W obszarze rozrywki wielkie kinowe produkcje, gry czy materiały marketingowe najpewniej będą wkrótce tworzone znacznie szybciej, m.in. dzięki rozwiązaniom takim jak Sora od OpenAI.

W całym zachwycie nad nową technologią trzeba pamiętać jeszcze o tym, że AI jest trochę jak nóż – sam w sobie nie jest zły, ale można go użyć do takich celów. Ostatnie miesiące pokazały, że nowe technologie związane ze sztuczną inteligencją są wykorzystywane do rozpowszechniania fałszywych informacji, teorii spiskowych oraz skoordynowanej dezinformacji. Rozsiewanie „domowej roboty” deepfake’a właściwie nie stanowi już problemu. Wkrótce może się stać jeszcze łatwiejsze i szybsze.

Czytaj też

Reklama

Nowe generatory filmów – czy mają duży potencjał do dezinformacji?

Filmy demonstracyjne pokazują, że Sora jest w stanie wygenerować rozmaite nagrania pocięte na klatki z dynamicznymi ujęciami i w rozmaitych stylach. Niektóre z nich na pierwszy rzut oka wydają się niemal nieodróżnialne od zedytowanych materiałów, które powstały przy użyciu nowoczesnych kamer.

Wygląda to bardziej przekonująco niż wygenerowany film reklamowy Pepperoni Hug Spot z 2023 roku, w którym nienaturalne postacie zajadały się pizzą w pokraczny sposób. Dziś wydaje się, że nowy sposób generowania filmów może mieć pewien potencjał w ewentualnym procesie niszczenia wizerunku i rozpowszechniania dezinformacji.

Materiał można obejrzeć tutaj.

OpenAI zapewnia, że obecnie, przed udostępnieniem narzędzia Sora, podejmuje „kilka ważnych kroków związanych z bezpieczeństwem” i współpracuje z „ekspertami w takich obszarach jak dezinformacja, treści nienawistne i uprzedzenia”. Z drugiej strony twórcy sami podkreślają, że pomimo szeroko zakrojonych testów nie są w stanie przewidzieć wszystkich możliwych nadużyć, a w związku z tym także nauka na błędach będzie opierać się na rzeczywistych przypadkach.

Nawet jeżeli OpenAI zadba o bezpieczeństwo, to upowszechnienie podobnych narzędzi przez inne firmy może być już tylko kwestią czasu. Najprawdopodobniej rozwiązania z Sora będą wykorzystywane i kopiowane przez tych, którym na etyce w kontekście dezinformacji zależy mniej. Tak jak dzieje się to obecnie – chociażby w przypadku generatorów grafik, których na rynku działają już dziesiątki, a i te najbardziej rozpoznawalne, jak DALL-E czy Midjourney, nadal bywają wykorzystywane w nieetycznych celach.

Czytaj też

Reklama

Czy będziemy zupełnie bezbronni w walce z nową falą deepfake’ów?

Do czasu oficjalnego udostępnienia programu nie da się powiedzieć, co dokładnie zaoferuje Sora i jak bardzo będzie odporna na wykorzystanie jej do dezinformacji. Być może deepfake wkrótce przestanie kojarzyć się nam wyłącznie z nagraniem statycznej sylwetki, której doklejono inną twarz. Wygenerowane filmy nabiorą więcej głębi i ruchu, co potencjalnie utrudni ich weryfikację, gdy zostaną wrzucone między tysiące informacji w mediach społecznościowych.

Podobnie jak w przypadku generowanych grafik filmy wytworzone za pomocą narzędzi takich jak Sora zapewne będą mieć pewne mankamenty. W zasadzie widoczne są w nich „stare” wady tej technologii (np. błędna anatomia postaci i kształty poszczególnych obiektów). Wydaje się więc, że dotychczasowe porady w zakresie weryfikacji syntetycznych obrazów AI nie zmienią się znacząco. Już teraz OpenAI podkreśla, że ich model sztucznej inteligencji napotyka problemy m.in. z:

  • symulowaniem rzeczywistej fizyki,
  • chronologią i konsekwencją wydarzeń,
  • generowaniem motoryki ciała ludzi i zwierząt,
  • spontanicznym pojawianiem się obiektów w losowych miejscach.

Przykład można zobaczyć tutaj.

Najpewniej wygenerowane filmy z czasem staną się doskonalsze – tak jak stało się w przypadku grafik. Będą przez to niekiedy trudniejsze do odróżnienia od konwencjonalnych nagrań.

OpenAI deklaruje, że trwają prace nad narzędziem, które pozwoli na rozpoznanie, który film został stworzony w Sora. Nie wiadomo jednak, dla kogo i w jakim zakresie będzie ono dostępne. Nie jest też jasne, jak na wprowadzenie nowego rozwiązania zareagują poszczególne platformy społecznościowe. Prawdopodobnie z czasem pojawią się też narzędzia, które ułatwią użytkownikom samodzielną weryfikację – wzorem tych proponowanych m.in. przez The Hive AI lub AI or Not.

Adam Majchrzak, Stowarzyszenie Demagog

Czytaj też

Reklama
Reklama

Komentarze

    Reklama