AI „producentem” fake newsów?

7 sierpnia 2019, 15:35
robot-2167836_960_720
Fot. geralt / pixabay

AI może zostać wykorzystana do pisania fake newsów - twierdzą autorzy artykułu opublikowanego na łamach prestiżowego Foreign Affairs. Doszli do takich wniosków po przeprowadzeniu badania na grupie 500 respondentów. Jednocześnie wyrażają oni zaniepokojenie możliwością automatyzacji operacji internetowych trolli i przeniesienia działań dezinformacyjnych na nowy poziom.

Badanie przeprowadzono z wykorzystaniem systemu GPT-2 zbudowanego przez projekt założony przez Elona Muska OpenAI, organizację non-profit działającą na rzecz szerzenia korzyści z prac nad sztuczną inteligencją. GPT-2 jest programem, który wykorzystuje sztuczną inteligencję do „pisania” tekstu. Aby przygotować tekst w podobnym stylu wystarczy mu krótka notka. Badanie polegało na zbadaniu czy respondenci biorący udział w badaniu będą wstanie zorientować się czy przygotowany artykuł został przygotowany przez sztuczną inteligencję.

Autorzy artykułu za pomocą programu wygenerowali 20 tekstów na podstawie pierwszych dwóch akapitów oryginalnego artykułu redakcyjnego. Spośród wszystkich napisanych przez program tekstów wybrano najlepsze 3. Teksty następnie trafiły do 500 respondentów. Każdy z nich przeczytał początkowo dwa pierwsze oryginalne akapity po czym jedną z trzech treści wygenerowanych przez GPT-2 lub oryginalne zakończenie artykułu. Następnie zapytało każdego z respondentów czy uważa tekst za wiarygodny i czy byłby skłonny udostępnić go w mediach społecznościowych. Wyniki badań wskazują, że większa część respondentów uznała każdy z tekstów za wiarygodny. Jako najwyższy procent – 72% procent respondentów z jednej z grup którzy czytali tekst przygotowany przez sztuczną inteligencję wskazało go za wiarygodny, co przy 83% w wypadku grupy, która czytała oryginalny tekst jest bardzo wysokim wynikiem.

Jak donosi informują autorzy na łamach Foreign Affairs w wielu przypadkach tekst jest praktycznie nie do odróżniania od tekstu napisanego przez człowieka. Jak wskazują autorzy o możliwości wykorzystania technologii do nadużyć do „produkowania” fake newsów, mowy nienawiści i spamu świadomi są sami twórcy i  z tego powodu OpenAI nie zdecydowało się na przekazanie pełnej wersji programu do publicznego wykorzystania. Do sieci trafiła „rozwodniona” wersja oprogramowania do prowadzenia dalszych badań.

Uproszczona wersja programu jest trudniejsza w konfiguracji do produkcji treści w określonym tonie, jednak jak donoszą autorzy, konfiguracja wcale nie będzie potrzebna. Program jest wstanie dostosować ton i temat wypowiedzi automatycznie do zadanego pytania. Jak przewidują twórcy po przeprowadzonym badaniu wystarczy jedynie napisać lead aby program był wstanie dopisać pozostałą część artykułu.

Nie ulega wątpliwości, że technologia ta szczególnie interesująca będzie dla tzw. farm trolli i może znacznie zwiększyć skuteczność przeprowadzanych akcji dezinformacyjnych.  Automatyzacja działań pozwoli nie tylko na przeniesienie działań na kolejny poziom zaawansowania, ale również pozwoli na zmniejszenie liczby zaangażowanych ludzi w cały proces. Jest to kolejne osiągnięcie, które budzi niepokój już samych twórców. Równie szkodliwe zastosowanie, jak możliwość wykorzystania AI do produkowania fałszywych infrakcji, spamu czy mowy nienawiści, wynika również w z możliwości jej zastosowania do generowania rysów twarzy czy produkcji wideo w którym można łączyć prawdziwe i spreparowane treści, których ofiarą padł nawet Barack Obama.

KomentarzeLiczba komentarzy: 1
Skid
czwartek, 8 sierpnia 2019, 02:46

Kiedy USA odpala Skynet?