Reklama

Social media

Moderacja treści na Facebooku oparta o sztuczną inteligencję nie działa

Fot. stevepb / Pixabay
Fot. stevepb / Pixabay

Moderacja treści oparta o sztuczną inteligencję nie działa, wbrew temu, co twierdzi oficjalnie Facebook - oceniają inżynierowie firmy, których głosy wybrzmiały w wewnętrznych analizach koncernu. Dotarł do nich dziennik „Wall Street Journal” i opisał w kolejnym artykule z serii „The Facebook Files”.

Według nich algorytmy nie radzą sobie z moderacją treści takich, jak mowa nienawiści, przemoc werbalna, czy obrazy zawierające brutalne sceny. Kadra zarządzająca Facebooka od dawna jednak utrzymuje, że sztuczna inteligencja to narzędzie, które jest złotym środkiem potrzebnym do walki z chronicznymi problemami takimi, jak mowa nienawiści i przemoc w serwisach społecznościowych koncernu, czy też proceder rejestracji kont przez osoby nieletnie poniżej 13 roku życia, regulaminowo nieuprawnione do korzystania z produktów firmy.

Sztuczna inteligencja nie uczy się na błędach

Sztuczna inteligencja Facebooka ma według gazety problem z rozpoznawaniem m.in. takich treści, jak kręcone przez sprawców aktów przemocy materiały wideo (np. ze strzelanin czy zamachów), a także akty rasizmu. Algorytmy Facebooka miały - zdaniem dziennika - również problem z rozróżnieniem walki kogutów od wypadku samochodowego.

Ponadto, jak wynika z dokumentów, do których dotarł WSJ”, Facebook moderuje zaledwie niewielki odsetek treści naruszających regulamin platformy. Kiedy algorytmy nie dają całkowitej pewności co do tego, czy dany post narusza zasady Facebooka, serwis po prostu rzadziej pokazuje tę treść użytkownikom. Konta osób, od których pochodzą takie materiały, nie ponoszą jednak żadnych konsekwencji.

Facebook zmniejszył czas, jaki moderatorzy mogą poświęcać na skargi użytkowników

Nowojorski dziennik podaje, że dwa lata temu Facebook znacznie skrócił czas, jaki moderatorzy treści mogą poświęcać na rozpatrywanie skarg i zażaleń użytkowników dotyczących np. mowy nienawiści w postach w serwisie. Firma miała również podejmować inne działania, których celem było zminimalizowanie liczby napływających zgłoszeń - wśród nich znalazło się m.in. rozszerzenie zakresu działania sztucznej inteligencji na rzecz minimalizacji wpływu zespołu moderacji, a także napompowanie” statystyk rzekomych sukcesów sztucznej inteligencji w walce z problemami platformy.

Osoby odpowiedzialne za moderację treści miały przy tym, według gazety, zdawać sobie całkowicie sprawę z tego, jak daleki Facebook jest od odniesienia jakichkolwiek znaczących sukcesów w tych wysiłkach.

Problem polega na tym, że nie mamy i prawdopodobnie nigdy nie będziemy mieli modelu (AI - red.), który byłby zdolny do wychwycenia większości niebezpiecznych treści, w szczególności we wrażliwych obszarach” - napisał w dokumentach z 2019 r., do których dotarł dziennik jeden ze starszych inżynierów Facebooka.

W ocenie pracownika firmy, koncern dzięki zautomatyzowanym systemom usuwa posty, które przekładają się na ok. 2 proc. odsłon niebezpiecznych treści na platformie. Jak zasugerował inżynier, dopóki w Facebooku nie zostanie wprowadzona znacząca zmiana strategii, trudno będzie zwiększyć efektywność algorytmów tak, by wykraczała poza 10-20 proc. w krótkim bądź średnim przedziale czasowym.

Ocena ta została podtrzymana przez kolejnego pracownika Facebooka w marcu tego roku - wynika z dokumentów, z którymi zapoznał się WSJ”. Jak stwierdzono w jednej z wewnętrznych notatek, systemy AI zdolne są obecnie usuwać nieregulaminowe treści generujące pomiędzy 3-5 proc. odsłon postów zawierających mowę nienawiści i 0,6 proc. wszystkich treści, które naruszają zasady korzystania z Facebooka dotyczące przemocy i podżegania do niej.

Facebook: dziennik znów źle interpretuje dane

Zdaniem rzecznika platformy Andy’ego Stone’a, przedstawione w dokumentach, na podstawie których WSJ” napisał swój artykuł liczby, odnoszą się nie do wszystkich działań z zakresu moderacji treści, jakie podejmuje firma, ale jedynie do tych, w których wykorzystywana jest sztuczna inteligencja.

Liczby, do których odnosi się Wall Street Journal”, według Stone’a nie uwzględniają również szeregu innych działań, które koncern podejmuje na rzecz walki z naruszeniami regulaminu na platformie. Zdaniem Facebooka, obecność nieregulaminowych treści w mediach społecznościowych koncernu ustawicznie maleje, a to najważniejszy czynnik, jaki firma bierze pod uwagę w ocenie skuteczności swoich działań.

Jak wygląda zgodność deklaracji Facebooka z rzeczywistością?

Wall Street Journal” zauważa, że dane zawarte w dokumentach, które posłużyły dziennikowi za źródło, znacząco kontrastują z entuzjastycznymi deklaracjami, które koncern publicznie wygłasza, gdy mówi o skuteczności swojej sztucznej inteligencji.

Według Facebooka efektywność AI w wykrywaniu szkodliwych treści wynosi niemal 98 proc. (prezentacja firmy z początku bieżącego roku), a sam koncern działa proaktywnie i nie pozostaje bierny w walce z problemem.

W ubiegłym miesiącu platforma deklarowała, że sztuczna inteligencja w moderacji coraz lepiej radzi sobie z proaktywnym wykrywaniem treści i usuwaniem materiałów, które naruszają jej standardy w zakresie mowy nienawiści. Algorytmy mają być obecnie według firmy 15 razy bardziej skuteczne, niż to miało miejsce w 2017 r.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama
Reklama

Komentarze

    Reklama