Moderacja treści na Facebooku "rażąco niewystarczająca"

8 czerwca 2020, 15:05
FACE_Moderacja
Fot. Pxfuel.com/Domena pubiczna

Facebook zatrudnia 15 tys. osób do moderowania treści oraz współpracuje z ponad 60 organizacjami dziennikarskimi ws. fact-checkingu. Mimo to w serwisie nadal pojawia się niemal 300 tys. szkodliwych treści dziennie - wynika z raportu opublikowanego przez NYU Stern Center for Business and Human Rights.

Z raportu organizacji wynika, że zarówno użytkownicy, jak i wykorzystywany przez firmę system oparty na technologii sztucznej inteligencji (AI) oznacza jako potencjalnie szkodliwe ponad trzy miliony wpisów dziennie. W rzeczywistości jednak ok. 10 proc. tych treści umyka uwadze moderatorów. A to, zdaniem autorów raportu, oznacza że Facebook popełnia 300 tys. błędów moderacyjnych dziennie.

"Biorąc pod uwagę liczbę szkodliwych wpisów, które dziennie rozpowszechniane są na platformie, należy uznać, że moderacja serwisu jest rażąco niewystarczająca" - napisał w oświadczeniu główny autor raportu Paul Barrett.

Zdaniem nowojorskiego centrum głównym problemem jest to, że Facebook zatrudnia większość moderatorów treści zewnętrznie, za pośrednictwem agencji pracy, a nie zaś jako pracowników etatowych. Współpracownicy ci są kiepsko opłacani, pracują zazwyczaj zdalnie, ponadto jest ich zbyt mało, żeby mogli sobie poradzić z zalewem fake newsów i innych szkodliwych treści.

Dlatego też autorzy raportu zaapelowali do Facebooka o to, żeby zainwestował w zatrudnienie etatowych moderatorów, którzy mogliby pracować z siedziby firmy i podwoił ich liczbę, a także zadbał o ich zdrowie, szczególnie psychiczne, jako że mają oni do czynienia nierzadko z niepokojącymi treściami. Firma powinna powołać specjalny zespół nadzorujący moderację.

"Chociaż moderatorzy treści są kluczowi dla funkcjonowania serwisu, ich rola jest w dużym stopniu marginalizowana. A jako że osoby te często pracują zdalnie, firma nie zdaje sobie sprawy z tego, jakim obciążeniem dla nich są treści, z którymi mają one na co dzień do czynienia, jak materiały przedstawiające przemoc czy propagandę" - podkreślił Barrett.

Raport opublikowany został akurat w momencie, kiedy Facebook boryka się z rosnącą liczbą oskarżeń o to, że nie radzi sobie z usuwaniem z platformy dezinformacji, fake newsów i innych niebezpiecznych materiałów. Sytuacja pogorszyła się, kiedy w czasie pandemii Facebook postanowił zawiesić pracę moderatorów i posiłkować się w tym zakresie technologią AI. Okazało się jednak, że system błędnie dopuszczał do publikacji niektóre niepożądane materiały. Do tego reputacja serwisu została nadwerężona także po tym, jak w ubiegłym tygodniu wyszło na jaw, że pracownicy koncernu otwarcie skrytykowali Marka Zuckerberga za to, że nie ocenzurował wpisów Donalda Trumpa dotyczących protestów w USA po śmierci Afroamerykanina George'a Floyda. Dla porównania Twitter uznał wpisy prezydenta USA za "gloryfikujące przemoc".

Facebook zatrudnia ok. 15 tys. moderatorów treści, większość to zewnętrzni współpracownicy, ponadto współpracuje z 60 organizacjami dziennikarskimi ws. fact-checkingu. Google oraz należący do koncernu serwis YouTube korzystają z usług 10 tys. moderatorów, Twitter - z 1,5 tys.

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 0
No results found.