Reklama

Polityka i prawo

Facebook zablokował konta skrajnej prawicy w Wielkiej Brytanii

Fot. Mary_R_Smith/Pixabay
Fot. Mary_R_Smith/Pixabay

Facebook podjął decyzję o zablokowaniu kont powiązanych ze skrajnie prawicowymi organizacjami, w tym Brytyjską Partią Narodową (BNP) oraz Angielską Ligą Obrony (EDL). Według władz koncernu naruszają one zakaz promowania na platformie nienawiści i przemocy.

Decyzja została podjęta w 20. rocznicę najkrwawszej serii zamachów terrorystycznych przeprowadzonych w Wielkiej Brytanii przez radykalnie prawicowego zamachowca, które były wymierzone w trzy londyńskie społeczności - karaibską na Brixton, azjatycką na Brick Lane i LGBT w Soho - w których zginęły trzy osoby, a ponad 130 było rannych.

Wśród innych zablokowanych grup znalazł się m.in. ruch Knights Templar International, a także próbujące w przeszłości rekrutować polskich członków radykalne Britain First (BF) i zakazany ustawowo Front Narodowy (NF). Serwis usunął także konta przywódców tych organizacji.

Blokada objęła m.in. skazanego neonazistę Jacka Renshawa, który planował morderstwo posłanki Partii Pracy Rosie Cooper, a także byłego lidera BNP Nicka Griffina oraz liderów BF Paula Goldinga i Jaydę Fransen, która wielokrotnie próbowała zrekrutować do organizacji radykalnie prawicowych członków polskiej społeczności w Wielkiej Brytanii.

"Na Facebooku nie ma miejsca dla osób i organizacji, które szerzą nienawiść, atakują lub wzywają do wykluczania innych na podstawie tego, kim są" - tłumaczyła rzeczniczka firmy, dodając, że czwartkowa decyzja obejmie także wpisy wyrażające poparcie dla zakazanych podmiotów.

"Będziemy też nadal przyglądali się osobom, organizacjom, stronom i treściom, które są wbrew naszym standardom" - zapewniła.

W lutym br. Facebook zablokował konto radykalnie prawicowego aktywisty Stephena Yaxleya-Lennona, który funkcjonuje w przestrzeni publicznej pod wywodzącym się ze społeczności piłkarskich chuliganów pseudonimem Tommy Robinson, oskarżając go o zachowanie, które "narusza nasze zasady dotyczące nawoływania do nienawiści".

Czwartkowa decyzja internetowego giganta spotkała się z pochwałą ze strony polityków. Szefowa komisji ds. wewnętrznych w Izbie Gmin Yvette Cooper oceniła, że ten ruch był "znacznie spóźniony", przypominając, że politycy wzywali do większego wzięcia na siebie odpowiedzialności za kontrolę zamieszczanych treści "od lat".

"Nie powinniśmy byli czekać na takie wydarzenia, jak tragiczny atak w Christchurch (zamach terrorystyczny na dwa meczety w Nowej Zelandii, który był transmitowany przez napastnika na żywo na Facebooku) (...) do podjęcia znaczących działań" - dodała.

Stopień zagrożenia terrorystycznego w Wielkiej Brytanii utrzymuje się na czwartym poziomie w pięciostopniowej skali, co oznacza, że zamach terrorystyczny jest "bardzo prawdopodobny".

Brytyjskie służby ujawniły w tym roku, że od marca 2017 roku udało się zapobiec 18 atakom terrorystycznym, w tym czterem ze strony radykalnej prawicy. Doszło do zamachu na meczet w Finsbury Park w północnym Londynie; zginęła w nim jedna osoba, a 10 osób zostało rannych.

W 2016 roku neonazistowski aktywista zamordował także posłankę opozycyjnej Partii Pracy Jo Cox. W toku śledztwa uznano, że wśród motywacji sprawcy był "element terrorystyczny".

SZP/PAP

Reklama

Komentarze

    Reklama