Reklama

Social media

W Wielkiej Brytanii algorytmy profilują osoby pobierające zasiłki i lokatorów mieszkań socjalnych

Fot. RGY23 / Pixabay
Fot. RGY23 / Pixabay

Organizacja pozarządowa Big Brother Watch ujawniła, że ponad 540 tys. osób ubiegających się o zasiłki, 1,6 mln lokatorów mieszkań socjalnych i 250 tys. obywateli z tzw. grupy zagrożonej ubóstwem jest profilowanych przez algorytmy lokalnych władz Wielkiej Brytanii, które mają wspomagać walkę z nadużyciami wobec systemu wsparcia socjalnego.

Według Big Brother Watch, organizacji zajmującej się ochroną cyfrowych praw obywatelskich i prywatności w sieci, większość profilowania z użyciem algorytmów prowadzona jest przez lokalne władze brytyjskie „w sposób tajny, nieudokumentowany, niezwykle inwazyjny i dyskryminujący”.

Rady dzielnic i gmin w Zjednoczonym Królestwie mają wykorzystywać algorytmy nie tylko, aby profilować mieszkańców korzystających ze wsparcia socjalnego, ale też stosować system ich poufnej segregacji w oparciu o program punktowy, który pozwala władzom przewidzieć ryzyko nadużycia, a także zjawiska takie, jak niepłacenie przez kogoś czynszu czy poważne problemy życiowe danej rodziny. 

Komercyjne algorytmy w służbie władz

Big Brother Watch wykazała, że oprogramowanie, z którego korzystają dwie rady dzielnic w Londynie, dostarcza im firma Xantura. Przedsiębiorstwo obiecuje, że narzędzia przez nie produkowane pozwalają władzom prognozować wystąpienie negatywnych zjawisk społecznych w związku z oddziaływaniem skutków pandemii koronawirusa.

System „Covid OneView” jest wykorzystywany przez londyńskich urzędników razem z bazami danych, którymi dysponują rady dzielnic – a, jak twierdzą aktywiści, często są to bardzo wrażliwe informacje, dotyczące życia rodzinnego, problemów z prawem czy np. kwestii takich jak to, czy ktoś posiada psa kwalifikującego się do tzw. ras niebezpiecznych.

Według Big Brother Watch - algorytmy wykorzystywane do określania ryzyka nadużyć, których mogą dopuszczać się osoby pobierające zasiłki - używa ponad 50 różnych komórek władz lokalnych.

Ich zadaniem jest określenie czy wnioski o zasiłki w 25 proc. przypadków są obarczone średnim ryzykiem, a 20 proc. – jako te, które dla Ministerstwa Pracy Wielkiej Brytanii stwarzają duże ryzyko nadużyć.

W jednej z londyńskich dzielnic pod uwagę mają być brane zachowania dzieci i ryzyko ich wejścia w świat przestępczy. Informacje gromadzone są od policji, szkół, pracowników socjalnych, a także domów opieki społecznej i z mediów społecznościowych – bez wiedzy osób, których dotyczy proces profilowania.

Duże ryzyko dyskryminacji

Aktywiści organizacji Big Brother Watch porównują ten proces do tworzenia bazy danych Gangs Matrix, nad którą przez pewien czas pracowała londyńska policja. Program został oceniony jako nielegalny przez brytyjski odpowiednik UODO – Biuro Komisarza ds. Informacji (ICO) i przerwany, a szefowa organu stwierdziła, iż w sposób nieproporcjonalny profilowani w jego ramach byli młodzi, czarnoskórzy mężczyźni bez żadnych związków ze światem przestępczym.

Organizacja wezwała brytyjskie władze do stworzenia rejestru algorytmów, które działają w sektorze publicznym i odpowiadają za podejmowanie zautomatyzowanych decyzji w oparciu o dane obywateli i obywatelek. Zdaniem Big Brother Watch władze powinny również każdorazowo przed zastosowaniem tego rodzaju narzędzi prowadzić ocenę skutków dla ochrony danych i dla prywatności ich wykorzystania. Obecnie – jak stwierdzili aktywiści – audyty tego rodzaju w większości przypadków nie są prowadzone.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama
Reklama

Komentarze

    Reklama