Reklama

Social media

Chiny zrezygnują z własnego systemu oceny społecznej? Przynajmniej w teorii

fot. Shot by Cerqueira/ Unsplash/ Domena publiczna
fot. Shot by Cerqueira/ Unsplash/ Domena publiczna

Chiny podpisały zobowiązanie ONZ do zastosowania „etycznej” sztucznej inteligencji i deklarację powstrzymywania się przed „sianiem spustoszenia w społeczeństwach” poprzez zakaz używania AI w systemach „oceny społecznej” (ang. social scoring system). Oznaczałoby to teoretyczny koniec masowej inwigilacji.

Chiński system oceny społecznej, polegający na przyznawaniu „punktacji” za bycie dobrym obywatelem bądź odbierania punktów, gdy na przykład przejdzie się na czerwonym świetle czy nie zapłaci rachunków na czas, na całym świecie wzbudza sporo kontrowersji. Masowa inwigilacja obywateli niewiele ma wspólnego z prawami człowieka i elementarnym poszanowaniem prywatności - od tej punktacji bowiem zależy na przykład przyznanie kredytu, czy prozaiczne czynności dnia codziennego, takie jak podróżowanie czy korzystanie z ulg i zniżek.

Tymczasem w Europie rośnie presja na zastosowanie praktyk „etycznej” sztucznej inteligencji i zaprzestanie tych umożliwiających ocenę społeczną czy rozpoznawania twarzy w miejscach publicznych, co w systemach demokratycznych – przynajmniej z założenia – powinno być postrzegane jako zagrażające prawom człowieka oraz wolnościom obywatelskim.

Zalecenia, nie przymus

Jak wskazało Politico, UNESCO (Organizacja Narodów Zjednoczonych ds. Oświaty, Nauki i Kultury) to pierwsza organizacja międzynarodowa, która skłoniła Pekin do podpisania się pod deklaracją wzywającą do zakończenia praktyk dotyczących masowej inwigilacji z udziałem sztucznej inteligencji. Rekomendacja dotycząca etyki w zastosowaniu AI została zatwierdzona przez 193 kraje członkowskie. Zawiera ona zalecenia unikania przez państwa „niebezpiecznych przypadków użycia tej technologii, ponieważ zagraża to prawom obywatelskim”.

Podpisana deklaracja zaleca ekspertom ds. sztucznej inteligencji ocenę „wpływu etycznego” w przypadku zaproponowanych przez nich rozwiązań, a rządy do wprowadzenia „silnych mechanizmów egzekwowania i działań naprawczych” w celu ochrony praw człowieka; promowania różnorodności w technologii, ochrony lokalnych społeczności i monitorowanie śladu węglowego w przypadku zastosowania technologii AI.

„Wybrana metoda AI nie powinna naruszać podstawowych wartości określonych w tym dokumencie” – napisano w wytycznych. „W szczególności ich użycie nie może naruszać, ani nadużywać praw człowieka”. Natomiast wdrażanie określonego systemu lub technologii sztucznej inteligencji powinno być „odpowiednie do kontekstu i oparte na ścisłych zasadach naukowych”.

Kolejnym wymogiem jest unikanie niepożądanych szkód, takich jak zagrożenia bezpieczeństwa i zwiększona podatność na cyberataki oraz „naprawianie ich, zapobieganie i eliminowanie w trakcie całego cyklu życia systemów AI”. Podmioty wykorzystujące sztuczną inteligencję powinny promować sprawiedliwość społeczną i „zapewniać uczciwość i brak dyskryminacji”.

Polecamy: #CyberMagazyn: Etyczna sztuczna inteligencja to fikcja? Dylematy jej twórców mogą uchronić nas przed zagrożeniem

Praktyka Państwa Środka

Należy podkreślić, że zastosowanie się do zaleceń wskazanych w dokumencie jest dobrowolne. Czy Chiny: państwo - twórca systemu punktacji społecznej rzeczywiście dostosują się do rekomendacji? Pozostawiamy to czytelnikom do samodzielnej oceny.  

Przypomnijmy, że w ostatnich miesiącach Chiny zaostrzyły zasady wobec technologicznych gigantów. Dodatkowo - jak już informowaliśmy - nowe regulacje prawne w Chinach zobowiążą ekspertów zajmujących się poszukiwaniem luk cyberbezpieczeństwa do ujawniania informacji na temat odkrytych przez siebie podatności chińskiemu rządowi oraz zakażą przekazywania tych informacji zewnętrznym podmiotom (za wyjątkiem producenta wadliwego produktu).

/NB


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

Reklama

Komentarze

    Reklama