Masowy sprzeciw ekspertów przeciwko wykorzystaniu AI do przewidywania przestępstw

25 czerwca 2020, 08:18
Policja_sztuczna_inteligencja1
Fot. Shaigan/Wikipedia Commons/CC 4.0

Ponad tysiąc ekspertów z dziedziny sztucznej inteligencji sprzeciwia się wykorzystaniu jej do przewidywania przestępstw przez policję  - informuje serwis Tech Crunch.

Badanie wspierające wykorzystanie "zautomatyzowanych systemów rozpoznawania twarzy do przewidywania, czy dana osoba popełni przestępstwo i wspomagania w ten sposób czynności policyjnych" ma zostać opublikowane nakładem koncernu wydawniczego Springer, który jest wydawcą m.in. prestiżowego czasopisma naukowego "Nature".

Sprzeciw wobec publikacji badania wyraziło również w liście otwartym ponad 50 pracowników wielkich firm technologicznych, takich jak Facebook, Google czy Microsoft, które również zajmują się rozwojem sztucznej inteligencji.

Kontrowersyjna praca naukowa zawiera twierdzenia o tym, że zautomatyzowane systemy rozpoznawania twarzy oparte o sztuczną inteligencję mogą "w sposób wolny od uprzedzeń" dostarczać danych nt. potencjalnego rozwoju przestępczości i tym samym znajdować zastosowanie w pracy policji oraz innych organów ścigania. Jednym z jego autorów jest profesor Uniwersytetu w Harrisburgu Nathaniel J.S. Ashby.

Oponenci publikacji wskazują, że do technologii rozpoznawania twarzy oraz zautomatyzowanego wykrywania i predykcji przestępstw należy podchodzić z "najwyższą ostrożnością" i nie powinny one być wykorzystywane "przeciwko narażonym na niesprawiedliwe działania społecznościom". Krytycy wskazują na wątpliwe podstawy etyczne badania, a także podkreślają, że jest ono oparte o "niesprawdzone metody badawcze, które przez wielu naukowców na przestrzeni lat zostały sfalsyfikowane".

"Programy oparte o uczenie maszynowe nie są neutralne. Analiza badań prowadzonych nad ich rozwojem oraz danych służących w celach ich rozwoju wykazuje, że praca nad tą technologią nie jest wolna od dominujących przekonań i stereotypizacji" - stwierdzili autorzy listu otwartego, który sprzeciwia się publikacji badania przez Springera.

"Pozbawiona krytyki akceptacja założeń (nt. działania systemów sztucznej inteligencji - PAP) może prowadzić do projektowania ich w sposób dyskryminacyjny i powielania idei, które normalizują hierarchizację społeczną oraz przemoc wobec marginalizowanych grup" - dodali.

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 0
No results found.
Tweets CyberDefence24