AI ochroni dzieci w sieci. Innowacyjny program wart 15 mln dolarów

26 lutego 2020, 09:15
robot-kids-russia-interactive-robotic-technology
Fot. Pxfuel/CC0

Amerykański start-up L1ght zgromadził 15 milionów dolarów na rozwój sztucznej inteligencji, której zadaniem będzie ochrona najmłodszych przed niewłaściwymi treściami i cyberprzemocą w Internecie. Innowacyjne rozwiązanie zostało zaprojektowane z myślą o platformach internetowych.

L1ght stworzyło oprogramowanie oparte na sztucznej inteligencji, które ma pomóc firmom internetowym w wykrywaniu i usuwaniu z ich stron niewłaściwych oraz agresywnych treści, zwłaszcza kierowanych do małoletnich użytkowników. Technologia opracowana przez założoną w 2018 roku firmę, to właściwie interfejs programowania aplikacji (API), który umożliwia platformom internetowym, takim jak media społecznościowe, komunikatory, serwisy gamingowe itd., rozpoznawanie i zarządzanie szkodliwymi treściami. Sposób działania technologii zależy od rodzaju platformy oraz oczekiwań jej właściciela.

"Jeśli pracujemy nad komunikatorami, możemy analizować wiadomości i identyfikować agresywne zachowania, niezależnie od tego, czy chodzi o zachowania mające na celu atakowanie, obrażanie czy też zawstydzanie użytkowników. Jeśli natomiast współpracujemy z firmami hostingowymi jesteśmy w stanie przeanalizować miliony stron internetowych, żeby wyśledzić niewłaściwe treści" - powiedział VentureBeat współzałożyciel i szef L1ght Zohar Levkovitz.

Jak dodał, platformy internetowe znajdują się dzisiaj pod ogromną presją, żeby blokowały szkodliwe i krzywdzące treści. Jest jednak niemal niemożliwe, by były w stanie manualnie same skontrolować całą zawartość. Dlatego coraz częściej konieczne jest zastosowanie technologii takiej jak AI, zwłaszcza jeśli chodzi o usuwanie treści szkodliwych dla dzieci.

"Wierzę, że odpowiedzialność za zapewnienie bezpieczeństwa dzieciom w internecie powinna leżeć po stronie dostawcy usług, nie zaś użytkownika. To media społecznościowe muszą opracować zasady ochrony użytkowników. My dajemy im dobre narzędzie" - powiedział dziennikarzom Levkovitz.

L1ght zapowiada, że zamierza dopasowywać ceny za swoje usługi do rodzaju zastosowanej strategii. I tak na przykład, media społecznościowe mogą zostać obciążone taksą za każdego użytkownika, a firmy hostingowe - za stronę internetową.

Pomysł na opracowanie technologii chroniącej dzieci narodził się, kiedy syn jednego ze współzałożycieli firmy Rona Porata padł ofiarą cyberprzemocy na jednej ze stron gamingowych. Wtedy Porat i Levkovitz postanowili założyć L1ght, a następnie zatrudnić zespół specjalistów od AI oraz psychologów i antropologów w celu opracowania skutecznych metod identyfikowania treści szkodliwych dla dzieci.

L1ght nie jest jedyną firmą, poszukującą skutecznych metod ochrony nieletnich w internecie. Szwajcarski start-up Privately także opracował model AI, który ma chronić użytkowników przed cyberprzemocą. Jednym z odbiorców technologii Privately jest brytyjska stacja BBC.

Także L1ght podaje, że prowadzi już rozmowy z kilkoma kluczowymi klientami, nie chce jednak zdradzić więcej szczegółów.

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 0
No results found.