AI w armii. Nie wystarczy ją mieć, trzeba także umieć ochronić przed wrogiem

24 września 2021, 10:32
48000682183_0f4dfa8b5b_c
Fot. US Air Force/Flickr/CC BY-NC 2.0

Przedstawiciele sił zbrojnych przywiązują szczególną uwagę do rozwijania sztucznej inteligencji przeznaczonej dla wojska, lecz często przy tym nie skupiają się na opracowaniu rozwiązań, które zabezpieczyłyby algorytmy przed operacjami wroga. Są one wrażliwe na ataki i nawet niewielka modyfikacja może mieć wpływ na ich działanie.

Przedstawiciele armii doceniają możliwości, jakie daje sztuczna inteligencja i uczenie maszynowe. Wynika to z faktu, że rozwiązania te usprawniają wiele procesów i podnoszą zdolności wojska, niezależnie od rodzaju sił zbrojnych. Nie jest również tajemnicą fakt, że rozwój nowoczesnej technologii z pewnością wpłynie na sposób prowadzenia operacji i ich charakter.

Trzeba umieć ochronić AI przed wrogiem

Obecnie szczególną uwagę przedstawiciele armii przywiązują do doskonalenia tworzonych rozwiązań, zapominając poniekąd o konieczności ich właściwego zabezpieczenia przed działaniami adwersarzy. Na problem ten zwróciła uwagę gen. broni Mary O. Brien, zastępca szefa sztabu ds. wywiadu, nadzoru, rozpoznania i cyberoperacji Sił Powietrznych Stanów Zjednoczonych, podczas konferencji Air Force Association 2021 Air, Space & Cyber.

Przedstawiciel armii USA zaznaczył, że opracowanie, a następnie wykorzystanie rozwiązań bazujących na AI, to tylko jedna strona medalu. Drugą stanowi odpowiednia ich ochrona, aby podmioty z zewnątrz nie mogły wpływać na działanie algorytmów.

Mowa tu o świadomej manipulacji danymi lub kodem w celu wywołania nieprawidłowości w działaniu uczenia maszynowego, które jest podatne na ingerencję przeciwników. Szerzej pisali o tym Alexey Kurakin, Ian Goodfellow i Sam Bengio w artykule „Adversarial Machine Learning at Scale”, wskazując, że wiele algorytmów jest wrażliwych na ataki, polegające na wprowadzeniu niewielkich modyfikacji do danego modelu. Co jest szczególnie niepokojące, to fakt, że większość tego typu wrogich działań może pozostać niewykryta.

Centralny zespół AI

W związku z tym Pentagon powinien rozważyć utworzenie czerwonego zespołu AI, którego głównym zadaniem byłoby zajęcie się lukami, występującymi w algorytmach wykorzystywanych w armii – radzi Rena DeHenre, oficer wywiadu Sił Powietrznych USA, w artykule „Why the Department of Defense Should Create an AI Red Team”.

Jej zdaniem, chodzi przede wszystkim o zwiększenie niezawodności rozwiązań będących w dyspozycji amerykańskich sił zbrojnych. W ten sposób Departament Obrony USA dysponowałby centralnym, specjalnym zespołem odpowiedzialnym za ocenianie podatności AI.

AI trzeba „karmić”

Gen. broni Mary O. Brien zwrócił także uwagę na inny problem – brak odpowiednich danych do „karmienia” algorytmów. „Nie będziesz dysponował narzędziem AI bez danych” – podkreślił przedstawiciel Sił Powietrznych USA.

Jego zdaniem równie kluczowe co samo opracowanie nowoczesnego rozwiązania jest zapewnienie mu odpowiedniej bazy informacji, z których może korzystać.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: redakcja@cyberdefence24.pl. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama
KomentarzeLiczba komentarzy: 0
No results found.
Tweets CyberDefence24