W przyszłość sztuczna inteligencja będzie walczyć ze sztuczną inteligencją [WYWIAD]

10 sierpnia 2018, 09:54
artificial-intelligenc123
Fot. Geralt/Pixabay

O trendach na rynku cyberbezpieczeństwa oraz zastosowaniu sztucznej inteligencji i uczenia maszynowego do poprawy cyberbezpieczeństwa  mówi dla Cyberdefence24.pl Jyrki Tulokas wiceprezes F-Secure.

Andrzej Kozłowski: Jakie są obecnie głównie trendy na rynku cyberbezpieczeństwa?

Jyrki Tulokas: Głównym trendem jest obecnie zmiana z zapobiegania zagrożeniom za wszelką cenę na wykrywanie zagrożeń i reakcje na nie. Wynika to z tego, że bardzo trudno jest powstrzymać przeciwnika przed przeniknięciem do naszych sieci i systemów. Atakujący jeśli chcą się dostać to znajdą sposób, żeby tego dokonać. Należy założyć, że dojdzie do naruszenia naszych systemów. Wymaga to zmiany myślenia w pracy organizacji, która musi położyć nacisk na to jak radzić sobie z takimi problemami, kiedy już wystąpią. Konieczna będzie zminimalizowanie ich negatywnego wpływu na prowadzone operacje biznesowe. To jest główna zmiana. Poprzednio skupialiśmy na obronie przed atakami.

Drugą dużą zmianą jest ogromna ilość produktów wzmacniających bezpieczeństwo. Mój kolega powiedział mi, że w jego organizacji stosuje się 82 różne produkty. Firmy kupują coraz więcej narzędzi starając się rozwiązać problem cyberataków. Rodzi to jednak inny problem, a mianowicie taki, że nie ma realnej możliwości zarządzania tymi produktami. Klienci chcą kupować więcej od mniejszej ilości sprzedawców. Po stronie sprzedawców sytuacja wygląda zupełnie inaczej. Ich liczba szybko rośnie, ponieważ jest to niezwykle interesujący rynek, który powiększa się w bardzo szybkim tempie. Inwestorzy przeznaczają większe sumy pieniędzy na cyberbezpieczeństwo oraz wzrasta liczba nowych startupów.

Inwestujemy w cyberbezpieczeństwo coraz więcej. Pomimo tego, liczba cyberataków rośnie i można zaryzykować tezę, że poziom cyberbezpieczeństwa stale się zmniejsza. Co jest przyczyną takiej sytuacji? 

Uważam, że wzrost wydatków na cyberbezpieczeństwo w firmach nie jest aż tak duży. Wciąż posiadają one ograniczone środki finansowe na ten cel. Musimy pamiętać, że problemy i nowe wyzwania powstają też coraz szybciej. Przykładowo pojawia się technologia chmury, wpierw pojawią się zagrożenia a następnie wysyp produktów zapewniających bezpieczeństwo. Mamy również tradycyjne produkty gwarantujące bezpieczeństwo takie jak firewalle. Potrzeby są coraz większe i to powoduje, że bardzo trudno jest ustabilizować budżet na właściwym poziomie. Moim zdaniem będzie coraz mniej sprzedawców, którzy będą oferowali więcej produktów. Umożliwi to efektywniejsze zakupy.

Obserwuję sytuację w średnich przedsiębiorstwach i widzę tam jedną osobę, która ma odpowiednią wiedzę na temat bezpieczeństwa oraz kolejne dwie czy trzy, które pracują w dziale IT. Nie ma możliwości żeby w takiej konfiguracji efektywnie zadbać o bezpieczeństwo. Zewnętrzne usługi bezpieczeństwa są jedynym rozwiązaniem dla małych i średnich przedsiębiorstw. 

W jaki sposób sztuczna inteligencja i uczenie maszynowe mogą zmienić sytuację w sektorze cyberbezpieczeństwa?

Moim zdaniem te dwie technologie ułatwiają życie. Jesteśmy w stanie w bardziej efektywny sposób analizować olbrzymie ilości danych i znaleźć problem.

Czyli przede wszystkim chodzi tutaj o analizę olbrzymich ilości danych, której nie może dokonać człowiek?

Dokładnie tak. Świat jest binarny, albo mamy problem, albo go nie mamy. To gra o sumie zerowej. Około 2005 roku mieliśmy setki ludzi analizujących, co dany plik robi, ale takich próbek dostawaliśmy coraz więcej. To zdecydowanie nie szło w dobrym kierunku. Nie mogliśmy dotrzymać tego tempa. Obecnie otrzymuje milion próbek dziennie z zapytaniem czy znajduje się tam szkodliwe oprogramowanie. Analiza ich w klasycznym stylu byłaby niemożliwa. Obecnie nasze systemy w chmurze automatycznie wykonują takie działania. Zajęło nam dużo czasu rozwinięcie ich na odpowiednim poziomie, ale stanowią nieocenione pomoc w naszej pracy. 

Z pewnością elementy sztucznej inteligencji i uczenie maszynowe zwiększą cyberbezpieczeństwo, ale czy będą również w stanie wyeliminować albo zmniejszyć liczbę błędów człowieka?

Nad tą kwestią prowadzimy cały czas dyskusje, ale mogę powiedzieć, że zastanawiamy się również w jaki sposób sztuczna inteligencja będzie podejmowała decyzję, że coś jest złe. Zrozumienie tego będzie wykraczało poza możliwości człowieka. Ponadto, maszyny i sztuczna inteligencja będą pisały kod i kiedy maszyny stworzą oprogramowanie to nie popełnią one błędów. Zaobserwujemy zdecydowanie mniejszą podatność. Musimy jednak pamiętać, że maszyny prawdopodobnie będą popełniały błędy innego rodzaju. 

A czy człowiek w takim razie będzie zdolny je wykorzystać?

To bardzo dobre pytanie. Moim zdaniem, ludzie będą w stanie je wykorzystać, ponieważ podatności są wykrywane czasami przez przypadek i dlatego, myślę że tak. W przyszłości będziemy mieli również walkę sztucznej inteligencji ze sztuczną inteligencją.

Mówimy o sztucznej inteligencji i uczeniu maszynowym w kontekście obrony, a czy mogą one być również wykorzystane przez atakujących?

Oczywiście, że tak. Uważam, że w pewnym zakresie już ma to miejsce. Duża liczba wirusów dzisiaj jest wytwarzana przez maszyny, albo stare wirusy są automatycznie zmieniane. Dlatego też te złośliwe programy są o wiele trudniejsze do wykrycia. Atakujący będą używać różnych technik, żeby zrozumieć jak wykorzystać sztuczną inteligencję i uczenie maszynowe do łamania zabezpieczeń i przenikania do systemów, czy sieci teleinformatycznych unikając wykrycia. 

Który sektor gospodarczy, może być najbardziej zainteresowany rozwiązaniami opartymi na uczeniu maszynowym i sztucznej inteligencji?

Największy potencjał widzę w systemach wykrywania anomalii i odpowiedzi na nie. Sytuacja tutaj często przypomina szukanie igły w stogu siana i te systemy mogą być niezwykle przydatne. W przyszłości prawdopodobnie obie technologie zostaną również wykorzystane w tzw. zarządzaniu podatnościami, czyli ich znajdywaniu w oprogramowaniu. Wykorzystamy to również w symulacjach ataków sprawdzających zabezpieczenia organizacji czyli w tzw. red teamingu. Dzięki temu jesteśmy w stanie wykryć problemy, które mogą zostać wykorzystane przez atakującego i wymagają naprawy.

Szef F-Secure Mikko Hypponn powiedział, że w przyszłości wyobraża sobie sytuację, że maszyny będą pisać programy i w ten sposób wyeliminujemy podatności. Podzielasz tę opinię?

Zdecydowanie tak, ale nie nastąpi to prędko. To raczej kwestia 20 ÷ 30 lat. Jest to logiczne. Ludzie pisząc kod robią błędy. W przyszłości możemy sobie wyobrazić sytuację, że sztuczna inteligencja napisze wirusy, a inna sztuczna inteligencja antywirusy. Ludzie będą spędzali więcej czasu na myśleniu o tym, co chcą, żeby maszyny zrobiły.

KomentarzeLiczba komentarzy: 1
Anni
poniedziałek, 13 sierpnia 2018, 02:20

Pokrętna logika.Nie jestem przekonany,że ten facet rzeczywiście myśli logicznie.Widze w tym więcej zagrożeń niż korzyści.