Reklama

Armia i Służby

Problemy służb wywiadowczych z Big Data

  • Start rakiety Falcon 9, fot. SpaceX

Dynamiczny postęp technologiczny, jaki obecnie obserwujemy, zaostrza problem wielkich zbiorów danych kolekcjonowanych przez anglosaskie agencje wywiadowcze. Jak z tego zalewu informacji wybrać wartościowe i istotne wiadomości? To zadanie, przed którym dziś stoją analitycy danych większości służb na świecie. Polska nie jest w tym względzie wyjątkiem.

Niewielu spodziewałoby się znaleźć w języku służb wywiadowczych nawiązań do popularnych powiedzeń. Tymczasem "szukanie igły w stogu siana" pojawia się w debacie na temat wielkich zbiorów danych kolekcjonowanych przez anglosaskie agencje wywiadowcze. Do tej metafory odwoływali się Keith Alexander, szef NSA w latach 2005-2014 czy James Cole, były zastępca prokuratora generalnego, popierający strategie zbierania wszelkich możliwych danych, a także służby kanadyjskie. Dynamiczny postęp technologiczny, jaki obecnie obserwujemy, nie rozwiąże problemu, a z dużym prawdopodobieństwem należy przypuszczać, że go wręcz zaostrzy. To zaś będzie wywierało presję na analityków, których zdolności przetwarzania informacji z natury rzeczy podlegają większym ograniczeniom.

Informacja w erze big data

Raport służb brytyjskich pozwala przyjrzeć się temu, jak odbywa się procesowanie informacji cyfrowych w działalności wywiadowczej. Pod względem technologicznym rozwiązania do pozyskiwania danych dzielą się na strategiczne oraz taktyczne. Strategiczne raz uruchomione pełnią swoje funkcje cały czas, mogą być zatem traktowane jako długoterminowe. Taktyczne, czyli takie, które są stosowane do zdobycia konkretnych danych wywiadowczych mają raczej charakter krótkoterminowy. Do wykorzystania i analizy danych wykorzystane są stosowane kryteria geograficzne oraz rodzaju celu. Dlatego następuje rozdzielenie kompetencji wg zagrożenia na aktorów wewnętrznych i zewnętrznych, które są zbieżne, choć nie tożsame z podziałem na działalność kryminalną i wywiadowczą.

Sam termin big data jest używany w odniesieniu do gwałtownego przyrostu ilości informacji tworzonych przez nowe technologie informacyjne przy użyciu mobilnego internetu, operacji w chmurze (cloud computing), sieci społecznościowych oraz "internetu rzeczy.” Termin obejmuje też zaawansowaną analitykę wykorzystywaną do przetwarzania tych danych. Nowe technologie gromadzenia, przemieszczania, przechowywania i organizowania danych mogą dać analitykom dostęp do znacznie większej ilości informacji wspartej zwiększoną automatyzacją i wydajnością. Tym samym technologia pozwoli im – przynajmniej w teorii - skupić swoje z natury ograniczone zasoby poznawcze na problemach o najwyższym priorytecie.

Big data nie tylko wspomaga tradycyjne formy działalności wywiadowczej, ale również tworzy nowe – takie jak organizacja i gromadzenie danych wywiadowczych wokół obiektu zainteresowania oraz jego działań (“object-based production” oraz “activity-based intelligence”). Ta ostatnia jest określana mianem metodologii, która integruje dane z wielu źródeł wywiadowczych (GEOINT, SIGINT, MASINT, OSINT, HUMINT) wokół działań ludzi oraz wydarzeń w celu odkrycia odpowiednich wzorców, identyfikacji zmian oraz odpowiedniego ich opisu w celu stworzenia przewagi decyzyjnej. Niemniej, rozwój technologii i zalew danych płynących z różnego rodzaju czujników i sensorów postawił służby wywiadowcze przed czterema wyzwaniami, określanymi jako „4V”: „variety” (różnorodność), „volume” (rozmiar), „velocity” (szybkość) oraz „verocity” (wiarygodność).

Odpowiednio dopasowane i skonfigurowane narzędzia informatyczne pozwalają na wykorzystywanie informacji bez konieczności dodatkowej aktywności ze strony analityków. Mogą one, z różnym poziomem ludzkiego nadzoru, samodzielnie klasyfikować i przyporządkowywać dane do odpowiednich kategorii informacji oraz wykrywać dane nie pasujące do istniejących wzorców. Dzięki temu pomagają analitykom zidentyfikować luki w danych wywiadowczych, nieprzewidziane korelacje bądź anomalie. Możliwy zakres zastosowania jest szeroki - od monitorowania zachowań osoby podejrzanej o terroryzm przez automatyczne śledzenie celów wojskowych, do skutecznego udzielania pomocy humanitarnej po katastrofie naturalnej. Nie należy jednak zapominać, że interwencja człowieka – w szczególności eksperta w zakresie objętym obserwacją – pozostaje krytyczna. Dalszymi wyzwaniami pozostają kwestie techniczne (opracowywanie ciągłego napływu nieustrukturyzowanych danych) oraz regulacyjne (kwestie reguł międzyinstytucjonalnej wymiany danych oraz ich ochrony przed kradzieżą).

Rzeczywiste wyzwania

Niezależnie od teoretycznych wyzwań związanych z zarządzaniem danymi służby anglosaskie na co dzień borykają się istotnymi problemami z przetwarzaniem pozyskanych danych. Dowodzi tego wewnętrzna komunikacja NSA, której dość wymowne tytuły obejmują: „Zbyt wiele wyborów”, „Dane to nie informacje wywiadowcze” czy „Postępowanie z tsunami przechwyconych informacji”, sięgające lat 2000. Ten ostatni dokument już dekadę temu ostrzegał, że szybkość i rozmiar danych SIGINT przejdzie wszelkie wyobrażenia. Problem nadmiaru danych nie jest niczym nowym w Stanach Zjednoczonych. Już w 2006 miało istnieć w NSA Biuro d/s Sprostania Przeładowaniu Informacyjnemu. Na projekty badawcze mające pomóc w "radzeniu sobie z nadmiarem informacji w roku 2011 agencja wydała 39 milionów dolarów, w 2012 ponad 64 mln, by w 2013 zmniejszyć tę kwotę do „jedynie” 48,6 mln. Wspomniany wcześniej raport dot. brytyjskiego kontrwywiadu wyraźnie zaznacza, że pozyskiwanie większej ilości danych niż może być zanalizowane, jest może prowadzić do przeoczenia istotnych informacji, a w konsekwencji stanowić zagrożenie. Inny, ściśle tajny brytyjski dokument wykazał, że w drugiej połowie 2008 roku, program PRESTON przechwycił około 5 milionów różnego rodzaju komunikatów, ale tylko 3 procent z przejętych wiadomości i danych zostało odczytanych.

W świecie informacyjnym bogactwo informacji oznacza ubóstwo czego innego: niedostatek tego, co ta informacja odbiera. Odpowiedź na pytanie co zabiera informacja, jest raczej oczywista: zabiera uwagę odbiorców. Dlatego bogactwo informacji skutkuje niedostatkiem uwagi i potrzebą efektywnego dzielenia tej uwagi pomiędzy mogącymi ją pochłonąć wieloma źródłami informacji

Herbert Simon, laureat Nobla 1978

Z tego względu analitycy niekiedy dokonują niezamierzonych, a wręcz losowych odkryć w posiadanych przez agencje zbiorach. Jednym z przykładów to przypadkowe odkrycie jednego z analityków NSA w 2010 roku w zbiorach danych agencji komunikacji wewnętrznej PDVSA, najważniejszej wenezuelskiej firmy energetycznej, zajmującej się wydobyciem i przetwórstwem ropy. Wśród odkrytych danych były nie tylko emaile czy dane teleadresowe ale również loginy i hasła, które pozwoliły na rozszerzenie operacji poprzez wciągnięcie TAO. Debata o big data przecina się również z debatą o terroryzmie. W przypadku wielu zamachów terrorystycznych ich sprawcy byli na radarze służb ale ich finalne działania prowadzące do zbrodniczych efektów umknęły uwadze. Robert Binney, emerytowany analityk i wysoki oficer NSA pracujący w niej ponad 30 lat, stwierdził, że jednym z powodów, dla których mamy tak wiele udanych ataków terrorystycznych jest to, że NSA zbiera zbyt dużo danych. W efekcie tego analitycy są przytłoczeni ilością danych, tak że nie są w stanie zidentyfikować żadnych zagrożeń. W związku z tym służby, jego zdaniem, powinny skoncentrować się na tych, którzy już są w obszarze ich zainteresowań i pod tym kątem wykorzystywać posiadane dane. Innymi słowy, znajduje swoje potwierdzenie teza, że służbom potrzeba rozwoju umiejętności zrozumienia tego co już mają. Zahacza to również o kwestię priorytetyzacji zagrożeń - czy poszukiwać nowych czy uwaga powinna być kierowana na rozpracowywań tych już zidentyfikowanych.

W celu optymalizacji działań służby wzajemnie się wspierają i uzupełniają przy wykorzystaniu zebranych danych. I tak np. w Wielkiej Brytanii GCHQ, czołowa instytucja JKM w obszarze elektronicznego wywiadu strategicznego i taktycznego ściśle współdziała z Security Service (kontrwywiad) ze względu na fakt, że współcześnie granica między tym to co „wewnętrzne” oraz „zewnętrzne” coraz bardziej ulega zatarciu, szczególnie w internecie. Przykładem jest tutaj komunikacja terrorystów z terytorium UK z Bliskim Wschodem. GCHQ współpracuje również z Secret Intelligence Service (wywiad) w celu zwalczania zagrożeń dla Wielkiej Brytanii, mających swoje źródło za granicą. Wreszcie, agencje zwalczające działalność kryminalną (SOCA, HMRC) są wspomagane przez GCHQ oraz SIS w przypadku celów zagranicznych, a przez NTAC (National Technical Assistance Centre) w przypadku działań wewnętrznych.

Dokąd zmierzamy?

Bardzo często padają twierdzenia o zalewie danych – czy to z ust CEO Google, twierdzącego, że w ciągu 2 dni produkujemy ich tyle, co cała ludzkość do 2003 roku, lub że w ciągu ostatnich 2 lat wyprodukowaliśmy 90% istniejących danych. Ludzkość w bardzo krótkim czasie przeszła od etapu niedoboru informacji do jej wszechogarniającego nadmiaru. Model dziewiętnastowieczny polegający na absorpcji informacji ulega transformacji na rzeczy modelu dwudziestopierwszowiecznego opartego na umiejętnej jej selekcji. Ten sam proces jest niezbędny w służbach odpowiedzialnych za bezpieczeństwo, tak aby były one w stanie reagować w odpowiednim czasie na zagrożenia. Duże zbiory danych mogą zarówno pomocą, jak i przeszkodą w skutecznej działalności na rzecz bezpieczeństwa państwa.

Tymczasem tempo innowacji technologicznych pozostaje wysokie. Wiele produktów i technologii, które zrewolucjonizowały sektor high-tech przeszły fazy od prototypu do codziennego użytku w bardzo krótkim czasie – żeby tylko wspomnieć rewolucje w technologiach mobilnych i wzrost usług społecznościowych w ciągu ostatniej dekady. Z tego względu, próby oceny przydatności dopiero dojrzewających technologii, które będą dalej zwiększać napływający strumień danych (jak np. internet rzeczy) dla służb wywiadowczych są praktycznie niemożliwe. Jedna rzecz pozostaje niezmienna w tak krótkim okresie – są to zdolności poznawcze analityków służb. W jednym z dokumentów znajdujemy podsumowanie problemu: „Daj analitykowi trzy informacje, z których jedna jest interesująca, a być może znajdzie czas aby się jej przyjrzeć. Daj mu 300 informacji, z których dziesięć jest interesujących a prawdopodobnie ich nie spożytkuje." Jest to wątek, który zdaje się umykać w polskiej debacie skupionej głównie na zagrożeniach dla prywatności wynikających z gromadzenia wielkich zbiorów danych. 

Maciej Hacaga jest członkiem Zespołu Młodych Naukowców przy Komitecie Prognoz PAN „Polska 2000 Plus”. Absolwent London School of Economics i Uniwersytetu Wiedeńskiego w ramach programu Erasmus Mundus Global Stiudies, a także Instytutu Stosunków Międzynarodowych Uniwersytetu Warszawskiego.

Reklama

Komentarze

    Reklama