Sojusz stoi przed szeregiem wyzwań w nowych, rodzących się domenach konfliktu. Domeny te mogą powstać w wyniku wprowadzenia nowych, przełomowych technologii. Przykładowo, domeny kosmiczna i cybernetyczna powstały w wyniku rozwoju technologii rakietowych, satelitarnych, komputerowych, telekomunikacyjnych i internetowych. Coraz powszechniejsze korzystanie z mediów społecznościowych, sieci i komunikatorów społecznościowych oraz urządzeń przenośnych umożliwia obecnie powstanie nowej dziedziny - wojny kognitywnej (wojny o umysły).
W wojnie kognitywnej ludzki umysł staje się polem bitwy. Celem jest zmiana nie tylko tego, co ludzie myślą, ale także jak myślą i jak działają. Skutecznie prowadzona, kształtuje i wpływa na indywidualne i grupowe przekonania oraz zachowania, sprzyjając taktycznym lub strategicznym celom agresora. W skrajnej formie może doprowadzić do rozłamu i rozpadu całego społeczeństwa, aby nie miało ono już zbiorowej woli przeciwstawienia się zamiarom przeciwnika. Przeciwnik może całkiem realnie podporządkować sobie społeczeństwo bez uciekania się do jawnej siły lub przymusu.
Cele wojny kognitywnej mogą być ograniczone, o krótkim horyzoncie czasowym. Mogą też być strategiczne, z kampaniami prowadzonymi przez dziesięciolecia. Pojedyncza kampania może koncentrować się na ograniczonym celu, jakim jest uniemożliwienie przeprowadzenia planowanego manewru wojskowego lub wymuszenie zmiany określonej polityki publicznej. Kilka kolejno po sobie następujących kampanii można by przeprowadzić w długoterminowym celu zakłócenia funkcjonowania całych społeczeństw lub sojuszy, poprzez zasianie wątpliwości co do sposobu sprawowania władzy, rozchwianie procesów demokratycznych, wywołanie niepokojów społecznych lub podsycanie ruchów separatystycznych.
Połączone siły
W ubiegłym wieku innowacyjna integracja mobilnej piechoty, sił pancernych i powietrznych zaowocowała nowym i początkowo niemożliwym do odparcia rodzajem wojny manewrowej. Obecnie w wojnie kognitywnej łącznie wykorzystywane są narzędzia cybernetyczne, informacyjne, psychologiczne i socjotechniczne, aby osiągnąć określone cele. Wykorzystuje się Internet i media społecznościowe, aby wybiórczo lub seryjnie atakować wpływowe osoby, konkretne grupy i dużą liczbę obywateli w wybranym społeczeństwie.
Jej celem jest zasianie wątpliwości, wprowadzenie sprzecznych narracji, spolaryzowanie opinii, radykalizacja ugrupowań i zmotywowanie ich do działań, które mogą zakłócić lub rozbić całkiem spójne społeczeństwo. Powszechne wykorzystanie mediów społecznościowych oraz technologii inteligentnych urządzeń w państwach członkowskich Sojuszu może sprawić, że będą one szczególnie narażone na tego rodzaju ataki.

Domena kognitywna jest nową przestrzenią rywalizacji, obok domeny lądowej, morskiej, powietrznej, cybernetycznej i kosmicznej. © NATO Innovation Hub
Fake newsy nie są potrzebne
Warto zauważyć, że fałszywe informacje czy fake newsy nie są niezbędne do osiągnięcia celów wojny kognitywnej. Do wywołania niepokojów społecznych wystarczy kompromitujący dokument rządowy zhakowany z konta pocztowego urzędnika państwowego, anonimowo wrzucony do serwisu społecznościowego lub selektywnie rozsyłany do ugrupowań opozycyjnych w sieci społecznościowej.
Społeczna kampania informacyjna, która rozpala emocje internetowych influencerów, może spowodować, że kontrowersje staną się viralem. Grupy w mediach społecznościowych mogą być zmotywowane do organizowania demonstracji i wychodzenia na ulicę. Oficjalne zaprzeczenia lub niejednoznaczne reakcje władz w takich okolicznościach mogą przyczynić się do zwiększenia zamieszania i wątpliwości lub mogą utrwalić sprzeczne narracje w różnych częściach społeczeństwa.
Choć fałszywe konta w mediach społecznościowych i zautomatyzowane komunikatory "boty" mogą wzmocnić tę dynamikę, nie są one konieczne. (Jedno z najnowszych badań MIT wykazało, że emocje zaskoczenia i obrzydzenia same w sobie sprawiają, że wiadomości stają się viralami - a zwykli użytkownicy, a nie boty, szybko rozsyłają je ponownie).
Nasze sprytne urządzenia
Papierowy egzemplarz waszej ulubionej gazety nie wie, jakie wiadomości najchętniej czytacie. Ale wasz tablet już to wie. Reklama, którą zobaczyliście w gazecie nie wie, że poszliście do sklepu, aby kupić to, co było w reklamie; wasz smartfon – jak najbardziej. Artykuł, który przeczytaliście, nie wie, że entuzjastycznie podzieliliście się nim z najbliższymi przyjaciółmi. Wasza sieć społecznościowa o tym wie.
Nasze aplikacje mediów społecznościowych śledzą to, co lubimy i w co wierzymy; nasze smartfony śledzą, dokąd chodzimy i z kim spędzamy czas; nasze sieci społecznościowe śledzą, z kim się kolegujemy, a kogo wykluczamy. A nasze platformy wyszukiwania i handlu elektronicznego wykorzystują te dane śledzące, aby przekształcić nasze preferencje i przekonania w działania - oferując bodźce zachęcające nas do kupowania rzeczy, których w przeciwnym razie moglibyśmy nie kupić.
Jak dotąd, społeczeństwa konsumenckie dostrzegły i zaakceptowały korzyści. Tablet serwuje nam wiadomości, o których wie, że nam się spodobają, ponieważ chce nas ciągle angażować. Wyświetlane są takie reklamy, które odpowiadają naszym gustom, na podstawie naszych poprzednich zakupów. Na smartfonie pojawiają się kupony zachęcające nas do zatrzymania się w sklepie, który jakimś pozornym zbiegiem okoliczności już znajduje się na naszej drodze. Sieci społecznościowe prezentują opinie, z którymi się zgadzamy. Znajomi z naszych kręgów społecznościowych również podzielają te opinie, a ci, którzy ich nie podzielają, są po cichu usuwani lub sami odchodzą.
Krótko mówiąc, coraz częściej znajdujemy się w wygodnych „bańkach”, gdzie nielubiane lub niepokojące wiadomości, opinie, oferty i osoby są szybko wykluczane - jeżeli w ogóle się pojawiają. Niebezpieczeństwo polega na tym, że całe społeczeństwo może podzielić się na wiele takich „baniek”, z których każda będzie błogim oddzieleniem się od pozostałych. Ponieważ „bańki” te oddalają się od siebie, jest bardziej prawdopodobne, że każda z nich będzie niepokoić lub szokować za każdym razem, gdy się zetkną.
Codzienne zabieganie i działalność komercyjna w otoczeniu społecznym, otwarta debata w sferze publicznej, poczucie wspólnoty spraw publicznych pluralistycznego społeczeństwa – te wpływy moderujące w społeczeństwie mogą ulec osłabieniu i rozproszeniu, a nasza wrażliwość na to, co dla nas ważne łatwo może być zakłócona. To, co kiedyś było tętniącym życiem społeczeństwem otwartym, staje się zbiorem wielu zamkniętych mikrospołeczności zamieszkujących to samo terytorium, narażonym na rozłamy i nieład.
Nasze osłabione umysły
Nasze zdolności poznawcze mogą być również osłabiane przez media społecznościowe i urządzenia inteligentne. Korzystanie z mediów społecznościowych może wzmacniać uprzedzenia poznawcze i naturalne błędy decyzyjne, opisane w książce noblisty behawiorysty Daniela Kahnemana "Thinking, Fast and Slow".
Kanały informacyjne i wyszukiwarki, które podają wyniki zgodne z naszymi preferencjami, nasilają efekt potwierdzenia (confirmation bias), polegający na tym, że interpretujemy nowe informacje tak, aby potwierdzały nasze wcześniejsze przekonania. Aplikacje społecznościowe szybko poszerzają wiedzę użytkowników o nowe informacje, zaszczepiając tendencyjność, dzięki której przedkładamy znaczenie ostatnich wydarzeń nad te z przeszłości. Portale społecznościowe wywołują zjawisko dowodu społecznego (social proofing), przez który naśladujemy i potwierdzamy działania i przekonania innych, aby dopasować się do naszych grup społecznych. Grupy te stają się zamkniętą przestrzenią, gdzie rozlega się tylko echo konformizmu i myślenia zbiorowego.
Szybkie tempo przekazywania komunikatów i wiadomości oraz postrzegana potrzeba szybkiej reakcji na nie, zachęca do "szybkiego myślenia" (odruchowego i emocjonalnego) w przeciwieństwie do "wolnego myślenia" (racjonalnego i rozumnego). Nawet uznane i renomowane serwisy informacyjne publikują obecnie emocjonalne nagłówki, aby zachęcić do „wirusowego” rozprzestrzeniania się ich artykułów newsowych.
Ludzie poświęcają mniej czasu na czytanie, nawet jeśli coraz częściej dzielą się przeczytaną treścią. Systemy komunikatorów społecznościowych są zoptymalizowane do publikowania krótkich urywków, które często pomijają ważny kontekst i niuanse. Może to ułatwiać zarówno celowe, jak i nieumyślne rozpowszechnianie błędnie zinterpretowanych informacji lub tendencyjnych narracji. Zwięzłość postów w mediach społecznościowych, w połączeniu z uderzającymi obrazami wizualnymi, może uniemożliwić czytelnikom zrozumienie motywów innych osób oraz wartości, jakimi się kierują.

W wojnie kognitywnej łącznie wykorzystywane są narzędzia cybernetyczne, informacyjne, psychologiczne i socjotechniczne, aby osiągnąć cel. © Root Info Solutions
Potrzeba świadomości
W wojnie kognitywnej przewagę ma ten, kto pierwszy rusza do boju, wybiera czas, miejsce i środki ofensywy. Wojna kognitywna może być prowadzona z wykorzystaniem różnych środków i mediów. Otwartość platform mediów społecznościowych pozwala przeciwnikom łatwo celować w jednostki, wybrane grupy i opinię publiczną poprzez komunikaty społecznościowe, wpływanie na media społecznościowe, selektywne udostępnianie dokumentów, udostępnianie wideo itp. Możliwości cybernetyczne pozwalają na spearpfishing (selektywne wyłudzanie wrażliwych danych, często przez zastraszenie), hakowanie oraz śledzenie osób i sieci społecznościowych.
Właściwa obrona wymaga co najmniej świadomości, że wojna kognitywna jest w toku. Wymaga zdolności do obserwacji i orientacji, zanim decydenci podejmą decyzję o działaniu. Rozwiązania technologiczne mogą zapewnić środki pozwalające odpowiedzieć na kilka kluczowych pytań: Czy taka kampania jest w toku? Skąd się wzięła? Kto ją prowadzi? Jakie mogą być jej cele? Nasze badania wskazują, że istnieją wzorce takich powtarzających się kampanii i mogą one być sklasyfikowane. Mogą one nawet być opatrzone "sygnaturą" unikalną dla konkretnych sprawców, która może pomóc w ich identyfikacji.
Szczególnie użytecznym rozwiązaniem technologicznym może być system monitorowania wojny kognitywnej i ostrzegania przed nią. System taki mógłby pomóc w rozpoznaniu kampanii kognitywnych, gdy się zaczynają oraz w śledzeniu ich przebiegu. Mógłby on obejmować tablicę sterującą, która integrowałaby dane z szerokiego zakresu mediów społecznościowych, mediów nadawczych, komunikatorów społecznych i portali społecznościowych. Wyświetlałaby ona mapy geograficzne i mapy sieci społecznościowych, które pokazywałyby rozwój podejrzanych kampanii w określonym czasie.
Dzięki rozpoznaniu miejsc, zarówno geograficznych, jak i wirtualnych, z których pochodzą posty, wiadomości i artykuły informacyjne w mediach społecznościowych, a także tematów dyskusji, nastroju, językowych znaków rozpoznawczych, tempa publikacji i innych czynników, tablica taka może ujawnić powiązania i powtarzające się wzorce. Można zaobserwować powiązania między kontami w mediach społecznościowych (np. przesyłanie treści, komentarze, interakcje) i ich czas. Wykorzystanie algorytmów uczenia maszynowego oraz rozpoznawania wzorców mogłoby pomóc w szybkiej identyfikacji i klasyfikacji pojawiających się kampanii bez konieczności interwencji człowieka.
Taki system umożliwiałby monitorowanie w czasie rzeczywistym i dostarczałby w porę ostrzeżenia decydentom NATO i Sojuszu, pomagając im wypracowywać odpowiednie reakcje na kampanie w miarę ich powstawania i rozwoju.
Uwagi na temat odporności
Od wczesnych dni swojej działalności NATO odgrywa istotną rolę w promowaniu i wzmacnianiu gotowości cywilnej wśród swoich państw członkowskich. Artykuł 3 traktatu założycielskiego NATO ustanawia zasadę odporności, która wymaga od wszystkich państw członkowskich Sojuszu, aby "utrzymywały i rozwijały swoją indywidualną i zbiorową zdolności do odparcia zbrojnej napaści". Obejmuje to wspieranie ciągłości działania rządu oraz świadczenie podstawowych usług, w tym odpornych systemów komunikacji cywilnej. Niektóre kluczowe kwestie dla NATO w obecnym czasie dotyczą tego, jak najlepiej przejąć inicjatywę w definiowaniu ataków kognitywnych, jak pomóc członkom Sojuszu w utrzymaniu świadomości oraz jak wspierać solidniejszą infrastrukturę komunikacji cywilnej oraz systemy edukacji publicznej w celu zwiększenia zdolności do oporu i reagowania.
Jest to czwarty artykuł z mini-serii poświęconej innowacjom, która koncentruje się na technologiach, których przyjęcie jest rozważane przez członków Sojuszu, a także możliwościach, jakie przyniosą one dla obronności i bezpieczeństwa NATO. Poprzednie artykuły: