Sojusz potrzebuje szeroko zakrojonej, skutecznej strategii przeciwdziałania wobec ewoluującego zagrożenia dezinformacją. Narzędzia sztucznej inteligencji (AI) mogą pomóc w identyfikacji i spowolnieniu rozprzestrzeniania się fałszywych i szkodliwych treści, przy jednoczesnym zachowaniu wartości pluralistycznych i otwartości społeczeństw.
Dezinformacja – nic naprawdę nowego
Fałszywe informacje i wprowadzające w błąd narracje są narzędziami konfliktów i polityki państwowej od czasu, gdy legendarne miasto Troja padło łupem starożytnych Greków, a prawdopodobnie nawet wcześniej. W odległej przeszłości istniały wprowadzające z błąd drewniane konie, fałszywi świadkowie i podrobione plany. Dziś mamy nieprawdziwe wiadomości, fałszywe profile w mediach społecznościowych i sfabrykowane narracje tworzone w celu wprowadzenia w błąd - czasami jako część skoordynowanych kampanii wojny kognitywnej.
Media społecznościowe oraz internet umożliwiły rewolucję dezinformacyjną. Żyjemy w świecie tanich cyfrowych narzędzi oraz mediów o radykalnie zwiększonym zasięgu, skali i oddziaływaniu. Problem polega na tym, że te powszechne narzędzia są dostępne nie tylko dla podmiotów państwowych, ale także dla podmiotów niepaństwowych, osób prywatnych i wszystkich innych.
Fałszywe wiadomości i podburzające narracje trafiły na pierwsze strony gazet w skrajnych przypadkach, zwłaszcza na Bałkanach Zachodnich i w niektórych państwach członkowskich Sojuszu. Bardziej podstępnym niebezpieczeństwem jest ich zdolność do niszczenia wiary obywateli w demokratyczne instytucje rządowe oraz zasoby podtrzymujące informowanie publiczne i dyskurs społeczny. Ostatnie lata przyniosły rosnącą polaryzację stanowisk politycznych, rekordowo niski poziom zaufania do instytucji rządowych oraz niepokoje społeczne i akty przemocy - częściowo wspomagane przez fałszywe informacje.
Państwa członkowskie NATO utrzymują otwarte systemy komunikacji cywilnej, niektóre z nich mają bardzo wysoki wskaźnik korzystania z mediów i komunikatorów społecznościowych. Pluralistyczny charakter ich społeczeństw - będący zaletą i źródłem siły - może jednocześnie wspierać przyswajanie dzielących i podburzających narracji. W wielu z tych państw prężne, ochronne struktury regulacyjne dopiero raczkują. Połączenie tych uwarunkowań sprawia, że zagrożenie dezinformacją jest dla Sojuszu szczególnie niepokojące.
Uwaga skupiona na fałszywych faktach
Globalne firmy z branży mediów społecznościowych podjęły wyzwanie, aby ograniczyć ilość fałszywych informacji na swoich platformach. Większość z nich zatrudnia u siebie osoby weryfikujące fakty, aby monitorować rozpowszechnianie fałszywych informacji. Niektóre korzystają z zewnętrznych weryfikatorów lub narzędzi do moderowania przekazu. Kilka popularnych platform, w tym Facebook, YouTube i Twitter, daje swoim użytkownikom możliwość zgłaszania innych użytkowników podejrzanych o rozpowszechnianie fałszywych danych, świadomie lub nieświadomie. Starając się wstecznie naprawić szkody wyrządzone przez fałszywe informacje, zdecydowana większość platform mediów społecznościowych stosuje masowe usuwanie treści uznanych za szkodliwe lub wprowadzające w błąd za pomocą tych metod.
W najlepszym przypadku okazało się, że działania te są niedostateczne i spóźnione. W najgorszym -prowadziły one do oskarżeń o cenzurę i do usuwania informacji lub opinii, które później okazywały się wiarygodne lub warte publicznej dyskusji.
Problem skali
Na samym Facebooku są prawie trzy miliardy aktywnych użytkowników miesięcznie, z których każdy jest w stanie opublikować w sieci podburzające treści. Twitter ma ponad 350 milionów aktywnych użytkowników, wśród których znajdują się wybitne osobistości, liderzy opinii publicznej oraz sprytni i pomysłowi influencerzy.
Obecne podejście do przeciwdziałania dezinformacji opiera się głównie na ręcznym sprawdzaniu faktów, usuwaniu treści i naprawianiu szkód. Chociaż interwencje pracowników mogą być przydatne w przypadkach wymagających zniuansowanego zrozumienia lub wrażliwości kulturowej, są one słabo dopasowane do ogromnych ilości informacji tworzonych każdego dnia. Jest mało prawdopodobne, aby zwiększenie liczby pracowników było realistycznym rozwiązaniem pozwalającym na proaktywne identyfikowanie fałszywych lub szkodliwych treści, zanim zdążą się one szeroko rozpowszechnić. Sprawdzanie faktów przez ludzi jest samo w sobie narażone na błędy, błędną interpretację i stronniczość.
Co staje się viralem?
„Fałsz leci, a prawda za nim kuleje" - napisał satyryk Jonathan Swift w XVII wieku. Ostatnie badania MIT wykazały, że na Twitterze fałszywe wiadomości są znacznie bardziej podatne na wirusowe rozprzestrzenianie się, a za ich ponowne udostępnianie odpowiadają zwykli użytkownicy, a nie zautomatyzowane boty. Ludzie również ponownie udostępniają te fałszywe wiadomości z wyrazami zaskoczenia i obrzydzenia. Z kolei prawdziwe historie wywołują reakcje smutku, oczekiwania i zaufania (i są znacznie rzadziej udostępniane).
Rodzi to potencjalną szansę. Może powinniśmy skupiać się nie na faktach, ale na emocjach? Czy komputery, a nie ludzie mogłyby być szkolone w tym celu?
Nie sprawdzaj faktów, sprawdzaj emocje
Oparta na sztucznej inteligencji analiza sentymentu reprezentuje zupełnie inne podejście do ograniczania dezinformacji poprzez szkolenie komputerów do rozpoznawania wiadomości i postów zawierających elementy zaskoczenia, obrzydzenia i inne emocjonalne czynniki prognostyczne. Są one częściej powiązane z fałszywymi informacjami i rozpalają emocje użytkowników mediów społecznościowych.
Algorytmy przetwarzania języka naturalnego umożliwiają identyfikację wspomnianych lingwistycznych wskaźników ekspresywności. Pozwalają one całkowicie uniknąć sprawdzania faktów przez człowieka, zmniejszając stronniczość i koszty oraz zwiększając szybkość przetwarzania. Zespół studentów z Uniwersytetu Johnsa Hopkinsa stworzył obiecująco działający prototyp, a ich koledzy z Georgia Institute of Technology i Imperial College London opracowali oceny wykonalności i potencjalne rozwiązania w zakresie przepisów.
Nie powstrzymuj dezinformacji, spowolnij ją
Ale co robić, gdy już zidentyfikowano wysoce viralną (i prawdopodobnie fałszywą) wiadomość lub post? Analogia do rynków finansowych podpowiada rozwiązanie - zautomatyzowany "wyłącznik", który tymczasowo zawiesza lub spowalnia rozpowszechnianie treści nacechowanych emocjonalnie.
Rynki papierów wartościowych zapobiegają panicznej sprzedaży poprzez czasowe zawieszanie obrotu akcjami, których cena spadła o określony próg procentowy. Na giełdzie nowojorskiej akcje, których cena spadła o ponad 7%, są w pierwszej kolejności wstrzymywane na 15 minut. Chodzi o to, aby spowolnić działania i pozwolić na chłodniejszą ocenę sytuacji. Kolejne spadki cen mogą spowodować dodatkowe zawieszenie obrotu.
Efekt spowolnienia może być znaczący. Na portalu społecznościowym wiadomość, która kopiuje się co 15 minut, może hipotetycznie osiągnąć milion wyświetleń w ciągu pięciu godzin i 16 milionów wyświetleń w ciągu sześciu godzin. Jeżeli częstotliwość kopiowania uda się zmniejszyć do 30 minut, wiadomość osiągnie tylko jeden tysiąc wyświetleń w ciągu pięciu godzin i cztery tysiące w ciągu sześciu godzin. Małe różnice w wirusowości dają ogromne różnice w skali rozpowszechniania.
Mechanizm taki działałby nie poprzez uniemożliwianie rozsyłania, ale poprzez spowolnienie zaangażowania, na przykład poprzez narzucenie czasu na opanowanie emocji pomiędzy komentarzami lub poprzez zachęcenie użytkowników do rozważenia możliwych konsekwencji przed ponownym wysłaniem wiadomości. Opiera się to na głównej tezie książki noblisty Daniela Kahnemana „Pułapki myślenia. O myśleniu szybkim i wolnym". Powolne myślenie jest racjonalne i pozwala uniknąć emocjonalności związanej z szybkimi reakcjami na zaskakujące i szokujące wiadomości lub wydarzenia.
Może to zmniejszyć obiekcje związane z cenzurą lub arbitralnym ograniczaniem swobodnego przepływu idei. Wiadomości i posty nie są usuwane ani eliminowane. Pozostają one dostępne do wglądu i dyskusji, tylko w wolniejszym tempie. Łagodzi to dylemat, kto rozstrzyga o „dopuszczalności wypowiedzi" oraz chroni cenne wartości wolności słowa i dyskursu publicznego. Takie podejście mogłoby zostać wdrożone, poprzez zachęty lub regulacje, na różnych poziomach infrastruktury komunikacyjnej - w samych firmach źródłowych, urządzeniach pośredniczących (lub platformach middleware), na poziomie transferu danych (łącza komunikacyjne), a nawet na poziomie urządzenia (smartfon lub tablet).
Uwagi dla Sojuszu
Dezinformacja jest jednym z wielu zagrożeń cyfrowych, przed którymi stoi Sojusz. Ostatnie kampanie informacyjne i cyberataki pokazały, że nawet zaawansowane technologicznie państwa członkowskie muszą zrobić więcej, aby przygotować się na obecne i rodzące się wyzwania cyfrowe. Konieczny jest większy postęp w tworzeniu skutecznych mechanizmów odpornościowych i ram regulacyjnych.
Jednak zagrożenia te wydają się narastać z dnia na dzień, pozostawiając Sojuszowi niewiele czasu. Wykorzystanie już istniejących technologii (takich jak te wymienione powyżej) i zastosowanie ich w innowacyjny sposób powinno zaoszczędzić zarówno czas, jak i zasoby. Minimalnie inwazyjne koncepcje łagodzenia skutków, takie jak spowalnianie - ale nie trwałe usuwanie - potencjalnie szkodliwych wiadomości i postów w mediach społecznościowych, mogą być najbardziej obiecującym pierwszym krokiem w walce z zagrożeniem dezinformacją. Sojusz może wtedy poświęcić więcej czasu na rozwój dodatkowych technologii i bardziej kompleksowe rozwiązania regulacyjne w przyszłości.
Historycznie rzecz biorąc, odporność i siła otwartych i pluralistycznych społeczeństw polegała na ich zdolności do innowacyjnego dostosowania się do pojawiających się wyzwań i okoliczności. Podstawowym mechanizmem jest tu swobodny przepływ idei i informacji, jak również otwarta i publiczna dyskusja oraz badanie opcji, polityk i planów. Każde rozwiązanie problemu dezinformacji musi chronić ten mechanizm, jeżeli chcemy zachować tę przewagę. Co więcej, przyjęcie rozwiązań przez państwa członkowskie będzie zależało od ich akceptacji przez ogół społeczeństwa i jest mało prawdopodobne, aby odniosły one sukces, jeśli wewnętrzne odłamy elektoratu uznają się za zmarginalizowane lub wyłączone z dialogu publicznego.
NATO mogłoby starać się promować przyjęcie takich rozwiązań, opartych na rozwoju technologii i zasadach, pozostawiając państwom członkowskim możliwość decydowania o ich własnych narodowych strategiach bezpieczeństwa cyfrowego. Zapewniłoby to rządom państw członkowskich elastyczność we wdrażaniu mechanizmów, które uznają za odpowiednie, zgodne z lokalnym poziomem rozpowszechnienia mediów społecznościowych, oczekiwaniami społeczeństwa w zakresie wolności słowa oraz realiami ich cywilnej infrastruktury komunikacyjnej.
Jest to siódmy artykuł z mini-serii poświęconej innowacjom, skupiającej się na technologiach, których przyjęcie jest rozważane przez członków Sojuszu oraz na możliwościach, jakie one przyniosą dla obrony i bezpieczeństwa NATO. Poprzednie artykuły: