L'Alliance a besoin d'une stratégie suffisamment efficace face à la problématique de la désinformation, menace qui ne cesse d'évoluer. Les outils d’intelligence artificielle (IA) peuvent aider à détecter les contenus mensongers et nuisibles et à en ralentir la diffusion sans qu’il soit porté atteinte aux valeurs des sociétés pluralistes et ouvertes.
Désinformation : rien de nouveau sous le soleil
Les fausses informations et les récits fallacieux sont utilisés dans la conduite des conflits et des affaires publiques depuis la chute de la légendaire ville de Troie aux mains des Grecs dans l’Antiquité, et probablement depuis plus longtemps encore. Dans un lointain passé, il était question de chevaux de bois, de faux témoins et de plans factices. Aujourd’hui, nous sommes confrontés à des informations mensongères, à de faux profils sur les médias sociaux et à des récits trompeurs inventés de toutes pièces, qui sont parfois employés dans le cadre de [campagnes] de guerre cognitive coordonnées (https://www.nato.int/docu/review/fr/articles/2021/05/20/sensibilisation-et-resilience-les-meilleures-armes-contre-la-guerre-cognitive/index.html).

Les médias sociaux et internet ont permis une révolution de la désinformation. Nous sommes entourés d’instruments et de médias numériques peu coûteux dont la portée, l’échelle et l’influence ont été nettement élargies. Le problème, c’est que ces instruments facilement accessibles peuvent être utilisés non seulement par des acteurs étatiques, mais aussi par des acteurs non étatiques et par des particuliers – en somme, par tout un chacun.

Les médias sociaux et internet ont permis une révolution de la désinformation qui a des répercussions sur les acteurs étatiques, sur les acteurs non étatiques, sur les particuliers – en somme, sur tout un chacun. © Centre for Research and Evidence on Security Threats
Dans des cas extrêmes, la communication mensongère et les rhétoriques incendiaires ont fait les gros titres, notamment dans les [Balkans occidentaux] (https://www.nato.int/docu/review/fr/articles/2020/12/21/la-desinformation-dans-les-balkans-occidentaux/index.html) et dans certains [pays de l’Alliance] (https://www.nato.int/docu/review/fr/articles/2016/07/25/l-affaire-lisa-l-allemagne-au-cur-de-la-desinformation-russe/index.html). Il s'agit d'un danger insidieux car cela ébranle la foi des citoyens dans les institutions de gouvernance démocratique et la crédibilité des sources utilisées pour les campagnes d’information et les débats publics. Ces dernières années ont été marquées par une polarisation politique croissante, par un niveau de confiance historiquement bas dans les institutions publiques et par des troubles et des violences attisés en partie par de fausses informations.
Les pays membres de l’OTAN disposent de systèmes de communication civils ouverts, certains s'appuyant largement sur les médias sociaux et les applications de messagerie instantanée. Le caractère pluraliste de leurs sociétés, bien qu'il soit un atout et un fondement solide, peut en même temps permettre à des discours clivants ou incendiaires de prendre racine. Dans bon nombre de ces pays, seuls les premiers jalons de structures réglementaires résilientes et protectrices ont été posés. La conjugaison de tous ces éléments rend la menace que représente la désinformation particulièrement préoccupante pour l’Alliance.
L’attention portée aux fausses informations
Les entreprises de médias sociaux d’envergure mondiale ont décidé de prendre à bras-le-corps le défi consistant à limiter la présence de fausses informations sur leurs plateformes. La plupart d’entre elles emploient en interne des spécialistes de la vérification des faits, qui sont chargés de contrôler la diffusion d’informations mensongères, tandis que d’autres ont recours pour ce faire à des contractants ou à des outils de modération. Plusieurs plateformes populaires, comme Facebook, YouTube ou Twitter, permettent à leurs utilisateurs de signaler des comptes soupçonnés de propager, sciemment ou non, de fausses informations. Et pour essayer de réparer rétroactivement les dommages causés par les informations mensongères, la grande majorité des plateformes de médias sociaux suppriment massivement les contenus préalablement identifiés comme nuisibles ou trompeurs au moyen des méthodes qui viennent d’être évoquées.
Il s’avère qu’au mieux, cette approche est trop limitée et arrive trop tard. Dans le pire des cas, elle conduit à des accusations de censure et à la suppression d’informations ou d'opinions qui se révèlent par la suite être crédibles ou utiles au débat public.
Le problème du volume
À lui seul, Facebook compte près de trois milliards d’utilisateurs actifs par mois, et chacun d’eux est susceptible de publier des messages incendiaires sur cette plateforme. Twitter a quant à lui plus de 350 millions d’utilisateurs actifs, parmi lesquels des personnalités, des leaders d'opinion populaires et des influenceurs habiles et pleins de ressources.
L’approche adoptée actuellement pour contrer la désinformation repose essentiellement sur la vérification manuelle des faits, la suppression de contenus et la limitation des dommages. Si les interventions humaines peuvent être utiles dans des cas nécessitant une interprétation nuancée ou une connaissance des sensibilités culturelles, elles ne sont guère adaptées au large volume d’informations qui est généré chaque jour. Augmenter le nombre de spécialistes de la vérification des faits employés par ces plateformes ne constitue probablement pas une option réaliste pour détecter de manière proactive des contenus mensongers ou nuisibles avant qu’ils ne puissent se propager à grande échelle. La vérification des faits par des êtres humains entraîne inévitablement des risques d'erreur, de mauvaise interprétation et de parti pris.

Les milliards d’utilisateurs qui se connectent chaque mois sur les médias sociaux sont susceptibles de publier des messages incendiaires sur ces plateformes. La quantité d’informations publiées est trop importante pour permettre une vérification manuelle des faits. © The Globe and Mail
Quels sont les contenus qui deviennent viraux ?
« Le mensonge vole, et la vérité le suit en boitant », écrivait l’auteur satirique Jonathan Swift au XVIIe siècle. D’après une récente [étude] du MIT (https://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308), sur Twitter, les fausses nouvelles sont bien plus susceptibles de devenir virales, et ce sont des utilisateurs en chair et en os, et non des « bots » automatisés, qui les propagent. Les internautes sont animés d’un sentiment de surprise et d’indignation lorsqu’ils « retweetent » ces fausses informations. En revanche, les histoires vraies génèrent de la tristesse, de l’appréhension, mais aussi de la confiance (et sont bien moins souvent partagées).
Ce constat ouvre une nouvelle perspective : ne faudrait-il pas se concentrer sur les émotions, plutôt que sur les faits ? Et les ordinateurs, et non les humains, peuvent-ils être « programmés » en ce sens ?
S’intéresser aux émotions plutôt qu’aux faits
L’analyse des émotions fondée sur l’intelligence artificielle représente une approche complètement différente de l’atténuation de la désinformation. Elle consiste à programmer les ordinateurs de façon à ce qu'ils détectent les messages et les publications (posts) qui contiennent des signes de surprise ou d’indignation, ou d’autres indicateurs émotionnels. Ceux-ci sont davantage susceptibles d’être associés à de fausses informations et de susciter des réactions passionnées parmi les utilisateurs des médias sociaux.
Les algorithmes de traitement du langage naturel permettent d’identifier les indicateurs linguistiques relatifs aux émotions que l'on cherche à détecter. Grâce à eux, il est donc possible de se passer de la vérification des faits par des êtres humains, et donc d'écarter le risque de parti pris, de diminuer les coûts et d’accroître la vitesse de traitement. Une équipe d’étudiants de l’Université Johns Hopkins a mis au point un prototype fonctionnel prometteur, et leurs condisciples du Georgia Institute of Technology et de l’Imperial College de Londres ont conçu des évaluations de faisabilité et des exemples d’approches réglementaires.
Ralentir la désinformation plutôt que l’arrêter
Mais que faire une fois qu'un message ou un post hautement viral (et probablement faux) est détecté ? Une analogie avec les marchés financiers permet d’entrevoir une solution : un « disjoncteur » automatisé qui suspend ou ralentit temporairement la diffusion de contenus à forte charge émotionnelle.
Les marchés boursiers évitent les ventes de panique en suspendant momentanément l’échange des actions dont le cours a baissé d’un certain pourcentage donné. À la Bourse de New York, les actions qui voient leur cours chuter de plus de 7 % sont, dans un premier temps, suspendues pendant 15 minutes. L’idée est de ralentir le rythme et de calmer le jeu. Des baisses de cours ultérieures peuvent déclencher de nouvelles suspensions des transactions.
L’apaisement engendré par ce ralentissement peut être considérable. Sur un site de messagerie sociale, un message dont la visibilité est multipliée par deux toutes les 15 minutes peut en théorie atteindre un million de vues en cinq heures, et 16 millions en six heures. Mais si cette visibilité n’est doublée que toutes les 30 minutes, le message ne sera vu que mille fois en cinq heures, et quatre mille fois en six heures. De petites différences au niveau de la viralité entraînent d’énormes différences en termes d’exposition.
Ce type de mécanisme fonctionnerait non pas en empêchant le partage, mais en ralentissant la propagation de la publication concernée. Par exemple, il imposerait un certain délai entre deux commentaires, ou il inciterait les utilisateurs à envisager les éventuelles conséquences du partage de cette publication. Son principe de fonctionnement repose sur la thèse centrale présentée par Daniel Kahneman, lauréat du prix Nobel, dans son ouvrage Thinking Fast and Slow. La réflexion lente est rationnelle et permet d’éviter l’émotivité des réactions spontanées à des nouvelles ou à des événements surprenants ou choquants.
Cette approche permettrait d’apaiser les inquiétudes liées à la censure ou à l’imposition de limites arbitraires à la libre expression des idées. Les messages et les posts ne seraient pas masqués ni supprimés ; ils pourraient continuer d’être consultés et débattus, mais à un rythme plus lent. Une solution est ainsi apportée à la question de savoir qui détermine quel genre de discours est « acceptable », et les notions précieuses de liberté d’expression et de débat public sont préservées. Cette approche pourrait être mise en œuvre, au travers d’incitations ou de réglementations, à différents niveaux de l’infrastructure de communication : celui des entreprises qui sont à la source, celui des passerelles de médiation (autrement dit, les plateformes « intermédiaires »), celui des dispositifs de transport des messages (les « tuyaux » de communication), voire celui des appareils (smartphones ou tablettes).
Considérations pour l’Alliance
La désinformation est l’une des diverses menaces numériques auxquelles l’Alliance est confrontée. Des campagnes d’information et des [cyberattaques] (https://www.nytimes.com/2021/05/14/us/politics/pipeline-hack.html) ont récemment montré que même les pays membres technologiquement avancés doivent faire davantage pour se préparer à faire face aux défis numériques actuels et émergents. Des progrès supplémentaires sont nécessaires pour élaborer des mécanismes de résilience et des cadres réglementaires efficaces.

Les cyberattaques sont une menace même pour les pays de l’OTAN les plus avancés technologiquement. Des progrès supplémentaires sont nécessaires pour élaborer des mécanismes de résilience et des cadres réglementaires efficaces.
Mais ces menaces semblent s’accroître de jour en jour, et le temps presse pour l’Alliance. Tirer parti des technologies existantes, telles que celles mentionnées précédemment, pour les employer de manière novatrice devrait permettre à la fois de gagner du temps et d’économiser des ressources. Des concepts d’atténuation peu intrusifs, comme le ralentissement – mais non la suppression définitive – de messages et de posts potentiellement nuisibles sur les médias sociaux, sont peut-être le moyen le plus prometteur de faire un premier pas dans la lutte contre la menace que représente la désinformation. L’Alliance pourrait alors consacrer, à l’avenir, davantage de temps à la mise au point de technologies supplémentaires et d’approches réglementaires plus globales.
L’histoire montre que la résilience et la solidité des sociétés ouvertes et pluralistes résident dans la capacité de celles-ci de s’adapter de manière novatrice à de nouveaux défis et à une nouvelle donne. Il faut pour cela qu'elles puissent s'appuyer sur la libre circulation des idées et des informations, ainsi que sur des débats et des examens ouverts et publics des options, des politiques et des plans. Si nous voulons conserver cet atout, ces principes doivent impérativement être préservés dans toute approche visant à remédier à la désinformation. En outre, l’adoption de solutions par des pays membres dépendra de l’acceptation de celles-ci dans la société de ces pays au sens large et a peu de chances d’aboutir à des résultats si certains groupes de population se sentent marginalisés ou exclus du dialogue public.
L’OTAN pourrait s’efforcer de promouvoir l’adoption de ce genre d’approches fondées sur la technologie et sur les principes, tout en laissant à ses pays membres le soin de définir leurs propres stratégies nationales en matière de sécurité numérique. Ceux-ci disposeraient ainsi de la souplesse nécessaire pour mettre en œuvre les mécanismes qu'ils jugent appropriés, en fonction du taux d’utilisation des médias sociaux sur leur territoire, des attentes de leur population en termes de liberté d’expression et des spécificités de leurs infrastructures de communication civiles.
Cet article est le septième d’une mini-série sur l’innovation, qui présente les technologies que les Alliés cherchent à adopter et les opportunités que celles-ci représentent pour la défense et la sécurité de l’Alliance. Articles précédents :
L’Alliance a tout intérêt à se doter d’une filière d’innovation résiliente
L’intelligence artificielle à l’OTAN : adoption dynamique et utilisation responsable
L’OTAN et la biotechnologie cognitive : questions et perspectives
Sensibilisation et résilience, les meilleures armes contre la guerre cognitive