Vous visualisez une version texte de ce site web qui utilise moins de données. Voir la version principale du site, avec toutes les images et vidéos.
La plus grande menace pour la sécurité de l'ère de l'après covid
Les termes "sécurité nationale" ou "cyber-sécurité" sont peut-être familiers - mais qu'en est-il de la "sécurité épistémique" ? Si les sociétés la perdent, elles auront du mal à faire face à certaines des crises les plus inquiétantes du XXIe siècle, des pandémies au changement climatique.
La pandémie de Covid-19 a mis en évidence une chose : il est très difficile de coordonner le comportement de toute une société, même en matière de vie et de mort.
Prenons l'exemple de la réaction du public au lancement des vaccins. Pour que le monde puisse vaincre le coronavirus, il faut que la majorité de la population accepte d'en prendre un, et peu de gouvernements démocratiques choisiraient de le rendre obligatoire. Cependant, il subsiste une grande hésitation quant à la vaccination dans le monde entier. Si ce groupe était suffisamment important, l'une de nos voies les plus prometteuses pour sortir de la pandémie serait compromise. Le refus de ces personnes affecterait tout le monde, même les personnes vaccinées.
A ne pas manquer sur BBC Afrique :
C'est un thème récurrent de la pandémie : à diverses reprises, les responsables de la santé publique et les politiciens ont tenté de persuader les gens de faire des choses qui leur profitent à eux et à leur communauté, de la distanciation sociale au port de masques. Beaucoup l'ont fait, mais certaines personnes ont été plus résistantes à ces conseils. De fausses informations sur les vaccins et les masques, des traitements inefficaces et des rumeurs infondées sur les origines de Covid-19 ont rendu extrêmement difficile la coordination du comportement du public.
Cette réponse fragmentée à un événement mondial majeur témoigne d'une tendance inquiétante qui augure mal des autres crises auxquelles nous pourrions être confrontés au XXIe siècle, des futures pandémies au changement climatique. À l'ère de l'après-vérité, il devient de plus en plus difficile de s'assurer que tout le monde est bien informé. En d'autres termes, même si l'on savait clairement comment sauver le monde, un écosystème de l'information dégradé et peu fiable pourrait empêcher que cela ne se produise.
Dans un récent rapport publié par l'Institut Alan Turing du Royaume-Uni, mes collègues et moi-même affirmons que ce changement n'est rien de moins qu'une menace pour la sécurité mondiale elle-même. Les termes "sécurité nationale" ou "cyber-sécurité" vous seront familiers. Mais nous soutenons qu'il faut accorder plus d'attention à la "sécurité épistémique", car sans elle, nos sociétés perdront la capacité de réagir aux risques les plus graves auxquels nous serons confrontés à l'avenir.
Si la sécurité intérieure consiste à s'assurer que nos biens sont en sécurité, la sécurité financière à protéger notre argent, la sécurité nationale à protéger notre pays, alors la sécurité épistémique consiste à protéger nos connaissances.
Episteme est un terme philosophique grec, qui signifie "savoir". La sécurité épistémique consiste donc à s'assurer que nous savons effectivement ce que nous savons, que nous pouvons identifier les affirmations non fondées ou fausses, et que nos systèmes d'information sont résistants aux "menaces épistémiques" telles que les fausses nouvelles.
Dans notre rapport, nous explorons les contre-mesures potentielles et les domaines de recherche qui peuvent aider à préserver la sécurité épistémique dans les sociétés démocratiques. Mais dans cet article, examinons quatre tendances clés qui ont exacerbé le problème et rendu de plus en plus difficile pour les sociétés de répondre aux défis et aux crises urgentes :
1. La pénurie d'attention
Dès le XIIIe siècle - bien avant l'invention de la presse à imprimer en Europe - les universitaires se plaignaient de la surcharge d'informations. En 1255, le dominicain Vincent de Beauvais écrivait à propos de "la multitude des livres, la brièveté du temps et le caractère glissant de la mémoire".
Cependant, l'internet a rendu plus facilement accessible que jamais des quantités massives d'informations difficiles à vérifier. Il est difficile de faire la part des choses entre ce qui est vrai et ce qui ne l'est pas. Notre capacité d'attention limitée est tout simplement trop éparpillée.
L'abondance d'informations et les limites de l'attention créent une "économie de l'attention" féroce dans laquelle les gouvernements, les journalistes, les groupes d'intérêt et d'autres doivent se faire concurrence pour attirer l'attention. Malheureusement, certaines des stratégies les plus efficaces pour attirer l'attention font appel aux émotions et aux croyances existantes des gens, et ces sources sont par ailleurs ambivalentes quant à la vérité.
2. Filtrer les bulles et la rationalité limitée
Une conséquence particulièrement inquiétante de l'économie de l'attention est la formation de bulles filtrantes, où les gens sont principalement exposés à leurs propres croyances préétablies, et où les opinions opposées sont filtrées.
Face à la surcharge d'informations, les gens préfèrent naturellement accorder plus d'attention aux personnes de leur propre communauté qui partagent les mêmes idées qu'eux qu'à des personnes extérieures qui ne leur sont pas familières. Grâce aux plateformes de médias sociaux, il est plus facile que jamais de former et de rejoindre des communautés unifiées par des croyances et des valeurs communes.
La conséquence épistémique des bulles filtrantes est appelée "rationalité limitée". Si l'accès à l'information est le fondement d'un bon raisonnement et d'une bonne prise de décision, alors limiter son accès à des informations potentiellement pertinentes en s'enfermant dans des bulles de filtrage limitera à son tour sa capacité à bien raisonner.
3. Adverses et bévues
Il est plus facile que jamais de diffuser l'information et d'y accéder. L'inconvénient est que ces mêmes technologies permettent aussi aux gens de diffuser plus facilement, intentionnellement ou accidentellement, des informations fausses ou trompeuses.
Les acteurs (individus, organisations ou États) qui manipulent intentionnellement des informations pour tromper ou induire en erreur les destinataires de ces informations afin de les amener à de fausses croyances sont appelés "adversaires". Les adversaires organisent des "attaques contradictoires" pour inciter les gens à agir sur la base d'informations fausses ou trompeuses. Par exemple, une campagne politique peut utiliser une technologie vidéo truquée pour fabriquer des images incriminantes d'autres candidats politiques afin de manipuler les résultats des élections en leur faveur.
D'autre part, les acteurs qui répandent des croyances fausses ou mal étayées par des moyens bien intentionnés ou accidentels sont appelés "bavards". Par exemple, un chercheur en vaccins qui se méfie des effets secondaires et qui se méfie de l'autorité médicale peut faire un commentaire bien intentionné mais légèrement alarmiste lors d'une interview, qui peut ensuite être repris et diffusé sur les médias sociaux, ce qui déclenche une vaste campagne anti-vaccination.
4. Érosion de la confiance
Les humains ont développé des techniques naturelles pour décider quand faire confiance aux autres. Par exemple, nous sommes plus enclins à faire confiance à quelqu'un si un grand nombre de personnes le croient, et nous sommes encore plus disposés à croire une personne qui est membre de notre propre communauté - un signe qu'elle a des valeurs et des intérêts similaires aux nôtres. Nous utilisons également le langage corporel, l'intonation vocale et les modèles de discours pour juger de l'honnêteté. Ces stratégies sont faillibles, mais en général, elles ont bien servi les humains.
Cependant, les technologies modernes de l'information peuvent saper ces astuces. Par exemple, l'apparition de bulles filtrantes peut rendre des opinions minoritaires beaucoup plus visibles et sembler beaucoup plus largement acceptées qu'elles ne le sont en réalité. Alors que certaines perspectives minoritaires devraient être rendues plus visibles, il y a un problème lorsque des récits extrémistes nuisibles sont présentés comme étant beaucoup plus courants qu'ils ne le sont en réalité.
Certaines technologies détournent également notre tendance subconsciente à rechercher des signes d'honnêteté et d'insincérité dans les modèles vocaux et le langage corporel. La parole produite artificiellement ou les vidéos truquées ne sont pas entachées par les petits tics qui nous avertissent lorsque quelqu'un ment.
Que signifie tout cela ?
Pour ceux qui sont prêts à faire l'effort, une alimentation médiatique riche et équilibrée est plus accessible que jamais. Cependant, être bien informé est souvent un privilège de temps et de ressources que la plupart des gens ne peuvent pas facilement se permettre.
Aussi, lorsqu'il s'agit de relever des défis complexes comme celui du Covid-19 - défis qui ont nécessité une prise de décision en temps utile et la coordination d'une action collective de grande envergure - il est important de se rappeler que des conseils de santé publique avisés et des vaccins sûrs ne suffisent pas. Les gens doivent également croire aux solutions et à ceux qui les proposent.
Dans notre rapport, nous explorons certaines des conséquences possibles si nous n'agissons pas. Nous avons appelé l'un des pires scénarios "le babillage épistémique". Dans ce futur, la capacité de la population à faire la différence entre la vérité et la fiction est entièrement perdue. Bien que l'information soit facilement accessible, les gens ne peuvent pas dire si ce qu'ils voient, lisent ou entendent est fiable ou non. Ainsi, lorsque la prochaine pandémie se présentera, la coopération au sein de la société deviendra impossible. C'est une idée effrayante, mais Covid-19 a montré que nous sommes plus proches que nous ne l'aurions cru.
Regarder :