Intelligence artificielle et élections  Il faut sauver la démocratie

Quelle information est vraie, quelle information est générée artificiellement ? Il est de plus en plus difficile de faire la différence à mesure que les fake news et la désinformation basées sur l'IA continuent de se propager.
Quelle information est vraie, quelle information est générée artificiellement ? Il est de plus en plus difficile de faire la différence à mesure que les fake news et la désinformation basées sur l'IA continuent de se propager. Photo (détail): © Adobe

La voix contrefaite d'une femme politique, des appels robotisés assistés par l'IA ou un présentateur télé fictif : l'intelligence artificielle offre une multitude de nouvelles possibilités pour diffuser de la désinformation. En ces temps de crise mondiale, il s'agit d'une véritable menace pour la démocratie.
 

Celles et ceux qui sont favorables à la démocratie ont une tâche énorme à accomplir en 2024 : il faut la sauver. Des élections auront lieu dans le monde entier cette année. Dans le même temps, le système connu aux États-Unis sous le nom de « gouvernement du peuple, par le peuple et pour le peuple » est de plus en plus menacé, et ce dans des proportions que nous ne connaissons pas encore.

En 2024, les habitant.e.s d'une quarantaine de pays éliront un nouveau gouvernement. À l’ouverture des urnes aux États-Unis cet automne, la plupart de ces pays auront déjà fait leur choix. Dans ce contexte, nous devons nous pencher sur un pilier de la participation démocratique qui était déjà menacé avant l'ère numérique : les informations fiables. L'intelligence artificielle générative, communément appelée « IA », constitue désormais un nouveau développement. Derrière cette abréviation se cache une multitude de significations et de possibilités, mais aussi de dangers. L'IA générative est apparue sur le devant de la scène il y a seulement un an avec la publication de ChatGPT. Est-elle une bénédiction ou plutôt une menace - ou peut-être rien de tout cela ? Nous en aurons bientôt une idée plus précise.

Les premiers signes ne sont pas très rassurants, c'est le moins que l'on puisse dire. Certains sont des exemples récents : au Bangladesh, selon le Financial Times, des médias et des influenceurs proches du gouvernement ont diffusé « de la désinformation générée par l'IA et créée avec des outils bon marché par des startups de l'IA ». Wired rapporte que lors des dernières élections en Slovaquie, des fichiers audio falsifiés ont été diffusés, utilisant la voix d'un candidat pour l'affaiblir. Aux États-Unis, l'agence de presse Associated Press rapporte que des candidat.e.s ont commencé à utiliser des systèmes d’appels robotisés assistés par l'IA afin de susciter, par le biais d'appels automatisés, l'intérêt des électrices et électeurs pour eux-mêmes ou pour d'autres candidat.e.s politiques.

Ces cas, bien qu'ils soient inquiétants, ne semblent pas être liés entre eux. Jusqu'à présent, ils ne semblent pas non plus être au centre d'une campagne organisée visant à déstabiliser les démocraties libérales dans le monde entier. Cependant, celles et ceux qui utilisent couramment la tromperie dans le cadre de leur arsenal de persuasion vont sans aucun doute examiner de près les nouvelles possibilités et, autant que faire se peut, les utiliser à grande échelle.

L'IA aide les forces antidémocratiques

Le boom actuel de l'IA a lieu à une époque où les crises mondiales s'aggravent et deviennent existentielles. Les guerres et le changement climatique sont déjà l'une des causes des migrations de masse et des déséquilibres économiques. Ces crises et d'autres ont contribué à une large incertitude de l'opinion publique, et ce n’est pas un hasard si elles ont favorisé la montée des populistes de droite, dont certains sont de véritables fascistes, qui méprisent en grande partie la démocratie.

L'IA est un acteur majeur du développement implacable et rapide de notre monde de l'information. Par le biais d'autres outils de communication puissants, elle aide les propagandistes malveillants qui soutiennent les forces antidémocratiques. Malgré les efforts de nombreuses personnes qui souhaitent aider le public à démasquer les mensonges, les forces de la tromperie gagnent en puissance.

N'oublions pas que l'IA générative n'en est qu'à ses débuts. Mais même si les médias et les groupes d'intérêt ont sans doute exagéré son impact immédiat et son potentiel, elle ne doit pas être sous-estimée pour autant. Elle est pour le moins un instrument fascinant et potentiellement puissant, qui pourrait à terme signifier une révolution.

Son premier impact significatif sur la politique pourrait être de compléter d'autres technologies numériques qui influencent déjà le processus électoral. Nous savons depuis longtemps comment cibler de petits groupes d'électrices et d’électeurs. Bientôt, ceux-ci recevront en masse des messages individuels, spécialement conçus pour eux. Des bots inondent aujourd'hui les plateformes de médias sociaux avec de faux comptes qui diffusent des mensonges. Derrière tout cela se cache souvent l'intention de faire baisser la participation électorale - mais il s'agissait jusqu'à présent d'instruments plutôt émoussés. Bientôt, des personnes mal intentionnées doteront les bots d'une force de persuasion très sophistiquée, assistée par l'IA, et elles les utiliseront de manière beaucoup plus précise.

Malgré les efforts de nombreuses personnes qui souhaitent aider le public à démasquer les mensonges, les forces de la tromperie gagnent en puissance.

On ne verra certes pas des présentatrices et présentateurs fictifs de journaux télévisés sur les grandes chaînes, mais leurs clips - et les imitations de vrais journalistes générées par l'IA - seront largement diffusés dans les médias sociaux. Certaines plateformes s'opposent à cette vague. Il est toutefois impensable de modérer tout ce qui est diffusé dans les immenses réseaux de médias sociaux.

Nous devons être conscients du fait même si quelqu'un supprimait de la vie publique, comme par magie, toute la désinformation optimisée par l'IA, le problème global ne serait pas résolu pour autant. Les journalistes attaquent volontiers les médias sociaux pour leur contenu abrutissant. Cependant, les grandes chaînes d'information aux États-Unis et ailleurs diffusent elles-mêmes de la désinformation depuis des décennies. Aux Etats-Unis, les gens reçoivent probablement plus de tromperies de la part de la chaîne Fox News de Rupert Murdoch que de tous les trolls en ligne réunis. Dans le monde entier, de puissantes entreprises mènent des campagnes de propagande de façon routinière, souvent en collaboration avec des gouvernements. Si nous ne pouvons pas empêcher les entreprises d'empoisonner l'espace public - il sera encore plus difficile de trouver des solutions globales pour contrer les fausses informations en ligne basées sur l'IA.

Nous devons quand même essayer. Nos options sont, entre autres, les suivantes : la réglementation, la censure, les contre-mesures et la sensibilisation du public.

Détection, réglementation et littératie aux médias numériques

Aux États-Unis, le Brennan Center for Justice, qui milite pour des élections libres et équitables, est l'un des nombreux partisans d'une réglementation stricte. En décembre, cette organisation publiait un rapport de recherche intitulé Regulating AI Deepfakes and Synthetic Media in the Political Arena (Réglementation des hypertrucages de l'IA et des médias synthétiques dans l'arène politique). Ce rapport explique les principes de fonctionnement de la réglementation et donne des exemples de mesures visant à protéger le processus électoral. Le rapport s'efforce fortement de trouver un équilibre entre des intérêts concurrents. Mais en fin de compte, cela ne peut pas être concilié avec le grand bien qu'est la liberté d'expression dans les sociétés démocratiques - après tout, l'idée de réglementer des mensonges a pour conséquence de réglementer des propos qui devraient sans aucun doute rester légaux. La réglementation est certes possible, mais elle est toujours problématique.

Il existe de meilleures contre-mesures. Nous avons besoin de meilleurs outils pour pouvoir identifier les médias synthétiques et leurs motivations, et pour falsifier ou confirmer leur contenu. Les services logiciels qui prétendent reconnaître les textes générés par l'IA se sont révélés peu fiables, ce qui les rend dangereux. Dans les projets d'intelligence open source comme le site européen Bellingcat.com, le facteur déterminant est l’humain. Le mélange d'intelligence humaine et artificielle semble être une bonne base, du moins à court terme.

L’éducation est la meilleure solution à long terme.

Une autre contre-mesure en cours de développement consiste à marquer numériquement les médias au moment de leur création et à veiller à ce que les étiquettes accompagnent le contenu au fur et à mesure qu'il est transmis et modifié. Dans le cadre de l'initiative d'authentification du contenu, des entreprises, des universités et d'autres groupes d'intérêt travaillent à la mise au point de cette technologie. L'initiative est prometteuse, mais elle n'en est qu'à ses débuts et soulève toutes sortes de questions difficiles sur le contrôle des médias.

L’éducation est le meilleur moyen d'aller de l'avant à long terme. Les formations en matière de littératie des médias numériques, plus répandues en Europe qu'aux États-Unis, offrent aux consommatrices et consommateurs ainsi qu’aux professionnel.lle.s des médias une base leur permettant d'émettre eux-mêmes des jugements raisonnables. Cela peut-il nous protéger contre un déluge de propagande et de mensonges professionnels ? Nous ne le savons pas encore. Mais si nous n'essayons pas de rejoindre des personnes de tous âges avec des programmes complets et durables, c’est un avenir sombre qui se dessinera devant nous.
 

Vous pourriez aussi aimer

Failed to retrieve recommended articles. Please try again.