Grands modèles de langages et démocratie  Folie artificielle, ou voie à suivre?

En raison des méthodes d’apprentissage sous-jacentes aux grands modèles de langage (LLM), ces derniers ne comprennent pas la vérité, ce qui peut conduire à la diffusion d’informations erronées. Néanmoins, les LLM, comme toute technologie, constituent un outil puissant dont l’impact dépend de notre utilisation. David Dao explore plusieurs façons dont les nouvelles technologies de l’IA pourraient affaiblir — ou renforcer — nos démocraties.

Inclure des perspectives équitables grâce à l’IA

Alors que la 28e Conférence des Nations unies sur le climat (COP28) touche à sa fin à Dubaï, une ambiance mêlée d’espoir et de fatigue imprègne l’atmosphère. Les délégués du monde entier examinent attentivement les projets de politiques et de résolutions, se préparant à la dernière phase des négociations. Pour les négociateurs chevronnés des pays développés, cet environnement est familier. L’anglais, langue principale de la Conférence des Parties (COP), est souvent leur première ou deuxième langue. Ils bénéficient du soutien de vastes équipes dans leur pays, ayant réalisé une grande partie du travail préparatoire.

Pour les délégations de négociateurs issus du Sud, souvent petites et économiquement défavorisées, la situation est complexe. Elles font face à une tâche décourageante où le jargon dense et les termes techniques relèguent fréquemment leurs précieuses perspectives à l’arrière-plan, compromettant ainsi leur pleine participation à l’élaboration des politiques climatiques. Cette inégalité dans la participation démocratique due à la barrière linguistique n’est pas nouvelle — je l’ai personnellement constatée au cours des six dernières années lors de ces conférences. Plus préoccupant encore, les connaissances et les points de vue des populations autochtones, indispensables à la gestion du climat et des écosystèmes, sont souvent totalement exclus du débat. Malgré tout, j’observe un changement cette année.

Consciente de cette lacune, l’Académie des jeunes négociateurs forme et prépare des jeunes négociateurs issus de 55 pays. Pour la COP28, elle a collaboré avec notre organisation à but non lucratif, GainForest, pour créer un assistant d’IA destiné aux jeunes négociateurs, nommé Polly. Cette application a été conçue à partir d’entretiens approfondis avec de jeunes négociateurs dans des pays tels que le Liberia, le Paraguay et l’Indonésie. Polly a été développée pour simplifier le travail avec les documents politiques, en fournissant des traductions et des mises à jour en temps réel afin d’aider les jeunes délégués à naviguer de manière plus efficace dans les discussions pendant la COP. Actuellement, Polly soutient activement 70 jeunes négociateurs dans leur participation aux négociations sur le climat et a été utilisée lors des conférences pour aider à la rédaction de discours et d’interventions.

Taina, un autre assistant d’IA développé par les mêmes instituts, repousse les limites. L’application a été créée en collaboration avec les peuples autochtones dans le but de tisser un lien entre la sagesse traditionnelle et la prise de décision moderne. Elle permet aux communautés locales et autochtones de partager leurs histoires et leurs connaissances dans leur propre langue grâce à un dialogueur interactif. Avec le consentement de ces communautés, Taina capture et transmet leurs précieuses connaissances aux décideurs de la Conférence des Parties, assurant ainsi que les perspectives du monde entier, même les plus éloignées, contribuent à façonner les décisions mondiales. Taina fait actuellement l’objet d’un projet pilote avec les peuples Satere-Mawe, Tikuna et Munduruku au Brésil, ainsi qu’avec des communautés riveraines aux Philippines, fusionnant les traditions avec la stratégie environnementale mondiale.

Fonctionnement des grands modèles de langage (LLM)

L’efficacité de Polly et Taina repose sur l’IA générative et les grands modèles de langage (LLM), transformant considérablement notre compréhension du traitement du langage naturel. Contrairement à l’idée reçue selon laquelle un enseignement explicite de la grammaire et de la syntaxe est nécessaire pour la compréhension du langage, les LLM apprennent à partir d’un vaste corpus de données textuelles provenant d’Internet. Au cours de leur phase d’apprentissage, ces modèles opèrent en prédisant le mot suivant dans une séquence, à la manière de la fonction d’autocomplétion d’un clavier. Cette approche probabiliste suscite des critiques de la part de chercheurs en éthique de l’IA, qui remettent en question la réelle « compréhension » du langage par les LLM.

Malgré les critiques, l’influence des LLM et de l’IA générative sur notre société est indéniable. Le dialogueur ChatGPT d’OpenAI, par exemple, a atteint 100 millions d’utilisateurs mensuels seulement deux mois après son lancement, établissant ainsi un record de croissance pour une application grand public. Cependant, bien que Polly et Taina aient pour objectif d’inclure les voix marginalisées dans le processus démocratique en les aidant à traiter les textes, les LLM peuvent aussi créer et amplifier les bulles de filtres existantes s’ils sont mal utilisés.

Les dangers de la folie artificielle

En raison des méthodes d’apprentissage sous-jacentes aux grands modèles de langage (LLM), ces derniers ne comprennent pas la vérité, reflétant plutôt les biais présents dans leurs données d’apprentissage et générant fréquemment des informations fabriquées. Ce problème n’est pas propre aux LLM, mais est inhérent à tous les modèles d’apprentissage automatique. Par exemple, des cas de dialogueur médicaux fournissant des conseils médicaux inexacts sont bien documentés. De même, Galactica de Meta, conçu pour aider les scientifiques à rédiger des articles universitaires, a produit des références erronées et des études scientifiques fictives.

Les informaticiens s’efforcent actuellement d’améliorer les LLM en intégrant des outils externes tels que des calculatrices ou des moteurs de recherche, afin d’atténuer le problème de l’hallucination. Cependant, ce qui distingue les LLM des modèles traditionnels d’apprentissage automatique, c’est leur compréhension sophistiquée du langage et leur capacité à persuader et à interagir de manière convaincante avec les êtres humains.

Le Rapport sur les risques mondiaux 2024 du Forum économique mondial (FEM) a identifié la désinformation comme le principal risque pour les deux prochaines années. Des acteurs malveillants ont utilisé de fausses nouvelles pour influencer les marchés boursiers, encourager des choix de santé préjudiciables et menacer la démocratie en intervenant dans les élections, y compris les élections présidentielles américaines de 2016 et 2020. Les LLM ne feront qu’amplifier l’efficacité des fausses informations. Al Gore a qualifié ce phénomène d’enfermement des utilisateurs dans une chambre d’écho de plus en plus convaincante comme une nouvelle manifestation de l’IA : la « folie artificielle ».

Une voie à suivre

Il est important de souligner que les LLM, comme toute technologie, constituent un outil puissant dont l’impact dépend de notre utilisation. La possibilité de favoriser l’inclusion démocratique et de donner la parole aux voix traditionnellement marginalisées illustre le côté positif de cette évolution technologique, comme le démontrent des assistants tels que Polly et Taina. Ces outils ne se contentent pas de démocratiser l’accès à l’information, mais ils garantissent également divers points de vue soient entendus et pris en compte dans les processus décisionnels mondiaux

Il est important de souligner que les LLM, comme toute technologie, constituent un outil puissant dont l’impact dépend de notre utilisation.

Cependant, les défis associés à l’intelligence artificielle, en particulier ceux liés à la désinformation et à la folie artificielle, exigent un effort concerté pour les atténuer. Pour faire face à la complexité de l’intégration de l’intelligence artificielle dans le tissu de nos sociétés, une approche à multiples facettes s’avère nécessaire. Voici trois recommandations :
 
  1. Élaborer des cadres éthiques robustes pour le développement de l’IA, mettant en place des mécanismes de contrôle rigoureux et garantissant la transparence des données et des opérations de formation.
  2. Sensibiliser et éduquer sur les limites des LLM, afin de fournir aux individus les compétences de pensée critique nécessaires pour évaluer les résultats de ces modèles.
  3. Favoriser la collaboration ouverte et la co-conception entre les développeurs d’IA, les décideurs politiques et les communautés locales, afin de promouvoir la création de solutions d’IA plus inclusives et équitables.
En plaçant la co-conception des outils d’IA en priorité, en collaboration avec ceux dont ils visent à amplifier la voix, nous pouvons garantir que ces technologies sont déployées comme un moyen d’améliorer nos démocraties.

Vous pourriez aussi aimer

Failed to retrieve recommended articles. Please try again.