Éthique  Machines sociales et valeurs humaines

The soulful human machine © Shutterstock AI

En intelligence artificielle, le problème d’alignement survient lorsque le comportement d’un système ne concorde pas avec les valeurs désirées par ses créateurs, notamment lorsque des systèmes d’intelligence artificielle sont déployés pour résoudre des questions sociales complexes.
 

J’étudie les relations sociales entre les humains et les machines, en particulier dans le contexte de la collaboration avec des robots dotés d’intelligence artificielle. Au cours de mes recherches, j’ai examiné les relations sociales entre les gens et les machines, constatant que les descriptions de ces relations évoquent souvent des dynamiques similaires à celles entre êtres humains : qu’elles soient intimes, amicales, craintives, antagonistes, et j’en passe. Par exemple, la machine à écrire de mon arrière-grand-tante est considérée comme un membre à part entière de la famille. Même envers des objets apparemment inanimés comme des portes récalcitrantes, j’ai nourri des sentiments de ressentiment pendant des années. Bien que la sagesse conventionnelle tende à considérer les machines comme des objets inertes, froids et insensibles, cette perspective ne correspond pas toujours à l’expérience quotidienne des gens. Et lorsqu’il s’agit de concevoir et de déployer des machines, IA ou autre, l’élément social introduit toujours un aspect imprévisible dans le résultat final.

ENSEMBLE, NOUS CONSTRUISONS DU SENS

Je m’efforce de comprendre et de respecter les machines selon leurs propres paramètres, plutôt que de les juger selon des attentes humaines. Cependant, je reconnais qu’elles n’évoluent pas dans l’isolement. En tant que concepteur, j’entretiens une relation intime avec les machines que je conçois, que ce soit en matière de mes intentions envers elles ou de leur intégration dans la culture des interactions entre machines et humains dans laquelle nous vivons. La véritable signification des machines se révèle après leur introduction dans le monde, à travers leurs interactions avec moi et d’autres gens. Nous construisons conjointement du sens au cœur du tumulte de la vie quotidienne, indépendamment de mes intentions en tant que concepteur. Dans le monde réel, les entités sont constamment décontextualisées et recontextualisées. Il n’y a aucune garantie que les intentions ou même les valeurs d’un concepteur perdurent.


Ce n’est pas nécessairement une mauvaise chose. Dans le domaine de la conception de nouveaux instruments de musique, il est bien reconnu qu’un interprète ne se conformera que rarement à la fonction initialement prévue de l’instrument. Cela s’explique en partie par les pratiques musicales contemporaines, y compris des techniques étendues (telles que le dévissage des pistons d’une trompette en jouant), et en partie par la nouveauté et l’absence de pédagogie établie pour les nouveaux instruments. Quoi qu’il en soit, l’expression artistique a toujours la capacité de transcender les limites de toute règle ou attente. Je dirais même qu’il est souhaitable qu’un instrument de musique suscite des comportements inattendus. Semblablement, les machines autonomes, qu’elles soient dotées d’IA ou non, dans le contexte de l’art contemporain, sont souvent appréciées précisément pour leur potentiel à générer des résultats inattendus. Une collaboration entre la machine et l’humain est à l’œuvre pour explorer ce qui est possible et donner du sens à ces expérimentations. Rien ne se déroule exactement comme prévu. Bien sûr, cela peut parfois mal tourner, comme l’illustre le cas du dialogueur « Tay » de Microsoft, contraint de fermer ses portes lorsque les utilisateurs l’ont incité à produire du contenu incendiaire et offensant.

PEUT-ON CRÉER UN DIEU NUMÉRIQUE?

WAlors, pourquoi devrais-je exiger d’une machine qu’elle incarne de manière parfaite les valeurs qui me sont chères? Et pourquoi souhaiterais-je que cette machine préserve mes valeurs actuelles alors que je suis moi-même en constante évolution? Il semble que le « problème de l’alignement » émerge lorsqu’on tente de déléguer les questions morales aux systèmes de machines. Peut-on réellement concevoir une machine capable de garantir l’équité dans les pratiques d’embauche des entreprises? Pouvons-nous créer une machine éliminant les préjugés raciaux dans l’application de la loi? Et qu’en est-il d’une machine gouvernant avec bienveillance pour assurer la prospérité de tous? Imaginons même une machine atteignant l’illumination spirituelle en notre nom. En ce qui concerne la recherche d’une intelligence artificielle « générale », serait-il envisageable de créer une machine omnisciente et omnipotente? Pouvons-nous créer un Dieu numérique? Ce type de questionnement me semble, à mon avis, fondamentalement erroné.
Confier aux machines la résolution de nos problèmes revient à se décharger de toute responsabilité. Bien qu’elles puissent collaborer pour concrétiser certains objectifs, il n’est ni garanti ni réaliste de s’attendre à ce que leur comportement reflète de manière autonome nos intentions. Un robot spirituel ou un dieu numérique n’a d’existence que dans le cadre d’un système humain-machine plus vaste qui le soutient.

L’IA n’est pas une solution miracle permettant de
« résoudre » les problèmes sociaux

Jusqu’à présent, j’ai utilisé le terme « machine » dans un sens qui implique une entité artificielle, entièrement dépourvue d’éléments humains. Cependant, le concept de machine est polymorphe, pouvant inclure des êtres humains. Par exemple, le terme « machine sociale » fait référence à des entités distribuées comprenant à la fois des éléments artificiels et biologiques (humains), telles que les organisations et les bureaucraties. Ainsi, nous avons déjà conçu – et continuons de concevoir – des machines destinées à résoudre des problèmes sociaux complexes, à atteindre l’illumination, à concrétiser des valeurs et des rêves collectifs. Ce sont des machines désordonnées, pleines de contradictions et de défauts. Sur quelles valeurs, au nom de qui, les machines sociales s’alignent-elles? L’alignement est indéniablement chaotique, une lutte entre plusieurs valeurs, rêves, individus et machines. Même avec une conception rigoureuse et méticuleusement mise en œuvre, les résultats d’un système complexe ne peuvent être entièrement anticipés.
Je ne cherche pas à minimiser les vastes implications de l’intégration des systèmes d’IA dans la société. Le déploiement de ces systèmes requiert une responsabilité considérable. Toutefois, il est essentiel de reconnaître que ces systèmes font partie intégrante de machines sociales plus vastes, exigeant un effort d’alignement continu et collaboratif pour promouvoir un ensemble donné de valeurs. Le problème d’alignement ne se limite pas uniquement à un produit d’IA particulier, mais s’étend à la machine qui le génère. Autrement dit, l’IA n’est pas une solution miracle permettant de « résoudre » les problèmes sociaux. Pour qu’un système d’IA incarne ou promeuve un ensemble de valeurs, ces valeurs doivent être intégrées dès le processus de conception. Cela implique l’application rigoureuse de ces valeurs à chaque étape, de la collecte de données à la formation, aux tests, au déploiement, et surtout, à la maintenance et à la reconception continues. Les problèmes d’alignement ne sont pas simplement ponctuels, mais plutôt systémiques.

Ainsi, lorsqu’un milliardaire ou un expert exprime ses espoirs et ses inquiétudes concernant l’IA, rappelez-vous qu’il s’efforce de faire converger nos efforts collectifs vers ses propres valeurs. Une machine peut incarner un ensemble de valeurs donné lorsqu’elle entre dans le monde, mais ce n’est qu’une partie de l’histoire. Le travail d’alignement est un processus continu, collaboratif et jamais entièrement abouti. Peut-on résoudre le problème de l’alignement? Je ne le pense pas, à moins que la société dans son ensemble ne puisse être « résolue ». Peu importe la sophistication d’une intelligence artificielle, quelle que soit la perfection revendiquée par ses créateurs, elle ne se comportera jamais comme prévu. Il y aura toujours une nécessité de réalignement.

Vous pourriez aussi aimer

Failed to retrieve recommended articles. Please try again.