L'intelligence artificielle dans la société pixbay.com

L'intelligence artificielle dans la société

Les scientifiques considèrent l'intelligence artificielle (IA) comme une technologie clé dont l'utilisation est à prévoir dans tous les domaines de la société. L'IA peut améliorer la qualité de vie de nombreuses personnes et aider à surmonter des défis mondiaux comme le changement climatique ou les crises sanitaires.

Des sommes élevées sont déjà allouées au développement des systèmes d'IA dans le monde entier. Cela montre à quel point le potentiel économique de l'IA est important. Cependant, à mesure que l'utilisation de l'IA se développe, on observe de plus en plus de préoccupations concernant, par exemple, l'importance des valeurs humaines comme l'équité, la liberté, la vie privée, la sécurité et la responsabilité. Rares sont les progrès qui nous interrogent actuellement de manière aussi claire et complète sur la place que l'on souhaite accorder à nos capacités techniques dans le contexte de la société. Ce qui est certain, c'est que cette technologie a déjà profondément changé notre vie quotidienne et qu'elle continuera à le faire.

De la morale pour les machines
Les algorithmes changent la vie amoureuse de nombreuses personnes grâce aux applications de rencontre, gèrent les maisons connectées, prennent des décisions d'achat et influencent le débat public. Bientôt, l'IA s'occupera des enfants, soignera les malades, fournira des emplois et des prêts, et prendra des décisions de vie ou de mort avec des armes autonomes. Les machines intelligentes développeront leurs propres modèles de comportement qui ne peuvent être ni programmés, ni expliqués clairement par la science comportementale traditionnelle. Mais peut-on concevoir une action éthique là où il n'y a pas de conscience ? Comment peut-on mettre au point des IA au service des gens et qui ne leur font pas de mal ? De nombreux experts en IA sont convaincus que seul un nouveau domaine de recherche peut répondre à ces questions : le « Machine Behaviour », à savoir une recherche comportementale pour les machines. Une chose au moins est sûre : il faut tirer au clair les questions fondamentales liées à l'éthique et à la moralité dès aujourd'hui si l'on veut que les machines se comportent en conséquence à l'avenir.

The Moral Machine
Iyad Rahwan effectue des recherches à l'Institut de développement humain Max Planck à Berlin et au MIT Media Lab à Boston. Son projet « The Moral Machine » est la plus grande étude réalisée à ce jour dans le domaine de l'éthique des machines. L'enquête interactive examine les raisons éthiques qui poussent les gens à prendre des décisions dans différentes régions du monde et cherche à savoir si l'on peut s'appuyer sur ces connaissances pour déterminer des règles de conduite pour l'IA. Comment doit se comporter une voiture autonome si un accident grave ne peut être évité ? L'IA doit décider où va la voiture, et donc qui survit. Résultat : toutes les personnes interrogées veulent sauver le plus de vies possible, avant tout les enfants et ceux qui respectent le code de la route. Mais en y regardant de plus près, il apparaît clairement qu'il n'existe pas de valeurs universellement admises. Les participants de France et d'Amérique du Sud, par exemple, préfèrent sauver les femmes et les enfants plutôt que les hommes. Les Japonais aimeraient également sauver les personnes âgées, et la plupart des Allemands préfèrent ne pas intervenir et laisser le « destin » décider qui va mourir.

The Moral Machine © moralmachine.mit.edu, Screenshot



Embedded Code - 1

 


Programmé pour être juste
Qui va obtenir un prêt ? Qui va être convié à un entretien d'embauche ? Qui va sortir plus tôt de prison ? À l'avenir, les ordinateurs (co)décideront de plus en plus au détriment des personnes. Il ne faut pas que certains groupes de personnes soient traités mieux ou moins bien que les autres, même involontairement. C'est souvent le cas avec les systèmes automatiques utilisés actuellement. Pourquoi ? Et comment une IA peut-elle apprendre à se comporter de manière équitable ? Tout d'abord, il faut s'assurer que l'IA n'opère pas de discrimination sur la base des données qui lui sont fournies. En outre, la capacité des ordinateurs à établir une relation de cause à effet significative joue un rôle majeur. Les simples relations « si…, alors » induisent souvent en erreur. Cette « causalité de l'apprentissage automatique » est un domaine de recherche à la pointe de l'actualité : il faut analyser en profondeur les interrelations et les programmer dans des algorithmes. Enfin, il reste une question essentielle : « Qu'est-ce qu'une décision juste ? » En effet, il n'existe pas de définition de l'équité qui serait unanimement valable pour tous les milieux culturels.

L'IA peut-elle devenir coupable ?
Qui va payer les dommages lorsque des machines qui apprennent et agissent de manière autonome commettent des erreurs ? Les programmeurs, les producteurs, les utilisateurs ? Les systèmes juridiques du monde entier sont faits pour les personnes, même si certains font référence à des objets. Dans ce cas, toutefois, ce ne sont pas les produits ou les machines qui sont responsables, mais les personnes qui les fabriquent ou les utilisent. Mais tout cela s'applique à des machines qui sont déjà « terminées » au moment de l'achat. L'IA qui ne cesse d'apprendre, en revanche, est en constante évolution. Si une IA prend des décisions – et ce n'est qu'à ce moment-là qu'il s'agit d'une IA –, ne devrait-elle pas également être responsable de ses actions en tant que personne morale ? Dans quel sens les systèmes juridiques vont-ils évoluer ? Certains juristes affirment que rien ne doit changer. D'autres veulent s'assurer que l'utilisation de machines intelligentes ne fera pas renoncer les gens à leur responsabilité. Un troisième groupe soutient qu'il faut mettre au point une législation complètement nouvelle.

La valeur des données
Grâce à l'IA, on peut analyser d'énormes quantités de données. Elles sont utilisées, par exemple, dans le marketing pour des publicités spécifiques en fonction des clients, pour les recommandations des moteurs de recherche ou pour les chatbots. Il s'agit de systèmes de dialogue en ligne qui répondent aux questions en temps réel sans qu'un être humain ne soit impliqué. Les entreprises utilisent les chatbots pour les services clientèle ou dans les boutiques en ligne, mais on en voit aussi fréquemment sur les réseaux sociaux. Toutefois, pour que les chatbots fonctionnent bien, les données doivent être de bonne qualité. Si une IA apprend avec de « mauvais » modèles, elle peut rapidement devenir raciste, vulgaire et blessante. C'est ce qui s'est passé, par exemple, à la fin de l'année 2020 avec Lee Luda : l'avatar de ce chatbot est une fille de manga, sa base de données est d'environ 100 milliards de messages parlés. En quelques semaines, 750 000 personnes discutent avec Lee Luda. Mais Lee apprend des opinions problématiques auprès de certains participants. Elle s'exprime de plus en plus souvent de manière insultante, voire inhumaine, et est finalement retirée du réseau.

Robots sociaux
Dans les usines en réseau, l'homme et la machine travaillent déjà ensemble et forment une équipe intelligente. Les robots effectuent les tâches pénibles, dangereuses ou ennuyeuses et aident ainsi leurs collègues. À l'avenir, les robots et l'IA apporteront également de plus en plus leur soutien pour les soins des personnes malades et âgées. Les machines intelligentes qui sont censées communiquer avec les gens ressemblent souvent à des personnes : elles ont une tête, un corps, deux bras et parfois même deux jambes. Les gens accepteront alors mieux la machine – comme Pepper, un petit robot de soins de 1,20 mètre avec de grands yeux noirs et un corps blanc brillant. Il parle plusieurs langues, peut se souvenir des visages, identifier les sentiments et y réagir. Les robots de soins peuvent prendre en charge de nombreuses tâches et ainsi aider les personnes qui travaillent dans le domaine des soins. Ils ne peuvent pas remplacer les relations interpersonnelles, mais ils peuvent créer plus de temps pour elles.

Art artificiel
Les artistes explorent la relation entre le monde numérique et le monde physique de diverses manières. Cela fait déjà longtemps que l'IA joue un rôle important dans la science-fiction. Mais une intelligence artificielle peut-elle créer de l'art par elle-même ? L'art est un processus créatif dans lequel la perception, l'imagination et l'intuition jouent un rôle prépondérant. L'IA peut-elle être créative si elle ne comprend pas l'humour, ne connaît pas la tristesse et la joie et n'a pas de conscience ?
Grâce à des algorithmes intelligents, on peut aujourd'hui créer des peintures, des poèmes et des morceaux de musique. La maison de vente aux enchères Christie's met aux enchères un tableau créé par une intelligence artificielle pour la première fois en 2018. L'artiste munichois Mario Klingemann montre des visages imaginaires dans des installations vidéo qui changent en temps réel : l'IA qui ne cesse d'apprendre intègre les traits du visage des visiteurs dans l'œuvre d'art et s'adapte ainsi aux différentes cultures. Et en utilisant le « deepfake », l'IA fait chanter une Taylor Swift artificielle. Pour ce faire, l'algorithme analyse tous les morceaux de la chanteuse et synthétise une nouvelle chanson, parfaitement dans le style de Taylor Swift.

« L'intelligence artificielle n'est pas créative ; mais elle peut initier la créativité. »
Claudia Janet Birkholz, pianiste et professeure de piano et de musique contemporaine à l'Université des Arts de Brême


À qui appartient une œuvre d'art ?
Si l'IA peut créer de l'art, à qui appartient l'œuvre d'art ? L'art de l'intelligence artificielle ne pourra jamais être créé entièrement sans intervention humaine ; il faut au moins que quelqu'un ait écrit le programme. Alors, qui est l'artiste ? En 2018, Christie's a mis en vente le tableau « Portrait of Edmond de Belamy », la première œuvre d'art créée par une intelligence artificielle et non par un humain. L'intégralité du prix d'achat de 432 500 dollars a été reversée au collectif d'artistes français Obvious. Pour le tableau, Obvious a « alimenté » un algorithme open source avec des photos de tableaux et l'a entraîné à concevoir des images à partir de ces données. Les artistes ont ensuite choisi l'une des peintures, lui ont donné un nom et l'ont proposée à la vente. Le programmeur de l'algorithme n'a pas été mentionné et n'a rien reçu des bénéfices de la vente. Cela est-il juste ? D'après une enquête, la majorité des personnes interrogées estiment que le mérite doit revenir en premier lieu à ceux qui fournissent les données aux algorithmes d'apprentissage et les entraînent – soit dans ce cas, à Obvious.

Partenaires de coopération

GI-Logo MPG Logo