| © Institut de systèmes intelligents Max Planck, Stuttgart

Comment naît l'IA ?

Cela fait déjà plusieurs décennies que les chercheurs travaillent au développement d'une intelligence artificielle (IA) capable de résoudre un problème par elle-même.

Dans un premier temps, les travaux ont porté sur une IA symbolique, basée sur des règles. Mais cette forme d'IA est fortement limitée. Elle ne convient que pour les domaines où l'on peut déterminer des règles claires pour toutes les situations imaginables. De très grands progrès ont été réalisés à partir des années 1980 avec les programmes qui apprennent eux-mêmes.

L'apprentissage automatique signifie qu'un ordinateur apprend à partir d'exemples et d'expériences comment prendre une décision, sans qu'on l'ait programmé à l'avance pour une solution spécifique. Des algorithmes spéciaux apprennent à partir d'échantillons de données et élaborent des modèles qu'ils peuvent ensuite utiliser pour créer de nouvelles données inédites. Lorsque les machines qui apprennent toutes seules sont alimentées par de très nombreux exemples, elles développent de manière autonome un processus de prise de décision qui se généralise. Cependant, la façon dont les programmes basés sur l'apprentissage automatique prennent leurs décisions est une chose que les programmeurs eux-mêmes ne peuvent généralement plus comprendre. En fonction de la complexité, on distingue différents niveaux d'apprentissage automatique : l'apprentissage supervisé, l'apprentissage non supervisé, l'apprentissage par renforcement et l'apprentissage profond.

« Aujourd'hui, nous avons des machines qui savent déjà relativement bien apprendre, mais nous n'avons pas encore de machines capables de penser. Le grand défi, c'est de créer ce genre de machines. »
Bernhard Schölkopf, directeur de l'Institut de systèmes intelligents Max Planck à Tübingen

Comment l'IA apprend-elle ?

L'apprentissage basé sur des règles
L'apprentissage basé sur des règles, également appelé IA symbolique, s'appuie sur des modèles logiques et est souvent qualifié d'IA « classique ». Il décide selon des règles claires définies à l'avance dans le code du programme.
Un exemple de ce type d'IA est Deep Blue, le programme informatique qui a battu pour la première fois le champion du monde d'échecs de l'époque, Kasparov, en 1996. Il fonctionne avec une IA symbolique et doit son talent de joueur principalement grâce à son énorme puissance de calcul. Ce logiciel d'échecs calcule une moyenne de 126 millions de positions par seconde. Deep Blue n'est pas vraiment intelligent, mais il est très, très rapide.

L'apprentissage supervisé
Avec l'apprentissage supervisé, des personnes analysent des données issues d'entraînements et de tests et les répartissent en groupes. Pendant la période d'entraînement, l'IA apprend à appeler « chat » des photos qui représentent des chats, par exemple. Si l'on montre l'image d'un éléphant à un algorithme qui a été entraîné à faire la différence entre un chien et un chat, l'IA sera coincée. Limités à un domaine étroit, ces algorithmes sont cependant très fiables et précis si les données fournies pendant l'entraînement sont suffisamment nombreuses et de qualité.
L'analyse des images à l'aide de méthodes d'apprentissage joue déjà un rôle majeur dans le diagnostic par imagerie. Plusieurs études montrent que l'IA peut établir des diagnostics plus rapides et souvent plus précis que de nombreux professionnels de la santé lorsqu'il s'agit d'évaluer un cancer de la peau, par exemple. Mais c'est le travail conjoint de l'homme et de l'IA qui permet d'obtenir les meilleurs résultats : d'abord, l'IA évalue s'il s'agit d'un cancer de la peau ou d'une lésion inoffensive. Ensuite, ce sont les médecins qui choisissent le traitement.

L'apprentissage non supervisé
On parle d'apprentissage non supervisé lorsque l'algorithme reçoit des données brutes non filtrées. Le programme recherche lui-même des similitudes et des différences entre les données. L'objectif est de déterminer des modèles intéressants et appropriés. Toutefois, des erreurs se produisent parfois lorsque l'IA identifie des points communs par exemple dans l'arrière-plan d'une photo, et on aboutit donc à des résultats incorrects. Si l'IA apprend ce qu'est un loup exclusivement à partir d'images de loups dans la neige, elle qualifiera également de loup un autre animal dans la neige.
Mais la reconnaissance des formes par des réseaux qui apprennent tout seuls peut aider les chercheurs à voir plus loin : souvent, on réalise la microscopie à fluorescence de cellules vivantes avec très peu de lumière, car sinon, les organismes examinés seraient endommagés. Un logiciel de restauration d'images à apprentissage automatique analyse ces images de microscopie mal éclairées et difficiles à voir, les compare avec des modèles d'images connues et peut ainsi rendre visible le contenu « caché » des images.

L'apprentissage par renforcement
Avec l'apprentissage par renforcement, le système d'apprentissage prend des décisions en fonction desquelles il va ensuite agir. Pour chaque action, le système reçoit un retour positif ou négatif. De cette façon, l'algorithme apprend de mieux en mieux à savoir comment réussit chaque action dans différentes situations. L'apprentissage profond est une méthode d'apprentissage par renforcement dans des réseaux neuronaux artificiels qui imitent le cerveau. Ce type de réseau neuronal est constitué de plusieurs couches. Les différentes couches sont constituées de nombreux neurones artificiels qui sont connectés entre eux et réagissent aux neurones de la couche précédente. Plus le réseau est étendu, plus il peut traiter des questions complexes.

Reconnaissance vocale et textuelle
L'apprentissage profond est notamment utilisé pour la reconnaissance vocale et textuelle. Par exemple, le service de traduction en ligne DeepL développé à Cologne et le programme de traduction simultanée Lecture Translator de l'Institut de technologie de Karlsruhe fonctionnent avec des réseaux neuronaux artificiels.
 
Reconnaissance faciale
Les réseaux neuronaux artificiels sont également utilisés aujourd'hui pour la reconnaissance faciale. Rien qu'à Londres, la capitale britannique, on trouve plus de 600 000 caméras, dont beaucoup sont également utilisées pour la reconnaissance faciale. Cette technologie est destinée à aider la police à résoudre, voire à éviter les crimes. Mais quels sont les risques liés à ce type de surveillance ? Dans quelle mesure est-elle compatible avec la démocratie et les droits des citoyens ?

Véhicules autonomes
Cela fait des décennies que les constructeurs automobiles cherchent à automatiser la conduite grâce à divers systèmes d'assistance. Beaucoup de choses sont déjà devenues réalité, par exemple l'adaptation automatique de la vitesse ou les aides au stationnement. L'objectif ultime est la conduite autonome, où des programmes informatiques dotés d'IA prennent le contrôle total du véhicule et où les humains ne sont que des passagers. D'une part, cela permettrait d'éviter de nombreux accidents de la route, car la très grande majorité de ces derniers se produisent aujourd'hui en raison d'une erreur humaine. Mais d'un autre côté, il y a aussi des questions fondamentales : qui est responsable en cas de collision avec un véhicule sans conducteur ?

Exemples tirés des recherches sur l'IA

Viens faire des recherches avec moi
Le petit robot à quatre pattes SOLO 8 provient des laboratoires de robotique de l'Institut de systèmes intelligents Max Planck à Tübingen et Stuttgart. Le robot de recherche est un projet open source : les instructions de construction et la documentation GitHub sont librement accessibles. La plupart des composants sont générés avec une imprimante 3D, et le reste peut facilement être acheté. Cela signifie que les chercheurs du monde entier peuvent reproduire et continuer à faire évoluer SOLO 8 facilement et à moindre coût. L'idée du projet est que n'importe quel laboratoire de recherche en robotique puisse utiliser cette technologie, créant ainsi une plateforme de recherche unifiée à l'échelle mondiale. En effet, si de nombreux scientifiques réalisent des expériences sur la même plateforme, on finira par obtenir des données comparables. Cela permettra de progresser plus rapidement dans le domaine de la robotique.
  Roboter SOLO 8 © Institut de systèmes intelligents Max Planck, Tübingen et Stuttgart / Wolfram Scheible Quand on utilise une exposition longue, les séquences de mouvements très dynamiques du robot SOLO 8 se transforment en danse.

Déterminer les liens de cause à effet
L'un des domaines de recherche actuels de Bernhard Schölkopf à l'Institut de systèmes intelligents Max Planck à Tübingen est l'inférence causale. Cela porte sur des algorithmes qui sont capables de déterminer les relations causales, c'est-à-dire la relation entre la cause et l'effet, à partir de données. L'un des objectifs est de rendre les systèmes d'IA plus résistants face aux interférences extérieures. Là encore, la conduite autonome est un bon exemple : si un panneau de signalisation dans une zone résidentielle où la vitesse est limitée est falsifié de telle sorte qu'il indique 130 au lieu de 30 km/h, une vraie personne sait immédiatement que cela ne peut pas être vrai – précisément parce que l'environnement donne de nombreux indices supplémentaires. Pour une IA, en revanche, ce n'est pas aussi facile. Portant, elle doit pouvoir en être capable avant que les voitures ne se conduisent réellement de manière autonome, sans quoi on peut s'attendre à des accidents graves.
   © Mobillikni ta’minlash uchun Bosch kompaniyasining yechimlari
Une interaction parfaite
Pour les grands marchés cinématographiques comme l'Allemagne, on double les films et les séries. Les traducteurs doivent non seulement rendre correctement le sens de ce qui est dit, mais aussi adapter le texte aux mouvements des lèvres et aux expressions des acteurs. Mais les choses pourraient bien changer : une technique d'IA appelée « Deep Video Portraits », créée à l'Institut d'informatique Max Planck, permet d'adapter les expressions faciales et les mimiques des acteurs à la meilleure traduction possible. Pour ce faire, on enregistre les mouvements du visage et la position de la tête des doubleurs. Le système transfère ensuite ces informations sur les acteurs du film. Résultat, les expressions faciales, les regards, la posture de la tête et même un simple clin d'œil correspondent alors parfaitement à la parole. Toutefois, des techniques similaires permettent également de falsifier le contenu des médias, ce que l'on appelle le « deepfake ». Aujourd'hui, par exemple, on peut faire dire n'importe quoi, même les pires absurdités, à des politiciens. Nous devons donc nous habituer à être critiques, même à l'égard de preuves qui semblent objectives.

   © Institut d'informatique Max Planck, Sarrebruck
Apprendre des langues avec l'IA
Sur Internet, on trouve des cours de langue « à la pelle ». Mais l'offre est souvent très différente en termes de qualité et de prix. Les cours les plus efficaces sont ceux où les apprenants reçoivent beaucoup de commentaires de la part des enseignants. Mais ces cours sont chers. Le Weizenbaum-Institut, un projet de recherche commun entre Berlin et le Brandebourg, collabore avec le Goethe-Institut pour mettre au point une IA permettant d'utiliser le temps des professeurs de la manière la plus efficace possible et de se concentrer sur des domaines comme la rédaction de textes et l'apprentissage de la prononciation. Entre autres, le programme peut vérifier non seulement le nouveau vocabulaire dans des textes libres, mais aussi la bonne utilisation d'une nouvelle règle de grammaire. Il peut même détecter si les élèves ont traduit un texte eux-mêmes ou s'ils ont triché avec des programmes de traduction. De cette façon, l'IA peut prendre en charge les tâches de routine des enseignants.

De Vinci avec dextérité
Aujourd'hui, les interfaces homme-machine courantes sont principalement axées sur l'ouïe ou la vue. Mais Katherine Kuchenbecker et son équipe de l'Institut Max Planck de Stuttgart sont convaincues que pour de nombreuses utilisations, les robots auront besoin de meilleures capacités d'interaction haptique ainsi que d'une intelligence sociale plus élevée. C'est pourquoi les scientifiques apprennent aux robots à comprendre leur environnement par le toucher. Cela est tout aussi important lorsqu'il s'agit de personnes, par exemple qui ont besoin de soins, que pour l'utilisation de robots télécommandés. Par exemple, Katherine Kuchenbecker poursuit le développement du robot chirurgical « da Vinci », qui permet aux chirurgiens d'opérer à distance. Le système d'IA envoie au robot les gestes des spécialistes éloignés. Grâce à ces nouvelles fonctions, les médecins peuvent désormais non seulement voir sur l'écran, mais aussi sentir directement ce que fait le robot.


 © Institut de systèmes intelligents Max Planck, Stuttgart « Avec l'aide de l'IA, on peut transformer de bons chirurgiens en très bons chirurgiens. »
Katherine Kuchenbecker, directrice de l'Institut de systèmes intelligents Max Planck à Stuttgart



 

Partenaires de coopération

GI-Logo MPG Logo