Les intelligences artificielles sont plurielles. Et qu’elles peuvent également être définies, plus précisément, comme étant faibles ou fortes.
![image](https://www.notion.so/image/https%3A%2F%2Fprod-files-secure.s3.us-west-2.amazonaws.com%2F377e8583-7838-4c05-9f76-8833a450f304%2Fd28ace74-91c7-4a0a-b9de-997027d54318%2Fstn-POQqLvB3KiQiwErDN7DbzeMgVdua3IyGEqK0Kvfq.jpeg?id=70ca5d60-827d-41f5-a9d8-8d70a4c1a406&table=block)
L’IA peut être faible ou forte, basée sur des modèles d’apprentissage supervisé ou par renforcement. Mais comment les distinguer ? Décryptage avec Elisa Fromont.
/ Publié le 7 décembre 2023 à 15h16
Elisa Fromont, chercheuse en intelligence artificielle, a expliqué la différence entre ce qu'on appelle une IA faible et une IA forte. © BDM
À l’occasion de l’Imagine Summit, qui se tenait à Rennes ce jeudi 7 décembre, Elisa Fromont, professeure à l’université de Rennes et chercheuse en intelligence artificielle à l’IRISA, est venue présenter les différents types d’IA que l’on peut croiser, ainsi que les manières dont elles peuvent être entraînées. Car forte ou faible, l’intelligence artificielle prend de nombreuses formes qu’il convient de définir.
Qu’est-ce qu’une IA ?
Dans un premier temps, Elisa Fromont a tenu à partager sa définition de l’intelligence artificielle. Selon la chercheuse, « l’IA est une science qui explore la construction et l’étude d’algorithmes qui permettent à des machines d’accomplir des tâches nécessitant du raisonnement, de l’apprentissage ou de la prise de décisions ». Une IA, c’est également « le résultat de l’application d’un algorithme d’intelligence artificielle pour créer un programme « intelligent », souvent intégré dans une interface », comme pour un robot, par exemple.
IA forte ou faible, quelles sont les différences ?
Cependant, on remarque que les intelligences artificielles sont plurielles. Et qu’elles peuvent également être définies, plus précisément, comme étant faibles ou fortes.
L’IA faible
Avec une IA faible, « la machine doit aboutir aux mêmes solutions que l’humain, peu importe la méthode, pour des tâches ciblées », explique Elisa Fromont. Les IA faibles peuvent prendre la forme d’un programme qui joue aux échecs, d’une tondeuse à gazon, d’un aspirateur robot ou d’un modèle prédictif, qui peut servir à estimer des risques pour les assurances, à faire du trading à haute fréquence, ou encore à détecter des cancers.
L’IA faible, qui paraît forte
Les IA faibles qui paraissent fortes font partie de notre quotidien depuis quelques années. « Elles combinent des algorithmes, dont chacun fait quelque chose de très spécifique », explique la chercheuse. On trouve dans cette catégorie des assistants comme Alexa, Google Home ou Siri. Mais également les IA qui équipent les véhicules autonomes, ou sont capables de jouer (et gagner) à des jeux complexes comme le go, à l’image d’AlphaGo. ChatGPT fait également partie de ces IA faibles qui paraissent fortes.
Elisa Fromont prend l’exemple d’Alexa, l’assistante d’Amazon. « Si on lui demande de nous donner la capitale d’un pays qui se situe au sud-ouest de la France, Alexa, dans un premier temps, vous comprend. Votre parole est retranscrite de manière à être comprise par l’IA. On interroge ensuite un modèle pour comprendre la requête. Puis Alexa va répondre « Madrid » sous la forme d’une phrase sémantiquement et syntaxiquement correcte, ce qui n’a pas toujours été simple à faire. Enfin, il faut synthétiser cette réponse avec une voix. Tout cela donne une illusion d’intelligence. »
L’IA forte
Les IA fortes sont nombreuses, et pour certaines plus anciennes que les IA faibles qui paraissent fortes. Et ce, pour une simple et bonne raison : la plupart de celles que nous connaissons sont fictives. Ainsi, on pourrait citer HAL 9000, de 2001, l’Odyssée de l’espace, ou encore C3PO et R2D2 de la saga Star Wars. Terminator, Samantha dans HER, les Replicants de Blade Runner sont d’autres exemples d’IA fortes. « Nos exemples sont, en effet, à aller chercher dans la science-fiction », s’amuse Elisa Fromont. Autant dire qu’elles ne sont pas proches de voir le jour.
Différentes IA pour plusieurs méthodes d’apprentissage
Sous-domaine de l’IA, le machine learning (ou apprentissage automatique) permet d’apprendre à partir de données passées et d’exemples. « On peut penser, quand on parle d’apprendre à partir d’exemples, au langage maternel. On est baigné dans un langage par ses parents, avec des éléments de contexte, offrant des modèles permettant de formuler de bonnes phrases », explique Elisa Fromont.
Apprendre, c’est modéliser.
« Prenons l’exemple de la phrase « descends de la table, tu vas te faire mal » : on fait des associations, ceci doit être la table, « mal » doit être la conséquence si je ne descends pas, etc. » Ainsi, trois formes d’apprentissage se démarquent pour l’IA :
- L’apprentissage supervisé : dédié à la prédiction, mais on a besoin du résultat dans les données passées pour l’entraînement.
- L’apprentissage non supervisé : qui permet de trouver automatiquement une structure dans les données.
- L’apprentissage par renforcement : « il s’agit d’apprendre les actions à réaliser à partir d’expériences, de façon à maximiser une récompense quantitative au fil du temps ». L’exemple peut être le jeu Pac-Man : « C’est un monde fermé, avec un personnage qui doit manger des pastilles et éviter les fantômes. C’est un système de récompenses (les pastilles) ou de punitions (les fantômes). Apprendre à une IA à jouer à Pac-Man serait assez simple. »
Et ChatGPT dans tout ça ?
ChatGPT est un agent conversationnel. « Il est basé sur un réseau de neurones, entraîné par apprentissage supervisé à prédire le prochain mot d’un texte, à partir d’un très large nombre de données, 180 milliards de paramètres, et affiné avec de « vraies » interactions humaines et vos interactions passées, donc par apprentissage par renforcement », décrypte l’universitaire.
« ChatGPT fait de la génération de texte plausible. Il n’est pas fait pour répondre de manière exacte à une question. Il n’y a aucune garantie de véracité car il n’est tout simplement pas fait pour ça ! » Et, comme évoqué plus tôt, il fait partie des IA définies comme faibles mais paraissant fortes par Elisa Fromont.
Quels défis à venir pour l’IA ?
L’avenir présente plusieurs défis pour l’intelligence artificielle, car nous sommes déjà confrontés à ses erreurs, à ses biais et à son coût, parmi les modèles que nous utilisons désormais au quotidien.
Raisonner avec « intelligence »
L’IA peut parfois dire n’importe quoi avec beaucoup d’aplomb. La chercheuse prend deux exemples pour démontrer ce problème. ChatGPT peut notamment vous donner, sur demande, la recette du far breton au lait de canard, « il vous faudra un litre de lait de canard », nous dit-il.
Autre exemple : l’IA a analysé la photo d’un chien husky, et lorsque nous lui demandons de préciser la race du chien, elle confirme que c’est un husky. Cependant, son analyse est uniquement basée sur l’arrière-plan neigeux de la photo, contexte dans lequel les huskies sont souvent pris en photo et sur lequel l’IA s’est entraînée. « Les données sont donc biaisées. En mettant des vaches sur une plage, l’IA a beaucoup de mal à déterminer que c’en sont », s’amuse la chercheuse.
Prédire équitablement
L’IA est victime de biais dans ses jeux de données. Aux États-Unis, le logiciel COMPAS devait analyser les probabilités de récidive de détenus en vue d’une éventuelle libération conditionnelle, grâce au profil, donc aux données, de la personne concernée. « Mais pour une personne issue d’une minorité ethnique vivant dans un ghetto, le logiciel augmentait les probabilités de récidives. On creuse un sillon avec les données et on apprend à reproduire ce qu’on a creusé… »
Calculer frugalement
L’IA est gourmande en ressources. Il va donc falloir apprendre à en avoir une utilisation responsable. Cela peut se faire en « réutilisant des modèles existants, en apprenant mieux avec peu de données et/ou avec des modèles moins complexes, nécessitant donc moins de ressources », précise Elisa Fromont.
Utiliser ethniquement et légalement
Il existe de nombreux enjeux, qui vont de la détection des fakes à des politiques publiques, en passant par le droit. On a notamment observé l’utilisation massive, en Chine, de la reconnaissance faciale par IA sur la voie publique. En Europe, l’IA Act vise notamment à interdire ce genre de pratiques. Parallèlement, les deep fakes et images générées artificiellement sont de plus en plus nombreuses et d’une qualité confondante. Là aussi, le droit tente de rattraper son retard sur la technologie.