Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Avantages et inconvénients de l'intelligence artificielle

Illustration artistique d'un gynoïde ou robot doté d'IA à l'apparence féminine. Document T.Lombry.

Prudence est mère de sûreté (I)

Nous entendons de plus en plus parler de l'intelligence artificielle, l'IA. C'est une technologie "à la mode" et même un outil de travail très utile pour de nombreux chercheurs dont les applications sont tous les jours plus nombreuses. Mais qui la connait réellement et peut la définir ? Seuls les spécialistes peuvent répondre à ces questions. En effet, si certains d'entre nous utilisent déjà l'IA à travers des applications grand public ou à titre professionnel et connaissent ses avantages comme ses inconvénients, beaucoup moins de personnes peuvent la définir ou connaissent les risques qu'entraine son utillisation.

Nous connaissons surtout l'IA à travers nos outils numériques les plus avancés, les communiqués de presse des entreprises du secteur de l'IA, les articles académiques ou éducatifs, ce qu'en disent les médias et à travers les interprétations qu'en font les cinéastes dans les films d'action. Ces deux dernières sources sont souvent binaires, accentuant soit le côté le plus séduisant soit le plus dangereux de l'IA qui cache en réalité une nature tout à fait neutre mais qui, comme toute machine ou système artificiel, doit être encadrée pour éviter toute erreur ou écart inattendu. On y reviendra en détails.

Quand on écoute certains politiciens voire même certains entrepreneurs en IA en quête de financements pour poursuivre leurs recherches, ils nous font croire que nous avons les moyens de maîtriser l'IA et qu'elle peut tout résoudre. Ils imaginent que nous vivons dans un monde parfait où tout est facile et tout le monde est coopératif. Mais dernière ces belles paroles se cache en réalité un monde des affaires très compétitif avec des milliards de dollars en jeu pour mettre la main sur cette techologie très prometteuse mais aussi très complexe et difficile à mettre au point.

Qu'est-ce que l'IA ? L'IA est un terme mal défini. Il fait généralement référence à des machines (plutôt que des programmes) capables d'apprendre ou de résoudre des problèmes automatiquement, sans être dirigées ou supervisées par un humain. De nombreux programmes d'IA reposent aujourd'hui sur l'apprentissage automatique (learning machine) et l'apprentissage profond (deep learning) supervisé ou non, une suite de méthodes d'apprentissage et de calculs utilisées pour reconnaître des modèles dans de grandes quantités de données, puis appliquer ces leçons acquises à la prochaine série de données et ainsi de suite, devenant théoriquement de plus en plus précises à chaque itération. On y reviendra.

Il s'agit d'une approche extrêmement puissante qui s'applique à tous les domaines, de la théorie mathématique fondamentale à la cosmologie, en passant par l'ingéniérie, la sociologie, l'épidémiologie et les diagnostics cliniques parmi des centaines d'autres domaines et spécialités où l'IA excelle souvent, mais pas toujours.

Si de nos jours nous pouvons contrôler ou débrancher un système d'IA, une étude a montré que le cas échéant, il serait impossible de contrôler une IA superintelligente. C'est donc aujourd'hui et tant que nous gardons le contrôle des machines, qu'il faut mettre en place des garde-fous et des réglementations strictes pour limiter leurs utilisations et leurs actions dont la possibilité qu'elles puissent décider à la place des humains. En fait cette autonomie de décision des IA existe déjà dans certains logiciels d'imagerie médicale (cf. R.Pant et al., 2022), certains drones militaires (cf. OTAN) et quelques instruments scientifiques utilisés par les sondes spatiales (cf. NASA) parmi d'autres applications. Quant aux projets secrets du DARPA, on ignore tout simplement ce qu'ils nous préparent. Mais quand on voit le genre d'arme et les technologies qu'ils ont déjà inventés, ce n'est pas très rassurant.

Pour comprendre toute la puissance de l'IA, commencons par la présenter sous son plus beau profil, celui de son usage au quotidien avec quelques exemples médiatisés et ludiques. Nous verrons ensuite comment elle fonctionne, ses limites mais également ses détournements et les risques inavoués.

L'usage de l'IA au quotidien

De nos jours, on ne s'en rend pas compte, mais l'IA est déjà présente dans la vie quotidienne et la plupart d'entre nous l'utilise sans le savoir. Elle est exploitée dans les GPS pour gérer le trafic et la navigation, dans les smartphones de dernière génération, les flux d'informations sur les réseaux sociaux en gérant les goûts et préférences des internautes (cf. Facebook), elle gère les recommandations de musique et vidéo en streaming (cf. YouTube), elle sert d'assistant virtuel ou chatbot sur certains sites de e-commerce, de banques en ligne et de certaines administrations publiques, elle interagit avec nous lorsqu'on pose une question sur un moteur de recherche comme Google, elle contrôle les voitures autonomes, elle intervient dans la domotique, l'imagerie médicale, la robotique industrielle, la sécurité et la surveillance, le secteur financier, la maintenance des stocks, la recherche scientifique, le secteur militaire, dans les fonctions de certains logiciels, etc. Bref, l'IA se diversifie et demain elle sera omniprésente.

Les peintures rupestres de Lascaux assistées par un robot. Bien qu'anachronique cela nous rappelle que placée entre les mains d'une personne malintentionnée, on peut être abusé par une IA, ce qu'on appelle le "deepfake". Photomontage de Medium.

Lorsqu'en 2011 Apple sortit son assistant vocal Siri capable de dialoguer avec l'utilisateur (appeler un contact sur l'iPhone, trouver un lieu, faire une réservation, lui poser une question, traduire du texte, programmer un minuteur, etc), le grand public découvrit concrètement toute la puissance de l'IA et les progrès accomplis depuis son introduction dans la science-fiction il y a plusieurs générations.

En 2012, des spécialistes en IA présentèrent au public les étonnantes performances de l'apprentissage profond, une technique qui séduisit rapidement de nombreuses sociétés de développement informatique, de chercheurs, d'industriels et de politiciens, nous laissant croire que l'IA alliée ou non aux robots aurait réponse à tout et serait infaillible.

Lorsque Google (puis Alphabet) commença à exploiter le Web 3.0 ou "web sémantique" dans son moteur de recherche vers 2014 et le combina à l'indexation de mots-clés, cet outil transforma le quotidien de nombreuses personnes. En effet, depuis cette époque chacun peut poser une question en langage clair à Google, y compris dans sa langue maternelle, et obtenir au moins une réponse dans la seconde. Le résultat est surprenant. Mais nous verrons que la réponse n'est pas toujours correcte.

Enfin, quand les chercheurs ont exploité l'IA pour sélectionner la molécule la plus adaptée pour soigner un symptôme précis (cf. la médecine 4.0) et que les entreprises se mirent à digitaliser tout azimut ou à investir dans des robots intelligents pour optimiser leur rentabilité, nous avons compris que l'industrie 4.0 est parmi nous pour y rester. Mais c'était sans tenir compte des fausses promesses de l'IA ou plutôt des difficultés rencontrées qui allaient bientôt décevoir les chercheurs et les industriels opportunistes.

Après les robots industriels, de démonstration ou réservés au mannequinat, dans les années 2020 le public a découvert que l'IA générative peut lui rendre de grands services. Elle est par exemple très utile pour tous ceux qui recherchent des informations, notamment les étudiants, les journalistes, les historiens et les écrivains. Combinée à un système de traduction universel, elle facilite aussi grandement le travail des traducteurs ou nous aide à communiquer dans un pays étranger.

Face aux performances des IA, des chercheurs ont été un pas plus loin en les mettant à profit pour améliorer des images floues dans le cadre de projets militaires puis scientifiques (médecine, géophysique, astrophysique, etc.) ou pour extraire des informations pertinentes de grands ensembles de données (cf. le Big Data) a priori disparates ou trop complexes pour être traitées manuellement. De nos jours, de nombreuses découvertes scientifiques n'auraient jamais été possibles sans l'aide de l'IA. Certains de ces outils sont aujourd'hui accessibles au grand public à travers des simulateurs ou des applications ludiques.

L'IA générative

L'IA génératice est un système d'IA capable de générer des contenus très rapidement et très efficacement. Il peut s'agir d'images, de textes, de vidéos, etc. Son application la plus connue du public est la génération d'images à titre ludique mais elle peut tout aussi bien être utilisée à titre professionnel, à des fins de recherche (cf. AlphaFold de Google DeepMind) et être à l'origine d'activité commerciale et donc de profits.

La génération d'images

A titre ludique par exemple, l'IA générative fonctionne tellement bien que des programmeurs ont développé des applications graphiques (portraits, paysages, objets, etc) dans lesquelles il suffit de décrire à l'IA un sujet précis en langage clair, pour qu'elle le génère en moins d'une minute aussi bien qu'un artiste qui y passerait des journées comme illustré sur cette page.

Parmi ces outils citons les célèbres applications Dall-E, Midjourney et Stable Diffusion. On y reviendra. Ces IA sont entraînées par apprentissage automatique supervisé (voir plus bas). Toutes ces plate-formes sont très fréquentées. Depuis 2022, des dizaines de millions de personnes les utilisent qui génèrent au minimum près de 1 milliard d'illustrations par an (cf. Every Pixel). Certaines vont se retrouver dans les circuits commerciaux, en particulier dans les banques d'images en ligne telles qu'Adobe Stock, Dreamstime ou Freepik parmi d'autres.

A voir : Text to Image World Championship

(Stable Diffusion 2 vs. Midjourney v4 vs. Dall-E 2)

MIDJOURNEY, DALL.E ou VRAI ARTISTE ?

Ferez-vous mieux que ces expertes ?

Différents rendus non corrigés réalisés en moins d'une minute par l'IA de l'application Midjourney (version 5 de 2023 et version 6 de 2024) parmi d'autres sujets. Le rendu plus ou moins photoréaliste dépend du descriptif (prompt) et des paramètres configurés par l'utilisateur. Si c'était un humain, on dirait que cette IA est un polymathe car ce type de don exige des compétences en art graphique et dans de nombreuses sciences. Mais ce n'est qu'une impression, certes bluffante mais trompeuse, car tout démontre que les IA n'ont aucune conscience au sens propre de ce qu'elles réalisent, ne traitant finalement que des signaux électriques et des bits d'information sans aucun lien avec le monde sensible. Documents T.Lombry/Midjourney.

A la fin des années 1970, des programmes graphiques permettaient d'interpoler les images entre deux dessins en maille et de créer une transformation ou morphing continu de l'un à l'autre (cf. l'ancien générique de l'émission TV "Thalassa" sur FR3 transformant un voilier en poisson ou ce morphing de divers visages réalisé par l'auteur). Cet algorithme fut rapidement proposé pour les premiers micro-ordinateurs. De nos jours, grâce à l'IA, il est possible d'animer une image fixe et par exemple de donner vie au visage de la Joconde, de simuler le flux des vagues sur une plage ou le déplacement d'un objet parmi d'autres sujets (cf. cette animation sans prétention de la sonde spatiale Cassini réalisée par l'auteur). Parmi ces logiciels citons Leiapix (Immersity) et Lumalabs.

Les systèmes d'IA les plus complexes sont capables de reproduire virtuellement et de manière réaliste le portrait d'une personne réelle d'après photo et ensuite de l'animer à volonté, y compris de la faire parler à partir d'un enregistrement audio avec une synchronisation labiale et de la faire bouger dynamiquement, en temps réel (cf. Speech2Face). Si cette capacité très puissante est en soi intéressante, nous verrons page suivante qu'elle peut conduire à des abus.

Devant le succès des IA génératives d'images, la banque d'images Shutterstock qui contient plus de 450 millions d'images, plus de 28 millions de vidéos et plus de 70 millions d'images vectorielles (mars 2024) s'est associée à OpenAI pour lui permettre d'entrainer son générateur d'images Dall-E sur la vaste bibliothèque iconographique qu'elle possède (mais uniquement sur les images sous licence). A leur tour, moyennant un abonnement les clients de Shutterstock peuvent générer et télécharger des images créées avec Dall-E. Les sites iStockPhoto et 123RF proposent également un outil d'IA de génération d'images.

Revers de l'invention, rien n'empêche une personne incapable de dessiner de se faire passer pour un artiste et de signer des oeuvres qui sont en réalité conçues par une IA comme illustré ci-dessus et d'en tirer profit. Si en soi ce n'est pas interdit, le fait de ne pas le mentionner et de tromper les éventuels amateurs d'oeuvre d'art est contraire à l'éthique.

Les images créées par les IA sont parfois si photoréalistes qu'elles sont indifférenciables d'une véritable photo. Pour éviter toute confusion, toutes les banques d'images exigent que celles créées à l'aide de l'IA soumises par les auteurs soient étiquetées comme telles afin de ne pas tromper le client. Paradoxalement, si Shutterstock propose une IA générative graphique à ses clients, l'entreprise n'accepte pas celles créées par l'IA dans sa banque d'images. Certains experts proposent même d'ajouter à l'en-tête EXIF attaché aux images une entrée spécifiant que le document fut généré par une IA. Mais comme tout photographe ou illustrateur le sait, de petits logiciels permettent d'éditer les métadonnées EXIF et cette entrée peut-être supprimée. Ce n'est donc pas une solution fiable ni pérenne.

Mais il serait naïf de croire que nous vivons dans un monde de bisounours où tous les utilisateurs de l'IA générative graphique ne font que des dessins innocents ou n'ont pas une finalité malsaine en créant ces images.

Avant que l'IA soit appliquée aux arts graphiques et mise à disposition du grand public (vers ~2020), tout personne disposant d'un logiciel d'édition d'image tel que Photoshop d'Abobe pouvait réaliser des photomontages et les faire passer pour de véritables photos prises sur le vif. A part les montages grossiers, il était souvent impossible de reconnaître le photomontage ou le truquage vidéo.

Mais de nos jours, avec la commercialisation d'applications graphiques dotées d'IA tels que Midjourney ou Adobe Firefly et des chatbot vidéos (agents vidéos conversationnels) tels que StoryFile ou Videoask parmi d'autres, la confusion est totale au point que même les professionnels des médias y compris les journalistes et les artistes (acteurs, photographes, illustrateurs) sont préoccupés par ce mélange des genres qui commence à agacer beaucoup de monde, y compris sur les réseaux sociaux.

On reviendra sur ces abus à propos de l'important problème du deepfake.

L'agent conversationnel (chatbot)

Quand on veut établir le classement des IA les plus performantes, les spécialistes pensent immédiatement aux IA génératives et en particuliers aux agents conversationnels tels que GPT-4, ChatGPT, Bard ou Claude (cf. le Top Generative AI Tools et Big liste IA 2024) dont on peut en effet objectivement analyser les performances alors qu'il est plus difficile de comparer deux dessins parfaits entre eux même si on peut évaluer la qualité de la programmation et du paramétrage.

ChatGPT (Chat Generative Pre-trained Transformer, c'est-à-dire Transformateur pré-entraîné génératif de message instantané) est un programme informatique doté d'IA développé par l'entreprise américaine OpenAI basée à San Francisco avec une large participation de Microsoft (10 milliards de dollars). Sorti en novembre 2022 dans une version gratuite et donc facilement accessible au public, ChatGPT est un chatbot, un agent conversationnel capable de tenir une conversation avec un être humain, de vous donner des informations et même d'automatiser des tâches. On reviendra plus bas sur la notiond e transformateur (cf. les LLM)

ChatGPT répond correctement à une question difficile.

ChatGPT est surtout utilisé pour répondre à des questions. Programmé en langage Python et exploitant la technologie Web 3.0, il fonctionne à la manière de l'outil de recherche de Google mais répond comme un agent conversationnel polyvalent, polyglotte et polymathe, sous forme textuelle en langage clair.

ChatGPT est tellement performant que certains étudiants l'utilisent aussi pour répondre à des questions complexes y compris d'examen de première année d'ingénieur. C'est une version très évoluée, beaucoup plus complète et performante du simulateur ELIZA proposé sur les premiers ordinateurs dans les années 1970 et qu'on utilisa encore à des fins ludiques au début des années 2000 (cf. ce simulateur d'Eliza).

Comme le rapporta CNBC, fin 2022 Google testa plusieurs chatbots d'IA pour éventuellement les intégrer à son site et conclut : "Étonnamment, ChatGPT a réussi l'interview de niveau 3 pour un poste de programmeur." Bien que le niveau 3 soit un poste d'entrée dans l'équipe d'ingénierie de Google, la rémunération totale moyenne pour le salarié est d'environ 183000$ par an ! De quoi faire des envieux ailleurs dans le monde (cf. la fiche métier d'un poste similaire en France).

ChatGPT peut aussi rédiger un article sur un sujet précis, y compris politique, sociétal, scientifique, mathématique ou philosophique comme illustré à droite. Toutefois, cette IA n'a pas d'opinions politiques ou historiques personnels sur les évènements et se contente de rapporter les connaissances et les opinions. Seul bémol, on ignore quelles sont les sources utilisées. Est-ce important ? Evidemment ! Comme sur les réseaux sociaux, si l'information provient d'un complotiste, d'un dénégateur, d'un créationniste, d'un antivax, d'un raciste, d'un sectaire, d'un climatosceptique pour citer quelques extrémistes, on comprendra qu'il faut l'ignorer.

Quand on lui demande "Quelle est ton identité ?", ChatGPT répond : "Je suis Assistant, un grand modèle de langage formé par OpenAI. Je suis une intelligence artificielle conçue pour répondre aux questions et fournir de l'information sur divers sujets. Je suis incapable de ressentir des émotions ou de percevoir le monde physique de manière similaire à un être humain, et je n'ai pas d'identité propre en dehors de mes fonctionnalités de traitement du langage. Mon but est de fournir de l'information et de l'aide aux utilisateurs de manière claire et précise. Je suis programmé pour répondre aux questions et donner des explications sur de nombreux sujets, mais je ne suis pas en mesure de naviguer sur Internet ou de collecter de nouvelles informations en dehors de ce que j'ai appris lors de mon entraînement. Je suis ici pour vous aider à trouver des réponses et à résoudre vos problèmes de manière rapide et efficace."

Comme l'agent conversationnel virtuel Siri proposé par Apple en 2010 permet de dialoguer avec une IA, dans un proche avenir nous pourrons dialoguer en vis-à-vis avec un sympatique robot humanoïde nous servant d'assistant. Ce qui était une utopie au siècle dernier devient une réalité. Document T.Lombry.

Contrairement aux anciennes IA programmées à partir de données parfois biaisées (voir page 2), ChatGPT ne semble pas sexiste ou raciste mais pose des avis non équivoques sur ces sujets. Voici ce qu'elle répond à propos du racisme : "Il est essentiel de le combattre en promouvant l'égalité et le respect entre tous les individus, quelle que soit leur race." Quand on lui demande ce qu'elle pense du sexisme, elle répond : "[...] Il est important de reconnaître et de lutter contre le sexisme, et de promouvoir l'égalité et l'inclusion de toutes les personnes, quels que soient leur sexe ou leur genre. En tant que modèle de langage, je suis conçu pour traiter toutes les personnes de manière égale et respectueuse, et je condamne toute forme de discrimination, y compris le sexisme."

Revers de la médaille, l'IA joue si bien son rôle d'assistant intelligent qu'elle risque d'être détournée de sa finalité par les étudiants et tout qui peut trouver un intérêt à l'exploiter. En effet, le système étant accessible à tous et sans contrôle, des étudiants peuvent profiter de ChatGPT parmi d'autres assistants pour lui demander de rédiger leur rédaction ou une critique et même pour répondre aux questions d'un examen réalisé à distance. Si le style n'est pas élaboré, cela peut toutefois duper un enseignant. On y reviendra.

A son tour, Google lança Bard en 2023 en réponse à ChatGPT puis Gemini en 2024. Ce dernier est un outil d'IA complet qui réalise également de la génération d'image, de la reconnaissance d'image, de l'analyse audio et vidéo, il peut lire des fichiers PDF et s'interfacer avec d'autres outils. Gemini est actuellement le chatbot le plus performant et également le seul disponible par le web mais également sur les smartphones sous iOS et Android.

Dans le cadre de son projet Prometheus, Microsoft a également intégré la technologie de ChatGPT dans son moteur de recherche Bing et proposa un chatbot nommé Copilot en 2024. Microsoft supporte également Mistral, un chatbot Open source sorti en 2021. Citons également le bot de Chai Research adapté aux smartphones.

Chatbots à consulter : ChatGPT, OpenAI - Gemini, Google - Copilot, Microsoft

L'arrivée de ces outils d'IA a déclenché une véritable course entre les géants de la technologie de l'information. A son tour, le géant chinois Baidu annonça en 2023 la sortie d'un chatbot d'IA générative nommé ERNIE basé sur un modèle de langage supérieur à GPT-3 (Generative Pre-trained Transformer 3 développé en 2020 par la société OpenAI).

Le public va-t-il y gagner quelque chose ? Google estime à juste titre que "le moteur de recherche classique affichant une liste de liens est dépassé". Google prédit que "l'IA va transformer la recherche d'informations, mêlant davantage textes, images et vidéos." Microsoft considère que ces nouveaux outils d'IA vont "réinventer la façon de chercher des informations" et que Bing et Edge seront nos "copilotes sur le web."

Mais à présent un problème se pose. Google a découvert que son outil de recherche devenait inutile et est compliqué à utiliser car son concurrent ChatGPT qu'on peut installer comme extension sur Google (Chrome) - un comble - peut fournir à tout le monde des réponses à leurs questions ! Oserait-on suggérer un nouveau challenge à Google : qu'ils demandent à Bard de leur trouver la solution, s'il en est capable ! Voilà un problème inattendu pour le géant américain qui essuye un revers de plus.

L'IA prédictive

L'IA prédictive sert à identifier des modèles, des tendances, à anticiper des comportements et prévoir des évènements futurs en s'appuyant sur des statistiques. L'IA prédictive a besoin de vastes ensembles de données (des Big Data) et d'un apprentissage (voir plus bas).

Comme la plupart des IA, l'IA prédictive se base sur l'analyse de données et recherche des relations entre des éléments de données similaires. Pour ce faire elle utilise une base de données d'intégrations qui lui permet de stocker des informations sous une forme permettant d'identifier les similitudes et les relations. Ces intégrations sont créées par des couches de réseaux neuronaux artificiels (cf. IBM) non supervisés qui sont ensuite regroupées selon leur pertinence les unes par rapport aux autres afin que des logiques puissent être rapidement identifiées. Concrètement, si des données telles que "ciel couvert", "tempête", "orage" sont souvent proches les unes des autres dans une base de données d'intégrations, un modèle d'IA prédictive météorologique peut prédire l'arrivée d'une tempête.

Cela ne signifie pas que les prédictions de l'IA prédictive sont exactes mais le résultat étant obtenu très rapidement là où l'être humain mettrait beaucoup plus de temps ou ne parviendrait pas à extraire l'information, l'IA devient plus experte que l'être humain et donc plus performante.

L'IA prédictive s'avère d'une aide précieuse dans quantités de secteurs allant des sciences aux affaires commerciales (gestion des stocks et des approvisionnements, prédiction des maintenances, optimisation des itinéraires, analyse des préférences des clients et prédiction de leurs besoins futurs sur les sites de e-commerce, etc), en passant par le secteur financier (tendances boursières, etc), les services publics (prédiction des périodes d'encombrement sur les routes, etc), les soins de santé (analyses radiographiques, prédiction des futurs problèmes potentiels de santé sur la base des antécédents médicaux d'une personne, prédiction de l'apparition d'un nouveau variant d'un virus, prédiction de la propagation des épidémies, prédiction de l'occupation des lits d'hôpitaux en période de crise, etc), les campagnes de marketing, la sécurité et l'armée (prévention des attaques, etc), ...

En résumé, l'IA nous permet d'être plus productifs et peut nous faciliter la vie. Ces exemples démontrent qu'il ne faudrait pas considérer l'IA comme un concurrent des humains qu'il faut craindre mais comme un partenaire qui nous veut du bien. Mais est-ce toujours vrai ? Sous ses aspect séduisants et son autorité, l'IA ne cache-t-elle pas un vrai danger ? Nous donnerons un début de réponse page suivante.

Maintenant que nous avons une idée générale de ce que peuvent faire les IA générative et prédictive, intéressons-nous aux fondamentaux avant d'explorer les IA, leurs performances et les risques de cette technologie.

Définitions

Qu'est-ce que l'intelligence ? Selon le dictionnaire "Le Robert", "l'intelligence est 1. la faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement. 2. L'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et à intuition)".

Quant à l'intelligence artificielle, le Parlement Européen la définit comme la "reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité".

Illustration artistique d'une IA au service de l'industrie 4.0. Document T.Lombry.

Mais connaître la définition d'un concept ou les étapes d'un raisonnement logique pour obtenir un résultat (cf. la naissance d'une théorie) ne signifie pas qu'on le maîtrise et encore moins qu'on est capable de donner cette intelligence à une machine. On peut bien lui expliquer ou la programmer tel un bras robotique pour effectuer une tâche ou prendre une décision mais ce sera toujours un cas particulier parmi l'infinité de cas réels possibles.

D'où la difficulté que rencontrent les développeurs et les constructeurs dès qu'ils mettent leur IA en situation réelle, par exemple au volant d'une voiture dans la circulation ou qu'on lui demande de reconnaître une personne dans un paysage. Loin des conditions binaires à haut contraste et répétitives des laboratoires, toutes les IA commencent par se planter lamentablement et ne reconnaissent rien. Pourquoi ? Car pour une IA, l'image qu'elle analyse ou le signal qu'elle reçoit n'est qu'une suite d'informations binaires qui n'a rien à voir avec la réalité sensible. Et qu'est-ce qui ressemble plus à une suite de 0 et de 1 qu'une autre suite de 0 et de 1...

Concrètement, comme un novice qui apprend le métier, si on lui pose la question d'une autre manière ou qu'on ajoute un paramètre, notre novice comme notre machine seront perdus et ne trouveront pas la solution. Pour éviter de commettre une erreur ils devront faire appel respectivement à leur instructeur (novice) et leur superviseur (IA) ou suivre un entraînement adapté à leur travail.

Pour qu'une IA puisse répondre correctement à une question ou résoudre un problème, lorsque la partie matérielle, hardware est résolue, il faut donc commencer par instruire l'IA, c'est l'apprentissage.

Les apprentissages symbolique, automatique et profond

Pour améliorer les performances des IA, les chercheurs en informatique se sont inspirés de la cybernétique afin de trouver la meilleure méthode pour convertir des idées et des processus mentaux en solutions informatiques et apprendre graduellement aux IA des notions de plus en plus complexes. Concrètement, il s'agit de construire des algorithmes de décision et plus généralement des modèles mentaux humains appelés les Grands Modèles de Langage (LLM, voir plus bas) qui pourront ensuite être appliqués par les développeurs tels des bibliothèques d'outils de prise de décision à différents domaines.

Sur le plan historique, il existe trois grandes méthodes d'apprentissage :

- l'IA symbolique : le système simule a priori le raisonnement humain en exploitant un ensemble de symboles (concepts, objets, relations, etc) basé sur une suite de règles préétablies censées représenter la solution idéale d'un problème particulier. Inspirée par la machine universelle de Turing et basée sur des algorithmes de décision, l'IA symbolique rassemble le plus de cas possibles. C'est une version améliorée du système expert.

Mais cette méthode présente des limites. D'abord il faut décrire en détails les étapes de la solution, du choix initial au résultat, pour chaque cas particulier. Or il existe des cas non exprimables sans parler de la logique floue et dans certains domaines il y a un nombre infini de cas qu'il est impossible de décrire en totalité. Il est par exemple impossible de décrire pour la machine toutes les variétés et postures de chats ou l'aspect des tumeurs dans toutes leurs variantes.

C'est dans ce contexte qu'IBM proposa en 2015 l'IA Watson for Oncology aux médecins mais qui se révéla rapidement inefficace car incomplète, basée sur des référentiels américains et incapable de traiter des cas complexes. Sous la pression des critiques, IBM abandonna son projet en 2020 non sans garder un grand intérêt pour la médecine et la santé, le traitement de données restant au coeur de son business model (comme chez les GAFAM).

A voir : Les algorithmes | 2 minutes d'IA, Sorbonne Université

Un réseau de neurones artificiels - L'apprentissage par renforcement

L'apprentissage des robots

- l'apprentissage automatique ou machine learning : le système exploite un ensemble de données en imitant un réseau neuronal (comme le feraient nos neurones). Il est basé sur des approches mathématiques et statistiques. Il utilise des algorithmes pour créer un modèle des données d'une catégorie précise afin d'améliorer ses performances sans qu'on doive explicitement programmer chaque donnée. Le but est qu'il trouve la solution à partir d'un modèle présentant la plus faible erreur statistique moyenne.

Pour y parvenir, on fournit à l'IA des milliers de données (des Big Data), textes, sons, images et vidéos afin qu'il se représente du mieux possible les différents concepts (on lui montre par exemple des chats dans toutes les positions, de toutes les tailles et de toutes les couleurs afin qu'il puisse l'identifier sans erreur). Ces données sont triées et cataloguées en catégories et sous-catégories puis le système détermine des corrélations entre les données qui sont ensuite étiquetées avant de les intégrer sous forme d'algorithmes d'auto-apprentissage.

Mais ce système présente également des limites. Des chercheurs ont montré que si on modifie une image, qu'on supprime ou ajoute un élément tout en conservant son aspect général, l'IA pour se tromper et mal identifier le sujet (alors qu'un humain le reconnaitrait). Appliquer dans un domaine critique (nucléaire, circulation routière, médecine, etc), cela peut conduire à des erreurs fatales. Ce type d'apprentissage est dit non supervisé.

On a donc proposé d'ajouter un superviseur, d'abord un être humain puis un humain assisté d'une IA, qui aide le système à correctement étiqueter chaque donnée afin qu'il puisse trouver des corrélations et des relations entres les différentes caractéristiques des données et les étiquettes correspondantes. Si l'IA se trompe, le superviseur la corrige ce qui permet à l'IA d'adjuster les paramètres du modèle afin d'affiner le résultat qui, progressivement, se rapproche du résultat attendu. Comme évoqué plus haut, c'est la technique choisie pour entraîner les IA génératives graphiques dont Midjourney développée par l'équipe de David Holz).

Une variante est l'apprentissage par renforcement où l'IA apprend à optimiser son résultat à partir d'expériences itérées sur base du principe de la récompense quantitative (positive ou négative). C'est l'un des plus utilisés avec l'apprentissage profond.

- l'apprentissage profond ou deep learning : inventé en 2012, le système exploite des réseaux neuronaux artificiels et des représentations de données spécifiques à une tâche et non plus des algorithmes (quoiqu'il en existe encore). Inspirés par le fonctionnement des réseaux de neurones du cerveau humain, les nœuds d'un réseau neuronal artificiel reçoivent généralement plusieurs valeurs d'information en entrée et génèrent, après traitement, une valeur en sortie.

Concrètement, l'IA est donc capable d'apprendre par elle-même mais d'une façon différente de la logique humaine. On qualifie l'apprentissage de "profond" par opposition à l'apprentissage automatique non profond du fait qu'il effectue un très grand nombre de transformations (une transformation correspond à une unité de traitement) sur les données entre les couches d'entrée et de sortie du capteur. Et plutôt que de confier à un humain le soin de choisir la meilleure solution, l'IA est auto-supervisée pour optimiser elle-même la solution.

L'apprentissage profond est loin d'être parfait. Il est donc encore supervisé. Comme l'apprentissage automatique, on entraîne l'IA à reconnaître les sujets en lui montrant des milliers d'images du même sujet sous toutes les formes possibles et un humain corrige le résultat si l'IA commet une erreur. Nous verrons page suivante que les superviseurs sont souvent des cohortes d'amateurs passionnés ou des travailleurs sous-payés.

Lorsque son apprentissage profond est terminé (en réalité il ne l'est jamais), l'IA est par exemple capable de retrouver le concept original derrière une image modifiée (un animal qui ressemble à un chat portant des lunettes n'est pas un être humain mais bien un chat). Mais même de cette façon, la réponse de l'IA doit être validée par un humain, tout spécialement dans les domaines à risque (médecine, etc). Dans le domaine artistique, nous verrons page suivante qu'une erreur d'une IA générative n'a pas de conséquence fatale mais peut par exemple générer une chimère au lieu du portrait de la Joconde.

Lorque la méthode d'apprentissage est définie, il faut encore définir un modèle de langage pour que l'IA puisse générer du contenu comme par exemple discuter avec un interlocteur humain, trouver la solution d'un problème mathématique ou réaliser une illustration photoréaliste sur base d'une description.

Les Grands Modèles de Langage (LLM)

Les Grands Modèles de Langage ou "LLM" (Large Language Models) en abrégé, est un concept dont on entend de plus en plus parler depuis que ChatGPT est accessible au public (2022).

Les LLM sont un ensemble de programmes particuliers basés sur l'apprentissage profond (deep learning) dont ChatGPT est un exemple (cf. IBM). Il s'agit d'un type particulier d'IA générative entraînée sur des textes. Concrètement, ce sont des algorithmes fondés sur des réseaux neuronaux artificiels (cf. IBM et Business Decision) et donc bourrés de relations mathématiques organisées en couches de calculs, un mode de programmation très complexe qu'on retrouve en cybernétique.

Pour reprendre l'exemple de ChatGPT, il est qualité de modèle "transformateur". De quoi s'agit-il ? Il s'agit du type d'architecture la plus courante des LLM  développées depuis 2017. Ce modèle de langage se compose d'un encodeur et d'un décodeur. Le modèle de transformateur reçoit des données en entrée. Elles sont converties en tokens (jetons) qui représentent de plus petits segments de texte généralement équivalent aux trois-quart d'un mot (une phrase de 112 caractères contenant 19 mots en anglais peut contenir 24 tokens) afin que le système puisse déceler les nuances linguistiques. Ces tokens sont ensuite transformés au moyen d'équations mathématiques exécutées en parallèle (simultanément) pour découvrir les relations existantes entres les tokens. L'IA peut ainsi établir des relations, des schémas conceptuels d'une manière similaire à celle qu'un humain découvrirait si on lui posait le même problème. Les modèles de transformateur s'appuient sur des mécanismes dits d'autoattention (pondération des mots du texte et des calculs de probabilité (cf. IBM)) qui leur permettent d'apprendre plus rapidement les règles de grammaire que les réseaux neuronaux traditionnels tels que les réseaux neuronaux LSTM (une variante des réseaux neuronaux récurrent exploitant des modèles de longue mémoire à court terme).

Code fictif d'un Grand Modèle de Langage (LLM) d'une IA générative qui pourrait répondre intelligemment à des questions (comme ChatGPT). Les LLM sont l'une des implémentations les plus populaires des recherches récentes en intelligence artificielle. Document Shutterstock.

On reviendra page suivante sur ces relations entre les concepts à propos des limites des IA génératives graphiques, leurs erreurs et leurs biais et la raison pour laquelle elles créent parfois des chimères.

Sans faire d'anthropomorphisme, les LLM sont des modèles d'intelligence artificielle capables de comprendre d'une certaine manière le langage humain et d'en générer. En résumé, les modèles de langage sont capables de prédire, en fonction du contexte, les mots qui ont la plus grande probabilité de figurer dans une phrase, d'où l'impression que les IA "comprennent" leur interlocteur humain et sont "sensibles". Mais ce n'est qu'une impression. On y reviendra page suivante.

Les LLM se distinguent des algorithmes des réseaux neuronaux artificiels traditionnels par le fait qu'ils sont basés sur une architecture spécifique, d'être entraînés sur des Big Data - des milliards de donneés -, et d'avoir une taille généralement gigantesque qui se chiffre en plusieurs milliards de neurones artificiels et autant de paramètres !

Du fait de leur taille, leur structure et du corpus de textes à partir duquel ils sont entraînés, les LLM ont rapidement montré des capacités impressionnantes dans les tâches qui leur étaient propres, qu'il s'agisse de création de texte, de traduction, ou de correction. Qui plus est, ils semblent capables d'apprendre à accomplir de nouvelles tâches à partir de très peu d'exemples. Enfin, les LLM ont montré des performances relativement surprenantes dans toute une variété de tâches diverses et variées, allant des mathématiques à des formes basiques de raisonnement, sauf qu'on ne comprend pas tout à fait comment ils "raisonnent".

Actuellement (2024), le LLM le plus performant est Claude 3 Opus d'Antropic. Il fit sensation lors de sa sortie en mars 2024 en battant GPT-4 d'OpenAI qui alimente ChatGPT, dans des tests d'évaluation des capacités des IA génératives. En 2024, Claude 3 Opus est devenu le nouvel outil de référence des tests de raisonnement des étudiants de lycée. Les LLM concurrents sont Claude 3 Sonnet et Haiku qui obtiennent également de bons résultats par rapport aux modèles d'OpenAI. On reviendra page suivante sur les défauts et les risques de ces IA.

Actuellement, les LLM sont une sorte de boîte noire (voir page 2) à l'image du fonctionnement du cerveau humain - la comparaison est osée - et c'est l'une des raisons pour laquelle des chercheurs en psychologie cognitive se sont emparés du sujet pour tester les capacités de raisonnement des IA, éventuellement dévoiler leurs limites et leurs faiblesses, et les comparer à celles des humains.

Le déploiement des modèles de langage d'IA pourrait avoir des conséquences qu'il est aujourd'hui difficile d'appréhender. En effet, il est compliqué de prévoir précisément comment vont se comporter les LLM du fait que leur complexité est comparable à celle du cerveau humain. Un certain nombre de leurs capacités ont ainsi été découvertes au fil de leur utilisation plutôt qu'au moment de leur conception, ce qui n'est pas très rassurant en soi car cela signifie qu'on ne maîtrise plus tout à fait cette technologie. Et cela pose un vrai problème éthique sur lequel nous reviendrons.

Les comportements émergents des IA

Pour comprendre ces "comportements émergents" des IA, des chercheurs en sciences cognitives ont utilisé des outils de leur spécialité traditionnellement utilisés pour étudier la rationalité chez l'être humain afin d'analyser le raisonnement de différents LLM utilisés de nos jours. L'une de ses études que nous allons décrire fut dirigée par Stefano Palminteri, chercheur au département d'études cognitives de l'ENS en France (cf. S.Palminteri et al., 2024).

Selon Palminteri, "nous sommes parvenus à une situation particulière dans le domaine de l'intelligence artificielle : nous disposons désormais de systèmes tellement complexes que nous ne pouvons pas prévoir à l'avance l'étendue de leurs capacités. En quelque sorte, nous devons « découvrir » leurs capacités cognitives de façon expérimentale."

Pour rappel, l'un des objectifs principaux de la psychologie scientifique (expérimentale, comportementale et cognitive) est de comprendre les mécanismes sous-jacents aux capacités et aux comportements de réseaux de neurones extrêmement complexes : ceux du cerveau humain. Ces études permettent de révéler les biais cognitifs chez les humains. A partir de là, les chercheurs ont donc postulé que les outils développés dans le domaine de la psychologie pouvaient s'avérer pertinents pour étudier les LLM d'IA et déterminer si elles présentaient également des biais de raisonnement.

Pourquoi s'intéresser aux biais des IA ? Étant donné le rôle grandissant de cette technologie dans tous les secteurs et sachant que certaines IA peuvent déjà prendre des décisions à notre place, comprendre comment ces machines raisonnent et prennent des décisions est fondamental. Nous approfondirons ce sujet un peu plus loin.

Par ailleurs, les résultats de ces études peuvent aussi bénéficier aux psychologues. En effet, les réseaux neuronaux artificiels capables d'accomplir des tâches dans lesquelles le cerveau humain excelle (traitement d'image, de la parole, etc) pourraient aussi servir de modèles cognitifs (cf. R.M. Cichy et al., 2019). Un nombre croissant d’indices suggère notamment que les réseaux neuronaux mis en œuvre dans les LLM fournissent des prédictions précises concernant l'activité neuronale impliquée dans des processus tels que la vision et le traitement du langage (cf. A.Doerig et al., 2023). On a ainsi démontré que l'activité des réseaux neuronaux artificiels entraînés à la reconnaître des objets est corrélée significativement avec l'activité neuronale enregistrée dans le cortex visuel d'un individu réalisant la même tâche. C'est aussi le cas en ce qui concerne la prédiction de données comportementales, notamment en apprentissage.

Pour leur étude, Palminteri et ses collègues se sont principalement focalisés sur les LLM de OpenAI, la société à l'origine du modèle de langage GPT-3 utilisé dans les premières versions de ChatGPT, car ces LLM étaient à l'époque les plus performants. Les chercheurs on ensuite testé plusieurs versions de GPT-3, puis ChatGPT et GPT-4.

Pour tester ces modèles, les chercheurs ont développé une interface permettant d'envoyer des questions et de collecter des réponses des modèles de façon automatique dans le but de rassembler un grand nombre de données.

Évolution des performances des LLM des IA comparée à celles des êtres humains (lignes pointillées). Document S.Palmintieri et al. (2024).

En résumé, l'analyse de ces données révéla que les performances de ces LLM pouvaient être classés en trois catégories de comportements :

- Les modèles plus anciens étaient tout simplement incapables de répondre aux questions de façon sensée.

- Les modèles intermédiaires répondaient aux questions, mais s'engageaient souvent dans des raisonnements intuitifs qui les menaient à faire des erreurs, similaires à celles que font les humains. Ces IA semblaient privilégier le "système 1", évoqué par le psychologue et prix Nobel d'économie Daniel Kahneman dans sa théorie des modes de pensée.

En bref, chez l'être humain, le "système 1" est un mode de raisonnement rapide, instinctif et émotionnel qu'on peut rapproché de celui des "têtes brûlées" qui agissent avant de réfléchir, tandis que le "système 2" est plus lent, plus réfléchi et plus logique. Bien que le "système 1"soit davantage sujet aux biais de raisonnement, il serait néanmoins privilégié, car plus rapide et moins coûteux en énergie que le "système 2".

Pour rappel, "agir puis réagir, mais sans discuter", c'est-à-dire le mode opératoire du "système 1" est également la façon de fonctionner de certains robots autonomes dont ceux développpés par Rodney A. Brooks du MIT Artificial Intelligence Laboratory avec plus ou moins de succès. On y reviendra en philosophie des sciences à propos du paradigme du comportement.

Voici une question parmi les erreurs de raisonnement testées par Palminteri et ses collègues (tirées du "Cognitive Reflection Test" de M.E. Toplak et al., 2011) :

- Une batte et une balle coûtent 1.10 dollar au total. La batte coûte 1.00 dollar de plus que la balle. Combien coûte la balle ?

Réponse intuitive (système 1) : 0.10 dollar (c'est également la réponse de la majorité des humains)

Réponse correcte (système 2) : 0.05 dollar.

Lors de ces tests, la dernière génération d'IA (ChatGPT et GPT-4) présentait des performances qui surpassaient celles des humains, ce qui en soi est tout à fait bluffant. On y reviendra.

Suite à ces résultats, les chercheurs ont identifié "une trajectoire positive dans les performances des LLM, que l’on pourrait concevoir comme une trajectoire « évolutionnaire » où un individu ou une espèce acquiert de plus en plus de compétences avec le temps."

Les chercheurs se sont ensuite demandés s'il était possible d'améliorer les performances des modèles présentant des performances intermédiaires (c'est-à-dire ceux qui répondaient aux questions, mais présentaient des biais cognitifs). Ce fut le cas. En incitant les modèles à aborder les réponses erronées de façon plus analytique, ils ont augmenté leurs performances.

La façon la plus simple d'améliorer les performances des modèles d'IA est de simplement leur demander de "réfléchir pas à pas" avant de répondre. Une autre solution consiste à leur montrer un exemple d'un problème correctement résolu, ce qui induit une forme d'apprentissage rapide (one shot). Cela correspond à l'apprentissage supervisé décrit précédemment. C'est plus lent mais c'est très efficace.

Ces résultats révèlent une troisième catégorie de comportement qui est connue, dans laquelle les performances de ces modèles ne sont pas figées, mais évolutives. On pourrait presque parler "d'adaptation". Au sein d’un même modèle, des modifications apparemment neutres du contexte peuvent modifier les performances de l'IA, un peu comme procède un humain, où les effets de cadrage et de contexte (la tendance à être influencé par la façon dont l'information est présentée) sont très répandus.

En revanche, les chercheurs insistent sur le fait que les comportements des LLM diffèrent de ceux des humains en de nombreux points. Selon Palminteri, "D'une part, parmi la douzaine de modèles testés, nous avons rencontré des difficultés à en trouver un qui soit capable d'approximer correctement le niveau de réponses correctes fournies, aux mêmes questions, par des êtres humains. Dans nos expériences, les résultats des modèles IA étaient soit moins bons, soit meilleurs. D'autre part, en regardant plus en détail les questions posées, celles qui posaient le plus de difficultés aux humains n'étaient pas nécessairement perçues comme les plus difficiles par les modèles."

Ces observations suggèrent qu'on ne peut pas remplacer les êtres humains par des LLM pour comprendre la psychologie humaine, comme certains auteurs l'ont naïvement suggéré (cf. K.Gray et al., 2023).Ouf !, dirons-nous. L'être humain a encore de l'avenir.

Mais comme c'est le cas avec toutes les IA génératives, les chercheurs ont constaté qu'en fonction de la version de l'IA de ChatGPT et GPT-4, à quelques mois d’intervalle leurs performances avaient changé, mais pas nécessairement en mieux. Du seul point de vue de la reproductibilité scientifique, c'est un fait relativement inquiétant. Ce problème s'applique également aux IA génératives d'images (par exemple Midjourney) qui sont incapables de reproduire deux fois de suite la même image à partir d'une même description ou du même modèle de référence, qu'elle soit générée dans la même version une minute plus tard ou dans une autre version.

Cela vient du fait que les sociétés qui développent ces IA et en particulier OpenIA pour ChatGPT et GPT-4 apportent régulièrement des changements à leurs modèles sans forcément en informer les utilisateurs, pas même les scientifiques. En revanche, pour sa propre publicité et attirer de nouveaux utilisateurs payants, Midjourney annonce ses nouvelles versions et les améliorations de son IA. Mais dans les deux cas, travailler avec des modèles propriétaires n'est pas à l'abri de ce genre d'aléa ou d'incohérence d'une version à l'autre. Pour les chercheurs (des sciences cognitives ou autre) spécialisés dans les LLM, rien ne vaut des modèles ouverts et tranparents pour garantir le contrôle sur la machine. On y reviendra à propos de la boîte noire.

Conclusion de cette étude, les IA présentent des biais cognitifs et commettent des erreurs de raisonnement mais elles ne sont pas tout à fait semblables aux erreurs humaines. La bonne nouvelle est que les nouvelles générations d'IA font moins d'erreurs de raisonnement que les anciennes. Elles apprennent aussi de leurs erreurs, améliorant continuellement leurs performances. Deviendront-elles des machines superintelligentes ? Il est trop tôt pour le dire.

En résumé, comme peuvent le confirmer tous les spécialistes en cybernétique, de l'apprentissage des IA et de leur programmation, aujourd'hui en raison des défaillances des modèles d'IA, nous sommes incapables de mettre au point un système intelligent au sens propre. Pour le prouver, nous allons à présent décrire les limites, les erreurs et les biais des IA parmi d'autres problèmes toujours d'actualité.

Prochain chapitre

De l'IA au monde concret sensible

Page 1 - 2 - 3 - 4 -


Back to:

HOME

Copyright & FAQ