🤖 Les outils "IA" : sont-ils vraiment intelligents, ou simplement cons ?
[Hors-Série #03] Petit dossier sur l'épopée de l'Intelligence Artificielle.
C'est l'acronyme à la mode, celui qu'on met à toutes les sauces - y compris à la béarnaise, la plus dégueulasse de toutes :
IA. Intelligence Artificielle.
Ah ça, l'Intelligence Artificielle, difficile d'y réchapper ; même ma fille de 8 mois en a entendu parler à la crèche. Je vous parie 5 sesterces que les peuples non contactés ont eux aussi entendu causer de chatGPT, de même que les singes, les hippocampes et les castors.
Mais si la plupart des gens n'ont plus que ce mot à la bouche, qu'en est-il vraiment ?
ChatGpt par exemple, nous comprend-il ? A-t-il des émotions ? Va-t-il bientôt toutes et tous nous grand-remplacer ?
Et d'abord, ça veut dire quoi, "Intelligence Artificielle" ? D'où ça vient ? Comment cette notion a évoluée au fil du temps ?
Allez, petit dossier sur l'épopée de l'Intelligence Artificielle.
C'est l'histoire de chercheurs qui font des trucs pour le fun
À l'origine (je parle ici des années 50), l'IA n'était pas du tout envisagée comme une technologie destinée à des applications pratiques à grande échelle.
Mais alors, vraiment pas.
La recherche sur l'IA, c'était surtout une minorité de chercheurs qui bossait dessus, et principalement parce que c'était fun, une sorte de quête philosophique et expérimentale qui questionnait l'intelligence et la conscience.
Oui, l'hubris prométhéenne n'était pas très loin.
Au fil des années, leurs recherches ont franchi un certain nombre d'étapes, et se sont fondues dans beaucoup de disciplines - notamment les sciences sociales, la neurobiologie, ainsi que la science des systèmes.
Ces croisements disciplinaires avaient évidemment une utilité : appliquer l'IA à l'analyse complexe des comportements humains et des structures sociales, ce qui a ouvert la voie à des avancées dans la compréhension de la cognition, tant humaine qu'artificielle.
💡 Pour être précis, c'est le courant de la cybernétique qui a fondé nombre d'écoles dans tous ces domaines (et qui est à l'origine de l'IA), avec un bon coup de pouce de l'un de ses plus fameux pionniers, Norbert Wiener.
Ok, on est d'accord, le nom de "cybernétique", ça fait un peu peur, genre Skynet dans Terminator.
Dans les faits, ce mouvement s'est intéressé à l'étude des systèmes de régulation et de communication chez les êtres vivants et les machines ; l'idée principale, c'est de comprendre comment les systèmes peuvent s'auto-contrôler et s'auto-organiser grâce à des boucles de rétroaction.
Je vois déjà votre air WTF. On va prendre un exemple :
Imaginons que vous jouez à un jeu vidéo, et que vous utilisez une manette pour contrôler ce qui se passe à l'écran. Dans ce cas, vous (le ou la joueuse) peux être vu·e comme un "contrôleur", le jeu vidéo comme le "système" et l'écran comme la manière dont le système "répond" à vos actions.
Eh bah la cybernétique, c'est ça : elle s'intéresse à la façon dont vous ajustez vos mouvements en fonction de ce que vous voyez à l'écran, ce qui forme une boucle de rétroaction : vous agissez, le jeu répond, et vous modifiez vos actions en conséquence, etc.
La fin de l'IA... ou presque
Et là , un problème survient.
Parce qu'au fur et à mesure de son développement, le domaine de l'intelligence artificielle a fatalement été contraint de trouver des sources de financement pour soutenir ses recherches.
(demandez aux gens qui sont dans la recherche, c'est vieux comme le monde)
À la base, les mecs, ils étaient motivés par la curiosité scientifique et le désir d'explorer des frontières inconnues ; sauf que c'est pas ultra vendeur comme speech.
(demandez aux gens qui sont dans la recherche, c'est... bon ok, z'avez compris)
Il leur fallait donc cibler les bonnes personnes, avec un discours en béton.
L'une des cibles les plus évidentes : les militaires.
Les chercheurs sont arrivés en mode entrepreneur LinkedIn, avec des promesses dingues, comme développer des technologies avancées capables de simuler, voire de surpasser, les capacités humaines dans des contextes de combat.
Oui, sans déconner. Ils parlaient bien de Terminator.
Évidemment, les miloufs étaient ultra chauds du cul, ce qui a conduit à un afflux significatif de fonds dans les labos d'IA : les chercheurs nageaient littéralement dans la thune.
Le truc, c'est qu'à un moment, tes promesses délirantes de faire un Terminator, ça se voit que c'est du pipeau.
(au contraire de LinkedIn, où ça marche à tous les coups, tout le temps)
Les labos ont été incapables de produire des trucs significatifs, et les militaires ont été sacrément déçus ; après quoi le Rapport Lighthill, publié au Royaume-Uni en 1973, vient enterrer définitivement les chercheurs et leurs plans foireux pour donner naissance à Skynet.
💡 Le Rapport Lighthill (rédigé par Sir James Lighthill, ça ne s'invente pas) s'est montré fort sceptique sur les réalisations de l'IA par rapport aux promesses initiales faites aux investisseurs, ce qui a mis en lumière les limitations et les défis non résolus de la techno de l'époque.
L'impact de ce rapport a été considérable et a carrément provoqué une chute drastique des financements en IA : les militaires, repartis la queue entre les jambes, ont significativement réduit, voire retiré, leur soutien financier.
Pour eux, l'IA, c'était une arnaque ; difficile de leur donner tort, puisque les chercheurs eux-mêmes étaient rentrés dans un cycle de survente pour avoir encore et toujours plus de thunes.
En tout cas, leur objectif initial de remplacer les soldats par des machines autonomes, bah c'était pas trop ça, et pour longtemps encore.
On notera d'ailleurs à ce sujet que les militaires voulaient juste remplacer leurs soldats, pas forcément que Terminator soit conscient ou très intelligent.
À la suite de ce fâcheux événement très imprévisible, les gens qui voulaient faire de l'IA n'étaient plus très nombreux ; le domaine était vu comme une espèce d'impasse.
Et vu la techno de l'époque, ils étaient plutôt pas loin d'avoir raison.
Quand des matheux relancent le schmilblick
De même qu'il semblerait exister plusieurs intelligences, c'est par un chemin très différent que l'IA revient sur le tapis : par les matheux, qui, dans les années 80 (et même avant en réalité) ont repensé le concept du neurone, ce qui a permis la création de réseaux de neurones multicouches. Oui, on parle de machine learning.
Dans ces réseaux, le focus n'est plus mis sur les processus internes mais plutôt sur le résultat final : grâce à la rétropropagation du gradient, l'erreur calculée à la sortie du réseau est utilisée pour ajuster les poids des connexions neuronales de manière à améliorer les performances du modèle pour de futures prédictions.
"Quoicoubeh ?", me rétorquerez-vous avec un air de poisson rouge, surtout si vous avez moins de 20 piges.
Allez, petit exemple simplet.
On va dire qu'un réseau de neurones, c'est comme une usine, avec plusieurs lignes d'assemblage (les "couches" du réseau), où chaque poste de travail (neurone) contribue à transformer une pièce brute (les données d'entrée) en un produit fini (la prédiction ou le résultat).
Vous suivez ? Cool. Approfondissons.
Au lieu d'avoir une seule ligne d'assemblage, notre usine en possède donc plusieurs, les unes après les autres. Chaque ligne traite la pièce un peu plus, ajoutant de la complexité et de la valeur, jusqu'à obtenir le produit fini. C'est super utile, car ça permet de traiter des informations de manière plus détaillée et complexe. Ça, c'est donc notre réseau de neurones multicouches.
Chaque ouvrier ou ouvrière (neurone) est connecté aux autres par des tapis roulants (les connexions neuronales) qui transportent les pièces (informations). Quand on dit qu'on ajuste les poids, ça signifie qu'on va régler la vitesse et la direction de ces tapis pour optimiser le flux des pièces à travers les lignes d'assemblage, ce qui réduit l'erreur dans le produit fini.
Car, ce qui importe vraiment dans notre usine - comme dans n'importe quelle usine du monde en fait, c'est la qualité du produit fini (la précision de la prédiction ou du résultat), et non les détails spécifiques de chaque étape de transformation.
Si le produit fini n'est pas satisfaisant (c'est-à -dire, si l'erreur entre le résultat attendu et celui obtenu par le réseau est grande), la technique de la rétropropagation du gradient permet de remonter la ligne de production à rebours. À chaque poste de travail (donc à chaque neurone, bravo !), on ajuste légèrement la manière dont il contribue au processus, en fonction de l'erreur finale.
C'est comme si on disait à chaque ouvrier ou ouvrière : "Hey, t'as merdé complètement, mais voilà comment tu peux mieux faire ton travail pour que l'erreur soit réduite la prochaine fois... et fais gaffe, prochain coup, t'es viré".
Cette approche n'avait donc absolument rien à voir avec les recherches initiales en IA.
Pourquoi ?
Car on a dit tout à l'heure que les premières recherches en IA visaient à imiter le comportement et les processus cognitifs humains, pas à fabriquer des réseaux de neurones qui fonctionnent comme des sortes de "boîtes noires" mathématiques, où on balance un truc en entrée pour avoir autre chose en sortie, et ce sans nécessité de comprendre le processus interne.
Très vite, on a démontré que ces modèles de réseaux de neurones ne reflètent pas du tout les mécanismes cérébraux, mais osef : les matheux, toujours très pragmatiques, ont reconnu que leur objectif était d'atteindre une efficacité pratique plutôt que de reproduire fidèlement la biologie humaine.
Et sincèrement, pour le coup, c'était réussi.
Le boom applicatif des réseaux neuronaux
Qu'est-ce qui se passe quand on crée un truc utile, avec des résultats intéressants à la clef ?
Bah, on l'exploite jusqu'Ã la moelle.
Dans un premier temps, nos "boîtes noires" mathématiques ont été utilisées pour développer des systèmes de reconnaissance de sons ou d'images, avant de dériver vers d'autres applications spécifiques - comme, au hasard, le langage naturel...
L'objectif pour les mathématiciens n'était toujours pas de créer une "intelligence" au sens humain du terme, mais de développer des outils capables de réaliser des tâches spécifiques avec une efficacité et une précision supérieures à celles des humains.
Dit autrement, histoire que vous compreniez bien :
Les progrès dans le domaine des réseaux neuronaux ne visaient pas à répliquer l'intelligence humaine dans sa globalité, mais à résoudre des problèmes complexes à l'aide de modèles mathématiques et statistiques.
Absolument R I E N - À - V O I R avec la quête initiale de l'IA.
Mais alors, que dalle.
Ce qui pose par conséquent un problème intéressant :
Pourquoi diable a-t-on affublé ces outils du nom "d'Intelligence Artificielle ?"
Revenons quelques années en arrière.
Le concept d'IA a été utilisé pour la première fois par Marvin Minsky et son collègue du MIT John McCarthy lors d'un colloque scientifique organisé à l'été 1956, sur le campus de l'université de Dartmouth, dans le beau pays de Donald Trump.
Minsky avait d'ailleurs une définition intéressante de l'IA :
"La construction de programmes informatiques capables d'accomplir des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisantes par des êtres humains".
Aucune notion de conscience, donc.
Le colloque réunissait une vingtaine de chercheurs aux avant-gardes de domaines naissants tels que l'informatique, les neurosciences, les sciences cognitives et l'électronique.
Leur idée, c'était effectivement de voir comment des tâches différentes pouvaient être accomplies par des programmes informatiques.
Autrement dit : il ne s'agissait toujours pas de recréer un cerveau humain.
Et force est de constater que nous sommes toujours, à l'heure actuelle, dans ce cas de figure : l'IA a beau égaler de plus en plus l'être humain, elle reste cantonnée à la réalisation de tâches précises, et a encore du mal à en accomplir plusieurs à la fois.
Aussi efficaces qu'ils soient, les réseaux neuronaux ne manifestent pas d'intelligence au sens traditionnel du terme. Ils ne "comprennent" pas les tâches qu'ils exécutent de la même manière qu'un humain le ferait.
Lorsque nos mathématiciens se sont ramenés avec leurs réseaux neuronaux et ont commencé à utiliser le terme de "IA", un demi siècle de culture pop est passée par là , avec du 2001 : l'Odyssée de l'espace (où Marvin Minsky a d'ailleurs été conseiller !) ou Terminator.
D'outil capable de réaliser des tâches similaires à l'homme, on est donc passé à un être conscient et rationnel, égal ou supérieur à l'homme.
C'est à ce stade de notre fabuleux récit que ça devient difficile de dire qui a employé le terme d'IA pour coller à la seconde définition. Oui, c'est un peu le jeu de l'œuf ou de la poule.
Pour essayer d'y voir un peu plus clair, on s'est mis à faire une distinction entre IA "forte" et IA "faible".
L'IA forte se réfère à des systèmes capables de conscience et de compréhension équivalente à celle de l'humain, un objectif encore largement théorique à ce jour, faut-il vraiment le souligner (même s'il est devenu le saint-Graal de boîtes comme OpenAI ou Google).
À l'opposé, l'IA faible désigne des systèmes conçus pour accomplir des tâches spécifiques sans posséder de conscience ou d'intelligence autonome... soit ce qu'on a actuellement.
Problème : il n'existe pas de définitions officielles pour ces deux notions, alors chacun y va de son grain de sel... ce qui n'aide pas à clarifier le schmilblick, on est d'accord.
Une voie possible vers une IA consciente ?
Tout ceci nous amène à notre petit quotidien récent.
Nos matheux se sont donc mis à utiliser leurs réseaux neuronaux pour traiter le langage naturel, ce qui a débouché sur... la capacité de générer des textes.
Initialement, ces technos étaient appliquées dans des contextes utilitaires, comme par exemple traduire des trucs à la volée (souvenez-vous des prémisses de Google Translate), toujours sans ambition aucune de recréer une intelligence humaine.
Toutefois, presque par inadvertance pour ainsi dire, les chercheurs se sont dit que ce serait rigolo d'expérimenter une idée apparemment simple : demander à un système informatique de prédire la continuation d'une phrase sur la base de ce qui précède.
Vous poussez cette idée dans ses retranchements, et vous obtenez... ChatGPT.
Qui n'est ainsi pas du tout... mais alors pas du tout... intelligent.
Bref, quelle savoureuse ironie.
Des gens spécialisés dans le big data, l'analyse de données ou la trad' automatique - donc dans la réalisation de réseaux neuronaux visant à accomplir des tâches bien précises - se sont tout à coup retrouvés embarqués dans une quête philosophique et conceptuelle de l'IA, confrontés à des questionnements profonds sur la nature de l'intelligence, ainsi que sur la capacité des machines à simuler des processus cognitifs humains, ce qui entraîne parfois quelques dérapages.
Pour un peu, on nagerait presque en pleine sérendipité.
N'empêche, même si ChatGPT et consorts sont prodigieusement cons, les progrès sont là et bouleversent déjà notre quotidien ; la singularité technologique qui était autrefois un mythe devient une possibilité.
L'émergence de cette technologie, née dans un contexte pragmatique et utilitaire, incarne désormais une étape cruciale dans notre compréhension de "l'intelligence" tout court, et interroge la fine ligne qui sépare l'homme de la machine.
Ça ferait un bon sujet de philo pour 2024, tiens.