Voici mes notes de lecture et une sélection de ressources sur l’intelligence artificielle.
Ce premier épisode revient sur :
- l’ouvrage Turing à la plage
- le dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon
- une sélection de ressources numériques
Turing à la plage : l’intelligence artificielle dans un transat, Rachid Guerraoui, Rachid et Lê Nguyên Hoang.
Ouvrage publié en 2020, 220 pages. 8 chapitres, un glossaire à la fin, ainsi que des propositions bibliographiques de prolongement.
Le prologue propose quelques éléments biographiques sur Alan Turing. Sur l’intelligence artificielle les points clefs sont :
- le test Turing qui met à l’épreuve la faculté d’une machine à discuter avec un être humain (prix Loebner : lien avec les bots conversationnels) ;
- l’article publié en 1936 par Turing qui décrit une machine modèle de nos futurs ordinateur ;
- le décryptage d’Enigma ;
- l’article Computing Machinery and Intelligence publié en 1950 sur les machines qui pensent.
Chapitre 1 : au cœur de l’intelligence artificielle
Selon Turing, l’intelligence des machines réside nécessairement dans l’algorithme qu’elles exécutent, c’est-à-dire une liste d’instructions et d’opérations logiques ou une recette permettant de résoudre des problèmes compliquées à partir d’étapes simples.
Ada Lovelace est la première à avoir l’idée de programmer les machines à calculer inventées initialement par Pascal et Babbage, en utilisant des cartes perforées.
Dans son article de 1936, Turing propose une machine universelle qui serait capable d’apprendre des algorithmes et de les exécuter à la demande, algorithmes qui peuvent être transposés d’une machine à l’autre.
L’exemple de PageRank : cet algorithme développé par Google consiste à calculer un score de popularité pour chaque page web, en s’appuyant sur les liens entre les pages.
« Plus les liens qui pointent vers une page sont nombreux, plus PageRank lui attribue un score élevé. »
Ce système de recommandations s’applique également aux suggestions d’amis sur Facebook ou sur le conseil de produits sur des sites et des applications.
Ce que l’on désigne généralement sous le terme « intelligence artificielle », ce sont les algorithmes auto-apprenants qui apprennent de leurs expériences pour résoudre des problèmes de plus en plus complexes et les systèmes experts qui déduisent des faits à partir de règles, et qui peuvent en déduire de plus en plus lorsque de nouvelles données leur sont fournies.
Idée de définition retenue : l’intelligence artificielle est la capacité d’un algorithme à résoudre un problème que seul l’humain pensait être capable de résoudre.
chapitre 2 : les limites des machines
Notions retenues :
- la théorie d’incomplétude de Kurt Gödel selon laquelle toute théorie mathématique contient des vérités non démontrables ;
- le paradoxe du Crétois. Un Crétois déclare « je mens ». Si ce qu’il dit est vrai, alors ce qu’il dit est faux. Et si ce qu’il dit est faux, alors le Crétois dit la vérité.
- les algorithmes seront toujours confrontés à des problèmes qu’ils ne pourront pas résoudre.
Chapitre 3 : des progrès ahurissants
Des premières machines purement mécaniques, on en vient à la Seconde guerre mondiale à construire des machines électromécaniques à des fins de cryptanalyse (la plus connue est Enigma).
Pour décoder Enigma, Turing et ses collègues conçurent une machine à calculer surpuissante, la Bombe de Turing.
- 1943 : Mark 1, une machine de la société IBM
- 1956 : invention du transistor, un interrupteur actionnable électroniquement. La combinaison de plusieurs transistors permet la fabrication de circuits logiques.
- 1988 : le joueur d’échecs David Levy est battu par l’algorithme Deep Thought, lui-même battu l’année suivante par Gary Kasparov.
- 1996 : l’algorithme Deep Blue bat Kasparov, avant d’être battu par d’autres algorithmes.
La mise en réseau des machines (Internet) permet d’aller plus vite et de traiter un plus grand nombre de données en répondant à deux besoins : la tolérance aux défaillances et la puissance de calcul. Google répond à presque 4 milliards de requêtes par minute.
chapitre 4 : le code de l’intelligence
Contrairement au langage naturel, le langage machine n’a pas d’ambiguïté. Il est composé par les symboles 0 et 1 manipulés par le processeur d’une machine. Les langages de programmations sont des intermédiaires entre ces langages machines et le langage naturel.
Un langage de programmation est dit « Turing-complet » s’il est universel, c’est-à-dire traduisible dans un autre langage. On parle de « pensée algorithmique » pour décrire une façon de construire des idées à l’aide de ces langages de programmation.
Extrait p.109 :
Nous sommes capables instinctivement de reconnaître un chat dans une image, mais nous ne savons pas comment. (…) Nous parvenons à exécuter l’algorithme de détection de chat qui se trouve dans nos cerveaux, mais il nous est impossible de décrire cet algorithme.
Cette distinction est particulièrement importante à faire dans le cadre des sciences afin d’aiguiser son esprit critique. Il nous arrive souvent d’être persuadés d’une chose sans être capable de décrire le raisonnement logique qui nous a conduits à cette conclusion.
Exemple des captchas : démontrer qu’on est un humain revient à trouver les objets demandés, une tâche facile pour l’humain et complexe pour l’algorithme.
1950 : l’argument de Turing. Aucun humain ni groupe d’humain ne serait capable d’écrire ligne à ligne le code algorithmique d’une IA de niveau humain. Cela induit le principe des learning machines, qui doivent remplacer l’humain dans l’écriture du code et apprendre leur propre algorithme.
chapitre 5 : des machines qui pensent
Le jeu de l’imitation ou test de Turing est un test visant à mesurer la capacité d’une intelligence artificielle à imiter une conversation humaine.
Voir notamment le prix Loebner mentionné plus haut, les chat bots, le film Her de Spike Jonz ou les applications développées récemment comme ChatGPT.
De nombreuses IA modernes fonctionnent avec un apprentissage par renforcement, c’est-à-dire par le fait de recevoir des récompenses en cas de prouesses (ou de clics de l’utilisateurs) et des punitions en cas de défaillances, le tout sous la forme de signaux, qui vont modifier leurs propres algorithmes.
chapitre 6 : des artistes de silicium
Ce chapitre s’intéresse aux capacités des machines à développer de la créativité, c’est-à-dire la capacité à nous fasciner ou à nous surprendre.
- l’algorithme AlphaGo développé par Google Deepmind en 2016
- les créations artistiques réalisées par des algorithmes qui passent un test de Turing artistique
- les algorithmes de recommandation développés pour estimer ce qui plaira aux utilisateurs (Spotify, Netflix)
Chapitre 7 : des algorithmes dans la nature
Dans ce chapitre sont étudiés les mécanismes naturels qui déterminent les différentes formes et structures des êtres vivants (soit le domaine de la morphogénèse) et le mécanisme de l’hérédité (soit la réplication de l’information génétique).
Applications vivantes de l’intelligence collective : les nuées d’oiseaux et les bancs de poissons.
chapitre 8 : l’IA est-elle un danger pour l’humanité ?
- Inquiétudes autour de l’IA : dans la culture populaire avec 2001, l’Odyssée de l’espace, Terminator et Matrix.
- Dans l’univers de la science-fiction avec Isaac Asimov et ses lois de la robotique.
- Applications militaires et gouvernementales de l’IA : armes, drones, reconnaissance faciale. Dérives avec les deepfakes.
Le chapitre s’intéresse en outre aux biais des algorithmes, dont le logiciel de recrutement proposé en 2015 par Amazon qui éliminait systématiquement les CV des femmes.
Les effets secondaires : la question des algorithmes de recommandation, p.188
Typiquement, ces algorithmes de recommandation nous conduisent à cloisonner nos centres d’intérêt. Il s’agit d’une conséquence du biais de familiarité : plus une chose nous est familière, plus nous l’apprécions. Mais alors, plus nous apprécions un contenu, plus l’IA de YouTube nous recommandera ce contenu, et plus ce contenu nous deviendra familier. Et plus nous l’apprécierons. Petit à petit, les différentes communautés d’intérêt se referment ainsi sur elles-mêmes, tandis que s’appauvrit l’esprit critique de ses membres. On assiste à une polarisation croissante des opinions, et au développement d’une culture de l’entre-soi.
Mon avis sur l’ouvrage :
Le plus : un rappel historique et scientifique de ce qu’est l’intelligence artificielle et une bonne mise en bouche qui permet une compréhension du sujet, même pour des non-scientifiques.
Cette approche est la plus théorique et scientifique de l’intelligence artificielle, et me permet de survoler certains des concepts abordés dans les autres ouvrages.
Dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon (juillet 2023) pp. 42-57
Ce dossier s’intéresse aux implications les plus récentes de l’intelligence artificielle, avec GPT-4, le successeur de ChatGPT.
Il prend comme point de départ la fascination évoquée plus haut et suscitée par ChatGPT, et les craintes qui vont de pair.
Aux origines : un article publié par une équipe de Google : « Attention is all you need » en 2017 qui proposait une nouvelle architecture, Transformer, basée sur un mécanisme d’attention, en d’autres termes « un système statistique qui tente de prédire le mot suivant d’une phrase, en s’appuyant sur le texte environnant ».
GPT-4 intègre 1000 milliards de paramètres, et parvient à réussir différents examens et concours mieux que la plupart des étudiants.
GPT-4 semble capable de développer des capacités sociales telles que raisonnement, sens commun, compréhension, créativité ou abstraction.
L’enjeu est de comprendre le fonctionnement de ces machines pour mieux appréhender les failles qu’elles présentent : biais sexistes et racistes, fautes de langage, réponses intuitives et précipitées, invention de faits et de concepts.
Pistes d’évolution de ces intelligences : leur fournir de nouvelles perceptions comme la vue, la mémoire à long terme…
En fin de dossier : les réactions de chercheurs de différents domaines (géopolitique, sociologie, droit, physique, SIC, sciences cognitives…).
Les encarts « Des étincelles d’intelligence »
Ces encarts reviennent sur certaines prouesses de GPT-4 :
- la capacité à réussir des tests cognitifs
- le test de l’équilibre
- la recherche d’informations (chercher une info dans un moteur de recherche, utiliser les commandes Linux d’un ordinateur pour le pirater…)
Le dossier propose en prolongements les trois vidéos sur la question publiées par l’INRIA : Comment fonctionne ChatGPT, Le Prompting, Les limites de ChatGPT.
Ressources supplémentaires
- les articles du carnet de recherches « Éducation, numérique et recherche » sur l’intelligence artificielle « Intelligence artificielle et éducation : apports de la recherche et enjeux pour les politiques publiques » et « Sens et finalités du numérique en éducation – Hors-série : Tests et simulations d’« entretien » avec ChatGPT (Open AI)«
- Les lettres de diffusion La Boîte noire sur l’intelligence artificielle, proposées par la DANE d’Aix-Marseille
- Le padlet des profs docs de la ZAP Bordeaux Rive droite
- L’article sur le site des professeurs documentalistes de l’académie de Versailles : L’IA et les professeurs documentalistes aux JPO de l’innovation et de la formation.
- L’infographie de Claire Doz réalisée sur Canva : « Quand l’IA devient votre assistant personnel »
- Le site Moral Machine qui compile différentes perspectives humaines sur les décisions morales prises par les machines intelligentes
- La vidéo d’Hugo Décrypte publiée en février 2023 :
- Petits bidouillages personnels sur ChatGPT : https://chat.openai.com/share/5fd0955d-ba3e-4726-8d4b-479d2c146276