cinephiledoc

Blog pour cinéphiles et profs docs

Étiquette : technologies (Page 1 sur 4)

Notes de lecture sur les données (épisode 2)

Pour ce nouvel épisode de mes notes de lecture, que je vais tâcher de publier fort opportunément au moment du Safer Internet Day 2024, je fais la recension de deux ouvrages qui font figurer le Big Data dans leurs titres.

Néanmoins, si le sujet les rapproche, beaucoup de choses les éloignent dans la façon dont ils abordent la question, et c’est aussi ce qui m’a intéressée. C’est également leur approche du Big Data qui m’a rendu la tâche complexe pour en faire la synthèse.

Encore une fois, j’ai voulu me plonger dans des lectures présentes dans le fonds documentaire du CDI de mon établissement, et je n’ai pas forcément choisi les ouvrages que j’aurais moi-même commandé sur la question ou qui aurait forcément attiré mon attention de prime abord.

Dans cet épisode :

  1. un aperçu de ces deux ouvrages : Dans l’ombre de la peur : Le Big Data et nous et Petit dico critique du Big Data
  2. un panorama de la presse récente sur la question

Dans l’ombre de la peur : Le Big Data et nous, Michaël Keller et Josh Neufeld

Au moment où je commence l’écriture de cet article, ma lecture de cet ouvrage commence à dater, et j’ai un souvenir plus récent du second.

Par ailleurs, son format m’a donné l’idée de consacrer prochainement un cinquième épisode de notes de lecture à l’intelligence artificielle, un sujet qui ne cesse de me captiver cette année et qui retarde d’autant plus mes autres lectures professionnelles en projet, sur le numérique, les écrans ou encore sur le jeu.

Le format de cet ouvrage en rend la recension compliquée, puisqu’il s’agit d’une bande-dessinée publiée en 2017 aux éditions Ça et Là pour sa version française. En effet, il s’agit à l’origine d’une publication américaine datant de 2014.

Le traitement de la question du Big Data remonte ainsi à une dizaine d’années, mais en pose les jalons et revient sur certains éléments qu’il est intéressant de remettre en perspective aujourd’hui.

Le point de départ de cette bande-dessinée, qui aborde la question sous un angle états-unien, c’est une rencontre en 2004 entre les dirigeants de Google, l’ancien président Al Gore et une sénatrice américaine, Liz Figueroa pour parler de Gmail, et de la façon dont la messagerie proposait de la publicité ciblée en analysant les mots-clés présents dans les messages.

Cette sénatrice avait alors déposé un projet de loi exigeant que Google obtienne le consentement des utilisateurs avant d’appliquer toute analyse systémique des données, un projet qui finalement n’a pas été approuvé par le sénat de l’État de Californie.

Ce point de départ donne lieu à une analyse de la façon dont les données personnelles sont collectées dans les différentes applications numériques de la vie courante.

Il donne aussi un aperçu de l’accélération des technologies et de la façon dont les questions que l’on se pose ou que l’on a pu se poser sur cette collecte des données personnelles sont presque instantanément rendues obsolètes par le développement même de ces technologies.

Par exemple, au moment où ils posent la question de l’analyse des données cellulaires pour générer un bulletin du trafic routier, Google Maps opère déjà cette analyse, et leur offre comme perspective l’analyse quotidienne de la boîte noire d’un véhicule, les voitures autonomes, la question du traitement des données dans le domaine des assurances… enjeux que l’on retrouve au coeur des questionnements sur le Big Data en 2024.

Parmi les personnes interrogées sous le format BD par les deux auteurs, on retrouve danah boyd, autrice de C’est compliqué : la vie numérique des adolescents, publié en 2016, qui revient sur la façon dont les jeunes tentent de maîtriser les contenus postés sur les réseaux sociaux, ou encore Amanda Caswell, qui revient sur la façon dont les montres connectées récupèrent les données de santé de leurs utilisateurs.

L’épilogue de l’ouvrage « En voiture avec l’Uber économie » évoque le cas d’un chauffeur qui filme ses passagers, la façon dont usagers et employés d’un service se surveillent et se notent mutuellement, amenant un glissement vers les systèmes de crédit social chinois.

Je profite de ce glissement pour présenter ici le travail réalisé en EMC par deux élèves de seconde.

Timothée et Flavien se sont intéressés aux différentes formes de cyber-contrôle en Chine et ils ont utilisé le support ci-dessous (présenté ici avec leur autorisation à tous deux) pour illustrer leur exposé oral, qui était également de grande qualité.

Diapos issues de la présentation d’EMC de Flavien Amy et Timothée Cailleux (2nde13 – 2023/2024)

Exposé Timothée et Flavien cyber-sécurité

Mon avis sur l’ouvrage

L’ouvrage nous propose, avec un point de départ en 2004, une manière d’effectuer un arrêt sur image en 2014, que l’on peut remettre de notre côté en perspective en 2024, à l’heure où Google vient de fêter ses 25 ans, où Facebook souffle les bougies de son vingtième anniversaire et que Zuckerberg fait partie des dirigeants de réseaux sociaux interrogés par le Sénat américain, et que l’intelligence artificielle générative fait s’emballer différents domaines de publication en ligne.

Finalement, en feuilletant à nouveau cet ouvrage, j’y ai glané plus d’informations qu’à ma première lecture, que j’avais trouvé un peu plus récréative, puisque c’était la forme qui avait retenu mon attention et non le fond.


Petit dico critique du Big Data, sous la direction de Anaïs Theviot

Si le premier ouvrage me paraissait compliqué à résumer, ce n’est rien à côté du second, qui a été pour moi un véritable coup de cœur de lecture.

Il est rare pour moi de parler de « coup de cœur » pour une lecture scientifique et / ou professionnelle, mais c’est le cas pour cette dernière, au point que j’ai eu envie, ma lecture terminée, d’acheter le livre pour ma bibliothèque personnelle, après avoir accaparé pendant environ deux mois l’exemplaire du CDI…

Il faisait partie de ma commande de début d’année avec Data-Philosophie et un ouvrage sur Chat GPT dans lequel je me plongerai prochainement, et il s’agit d’une publication relativement récente, puisqu’il a été publié aux éditions Fyp en avril 2023.

Si j’ai eu du mal à décrocher de ce livre, c’est pour deux raisons.

La première, c’est parce qu’il propose un véritable travail de vulgarisation, sous la plume d’experts de la question : on y retrouve entre autres trois articles ou encarts écrits par Arnaud Mercier, l’article « Culture algorithmique » rédigé par Laurence Allard, l’article « Cyberharcèlement » rédigé par Sophie Jehel, ou encore le PageRank analysé par Guillaume Sire.

Bref, du beau monde, et les sources auxquelles ils renvoient invitent à prolonger le questionnement, comme l’article « Wikipédia » qui s’appuie sur l’ouvrage passionnant publié par Rémi Mathis en 2021.

La seconde, c’est la forme même de l’ouvrage, celle du dictionnaire, qui rend le propos à la fois transversal et très accessible au lecteur. Et c’est également cela qui le rend quasiment impossible à résumer, à moins de faire une liste des différents articles, ce qui ne serait pas très pertinent…

Si l’on se contente du sommaire, on peut voir que ce Petit Dico critique du Big Data aborde aussi bien les implications du Big Data dans des domaines aussi variés que l’administration, les assurances, la politique, le journalisme, l’environnement, la santé, les véhicules autonomes ou l’urbanisme.

Si je choisis d’utiliser cet article comme un classeur de marques-pages personnels, voici ce que je retiens :

  • l’article « Algorithme prédictif » de Baptiste Kotras qui revient sur la façon dont les algorithmes peuvent prédire nos comportements, et les biais et discriminations algorithmiques (avec un encart de rappel sur la notion de machine learning)
  • l’article « Big data électoral » d’Anaïs Theviot, qui m’a renvoyé à la lecture de précédente de Toxic Data, et qui propose ensuite un encart sur l’affaire Cambridge Analytica, de Camila Péres Lagos
  • l’article « Bulle de filtre » de Coralie Le Caroff et l’encart déjà mentionné sur le PageRank de Guillaume Sire
  • l’article « Cyberharcèlement » de Sophie Jehel qui en rappelle les différentes formes, ainsi que les mesures législatives pour lutter contre, et qui renvoie à la lecture de l’ouvrage de Bérengère Stassin publié en 2019
  • l’article « Data journalisme et soft journalism » de Erik Neveu qui revient sur les évolutions du métier de journalisme
  • les articles « Désinformation » de Lorella Sini, « Fact-checking » de Magali Prodhomme et « Fake news » d’Arnaud Mercier.

Ce dernier article revient sur la notion de fake news (auquel on préférera le terme « infox ») comme art de forger des informations pour tromper l’opinion publique par quatre voies : la numérisation, la plateformisation, la dissémination algorithmique et la ressemblance formelle avec les médias traditionnels pour en accroitre la crédibilité.

  • l’article « Données personnelles » d’Anne Bellon propose un rappel chronologique de la reconnaissance de la vie privée dans la loi (avec l’évolution des missions de la CNIL et l’adoption du RGPD)
  • l’article « Réseaux sociaux » de Frédéric Clavert qui fait lui aussi un rappel historique et revient sur la notion de bulle de filtre, avec un encart sur les GAFAM
  • l’article « Surveillance numérique » de Olivier Aïm avec un encart d’Arnaud Mercier sur Wikileaks
  • l’article « Web des émotions » de Camille Alloing et de Julien Pierre, et enfin l’article « Wikipédia » de Bernard Jacquemin

Mon avis sur l’ouvrage

Vous l’aurez compris, la lecture de cet ouvrage m’a complètement happée, et je le considère comme l’un des meilleurs que j’ai pu lire sur la question, et je pense qu’il s’agit d’une excellente porte d’entrée pour quelqu’un qui s’intéresserait à la question de l’utilisation des données numériques.

Je n’hésiterai pas à signaler ce livre aux élèves qui s’intéresseraient à ce domaine, que ce soit pour des recherches en EMC, en SNT ou dans le cadre de la préparation de leurs sujets de grand oral.

Vous l’aurez compris également, même si ce type d’ouvrage est irrémédiablement condamné par certains aspects à une certaine obsolescence, dans les applications qu’il donne en exemples, sa solidité théorique et son accessibilité font qu’il ne tardera pas à rejoindre ma bibliothèque personnelle.


Revue de presse

Concernant la revue de presse, j’ai retenu deux magazines abordant la question des données numériques selon deux approches différentes : le numéro d’Epsiloon de mai 2022 avec un article “Data, elles parlent” de Muriel Valin, et le numéro de Questions internationales de septembre 2021 consacré aux GAFAM. 

Questions internationales n°109, septembre-octobre 2021

Pour ce dernier, le dossier couvre près de 80 pages et propose 10 articles signés par différents experts. 

Parmi eux, l’article “Une géopolitique des GAFAM” de Laurent Carroué revient sur le berceau de ces big tech : la Silicon Valley, et sur la façon dont elles participent au hard power et soft power des États-Unis, finissant par concurrencer les puissances étatiques. 

Laurent Carroué revient sur le rôle des GAFAM dans la circulation de l’information mais aussi dans la diffusion des différentes formes de désinformation (deepfakes, thèses complotistes) à des fins politiques, posant régulièrement la question de leur régulation. 

Se pose également la question du stockage des données et de leur sécurisation, pour contrer la dépendance à ces géants du numérique. 

En deuxième lieu, j’ai retenu un encart de Maud Quessard dans ce même numéro : “L’administration américaine et les GAFAM : de la confiance à la défiance”, avec une photo qui a particulièrement retenu mon attention, puisqu’on y voit Mark Zuckerberg auditionné (déjà) en 2018 par le Congrès des États-Unis. 

L’encart montre l’ambivalence des États-Unis : lutter contre leur monopole tout en bénéficiant de leur rôle de moteur de croissance économique. Il revient également sur les ingérences étrangères et les manipulations de l’information dans le cadre des campagnes électorales en particulier sur Facebook et Twitter, ce qui a donné lieu à cette audition de Zuckerberg par le Congrès après le scandale Cambridge Analytica. 

Entre 2021 et 2022, les réseaux sociaux ont tenté de restaurer leur image, avant que Twitter ne soit racheté par Elon Musk et avant qu’en janvier 2024, Mark Zuckerberg soit de nouveau auditionné cette fois par le Sénat américain, avec d’autres dirigeants de réseaux sociaux, pour n’avoir pas suffisamment protégé les usagers les plus jeunes contre les risques d’exploitation sexuelle et de suicide. 

Enfin, le dernier article à retenir mon attention dans ce dossier est celui d’Anne Perrot, “Plateformes numériques, régulation et droit de la concurrence”, qui revient sur leur position dominante et sur les problématiques qu’elles posent en matière d’utilisation des données personnelles. 

Pour la France, Google détient en 2021 90% de part de marché dans le secteur des moteurs de recherche, et Facebook 70% dans celui des réseaux sociaux. Les données collectées sont monétisées via la publicité ciblée. 

L’article pointe la nécessité de réguler ces plateformes, avec l’élaboration fin 2020 de deux projets de réglements par la Commission européenne : le Digital Service Act pour les contenus et le Digital Markets Act pour essayer de limiter les situations de monopole. 

Valin, Muriel. Data : elles parlent. Epsiloon n°011, 05/2022, p.70-77

Cet article revient de manière très illustrée sur le macroscope, un outil scientifique proposé et présenté par David Chavalarias dans Toxic Data, qui faisait l’objet de mes précédentes notes de lecture sur les données numériques. 

L’article rappelle qu’en une seule minute sur Internet, 5.7 millions de requêtes sont lancées sur Google, 167 millions de vidéos sont regardées sur TikTok et 575000 tweets postés. 

David Chavalarias remet l’immensité des données collectées dans une perspective historique en rappelant que D’Alembert en 1751 rêvait déjà d’un arbre généalogique de la connaissance, rendu aujourd’hui possible avec les progrès de l’algorithmie. 

L’article propose différents exemples du macroscope : la représentation visuelle des publications scientifiques, des communautés climatosceptiques ou encore des échanges sur Twitter entre pro-vaccins et anti-vaccins durant la pandémie de Covid-19. 


Ressources complémentaires

  • Les infographies Data never sleepsavec ce qui se produit sur Internet en une minute

Notes de lecture sur l’intelligence artificielle (épisode 4)

Pour ce quatrième (et peut-être dernier) épisode de mes notes de lecture sur l’intelligence artificielle, j’ai choisi des ouvrages et des articles qui permettent de susciter le débat sur la question.

En effet, les lectures que j’ai retenues peuvent être mobilisées dans des disciplines principalement associées aux sciences humaines : enseignement moral et civique, philosophie, HLP…

Je précise qu’il s’agit là potentiellement du dernier épisode, car je pense pour l’instant avoir à titre personnel fait le tour de la question, même si je n’exclus pas de prendre à nouveau des notes sur des ouvrages ou des articles qui attireraient mon attention et proposeraient un éclairage d’actualité sur le sujet (je pense en particulier aux ouvrages publiés très récemment sur ChatGPT).

Mais d’ici là, je m’octroie une petite pause sur l’intelligence artificielle (sauf pour avancer dans mes conceptions de séances) et vais plancher sur d’autres lectures scientifiques.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et social : Les Robots font-ils l’amour ? et Des Robots et des hommes
  2. revue de presse avec les numéros 1700 du Courrier international et 432 du Un
  3. sélection de ressources

Les Robots font-ils l’amour : Le transhumanisme en 12 questions, de Laurent Alexandre et Jean-Michel Besnier

Cet ouvrage, publié en 2016, figurait déjà depuis un certain temps dans le rayon philosophie du CDI, et déjà à l’époque, le titre avait retenu mon attention, en me rappelant celui du roman de Philip K. Dick Les Androïdes rêvent-ils de moutons électriques ?, porté à l’écran sous le titre Blade Runner.

Contrairement à mes notes de lecture précédentes, je ne vais pas tenter de faire un résumé de chaque chapitre, le titre étant suffisamment parlant. Je vais me contenter de relever ce qui m’a intéressée dans cet ouvrage et de quelle manière il peut permettre de nourrir un débat sur la question.

L’ouvrage prend la forme d’une discussion (relativement animée) entre les deux auteurs, Laurent Alexandre, médecin et entrepreneur, et Jean-Michel Besnier, philosophe, et cette discussion s’articule autour des 12 questions du sous-titre :

  1. Faut-il améliorer l’espèce humaine ? (implants, détection de la trisomie 21)
  2. L’humanité doit-elle changer sa reproduction ? (fécondation in vitro, manipulations génétiques)
  3. La technologie peut-elle tout réparer ? (thérapie, implants, rôle et déontologie d’un médecin supplanté par les technologies)
  4. Demain, tous cyborgs ? (le chapitre revient sur les craintes soulevées à l’époque par Elon Musk autour de l’intelligence artificielle, et sur la question du libre arbitre au sein d’un corps livré à la technique)
  5. Peut-on faire l’amour avec un robot ? (évocation du film Her, cybersexualité)
  6. Est-il désirable de vivre 1000 ans ? : la lecture de ce chapitre m’a rappelé le roman Tous les hommes sont mortels de Simone de Beauvoir
  7. Le transhumanisme est-il un eugénisme ? (est-il légitime d’utiliser toutes les possibilités de transformation offertes par la science ? rappel du mythe de la singularité, c’est-à-dire le moment où l’esprit humain est dépassé par l’intelligence artificielle)
  8. L’intelligence artificielle va-t-elle tuer l’homme ? (retour sur la lettre ouverte sur l’intelligence artificielle signée en 2015 entre autres par Stephen Hawking, Bill Gates, Elon Musk…) *
  9. Quels sont les enjeux économiques ? (retour sur l’implication des géants du numériques, en particulier Google, le lien entre Big data et IA)
  10. Faut-il légiférer ? (de quelle manière encadrer législativement et de manière éthique les innovations technologiques ? quelles interventions de l’état – ou inter-étatiques – possibles ? nécessaire évolution de l’école)
  11. Doit-on craindre un « meilleur des mondes » ? (risques totalitaires du transhumanisme ou renouveau démocratique ? proposition d’un serment d’Hippocrate pour les scientifiques spécialistes des NBIC)
  12. Jusqu’où pousser la recherche ? (le transhumanisme comme nouvelle religion)

J’ai indiqué par un * les chapitres sur lesquels je me suis davantage attardée. Le chapitre 8 fait un rapide historique de l’intelligence artificielle, sur la définition de l’intelligence, sur la difficulté de l’école à s’adapter aux problématiques actuelles de l’IA, sur les risques de l’intelligence artificielle pour l’emploi, sur la distinction entre IA faible et IA forte et sur la loi de Moore.

Mon avis sur l’ouvrage

Le caractère souvent décomplexé de la conversation m’a parfois quelque peu désarçonnée, mais j’ai trouvé la structure très fluide et intéressante, et avec un recul sur ces différentes questions, je pense qu’elles peuvent être reprises presqu’à l’identique dans le cadre de débats menés en classe avec les élèves.


Des robots et des hommes : Mythes, fantasmes et réalités, de Laurence Devillers

Là encore, il s’agit d’une publication sur la question qui remonte à quelques années (2017).

L’ouvrage s’ouvre par une fiction « LILY, ma robote assistante de santé » où l’auteur imagine un futur désormais proche, en 2025, avec des robots compagnons de vie ayant trois niveaux d’adaptation : le niveau 1 sans adaptation, le niveau 2 où le robot peut apprendre certaines tâches, et le niveau 3 où il s’adapte aux habitudes de l’humain.

L’auteure propose des allers-retours entre cette fiction et les avancées de la robotique et de l’intelligence artificielle au moment où cet ouvrage est publié ainsi que les questionnements qu’elles soulevaient : les agents conversationnels, les capacités propres à l’homme et celles propres aux robots, le traitement des données personnelles.

Dans son avant-propos, Laurence Devillers évoque déjà les expériences menées avec les robots japonais Pepper et Paro (et l’utilisation de ce dernier dans l’accompagnement des personnes âgées), des robots Keepon et Nao pour les enfants souffrant de troubles du spectre autistique.

Principalement, elle pose la question de l’intégration des robots sociaux dans notre vie quotidienne, avec les problématiques de la morale, de l’éthique, de l’empathie, du respect de la vie privée. Elle indique 4 leviers à prendre en compte :

  • éduquer à l’éthique des robots
  • expliciter des règles de bonne conduite à coder sur le robot
  • mettre en oeuvre des outils pour vérifier le respect de ces règles
  • adopter une règlementation juridique en cas de non respect

en s’appuyant sur les lois de la robotique d’Asimov.

L’ouvrage se décline ensuite en deux parties.

Dans la première partie « Les robots : science-fiction, mythes et fantasmes », l’auteure revient aux origines littéraires et cinématographiques de la robotique :

  • Frankenstein ou le Prométhée moderne, de Mary Shelley
  • le mot ROBOT qui trouve son origine chez Karel Capek
  • et évidemment Asimov pour la littérature

Concernant les mythes et fantasmes cinématographiques, elle les fait remonter à Prométhée, Pygmalion, à Faust et au Golem, aux questionnements philosophiques de Descartes (qui dissocie corps et esprit) et aux différences culturelles de perception des robots entre l’Occident et le Japon.

S’ensuivent les références cinématographiques de Metropolis, 2001, Star Wars, A.I., WALL-E., Her, et les séries Real Humans et Westworld, qui posent d’un point de vue fictionnel les problématiques soulevées dans l’avant-propos.

Dans le troisième chapitre de cette première partie « L’intelligence des machines : halte aux fantasmes ! », l’auteure revient sur la définition de l’intelligence et fait un rappel historique de ce que recouvre l’intelligence artificielle (Turing, modes d’apprentissage, hivers de l’IA, recherches menées par les GAFAM et transhumanisme, mythe de la singularité et lettre ouverte de 2015 alertant sur les dangers de l’IA).

Quelques points de réflexion :

  • Tay, l’intelligence artificielle de Microsoft entraîné par les utilisateurs à tenir des propos racistes et antiféministes
  • les failles de la technologie de reconnaissance faciale de Google Photos
  • citation mentionnée de Gérard Berry, informaticien et professeur au Collège de France

L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con.

L’auteure rappelle l’urgence d’aller au-delà du test de Turing pour prendre en compte les nouvelles capacités de l’I.A.

Dans la deuxième partie « Les robots : aujourd’hui et demain », l’auteure s’intéresse à ce qui lie robotique, intelligence artificielle et problématiques sociales et morales.

Dans le chapitre « Qu’est-ce qu’un robot social ? », elle évoque les fonctionnalités les plus récentes des robots, avec les dimensions développées : autonomie, apprentissage et empathie.

Elle définit selon différents critère la robotique sociale : le robot perçoit ce qui l’entoure, peut apprendre et interagir avec nous, et ces différents enjeux dans les chapitres suivants :

  • un robot doit-il le plus possible ressembler à un humain ? va-t-on faire plus confiance à un robot humanoïde ?
  • un robot peut-il manifester de l’empathie ou en susciter ? qu’est-ce qui distingue l’homme du robot dans l’expression des émotions ? une machine peut-elle apprendre à détecter les émotions et adapter sa réponse en conséquence ?
  • comment intégrer aux innovations technologiques la morale et le respect de la vie privée et des données personnelles ?

Pour illustrer cette dernière question, l’auteure cite la nouvelle de John McCarthy, Le Robot et le bébé, où le robot doit déroger à une première règle de fonctionnement pour respecter la deuxième.

Elle soulève également la question de la responsabilité en matière d’intelligence artificielle : qui est responsable entre le concepteur du programme, l’ingénieur, l’opérateur et l’utilisateur ?

Règles et responsabilités interviennent dans les champs suivants :

  1. sécurité civile,
  2. opérations militaires,
  3. voitures autonomes (Moral Machine)

Concernant les relations que les humains peuvent avoir avec un robot social, l’auteure rappelle le rôle chez l’enfant du doudou comme objet transitionnel (note personnelle : ce que constitue déjà le smartphone pour un certain nombre de personnes – voir nomophobie) avec les risques que cela induit : addiction, confusion, repli sur soi.

Les deux derniers chapitres évoquent les peurs suscitées par les robots (piratage, surveillance, risques économiques) et la nécessité d’éviter les deux écueils que sont les craintes irrationnelles et le trop plein de confiance, ce qui amène naturellement à l’épilogue de l’ouvrage, une proposition de onze commandements pour les applications sociales de la robotique, où figurent en premier lieu les données privées et le droit à l’oubli.

Mon avis sur l’ouvrage

Parmi les ouvrages traitant de la question de l’intelligence artificielle par le biais des sciences humaines et en particulier de la philosophie, des émotions et de la morale, cet ouvrage est le plus intéressant que j’ai pu lire jusqu’ici.

La porte d’entrée de la fiction, avec les robots compagnons et les allers-retours avec les questionnements actuels sont assez vertigineux et captivants, surtout lorsqu’on lit aujourd’hui cet ouvrage publié en 2017.

Il complète de manière plus posée le premier ouvrage, et permet d’assoir les arguments qui pourraient survenir dans un débat sur l’intelligence artificielle en classe.


Revue de presse

Pour cette revue de presse, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens, sur les aspects sociaux, philosophiques et artistiques de l’intelligence artificielle. J’ai donc retenu deux documents :

Naomi Klein : « Les IA organisent le plus grand pillage de l’histoire de l’humanité ». Courrier international n°1700, 01/06/2023, p.44-45

Dans cette tribune publiée dans The Guardian, Naomi Klein revient sur les « hallucinations » autour des dernières innovations de l’intelligence artificielle et fait se confronter certaines utopies (utiliser l’IA pour prendre des décisions, pour transformer le monde du travail, pour améliorer l’accès à l’information) et leurs revers (consommations, crise climatique, dérives politiques et économiques.

L’IA va-t-elle nous remplacer ?. Le 1 n°432, 01/02/2023, p.1-6

Dans le numéro de cette revue hebdomadaire, j’ai retenu :

  • les Repères en page 5 « Rêves prométhéens » qui proposent une chronologie littéraire et cinématographique de l’IA.
  • dans le Zoom en page 6 « À quand un ChatGPT français ? », Isabelle Ryl évoque le supercalculateur Jean-Zay et le modèle de langage Bloom, un modèle de langage ouvert, responsable et explicable.
  • dans « L’art au temps de l’intelligence artificielle » Marion Carré revient sur les questionnements récents (et qui font écho à la grève des scénaristes et des acteurs à Hollywood) : l’IA peut-elle être artiste ? quels risques dans l’uniformisation des goûts ? quels sont les droits concernant une oeuvre générée par l’intelligence artificielle ?
  • enfin dans son enquête « Le défi de l’éducation », Manon Paulic revient sur la nécessite de repenser l’enseignement : évalue-t-on la capacité des élèves à emmagasiner et restituer des connaissances ou son raisonnement critique et sa créativité ?

Ce dernier débat me renvoie à l’opposition entre les sophistes et Socrate dans les dialogues platoniciens… et ouvre sur l’une de mes prochaines lectures, que j’évoque dans la partie Ressources.

Ressources

J’avais songé à l’origine faire le compte-rendu dans cette note d’un troisième ouvrage : Data-Philosophie de Sonia Bressler, en y abordant uniquement ce qui a trait à l’intelligence artificielle, mais l’ouvrage opte visiblement pour un questionnement plus large et qui m’intéresse, j’en ferai donc le compte-rendu dans un article ultérieur.

Notes de lecture sur l’intelligence artificielle (épisode 3)

Voici un troisième épisode de mes notes de lecture sur l’intelligence artificielle, où je commence à cerner l’objectif de ces notes :

avoir une vision d’ensemble sur la question et qui me permette de proposer ou de concevoir des séances pédagogiques sur l’IA, aussi bien dans des disciplines associées aux sciences pures (SNT, enseignement scientifique, mathématiques) que dans les sciences humaines (SES, éco-gestion, EMC, HGGSP, HLP…).

Ce troisième épisode abordera donc la question sous l’angle des sciences humaines avec un premier focus sur les aspects économiques et géopolitiques de l’intelligence artificielle.

Dans cet épisode :

  1. les ouvrages Intelligence artificielle, l’affaire de tous et Géopolitique de l’intelligence artificielle
  2. revue de presse avec les numéros de la revue Le Monde diplomatique n° 829 et du Courrier international n°1685, 1695 et 1704
  3. une sélection de ressources

Intelligence artificielle, l’affaire de tous : de la science au business, Thierry Bouron

Il s’agit donc pour moi d’un quatrième ouvrage sur l’intelligence artificielle, après une première lecture à coloration davantage scientifique, et deux lectures de vulgarisation qui tendaient à proposer une vision d’ensemble de la question.

Cet ouvrage a été publié en juillet 2020 aux éditions Pearson et apporte un éclairage davantage professionnel : économie, business, management et marketing. 

Cela se remarque dans les exemples donnés et dès l’introduction, qui revient sur la révolution induite par les intelligences artificielles à la fois dans les différents secteurs économiques mais aussi dans les formations professionnelles.

Ainsi l’auteur rappelle que la Chine a été la première à expérimenter des cours sur l’intelligence artificielle dans une quarantaine de lycées. 

La coloration économique de l’ouvrage est visible aussi dans sa construction, puisqu’en introduction l’auteur souligne les impacts économiques de l’IA, et comment mettre en place une stratégie d’entreprise en en tenant compte.

Deux chapitres rappelant l’essentiel par des exemples et une base historique et scientifique. 

Le chapitre 1 « L’observation d’IA » fait un top 10 des IA impressionnantes, et explique en quoi elles le sont : une IA capable de créer un morceau de musique ou un texte littéraire, les robots Kiva d’Amazon capables d’aller chercher les produits dans les étagères où ils sont stockés, les boutiques Go store, AlphaGo, l’assistant Google qui prend un rendez-vous à notre place. 

Le chapitre 2 « L’IA est plurielle » fait un rappel historique de l’IA qui était déjà abordé dans les ouvrages des précédentes notes de lecture : test de Turing, conférence de Dartmouth, hivers de l’IA. Il revient également sur les notions de machine learning, deep learning et sur les différents courants de pensées liés à l’IA.

  • Le business de l’intelligence artificielle : innovations, investissements économiques et politiques

Dans le chapitre 3 « Un business démesuré », l’auteur s’intéresse aux évolutions induites par l’IA dans l’entreprise, avec le phénomène d’innovations disruptives (ruptures qui peuvent provenir de la création d’un nouveau service, d’un élargissement de l’accessibilité, d’un nouveau modèle de business ou de nouveaux systèmes opératoires). 

Pour ces derniers est convoqué l’exemple du système de recommandation de produits par Amazon. 

L’auteur revient ensuite sur les perspectives de marché de l’IA (impact sur la croissance mondiale par une augmentation de la productivité, la proposition de nouveaux services et un gain de temps), sur les investissements en IA (notamment distribution de contenus sur les réseaux sociaux) et sur les politiques gouvernementales. Pour la France : rapport Villani publié en 2018, prévision d’investir 1,5 Milliards sur cinq ans, sélection de 4 pôles de recherche régionaux. 

Dans le domaine de l’industrie. Les GAFAM ont investi dans l’IA : Alphabet est le premier acteur dans l’acquisition de sociétés d’IA. 

Définition d’une IA COMPAGNY

  1. Stratégie d’acquisition de données
  2. Regroupement et centralisation des données dans des entrepôts
  3. Mise en place de procédures contrôlant le respect des données privées
  4. Automatisation des procédures
  5. Création de nouveaux métiers autour des data sciences

Description des différentes stratégies des GAFAM en IA. Google : agents conversationnels. Facebook : recherche et analyse semantique de textes, images et vidéos (détection de contenus / de faux comptes). Amazon : robots. Apple : Siri. 

Pour soutenir ces évolutions : développement des compétences et des formations universitaires dans ce domaine.

  • Risques de l’intelligence artificielle dans le secteur économique

Dans le chapitre 4, « Les risques effectifs », l’auteur revient sur plusieurs risques soulevés par l’IA. La question des systèmes autonomes permet de traiter le domaine de l’armement et de la défense militaire. 

La partie la plus éclairante concerne les risques propres aux machines apprenantes, notamment à travers la question des corrélations de données (voir l’étude mentionnée de Tyler Vigen : Spurious Correlations et celle sur les fausses corrélations dans un contexte politique : Hack your way to scientific glory) et celle de la généralisation induite par un jeu de données (un outil de recrutement qui élimine certains profils parce qu’ils sont au départ peu représentés). 

Les autres risques mentionnés sont les usages abusifs (exemple de Compas) et les risques liés aux données personnelles avec l’exemple de l’affaire Cambridge Analytica. 

Le dernier risque évoqué est l’impact de l’IA sur l’emploi.

  • Fonctionnement de l’intelligence artificielle

Les 3 chapitres suivants reviennent sur le fonctionnement de l’intelligence artificielle, déjà abordé dans d’autres ouvrages à coloration plus scientifique : « machines apprenantes », « réseaux de neurones artificiels » et « systèmes autonomes » avec des apartés mathématiques pour creuser la question. 

J’ai quelque peu survolé ces chapitres parce qu’ils sont un peu trop mathématiques pour moi, même si dans celui consacré aux systèmes autonomes, une sous-partie « Simulation multi-agents » a retenu mon attention. L’auteur y étudie le renforcement des comportements de consommateurs via l’IA, illustré par le schéma suivant :

Il propose également un jeu de rôles sur les comportements de consommateur, pour manipuler des agents intelligents et se mettre dans la peau d’une IA.

Ce jeu pourrait éventuellement être réutilisé en SNT ou en éco-gestion. Certaines indications sur le nombre de cartes et leur répartition ne sont pas très claires, aussi j’ai essayé de l’adapter de mon mieux dans un jeu que j’ai intégré à une séance de SNT, et que je compte tester prochainement. 

Enfin le dernier chapitre de l’ouvrage « Études de cas » revient sur différentes applications d’intelligence artificielle dont Internet et les agents conversationnels.

Concernant Internet, sont abordés la recommandation et le ciblage : de quelle manière Amazon influence les achats par le système de recommandation personnalisée (un quart des achats sur le site), la suggestion de vidéos sur YouTube et Netflix, la publicité ciblée via les cookies et l’historique de navigation.

Concernant les agents conversationnels, l’auteur fait un rappel du test de Turing, et étudie quelques applications : Siri, Alexa, les chatbots et les enceintes connectées.

En conclusion l’auteur rappelle l’importance de se tenir au courant de l’actualité dans le domaine de l’intelligence artificielle, pour le secteur économique mais cela peut être élargi. Il fait un récapitulatif par un exercice de questions / réponses des différents points abordés dans l’ouvrage.

Mon avis sur l’ouvrage :

Le plus : un véritable éclairage thématique de l’intelligence artificielle. J’ai certes laissé de côté les aspects les plus mathématiques, mais l’ensemble du propos est très éclairant, et peut interroger même sur des domaines comme différents secteurs économiques (immobilier, ressources humaines, entreprise) ou les formations professionnelles, ce qui peut permettre de lier aussi la thématique aux filières d’études des élèves et à leur choix d’orientation.

Par ailleurs, l’auteur a une posture véritablement pédagogique, avec des moments de questions / réponses qui peuvent être réutilisés en classe.


Géopolitique de l’intelligence artificielle, Pascal Boniface

Cet ouvrage a été publié aux éditions Eyrolles en janvier 2021, et il fait partie de la bibliographie très prolifique de Pascal Boniface, spécialiste de géopolitique.

On lui doit des ouvrages plusieurs fois réédités sur les relations internationales (Comprendre le monde) et qui relient la géopolitique à certaines thématiques (le sport, les jeux olympiques, le Covid…).

L’ouvrage consacré à l’intelligence artificielle se décline en sept chapitres, après une introduction où l’auteur rappelle son parcours littéraire malgré son intérêt pour la question, ce qui sera éclairant pour la suite de l’ouvrage.

Le premier chapitre « Intelligence artificielle, histoire et définition » revient de manière succincte sur des éléments déjà abordés dans les ouvrages abordés précédemment : le test de Turing, la conférence de Dartmouth, les hivers de l’IA, deep learning et machine learning, traitement des données.

Un encart revient sur le rôle de la DARPA (Defense Advanced Research Projects Agency) créée en 1958 qui finance aux États-Unis la recherche et le développement dans le domaine des technologies militaires, avec un département dédié à l’innovation et à l’information créé en 2005.

Dans le deuxième chapitre « Corne d’abondance ou machine à exclure ? », l’auteur revient sur la vision que la société a généralement des innovations techniques et des craintes qu’elles suscitent, largement relayées par Pascal Boniface (inégalités, chômage, accès à la santé et transhumanisme, relations des états avec les géants du numérique).

Le troisième chapitre « Les GAFAM vont-ils tuer l’État ? » accentue ces craintes, en faisant notamment un tableau comparatif entre les fortunes des dirigeants et le PIB de certains pays (Amazon / Bezos en 2020 = Qatar en 2019, Elon Musk = Maroc).

Il étudie de quelle manière ces dirigeants s’emparent de domaines jusqu’ici régaliens (la conquête spatiale pour Musk) et affaiblissent les institutions, et leurs arrangements avec la fiscalité, malgré les tentatives de régulation étatiques ou inter-étatiques.

Dans le quatrième chapitre, « Printemps des libertés ou hiver totalitaire ? », Pascal Boniface revient sur le risque d’une surveillance absolue induite par le Big data, en s’appuyant notamment sur l’affaire Cambridge Analytica.

Pour contrebalancer, il rappelle également le rôle des réseaux sociaux notamment dans les mobilisations populaires (printemps arabe, mouvement #MeToo), et relativise le lien entre réseaux sociaux et bulle de filtres, rappelant qu’un lecteur de Libération ira rarement lire Le Figaro.

Le point le plus intéressant du chapitre est l’encart consacré au contrôle social en Chine, et à la façon dont les citoyens chinois sont classés, de AAA (citoyen exemplaire) à D (citoyen malhonnête).

Le chapitre 5 revient d’ailleurs sur « Le duel Chine / États-Unis ». En effet, la Chine concentre ses dépenses non dans le domaine militaire, mais dans le domaine technologique, surtout depuis qu’elle a connu son « moment Spoutnik » avec la défaite de son champion contre AlphaGo.

Elle conjugue depuis croissance économique, montée en puissance technologique et patriotisme, ce qui lui donne un avantage considérable par rapport aux GAFAM, dont les dirigeants n’ont pas les mêmes relations aux institutions gouvernementales. Elle dépasse les États-Unis en publications scientifiques et en dépôt de brevets. Le chapitre revient sur les tentatives américaines pour juguler certaines entreprises chinoises (Huawei et plus récemment l’application TikTok).

Face aux deux géants, le chapitre 6 « Quo vadis, Europa ? » rappelle le retard européen en matière d’investissements. Le RGPD adopté en 2016 peut-être perçu à la fois comme un frein et comme un modèle attractif. Une stratégie européenne a été proposée en 2018 pour rattraper ce retard, en finançant la recherche et l’innovation.

Le dernier chapitre « La France dépassée ? » revient sur les initiatives françaises en matière d’informatique et d’intelligence artificielle :

  • 1966 : Plan calcul et création de l’IRIA (Institut de Recherche, d’informatique et d’automatisme) ancienne INRIA
  • 2018 : lancement des quatre instituts interdisciplinaires de l’IA  (3IA)
  • 2019 : plan de 1.5 milliard d’euros d’investissement dans l’IA jusqu’en 2022 ; supercalculateur installé sur le plateau de Saclay
  • projet d’un cloud souverain et appels d’offres sur la protection des données

En 2019, un tableau recense les pays et régions du monde ayant déposé le plus de brevets IA dans le monde. Rang 1 : USA, rang 2 : Chine. La France arrive au rang 14.

Mon avis sur l’ouvrage :

L’ouvrage de Pascal Boniface était celui que je souhaite le plus lire dans la sélection que je m’étais faite sur la question, et c’est également ce qui m’avait attiré dans son introduction : le fait qu’il s’agisse d’un littéraire se questionnant sur une problématique scientifique.

Cependant, j’ai eu l’impression durant ma lecture que, malgré les éléments de définition du premier chapitre, il traite de l’intelligence artificielle quasiment exclusivement avec la perspective des géants du numérique, même en considérant les aspects qui y sont corrélées (contrôle social, traitement des données).

En gros, j’aurais lu ce livre en premier, il m’aurait servi de porte d’entrée. L’avoir lu en dernier m’a laissé quelque peu sur ma faim. Au lieu d’un auteur spécialiste de géopolitique qui s’intéresse à l’intelligence artificielle, j’aurais eu besoin (à titre personnelle) d’un spécialiste de l’intelligence artificielle qui s’intéresse à la géopolitique.

Revue de presse

Pour cette revue de presse, contrairement aux épisodes précédents, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens.

Le Monde diplomatique n°829

Je l’ai retenu parce qu’il propose un éclairage sur l’intelligence artificielle en Chine : «La Chine entravée dans la bataille de l’intelligence artificielle » (p.12-13).

La Chine a porté ce secteur comme priorité nationale dès 2017 et dispose de différents atouts : précurseur dans le paiement via smartphone, le recours aux robots dans les services publics, l’association étroite entre entreprises, chercheurs et administrations.

Elle bénéficie de travailleurs qualifiés et ses applications sont reconnues (TikTok, cloud d’Alibaba, chatbots, système de circulation automobile, reconnaissance faciale, service de robots taxis, générateur d’images).

Plusieurs freins viennent gêner ces progrès : la fuite des cerveaux chinois, le retard et le blocage des investissements notamment dans le secteur des semi-conducteurs (et du coup le risque de pénurie qu’ils suscitent), la mainmise de l’État, les sanctions des États-Unis à l’encontre de la Chine.

Un encart revient sur l’application TikTok et les pressions et initiatives pour l’interdire en Amérique du Nord et en Europe de l’Ouest.

Courrier international n°1685 (16-22 février 2023)

C’est le premier de l’année, pour ce périodique, à s’intéresser en Une à ChatGPT, avec un article publié dans The Sunday Times du 5 février. Il revient sur les « exploits » de l’outil depuis son lancement en novembre 2022, l’utilisation de ChatGPT par les étudiants britanniques (et les réactions des universités), par les employés pour rédiger des lettres de motivation, dans le milieu du journalisme ou de la programmation.

Le numéro de The Economist du 30 janvier propose lui un retour sur les centres de recherche privés et les entreprises qui ont favorisé la montée en puissance de l’intelligence artificielle, avec d’un côté les géants OpenAI, Amazon, Google et Meta, et de l’autre les organismes chinois financés par l’État comme la Beijing Academy of AI.

Un entretien publié dans le New York Times en décembre 2022 avec Yejin Choi, scientifique et informaticienne, revient enfin sur les idées reçues concernant l’intelligence artificielle.

Le dossier propose en outre :

  • une chronologie de la genèse de ChatGPT
  • une revue de presse revenant sur les réactions suscitées par l’outil (éducation, emploi, recherche, sécurité)
  • ses principaux exploits

Courrier international n°1695 (27 avril – 3 mai 2023)

Le dossier proposé dans ce numéro « Intelligence artificielle : fini de rire » est un peu plus conséquent et propose une vision plus pessimiste, étayée par des articles de la presse américaine, suisse et tchèque.

Il revient sur les risques suscités par le développement des modèles de langue : fuite d’informations, réponses biaisées, hameçonnage, tentatives d’arnaques, qui passent par l’injection dans l’outil de prompts (consignes) pour obtenir des informations personnelles de la part de l’internaute.  (MIT Technology Review)

Un extrait du Temps est consacré au double jeu d’Elon Musk en matière d’IA : signataire d’une pétition demandant une pause de la recherche tout en créant une start-up spécialisée sur la question.

Un entretien avec Niels Ackermann, photojournaliste, revient sur les prouesses des IA génératives dans la création d’images et l’utilisation de ces images et de deepfakes dans les médias. (Heidi news)

La revue de presse du dossier revient sur certaines mesures de régulation prises au moment où paraissait ce numéro : suspension de ChatGPT en Italie, censure en Chine.


Courrier international n°1704 (29 juin – 5 juillet 2023)

Il s’agit ici d’une controverse proposée sur une seule page : « IA : L’Europe fait-elle bien de légiférer ? » avec

  • côté POUR un article du Süddeutsche Zeitung (Allemagne) : publication du IA ACT le 14 juin par le Parlement européen avec l’accent mis sur la protection des données personnelles et le respect de la vie privée, ainsi que la lutte contre la désinformation ;
  • côté CONTRE un article de Rzeczpospolita (Pologne) : l’excès de réglementation européenne comme frein à l’essor économique et le fait pour l’Europe de rester à la traîne dans la course technologique.

En deux mots, d’un côté sécurité, de l’autre liberté.

Autres ressources

Notes de lecture sur l’intelligence artificielle (épisode 2)

Voici un deuxième épisode de mes notes de lecture sur l’intelligence artificielle, qui tentera entre autres de répondre à la question suivante : les livres jaunes sont-ils de bons vulgarisateurs ?

En d’autres termes : l’expression « pour les nuls » permet-elle réellement à un non-spécialiste de maîtriser un sujet ?

Ce deuxième épisode s’intéressera donc, après celui qui m’avait mis le pied à l’étrier et qui s’intéressait à la question en proposant une chronologie et un regard scientifique, à des ressources qui revendiquent, si je peux m’exprimer ainsi, de traduire l’intelligence artificielle en langage naturel.

Dans cet épisode :

  1. les ouvrages Comprendre la révolution de l’intelligence artificielle et L’intelligence artificielle pour les nuls
  2. les dossiers de Geek junior n°23 et du hors-série de Tangente n°86
  3. une sélection de ressources

Comprendre la révolution de l’intelligence artificielle, Stéphane d’Ascoli

Ouvrage publié en 2020 chez First éditions, 189 pages. 13 chapitres, un glossaire à la fin, ainsi que des propositions bibliographiques de prolongement.

Les 13 chapitres sont répartis en quatre parties distinctes. La première partie « Intelligence artificielle : retour aux sources » revient sur des éléments définitionnels et chronologiques.

chapitre 1 : le monde des algorithmes / chapitre 2 : l’ia des mythes originels à aujourd’hui
  • retour sur des éléments de définition déjà évoqués dans mon épisode 1 : algorithme, machine learning, deep learning.

L’ouvrage fait en outre la distinction entre IA symbolique qui suit des règles explicites et IA connexionniste qui utilise des exemples pour fonctionner et améliorer ses réponses.

  • chronologie depuis l’Antiquité (Pygmalion et Galatée) jusqu’à AlphaGo.

Les deux parties suivantes vont s’intéresser aux deux modes de fonctionnement de l’intelligence artificielle : le machine learning (3 chapitres) et son sous-domaine le deep learning (4 chapitres).

chapitre 3 : comprendre le machine learning
  • apprendre à partir de données et généraliser l’apprentissage à de nouvelles données en ajustant avec différents curseurs. Plus un algorithme dispose de curseurs, plus il pourra résoudre des problèmes en ayant une fonction de perte satisfaisante (un score de performance : plus il est élevé, moins les performance sont bonnes) ;
  • bruit et silence en intelligence artificielle : l’overfitting (un algorithme avec trop de curseurs mémorise des informations inutiles) et l’underfitting (un algorithme avec trop peu de curseurs qui n’aura pas assez de données pour fonctionner correctement)
  • 3 types d’apprentissages pour les algorithmes : supervisé, non supervisé et par renforcement.
chapitre 4 : un jour dans la vie d’un concepteur d’ia

Pour mettre au point une IA, l’analogie de la recette de cuisine : il faut une recette (l’algorithme), des ustensiles (les processeurs de calcul) et des ingrédients (les données).

Le chapitre détaille les différentes étapes de traitement des données :

  1. récolter les données
  2. les nettoyer
  3. sélectionner les caractéristiques d’intérêt
  4. formater les données
  5. séparer les données d’entrainement et de test

et l’évaluation d’un algorithme à travers deux types de critère : la sensibilité (capacité d’un algorithme à donner un résultat positif lorsqu’une hypothèse est vérifiée) et la spécificité (capacité à donner un résultat négatif lorsqu’une hypothèse n’est pas vérifiée).

chapitre 5 : quelques applications célèbres
  • la régression linéaire pour déterminer les taux de prêt
  • l’utilisation d’arbres décisionnels pour établir un diagnostic médical à partir d’une série de symptômes
  • les systèmes de recommandation

Pour suggérer des films susceptibles de vous plaire, Netflix doit apprendre vos goûts au moyen d’un système de recommandation. (…) Cette méthode se résume dans une formule récurrente « Les utilisateurs qui ont aimé X ont également aimé Y ».

L’idée est simple : séparer les utilisateurs en groupes, correspondant à des « communautés » de goûts.


chapitre 6 : comprendre le deep learning
  • le perceptron (modèle mathématique du neurone) comme premier pas vers le deep learning ;
  • le transfer learning permet aux algorithmes entrainés à une certaine tâche de se conformer à une nouvelle tâche

Les trois chapitres suivants s’intéressent à différentes applications du deep learning : les images, le langage et les agents intelligents.

chapitre 7 : deep learning et images

Ce chapitre revient sur les différentes formes de traitement de l’image par les algorithmes dont :

  • la reconnaissance faciale qui utilise des réseaux convolutifs (opération qui consiste à scruter par parcelles pour extraire de manière autonome les caractéristiques d’une image),
  • la génération d’image qui s’appuie sur des algorithmes génératifs (comme pour les deep fakes) fonctionnant avec des réseaux de neurones encodeurs et décodeurs.
chapitre 7 : deep learning et langage

Pour représenter les mots, les algorithmes utilisent la méthode du plongement lexical qui consiste à représenter des mots par des vecteurs – soit un paquet de nombres (cela permet entre autres de repérer les discours de haine sur les réseaux sociaux).

Le chapitre étudie également le fonctionnement des claviers prédictifs avec les réseaux récurrents, le mécanisme d’attention utilisé par les outils de traduction automatique, et les étapes de réponse à une demande par les assistants vocaux.

chapitre 8 : deep learning et agents intelligents

L’agent intelligent est un algorithme capable de percevoir son environnement et d’interagir avec lui.

Le chapitre revient sur l’apprentissage par renforcement des algorithmes avec les exemples d’AlphaGo et des voitures autonomes.


La dernière partie de l’ouvrage est consacrée à « L’humanité face à l’intelligence artificielle » avec des problématiques qui peuvent être réutilisées dans le cadre de débats avec les élèves (SNT, enseignement scientifique, EMC, philosophie).

  • Chapitre 10 : l’intelligence artificielle face à l’intelligence humaine (avec le test de Turing) avec un retour sur le fonctionnement d’AlphaGo.

Citation d’Albert Einstein : « Les ordinateurs sont incroyablement rapides, précis et stupides. Les hommes sont incroyablement lents, inexacts et intelligents. L’ensemble des deux constitue une force incalculable ».

  • Chapitre 11 : faut-il craindre l’IA ? Culture populaire avec Asimov, Kubrick, Terminator… Applications militaires et dérives de l’intelligence artificielle (système de crédit social en Chine, reconnaissances faciales, deep fake, falsification d’identité). Impacts de l’IA sur le monde du travail et sur l’environnement.
  • Chapitre 12 : comment concevoir une IA « éthique » ?

Le chapitre revient sur les problématiques d’utilisation des données : collecte des données personnelles, enfermement dans les bulles de filtres, retour sur le scandale Cambridge Analytica, biais des algorithmes.

Quelle responsabilité donner aux algorithmes (Moral Machine) ? Comment réduire les impacts environnementaux du numérique ?

  • Chapitre 13 : l’IA peut-elle servir l’humanité ? Retour sur les potentialités de l’intelligence artificielle dans les domaines du handicap, de la recherche scientifique (lutte contre le cancer, physique des particules, astrophysique) et de l’éducation.

Mon avis sur l’ouvrage :

Le plus : il s’agit d’un véritable ouvrage de vulgarisation, les schémas sont parlants et lisibles, des encarts permettent de faire des rappels synthétiques, et l’auteur propose pour des notions techniques des analogies qui permettent vraiment de comprendre le sujet sans être noyé d’informations.


L’intelligence artificielle pour les nuls, John Paul Mueller & Luca Massaron

Ouvrage publié en 2019 chez F1rst intractive, 343 pages. 20 chapitres, une introduction qui fait office de mode d’emploi du livre, un index en fin d’ouvrage.

Les 20 chapitres sont répartis en 6 parties distinctes, dont l’introduction explicite si le propos s’adresse davantage aux novices ou aux spécialistes.

Partie 1 : introduction à l’ia

Cette première partie se décompose en 4 chapitres qui vont expliciter le fonctionnement basique d’une intelligence artificielle.

Le premier chapitre « Introduction à l’IA » redonne des points de définition (en particulier sur ce que l’on entend par intelligence) et un bref aperçu historique de l’intelligence artificielle.

La porte d’entrée de l’ouvrage, contrairement aux deux autres livres abordés précédemment (Turing à la plage et Comprendre la révolution de l’intelligence artificielle) se fait non pas via la machine mais de manière plus approfondie via les données traitées et les algorithmes.

Dans le deuxième chapitre « Définir le rôle des données« , les auteurs reviennent sur les sources et la fiabilité des données exploitées par les algorithmes.

Focus sur les listes déroulantes :

Les listes déroulantes sont adaptées à toutes sortes d’entrées de données, et elles rendent la saisie de données par un utilisateur humain extrêmement fiable, puisque l’utilisateur n’a pas d’autres possibilité que d’utiliser une des entrées proposées par le système.

Les auteurs identifient cinq types de données incorrectes : les données mensongères, les omissions volontaires, les erreurs de perspectives (divergence de points de vue), les biais et le cadre de référence (c’est-à-dire le contexte et la situation d’utilisation des données).

L’intérêt de ce chapitre est de mettre en lumière la vigilance à avoir vis à vis de l’information, et ce au-delà de la question de l’intelligence artificielle :

  • utilisation d’un thesaurus / descripteurs VS mots clés pour la question des listes déroulantes
  • différentes formes de désinformation et prolongement de la question des données incorrectes vers les biais de confirmation et les bulles de filtres.
  • l’ouvrage renvoie vers le site Data never Sleeps qui permet de voir l’évolution de la collecte des données quotidiennes depuis 2013

Les chapitres 3 et 4 reviennent sur le fonctionnement des algorithmes et du matériel informatique (processeurs graphiques).

partie 2 : recenser les utilisations de l’ia dans la société

Cette seconde partie revient sur les utilisations de l’intelligence artificielle dans les applications informatiques, et sur les deux fonctionnalités principales qui sont attendues de l’intelligence artificielle : les corrections et les suggestions.

On retrouve notamment les corrections non seulement dans les vérificateurs orthographiques mais aussi dans la correction de trajectoire des voitures, et la suggestion dans le traitement automatique du langage naturel et la recherche d’information.

L’intelligence artificielle sert également à automatiser des processus courants et à s’épargner des tâches ennuyeuses et répétitives (principalement dans le domaine de l’industrie). Dans le domaine médical, l’IA est utilisée pour le suivi des patients, le diagnostic et de nouvelles techniques chirurgicales.

Enfin elle permet d’améliorer l’interaction humaine en créant de nouveaux alphabets (emojis), en automatisant la traduction ou en créant des liens sur les réseaux sociaux.

partie 3 : travailler avec des applications électroniques de l’ia / partie 4 : travailler avec l’ia dans des applications matérielles

Dans la troisième partie de l’ouvrage, les auteurs reviennent sur les analyses de données par l’intelligence artificielle.

Les points que je retiens de ces chapitres :

  • l’utilisation pour l’analyse des données des outils statistiques (moyenne et variance) et du calcul de corrélation et de la régression linéaire, qui indiquent si des phénomènes peuvent être liés les uns aux autres, ce qui m’a rappelé l’épisode d’E-penser sur la différence entre corrélation et causalité ;
  • un retour sur l’apprentissage machine avec les distinctions entre apprentissage supervisé, non supervisé et par renforcement ;
  • les probabilités, les graphes et les arbres de décision.

Le dernier chapitre de la troisième partie est consacré à l’apprentissage profond et à ses modes de fonctionnement. Les auteurs s’intéressent à son application dans les agents conversationnels.

Ils reviennent sur le premier agent conversationnel, ELIZA, élaboré par Joseph Weizenbaum en 1966, qui propose une réponse à partir d’un ensemble d’associations et de sujets présélectionnés. Deux autres agents plus récents sont mentionnés : Google Smart Reply et Tay, ainsi que le prix Lobner. Le chapitre se termine par la mention suivante :

Pour avoir une idée des progrès de ces technologies, lisez les pages consacrées à ces réseaux sur le site Internet d’OpenAI, un organisme de recherche sur l’IA à but non lucratif (…).

La quatrième partie s’intéresse aux applications matérielles : la robotique (prétexte à reprendre les lois de la robotique d’Asimov), les drones et les voitures autonomes. Ces problématiques peuvent être réutilisées dans le cadre de débats avec les élèves (SNT, enseignement scientifique, EMC, philosophie).

Un encart dans le chapitre sur les drones revient sur le film WarGames qui donne l’exemple d’une intelligence artificielle (l’ordinateur PROG) dont le fonctionnement est biaisé par le piratage.

partie 5 : se pencher sur l’avenir de l’ia / partie 6 : la partie des dix

Ces deux dernières parties sont consacrées aux perpectives offertes par l’intelligence artificielle, dont certaines sont à relativiser ou à actualiser étant donnée la date de publication de l’ouvrage.

Dans la partie 5, les auteurs reviennent sur certains domaines de l’intelligence humaine et où l’intelligence artificielle trouve ses limites, à savoir la créativité, l’imagination, l’originalité, et la fiabilité des données – puisque les résultats d’une IA peuvent être biaisés par des facteurs humains ou des déficiences techniques.

Sont abordés à nouveau les « hivers de l’IA« , périodes durant lesquelles un optimisme démesuré se confronte à des échecs pourtant prévisibles.

Le chapitre 16 est consacré aux applications de l’IA dans l’espace (question qui peut être traitée notamment dans le programme d’HGGSP Terminale) avec l’observation spatiale, l’exploration, l’exploitation des ressources. Le chapitre 17 aborde les possibilités de l’IA notamment dans le domaine environnemental.

La « partie des 10 » propose des pistes de réflexion autour de trois chapitres (à réutiliser en EMC, philosophie et HLP, et en sujets de grand oral) :

  • 10 activités à l’abri de l’IA, où l’on retrouve le domaine de l’interaction humaine, notamment l’enseignement (ouf), de la créativité et de l’intuition
  • 10 contributions importantes de l’IA à la société (médecine, industrie, projets spatiaux)
  • 10 exemples d’échecs de l’IA, principalement dans le domaine des relations et de la connaissance intrapersonnelle : compréhension, éthique, extrapolation des données, empathie, affinité intellectuelle, remise en question et croyances.

Mon avis sur l’ouvrage

Comme beaucoup d’ouvrages de la collection « Pour les nuls » que j’ai pu parcourir, celui-ci ne m’a pas vraiment satisfait.

Cette collection peut être très utile lorsqu’il s’agit de proposer un guide pratique pour apprendre une langue (ou un langage informatique… le seul qui figure dans ma bibliothèque est consacré aux codes HTML, XML et CSS).

En revanche pour traiter d’une thématique, je trouve la structure et le propos souvent complexes et alambiqués, et vulgarisant finalement très mal le sujet qu’ils sont censés aborder, avec des systèmes de renvois à des articles en ligne et certaines phrases jouant sur une connivence avec le sujet que le lecteur ne parvient pas à s’approprier.

Geek Junior n°33 d’avril 2023

Cette revue dédiée à la culture numérique proposait un dossier consacré à l’intelligence artificielle et à ChatGPT dans son numéro d’avril 2023.

Ce numéro aborde l’intelligence artificielle sous différents aspects :

  • le dossier donne la parole à un « expert » (Laurence Devillers, chercheuse au CNRS) avec 3 questions : définition / limites de ChatGPT et conseils d’utilisation (p.9)
  • 8 questions / réponses sur ChatGPT et un encart de mise en garde face aux fake news (p.10-11)
  • un lexique de l’intelligence artificielle et un retour sur ce qu’est un prompt (p.12)
  • un tutoriel pour s’initier à l’intelligence artificielle avec Adacraft (une application web qui fonctionne en prolongement de Scratch) p.21-23
  • un quiz et des mots mêlés  p.29-30

Tangente Hors-série n°86 de juin 2023

Cette revue spécialisée dans l’enseignement des mathématiques consacre un article à « Chat-GPT : une IA très mathématique » (p.16-18).

L’article revient sur le mode de fonctionnement de Chat-GPT : agent conversationnel et réseau de neurones, où la modélisation du texte généré passe par la vectorisation (chaque mot = un vecteur), par l’apprentissage par renforcement et par un mécanisme d’attention (scores et récompenses données en fonction de la pertinence de la réponse).

Autres ressources

Pour finir voici un petit panel de ressources pour prolonger ces lectures et pour garder la trace d’autres lectures à venir :

  • deux Digipad : une veille sur l’IA et un Digipad « IA et éducation« 
  • le journal gratuit Day-Click que l’on reçoit gratuitement dans les établissements scolaires, et son numéro de mai 2023, qui revient sur les technologies de rupture, avec deux pages sur l’intelligence artificielle

DAY-CLICK_30.p.p

Notes de lecture sur l’intelligence artificielle (épisode 1)

Voici mes notes de lecture et une sélection de ressources sur l’intelligence artificielle.

 

Ce premier épisode revient sur :

  1. l’ouvrage Turing à la plage
  2. le dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon
  3. une sélection de ressources numériques

Turing à la plage : l’intelligence artificielle dans un transat, Rachid Guerraoui, Rachid et Lê Nguyên Hoang.

Ouvrage publié en 2020, 220 pages. 8 chapitres, un glossaire à la fin, ainsi que des propositions bibliographiques de prolongement.

Le prologue propose quelques éléments biographiques sur Alan Turing. Sur l’intelligence artificielle les points clefs sont :

  • le test Turing qui met à l’épreuve la faculté d’une machine à discuter avec un être humain (prix Loebner : lien avec les bots conversationnels) ;
  • l’article publié en 1936 par Turing qui décrit une machine modèle de nos futurs ordinateur ;
  • le décryptage d’Enigma ;
  • l’article Computing Machinery and Intelligence publié en 1950 sur les machines qui pensent.
Chapitre 1 : au cœur de l’intelligence artificielle

Selon Turing, l’intelligence des machines réside nécessairement dans l’algorithme qu’elles exécutent, c’est-à-dire une liste d’instructions et d’opérations logiques ou une recette permettant de résoudre des problèmes compliquées à partir d’étapes simples.

Ada Lovelace est la première à avoir l’idée de programmer les machines à calculer inventées initialement par Pascal et Babbage, en utilisant des cartes perforées.

Dans son article de 1936, Turing propose une machine universelle qui serait capable d’apprendre des algorithmes et de les exécuter à la demande, algorithmes qui peuvent être transposés d’une machine à l’autre.

L’exemple de PageRank : cet algorithme développé par Google consiste à calculer un score de popularité pour chaque page web, en s’appuyant sur les liens entre les pages.

« Plus les liens qui pointent vers une page sont nombreux, plus PageRank lui attribue un score élevé. »

Ce système de recommandations s’applique également aux suggestions d’amis sur Facebook ou sur le conseil de produits sur des sites et des applications.

Ce que l’on désigne généralement sous le terme « intelligence artificielle », ce sont les algorithmes auto-apprenants qui apprennent de leurs expériences pour résoudre des problèmes de plus en plus complexes et les systèmes experts qui déduisent des faits à partir de règles, et qui peuvent en déduire de plus en plus lorsque de nouvelles données leur sont fournies.

Idée de définition retenue : l’intelligence artificielle est la capacité d’un algorithme à résoudre un problème que seul l’humain pensait être capable de résoudre.

chapitre 2 : les limites des machines

Notions retenues :

  • la théorie d’incomplétude de Kurt Gödel selon laquelle toute théorie mathématique contient des vérités non démontrables ;
  • le paradoxe du Crétois. Un Crétois déclare « je mens ». Si ce qu’il dit est vrai, alors ce qu’il dit est faux. Et si ce qu’il dit est faux, alors le Crétois dit la vérité.
  • les algorithmes seront toujours confrontés à des problèmes qu’ils ne pourront pas résoudre.
Chapitre 3 : des progrès ahurissants

Des premières machines purement mécaniques, on en vient à la Seconde guerre mondiale à construire des machines électromécaniques à des fins de cryptanalyse (la plus connue est Enigma).

Pour décoder Enigma, Turing et ses collègues conçurent une machine à calculer surpuissante, la Bombe de Turing.

  • 1943 : Mark 1, une machine de la société IBM
  • 1956 : invention du transistor, un interrupteur actionnable électroniquement. La combinaison de plusieurs transistors permet la fabrication de circuits logiques.
  • 1988 : le joueur d’échecs David Levy est battu par l’algorithme Deep Thought, lui-même battu l’année suivante par Gary Kasparov.
  • 1996 : l’algorithme Deep Blue bat Kasparov, avant d’être battu par d’autres algorithmes.

La mise en réseau des machines (Internet) permet d’aller plus vite et de traiter un plus grand nombre de données en répondant à deux besoins : la tolérance aux défaillances et la puissance de calcul. Google répond à presque 4 milliards de requêtes par minute.

chapitre 4 : le code de l’intelligence

Contrairement au langage naturel, le langage machine n’a pas d’ambiguïté. Il est composé par les symboles 0 et 1 manipulés par le processeur d’une machine. Les langages de programmations sont des intermédiaires entre ces langages machines et le langage naturel.

Un langage de programmation est dit « Turing-complet » s’il est universel, c’est-à-dire traduisible dans un autre langage. On parle de « pensée algorithmique » pour décrire une façon de construire des idées à l’aide de ces langages de programmation.

Extrait p.109 :

Nous sommes capables instinctivement de reconnaître un chat dans une image, mais nous ne savons pas comment. (…) Nous parvenons à exécuter l’algorithme de détection de chat qui se trouve dans nos cerveaux, mais il nous est impossible de décrire cet algorithme.

Cette distinction est particulièrement importante à faire dans le cadre des sciences afin d’aiguiser son esprit critique. Il nous arrive souvent d’être persuadés d’une chose sans être capable de décrire le raisonnement logique qui nous a conduits à cette conclusion.

Exemple des captchas : démontrer qu’on est un humain revient à trouver les objets demandés, une tâche facile pour l’humain et complexe pour l’algorithme.

1950 : l’argument de Turing. Aucun humain ni groupe d’humain ne serait capable d’écrire ligne à ligne le code algorithmique d’une IA de niveau humain. Cela induit le principe des learning machines, qui doivent remplacer l’humain dans l’écriture du code et apprendre leur propre algorithme.

chapitre 5 : des machines qui pensent

Le jeu de l’imitation ou test de Turing est un test visant à mesurer la capacité d’une intelligence artificielle à imiter une conversation humaine.

Voir notamment le prix Loebner mentionné plus haut, les chat bots, le film Her de Spike Jonz ou les applications développées récemment comme ChatGPT.

De nombreuses IA modernes fonctionnent avec un apprentissage par renforcement, c’est-à-dire par le fait de recevoir des récompenses en cas de prouesses (ou de clics de l’utilisateurs) et des punitions en cas de défaillances, le tout sous la forme de signaux, qui vont modifier leurs propres algorithmes.

chapitre 6 : des artistes de silicium

Ce chapitre s’intéresse aux capacités des machines à développer de la créativité, c’est-à-dire la capacité à nous fasciner ou à nous surprendre.

  • l’algorithme AlphaGo développé par Google Deepmind en 2016
  • les créations artistiques réalisées par des algorithmes qui passent un test de Turing artistique
  • les algorithmes de recommandation développés pour estimer ce qui plaira aux utilisateurs (Spotify, Netflix)
Chapitre 7 : des algorithmes dans la nature

Dans ce chapitre sont étudiés les mécanismes naturels qui déterminent les différentes formes et structures des êtres vivants (soit le domaine de la morphogénèse) et le mécanisme de l’hérédité (soit la réplication de l’information génétique).

Applications vivantes de l’intelligence collective : les nuées d’oiseaux et les bancs de poissons.

chapitre 8 : l’IA est-elle un danger pour l’humanité ?
  • Inquiétudes autour de l’IA : dans la culture populaire avec 2001, l’Odyssée de l’espace, Terminator et Matrix.
  • Dans l’univers de la science-fiction avec Isaac Asimov et ses lois de la robotique.
  • Applications militaires et gouvernementales de l’IA : armes, drones, reconnaissance faciale. Dérives avec les deepfakes.

Le chapitre s’intéresse en outre aux biais des algorithmes, dont le logiciel de recrutement proposé en 2015 par Amazon qui éliminait systématiquement les CV des femmes.

Les effets secondaires : la question des algorithmes de recommandation, p.188

Typiquement, ces algorithmes de recommandation nous conduisent à cloisonner nos centres d’intérêt. Il s’agit d’une conséquence du biais de familiarité : plus une chose nous est familière, plus nous l’apprécions. Mais alors, plus nous apprécions un contenu, plus l’IA de YouTube nous recommandera ce contenu, et plus ce contenu nous deviendra familier. Et plus nous l’apprécierons. Petit à petit, les différentes communautés d’intérêt se referment ainsi sur elles-mêmes, tandis que s’appauvrit l’esprit critique de ses membres. On assiste à une polarisation croissante des opinions, et au développement d’une culture de l’entre-soi.

Mon avis sur l’ouvrage :

Le plus : un rappel historique et scientifique de ce qu’est l’intelligence artificielle et une bonne mise en bouche qui permet une compréhension du sujet, même pour des non-scientifiques.

Cette approche est la plus théorique et scientifique de l’intelligence artificielle, et me permet de survoler certains des concepts abordés dans les autres ouvrages.

Dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon (juillet 2023) pp. 42-57

Ce dossier s’intéresse aux implications les plus récentes de l’intelligence artificielle, avec GPT-4, le successeur de ChatGPT.

Il prend comme point de départ la fascination évoquée plus haut et suscitée par ChatGPT, et les craintes qui vont de pair.

Aux origines : un article publié par une équipe de Google : « Attention is all you need » en 2017 qui proposait une nouvelle architecture, Transformer, basée sur un mécanisme d’attention, en d’autres termes « un système statistique qui tente de prédire le mot suivant d’une phrase, en s’appuyant sur le texte environnant ».

GPT-4 intègre 1000 milliards de paramètres, et parvient à réussir différents examens et concours mieux que la plupart des étudiants.

GPT-4 semble capable de développer des capacités sociales telles que raisonnement, sens commun, compréhension, créativité ou abstraction.

L’enjeu est de comprendre le fonctionnement de ces machines pour mieux appréhender les failles qu’elles présentent : biais sexistes et racistes, fautes de langage, réponses intuitives et précipitées, invention de faits et de concepts.

Pistes d’évolution de ces intelligences : leur fournir de nouvelles perceptions comme la vue, la mémoire à long terme…

En fin de dossier : les réactions de chercheurs de différents domaines (géopolitique, sociologie, droit, physique, SIC, sciences cognitives…).

Les encarts « Des étincelles d’intelligence » 

Ces encarts reviennent sur certaines prouesses de GPT-4 :

  • la capacité à réussir des tests cognitifs
  • le test de l’équilibre
  • la recherche d’informations (chercher une info dans un moteur de recherche, utiliser les commandes Linux d’un ordinateur pour le pirater…)

Le dossier propose en prolongements les trois vidéos sur la question publiées par l’INRIA : Comment fonctionne ChatGPT, Le Prompting, Les limites de ChatGPT.

Ressources supplémentaires

  • Le site Moral Machine qui compile différentes perspectives humaines sur les décisions morales prises par les machines intelligentes
  • La vidéo d’Hugo Décrypte publiée en février 2023 :

Page 1 sur 4

Fièrement propulsé par WordPress & Thème par Anders Norén