cinephiledoc

Blog pour cinéphiles et profs docs

Catégorie : Aux infos, etc. ! (Page 1 sur 10)

Notes de lecture sur l’intelligence artificielle (épisode 5)

Ayant été pas mal accaparée à nouveau par ce sujet qui n’en finit pas de m’intéresser, je vous propose un cinquième épisode (et certainement un sixième très prochainement) de mes notes de lecture sur l’intelligence artificielle.

J’y ferai la recension d’au moins trois ouvrages (publications datant de 2023) et quelques extraits d’un quatrième, de différents articles de presse (2023 et 2024) ainsi qu’un retour d’expérience sur un outil d’intelligence artificielle testé dans le cadre de l’élaboration d’un scénario pédagogique.

Pour ces deux articles successifs, j’aborde deux angles d’approche, ce qui va me permettre de répartir les sources :

  • Le premier de ces angles est la relation entre intelligence artificielle et questionnements climatiques ;
  • Le second s’intéressera plus précisément aux outils d’intelligence artificielle générative, en particulier Chat GPT, tout en mettant l’accent sur des aspects sociaux, politiques et historiques.

Pour ces deux articles, je garderai la même structure que les notes de lecture précédentes.

Dans cet épisode :

  1. les ouvrages Le Département des théories fumeuses, de Tom Gauld et Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo
  2. revue de presse d’articles disponibles en ligne sur la thématique intelligence artificielle et climat
  3. sélection de ressources autour de l’outil Climate Q&A

Le Département des théories fumeuses, de Tom Gauld

Pour commencer cet article avec humour et sous l’angle à la fois du dessin et de la vulgarisation scientifique, je voulais évoquer rapidement cette lecture très récréative, que je dois à l’une de mes amies professeures documentalistes.

J’avais déjà dans ma bibliothèque les ouvrages brillants de Tom Gauld, qui sont fabuleux de drôlerie et de culture : En cuisine avec Kafka et La Revanche des bibliothécaires.

Si je retiens aussi Tom Gauld dans mes notes de lecture sur l’intelligence artificielle, c’est parce que dans ce nouvel ouvrage, Le Département des théories fumeuses, quelques planches permettent d’en illustrer certains aspects.

Je me permets d’en glisser ici deux petits exemples :

Je vous invite fortement à découvrir tous ces ouvrages qui sont magnifiques et également à suivre son compte Instagram.

Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo

Cet ouvrage de vulgarisation est l’un des plus récents paru sur le sujet, et c’est également l’un des derniers ouvrages que j’ai reçus au CDI sur la question.

Ce document compte moins d’une centaine de pages, et propose un aperçu accessible et synthétique.

Dans une première partie « L’homme et la machine« , les auteures dressent un panorama historique de l’intelligence artificielle :

  • les premiers ordinateurs avec la figure d’Ada Lovelace
  • Alan Turing, la machine de Turing, le jeu de l’imitation et le test de Turing
  • la conférence de Dartmouth et le Perceptron de Frank Rosenblatt, dont le fonctionnement tente d’imiter celui de la pensée humaine, ce qui servira de modèle aux systèmes experts
  • le logiciel Eliza, premier à tenir une conversation avec un humain
  • les différentes évolutions : apprentissage automatique (machine learning), apprentissage supervisé, apprentissage par renforcement et apprentissage profond (deep learning)

Le fonctionnement de l’apprentissage automatique est expliqué de manière illustrée

La partie qui m’a le plus intéressée dans ce chapitre est celle de l’entrainement par les jeux, où les auteures proposent une chronologie qui relie les jeux et les évolutions de l’intelligence artificielle, avec différents programmes d’échecs, de dames et de morpion élaborés depuis 1948, jusqu’à Pluribus développé par des ingénieurs de Carnegie-Mellon et capable de bluffer au poker, en passant par Deep Blue et AlphaGo.

Cette partie revient également sur l’utilisation de GTA V pour entraîner des logiciels de voitures autonomes.

Enfin une double-page dresse un aperçu des acteurs de l’intelligence artificielle : entreprises (IBM, DeepMind, Amazon, Facebook), États et instituts de recherche.

Dans la deuxième partie, « Une technologie en plein essor« , l’ouvrage revient sur les fonctionnalités les plus récentes de l’intelligence artificielle :

  1. reconnaissance d’images (surveillance, reconnaissance faciale, santé et industrie)
  2. traitement du langage (chatbots, traduction automatique, reconnaissance vocale et modération)
  3. analyse de données (systèmes de recommandations, voitures autonomes, logiciels de prédiction) jusqu’aux villes intelligentes
  4. robotique

Enfin la troisième partie, « Vers une société « intelligente » ? » ouvre le débat en revenant sur différents aspects de l’intelligence artificielle à remettre en perspective…

D’un côté les points de vigilance :

  • les biais algorithmiques des intelligences artificielles (avec l’exemple de Tay lancé en 2016 par Microsoft)
  • la question de la surveillance et de l’utilisation des données personnelles (et le score social chinois)
  • la manipulation et la désinformation avec un accent mis sur les deepfake
  • les questionnements éthiques (encart Lois de la robotique)

De l’autre les bénéfices :

  • lutte contre la pauvreté
  • santé
  • anticipation du changement climatique

Ce dernier point est abordé très rapidement et revient sur le dilemme consommation d’énergie par les outils d’intelligence artificielle VS établissement de modèles pour prévoir les événements climatiques.

Mon avis sur l’ouvrage

C’est un petit ouvrage très accessible, illustré agréablement et qui revient d’une manière synthétique et rapide sur les différents enjeux de l’intelligence artificielle. Il permet un premier aperçu ou de réactiver (pour ma part) assez succinctement des connaissances sur la question.


Climat et IA : revue de presse

Comme je l’ai indiqué dans mon précédent article #profdoc, j’ai proposé dans le cadre de la semaine de la presse une séance « Presse et Climat » à un groupe de terminale HGGSP, à la demande de mon collègue en charge de l’enseignement.

Pour l’occasion, j’ai élaboré pour les élèves différents ateliers, et un peu tardivement, j’ai eu l’idée de leur proposer également une activité « intelligence artificielle et climat ».

J’ai donc été amenée à consulter un certain nombre de ressources sur la question et c’est aussi pour cette raison que les dernières pages de l’ouvrage présenté plus haut ont retenu mon attention.

Pour cette revue de presse, je propose donc une sélection d’articles issus non pas des abonnements papiers du CDI comme à l’accoutumée, mais issus de ma veille sur la question.

« Une IA a illustré le rapport du GIEC et le résultat est sombre ». L’ADN, 6 avril 2023, https://www.ladn.eu/tech-a-suivre/changements-climatiques-illustration-rapport-intelligence-artificielle-midjourney/

L’article publié en avril 2023 met l’accent sur la façon dont l’intelligence artificielle peut sensibiliser au changement climatique, en prenant comme point de départ une présentation du réchauffement climatique proposé en 2018 par le climatologue Ed Hawkins.

Il explique comment le professeur Aurélien Saussay a utilisé l’outil Midjourney pour réaliser des visuels sur les titres du dernier rapport du GIEC.

Sont ainsi illustrés les phénomènes météorologiques extrêmes, les flux financiers et les adaptations au changement climatique, les risques, la menace pour le bien-être humain.

L’IA pour lutter contre le changement climatique et favoriser la durabilité environnementale | Inria. 6 juillet 2023, https://www.inria.fr/fr/ia-changement-climatique-environnement.

Dans cet article mis à jour en 2024, l’INRIA revient sur la mise en place d’une équipe en son sein par la chercheuse Claire Monteleoni pour prédire l’évolution du climat et anticiper les phénomènes extrêmes.

Cette équipe doit relever le défi des données à traiter pour répondre aux questions climatiques, des données qui restent complexes à manipuler (données massives à exploiter dans certaines zones, données manquantes pour d’autres régions).

L’intelligence artificielle peut aider à combler les données manquantes mais aussi à prendre des décisions, et l’apprentissage automatique peut aider à répondre à ces problématiques.

Le projet ARCHES entend ainsi optimiser l’intelligence artificielle pour lutter contre le changement climatique à travers trois axes de recherche :

  1. L’IA pour la science du climat : pour améliorer la compréhension scientifique de l’évolution du système climatique.
  2. L’IA pour l’adaptation au changement climatique : pour concevoir l’impact social et accompagner les communautés et les décideurs avec des outils d’aide à la prise de décision.
  3. L’IA pour l’atténuation du changement climatique : pour accélérer notre transition écologique, avec un accent particulier sur les énergies renouvelables.
Mettre l’intelligence artificielle au service de l’action climatique dans les pays en développement, voici le défi lancé à la COP 28, Communiqué ONU Changement climatique, 9 décembre 2023

Ce communiqué publié sur le site de la Convention-cadre des Nations unies sur les changements climatiques (COP 28) revient sur les différentes déclarations des participants qui mettent en relation climat et intelligence artificielle.

À retenir, ce paragraphe en particulier :

L’événement de la COP 28 a réuni des dirigeants de gouvernements, des Nations unies, d’agences de coopération au développement et d’entreprises pour discuter de la manière dont l’IA peut être utilisée pour une action climatique transformationnelle dans les nations en développement, tout en veillant à ce qu’elle ne contribue pas à élargir la fracture numérique causée par l’inégalité de l’accès à la technologie.

« Intelligence artificielle bonne ou mauvaise idée pour la planète ? » France Inter, 12 avril 2023, https://www.radiofrance.fr/franceinter/podcasts/la-terre-au-carre/la-terre-au-carre-du-mercredi-12-avril-2023-7653937.

Enfin dans cette dernière ressource (une émission de France Inter que j’avoue ne pas avoir eu le temps d’écouter jusqu’au bout), l’article associé à cette émission revient sur les différents points de débat autour de l’intelligence artificielle et des questionnements climatiques, déjà relevés dans l’article de l’INRIA :

  •  le traitement des données complexes par l’IA et les modélisations climatiques
  • une prédiction plus rapide et efficace des évolutions climatiques
  • mais des technologies elles-mêmes énergivores, avec un poids carbone de plus en plus important

Néanmoins la principale ressource qui revenait dans mes recherches pour faire le lien entre intelligence artificielle et questionnements climatiques était justement un outil d’intelligence artificielle proposé afin d’étudier les différents rapports du GIEC, et c’est sur ce dernier outil, ainsi que sur les ressources qui m’y ont conduites, que je souhaiterais maintenant revenir.

Utilisation de l’outil Climate Q&A qui décrypte les rapports du GIEC.

Exemple d’utilisation avec deux questions :

Quelles preuves avons-nous que le climat change ?

Nous disposons de plusieurs éléments de preuve indiquant que le climat est en train de changer de manière significative au cours du dernier siècle. Voici les principaux points à retenir :

Les études d’attribution montrent que les changements de température sont attribués à divers facteurs, tels que l’influence humaine totale, les gaz à effet de serre, les aérosols, l’ozone, les changements d’utilisation des terres, les éruptions volcaniques, et la variabilité climatique interne.

Les changements observés dans le climat sont associés à des activités humaines et sont catégorisés par différents niveaux de confiance scientifique, allant de moyen à virtuellement certain.

Des preuves issues de changements attribués dans les extrêmes climatiques et météorologiques soutiennent l’idée que même un réchauffement de 0,5°C supplémentaire par rapport à aujourd’hui entraînerait des changements détectables dans ces extrêmes.

Les rapports du GIEC soulignent que le système climatique change rapidement en raison de l’influence humaine, avec des changements documentés dans l’atmosphère, les terres, la cryosphère, la biosphère et les océans, ce qui représente un engagement à l’échelle millénaire pour les éléments du système climatique qui répondent lentement.

L’attribution des changements climatiques à l’influence humaine est devenue de plus en plus forte au fil des rapports du GIEC, avec des preuves solides montrant une influence humaine claire sur le système climatique.

Ces éléments de preuve combinés indiquent de manière indiscutable que l’influence humaine a contribué au réchauffement de l’atmosphère, des océans et des terres, confirmant ainsi le changement climatique en cours.

Quels sont les enjeux de l’utilisation de l’intelligence artificielle face aux changements climatiques ?

L’utilisation de l’intelligence artificielle (IA) pour aborder le changement climatique présente plusieurs défis, comme indiqué dans les documents fournis :

Les technologies numériques, y compris l’IA, peuvent contribuer à atténuer le changement climatique et à atteindre plusieurs objectifs de développement durable. Cependant, certains gains en matière de lutte contre le changement climatique peuvent être réduits par une augmentation de la demande de biens et services due à l’utilisation d’appareils numériques.

L’application de l’IA dans le domaine de la modélisation et de la prévision climatique est encore relativement nouvelle, avec des avancées principalement dans les domaines de la prévision météorologique, des rendements agricoles, des systèmes d’alerte précoce et de la gestion de l’eau.

Les défis liés à l’utilisation de l’IA pour lutter contre le changement climatique comprennent des coûts de formation et de logiciels, la demande des clients et du marché, ainsi que des problèmes juridiques et de gouvernance.

Les modèles d’analyse intégrée et leurs résultats pour fournir des stratégies de réponse au changement climatique ont été critiqués pour leur manque de crédibilité dans certaines hypothèses cruciales, notamment en ce qui concerne la disponibilité des technologies de capture du dioxyde de carbone.

En résumé, les principaux défis de l’utilisation de l’IA pour aborder le changement climatique incluent les coûts, la demande du marché, les problèmes juridiques, la crédibilité des modèles et la disponibilité des technologies nécessaires. Ces défis nécessitent une approche soigneusement planifiée et une gouvernance appropriée pour maximiser les avantages de l’IA dans la lutte contre le changement climatique.

Concernant la question posée sur l’intelligence artificielle, j’ajoute ici différentes captures d’écran qui donnent un aperçu du fonctionnement de l’outil, ce dernier mettant à chaque fois en relation ses réponses avec les rapports du GIEC, et proposant des illustrations :

Pour compléter cet outil voici une sélection d’articles qui en faisaient la présentation :

Notes de lecture sur les données (épisode 2)

Pour ce nouvel épisode de mes notes de lecture, que je vais tâcher de publier fort opportunément au moment du Safer Internet Day 2024, je fais la recension de deux ouvrages qui font figurer le Big Data dans leurs titres.

Néanmoins, si le sujet les rapproche, beaucoup de choses les éloignent dans la façon dont ils abordent la question, et c’est aussi ce qui m’a intéressée. C’est également leur approche du Big Data qui m’a rendu la tâche complexe pour en faire la synthèse.

Encore une fois, j’ai voulu me plonger dans des lectures présentes dans le fonds documentaire du CDI de mon établissement, et je n’ai pas forcément choisi les ouvrages que j’aurais moi-même commandé sur la question ou qui aurait forcément attiré mon attention de prime abord.

Dans cet épisode :

  1. un aperçu de ces deux ouvrages : Dans l’ombre de la peur : Le Big Data et nous et Petit dico critique du Big Data
  2. un panorama de la presse récente sur la question

Dans l’ombre de la peur : Le Big Data et nous, Michaël Keller et Josh Neufeld

Au moment où je commence l’écriture de cet article, ma lecture de cet ouvrage commence à dater, et j’ai un souvenir plus récent du second.

Par ailleurs, son format m’a donné l’idée de consacrer prochainement un cinquième épisode de notes de lecture à l’intelligence artificielle, un sujet qui ne cesse de me captiver cette année et qui retarde d’autant plus mes autres lectures professionnelles en projet, sur le numérique, les écrans ou encore sur le jeu.

Le format de cet ouvrage en rend la recension compliquée, puisqu’il s’agit d’une bande-dessinée publiée en 2017 aux éditions Ça et Là pour sa version française. En effet, il s’agit à l’origine d’une publication américaine datant de 2014.

Le traitement de la question du Big Data remonte ainsi à une dizaine d’années, mais en pose les jalons et revient sur certains éléments qu’il est intéressant de remettre en perspective aujourd’hui.

Le point de départ de cette bande-dessinée, qui aborde la question sous un angle états-unien, c’est une rencontre en 2004 entre les dirigeants de Google, l’ancien président Al Gore et une sénatrice américaine, Liz Figueroa pour parler de Gmail, et de la façon dont la messagerie proposait de la publicité ciblée en analysant les mots-clés présents dans les messages.

Cette sénatrice avait alors déposé un projet de loi exigeant que Google obtienne le consentement des utilisateurs avant d’appliquer toute analyse systémique des données, un projet qui finalement n’a pas été approuvé par le sénat de l’État de Californie.

Ce point de départ donne lieu à une analyse de la façon dont les données personnelles sont collectées dans les différentes applications numériques de la vie courante.

Il donne aussi un aperçu de l’accélération des technologies et de la façon dont les questions que l’on se pose ou que l’on a pu se poser sur cette collecte des données personnelles sont presque instantanément rendues obsolètes par le développement même de ces technologies.

Par exemple, au moment où ils posent la question de l’analyse des données cellulaires pour générer un bulletin du trafic routier, Google Maps opère déjà cette analyse, et leur offre comme perspective l’analyse quotidienne de la boîte noire d’un véhicule, les voitures autonomes, la question du traitement des données dans le domaine des assurances… enjeux que l’on retrouve au coeur des questionnements sur le Big Data en 2024.

Parmi les personnes interrogées sous le format BD par les deux auteurs, on retrouve danah boyd, autrice de C’est compliqué : la vie numérique des adolescents, publié en 2016, qui revient sur la façon dont les jeunes tentent de maîtriser les contenus postés sur les réseaux sociaux, ou encore Amanda Caswell, qui revient sur la façon dont les montres connectées récupèrent les données de santé de leurs utilisateurs.

L’épilogue de l’ouvrage « En voiture avec l’Uber économie » évoque le cas d’un chauffeur qui filme ses passagers, la façon dont usagers et employés d’un service se surveillent et se notent mutuellement, amenant un glissement vers les systèmes de crédit social chinois.

Je profite de ce glissement pour présenter ici le travail réalisé en EMC par deux élèves de seconde.

Timothée et Flavien se sont intéressés aux différentes formes de cyber-contrôle en Chine et ils ont utilisé le support ci-dessous (présenté ici avec leur autorisation à tous deux) pour illustrer leur exposé oral, qui était également de grande qualité.

Diapos issues de la présentation d’EMC de Flavien Amy et Timothée Cailleux (2nde13 – 2023/2024)

Exposé Timothée et Flavien cyber-sécurité

Mon avis sur l’ouvrage

L’ouvrage nous propose, avec un point de départ en 2004, une manière d’effectuer un arrêt sur image en 2014, que l’on peut remettre de notre côté en perspective en 2024, à l’heure où Google vient de fêter ses 25 ans, où Facebook souffle les bougies de son vingtième anniversaire et que Zuckerberg fait partie des dirigeants de réseaux sociaux interrogés par le Sénat américain, et que l’intelligence artificielle générative fait s’emballer différents domaines de publication en ligne.

Finalement, en feuilletant à nouveau cet ouvrage, j’y ai glané plus d’informations qu’à ma première lecture, que j’avais trouvé un peu plus récréative, puisque c’était la forme qui avait retenu mon attention et non le fond.


Petit dico critique du Big Data, sous la direction de Anaïs Theviot

Si le premier ouvrage me paraissait compliqué à résumer, ce n’est rien à côté du second, qui a été pour moi un véritable coup de cœur de lecture.

Il est rare pour moi de parler de « coup de cœur » pour une lecture scientifique et / ou professionnelle, mais c’est le cas pour cette dernière, au point que j’ai eu envie, ma lecture terminée, d’acheter le livre pour ma bibliothèque personnelle, après avoir accaparé pendant environ deux mois l’exemplaire du CDI…

Il faisait partie de ma commande de début d’année avec Data-Philosophie et un ouvrage sur Chat GPT dans lequel je me plongerai prochainement, et il s’agit d’une publication relativement récente, puisqu’il a été publié aux éditions Fyp en avril 2023.

Si j’ai eu du mal à décrocher de ce livre, c’est pour deux raisons.

La première, c’est parce qu’il propose un véritable travail de vulgarisation, sous la plume d’experts de la question : on y retrouve entre autres trois articles ou encarts écrits par Arnaud Mercier, l’article « Culture algorithmique » rédigé par Laurence Allard, l’article « Cyberharcèlement » rédigé par Sophie Jehel, ou encore le PageRank analysé par Guillaume Sire.

Bref, du beau monde, et les sources auxquelles ils renvoient invitent à prolonger le questionnement, comme l’article « Wikipédia » qui s’appuie sur l’ouvrage passionnant publié par Rémi Mathis en 2021.

La seconde, c’est la forme même de l’ouvrage, celle du dictionnaire, qui rend le propos à la fois transversal et très accessible au lecteur. Et c’est également cela qui le rend quasiment impossible à résumer, à moins de faire une liste des différents articles, ce qui ne serait pas très pertinent…

Si l’on se contente du sommaire, on peut voir que ce Petit Dico critique du Big Data aborde aussi bien les implications du Big Data dans des domaines aussi variés que l’administration, les assurances, la politique, le journalisme, l’environnement, la santé, les véhicules autonomes ou l’urbanisme.

Si je choisis d’utiliser cet article comme un classeur de marques-pages personnels, voici ce que je retiens :

  • l’article « Algorithme prédictif » de Baptiste Kotras qui revient sur la façon dont les algorithmes peuvent prédire nos comportements, et les biais et discriminations algorithmiques (avec un encart de rappel sur la notion de machine learning)
  • l’article « Big data électoral » d’Anaïs Theviot, qui m’a renvoyé à la lecture de précédente de Toxic Data, et qui propose ensuite un encart sur l’affaire Cambridge Analytica, de Camila Péres Lagos
  • l’article « Bulle de filtre » de Coralie Le Caroff et l’encart déjà mentionné sur le PageRank de Guillaume Sire
  • l’article « Cyberharcèlement » de Sophie Jehel qui en rappelle les différentes formes, ainsi que les mesures législatives pour lutter contre, et qui renvoie à la lecture de l’ouvrage de Bérengère Stassin publié en 2019
  • l’article « Data journalisme et soft journalism » de Erik Neveu qui revient sur les évolutions du métier de journalisme
  • les articles « Désinformation » de Lorella Sini, « Fact-checking » de Magali Prodhomme et « Fake news » d’Arnaud Mercier.

Ce dernier article revient sur la notion de fake news (auquel on préférera le terme « infox ») comme art de forger des informations pour tromper l’opinion publique par quatre voies : la numérisation, la plateformisation, la dissémination algorithmique et la ressemblance formelle avec les médias traditionnels pour en accroitre la crédibilité.

  • l’article « Données personnelles » d’Anne Bellon propose un rappel chronologique de la reconnaissance de la vie privée dans la loi (avec l’évolution des missions de la CNIL et l’adoption du RGPD)
  • l’article « Réseaux sociaux » de Frédéric Clavert qui fait lui aussi un rappel historique et revient sur la notion de bulle de filtre, avec un encart sur les GAFAM
  • l’article « Surveillance numérique » de Olivier Aïm avec un encart d’Arnaud Mercier sur Wikileaks
  • l’article « Web des émotions » de Camille Alloing et de Julien Pierre, et enfin l’article « Wikipédia » de Bernard Jacquemin

Mon avis sur l’ouvrage

Vous l’aurez compris, la lecture de cet ouvrage m’a complètement happée, et je le considère comme l’un des meilleurs que j’ai pu lire sur la question, et je pense qu’il s’agit d’une excellente porte d’entrée pour quelqu’un qui s’intéresserait à la question de l’utilisation des données numériques.

Je n’hésiterai pas à signaler ce livre aux élèves qui s’intéresseraient à ce domaine, que ce soit pour des recherches en EMC, en SNT ou dans le cadre de la préparation de leurs sujets de grand oral.

Vous l’aurez compris également, même si ce type d’ouvrage est irrémédiablement condamné par certains aspects à une certaine obsolescence, dans les applications qu’il donne en exemples, sa solidité théorique et son accessibilité font qu’il ne tardera pas à rejoindre ma bibliothèque personnelle.


Revue de presse

Concernant la revue de presse, j’ai retenu deux magazines abordant la question des données numériques selon deux approches différentes : le numéro d’Epsiloon de mai 2022 avec un article “Data, elles parlent” de Muriel Valin, et le numéro de Questions internationales de septembre 2021 consacré aux GAFAM. 

Questions internationales n°109, septembre-octobre 2021

Pour ce dernier, le dossier couvre près de 80 pages et propose 10 articles signés par différents experts. 

Parmi eux, l’article “Une géopolitique des GAFAM” de Laurent Carroué revient sur le berceau de ces big tech : la Silicon Valley, et sur la façon dont elles participent au hard power et soft power des États-Unis, finissant par concurrencer les puissances étatiques. 

Laurent Carroué revient sur le rôle des GAFAM dans la circulation de l’information mais aussi dans la diffusion des différentes formes de désinformation (deepfakes, thèses complotistes) à des fins politiques, posant régulièrement la question de leur régulation. 

Se pose également la question du stockage des données et de leur sécurisation, pour contrer la dépendance à ces géants du numérique. 

En deuxième lieu, j’ai retenu un encart de Maud Quessard dans ce même numéro : “L’administration américaine et les GAFAM : de la confiance à la défiance”, avec une photo qui a particulièrement retenu mon attention, puisqu’on y voit Mark Zuckerberg auditionné (déjà) en 2018 par le Congrès des États-Unis. 

L’encart montre l’ambivalence des États-Unis : lutter contre leur monopole tout en bénéficiant de leur rôle de moteur de croissance économique. Il revient également sur les ingérences étrangères et les manipulations de l’information dans le cadre des campagnes électorales en particulier sur Facebook et Twitter, ce qui a donné lieu à cette audition de Zuckerberg par le Congrès après le scandale Cambridge Analytica. 

Entre 2021 et 2022, les réseaux sociaux ont tenté de restaurer leur image, avant que Twitter ne soit racheté par Elon Musk et avant qu’en janvier 2024, Mark Zuckerberg soit de nouveau auditionné cette fois par le Sénat américain, avec d’autres dirigeants de réseaux sociaux, pour n’avoir pas suffisamment protégé les usagers les plus jeunes contre les risques d’exploitation sexuelle et de suicide. 

Enfin, le dernier article à retenir mon attention dans ce dossier est celui d’Anne Perrot, “Plateformes numériques, régulation et droit de la concurrence”, qui revient sur leur position dominante et sur les problématiques qu’elles posent en matière d’utilisation des données personnelles. 

Pour la France, Google détient en 2021 90% de part de marché dans le secteur des moteurs de recherche, et Facebook 70% dans celui des réseaux sociaux. Les données collectées sont monétisées via la publicité ciblée. 

L’article pointe la nécessité de réguler ces plateformes, avec l’élaboration fin 2020 de deux projets de réglements par la Commission européenne : le Digital Service Act pour les contenus et le Digital Markets Act pour essayer de limiter les situations de monopole. 

Valin, Muriel. Data : elles parlent. Epsiloon n°011, 05/2022, p.70-77

Cet article revient de manière très illustrée sur le macroscope, un outil scientifique proposé et présenté par David Chavalarias dans Toxic Data, qui faisait l’objet de mes précédentes notes de lecture sur les données numériques. 

L’article rappelle qu’en une seule minute sur Internet, 5.7 millions de requêtes sont lancées sur Google, 167 millions de vidéos sont regardées sur TikTok et 575000 tweets postés. 

David Chavalarias remet l’immensité des données collectées dans une perspective historique en rappelant que D’Alembert en 1751 rêvait déjà d’un arbre généalogique de la connaissance, rendu aujourd’hui possible avec les progrès de l’algorithmie. 

L’article propose différents exemples du macroscope : la représentation visuelle des publications scientifiques, des communautés climatosceptiques ou encore des échanges sur Twitter entre pro-vaccins et anti-vaccins durant la pandémie de Covid-19. 


Ressources complémentaires

  • Les infographies Data never sleepsavec ce qui se produit sur Internet en une minute

Notes de lecture sur les données (épisode 1)

Dans ce nouvel épisode de mes notes de lecture, j’ai voulu me pencher sur la question des données numériques, pour prolonger les précédentes notes de lecture consacrées plus spécifiquement à l’intelligence artificielle.

Pour préparer cet article, je me suis donc plongée pour l’instant dans deux ouvrages, et dans une sélection de ressources que j’avais consultées durant le traditionnel Cybermoi/s, et qui m’ont également servi à construire mes séances en SNT.

Petite précision concernant ces notes de lecture, il s’agit encore une fois de comptes-rendus subjectifs, et qui me permettent de garder une trace de mes lectures.

Je donne aussi mon ressenti global à la lecture des ouvrages et des articles qui me tombent sous la main, moins pour en faire une critique que pour témoigner de leur accessibilité et en indiquer les prolongements possibles.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et politique : Data-Philosophie et Toxic Data
  2. sélection de ressources

Data-Philosophie, de Sonia Bressler

J’ai acheté ce livre pour le CDI en septembre 2023, parce qu’il m’apparaissait important d’enrichir le fonds philosophie d’ouvrages traitant de problématiques récentes, et propices à intéresser les élèves suivants notamment les spécialités HLP et HGGSP mais également pour permettre à l’ensemble des élèves d’approfondir des notions abordées en cours de philosophie.

L’ambition de ce livre, comme son titre et son avant-propos le rappellent, est donc de lier la pensée philosophique à la question des données numériques, et il soulève des problématiques déjà abordées dans les ouvrages que j’avais pu consulter sur l’intelligence artificielle (voir épisode 4), notamment la question du transhumanisme.

Dans l’introduction, l’auteure rappelle les domaines que recouvre la data-philosophie, à savoir la connaissance, les enjeux éthiques de la collecte et de l’utilisation des données, et, dans une moindre mesure pour cet ouvrage (en tout cas moindre que par exemple l’ouvrage de Pascal Boniface), les implications géopolitiques.

Data-Philosophie est construit en trois parties : contextualisation de la data-philosophie, implications de cette dernière et perspectives critiques.

Première partie : contextualisation de la data-philosophie

Dans cette partie, l’auteure propose un historique de la pensée philosophique en lien avec les données numériques. Elle étudie les ramifications les plus anciennes de la philosophie avec les enjeux actuels de l’accès à la connaissance, de l’esprit critique, de l’intelligence artificielle, etc.

Voici quelques étapes de ces ramifications :

  • Platon et l’allégorie de la caverne
  • Aristote et la classification des connaissances, ainsi la nécessité d’utiliser les données de manière éthique et responsable
  • Descartes : doute méthodique (esprit critique), dualisme homme / machine
  • Leibniz : système de notation binaire, langage universel
  • Kant : impératif catégorique et éthique des données
  • Charles Sanders Peirce : distinction entre signe / objet et interprétant, ce qui permet d’avoir un recul sur la manière dont sont traitées, analysées et interprétées les données
  • les relations entre données et connaissance avec Bertrand Russell, Karl Popper et Thomas Kuhn

L’auteure revient ensuite sur l’émergence du domaine de la data-philosophie à proprement parler (ordinateurs  – internet – réseaux sociaux) et sur :

  • les problèmes éthiques qu’elle soulève : respect de la vie privée, sécurité des données, biais algorithmiques, transparence et responsabilité
  • les problèmes épistémologiques et ontologiques : rapport à la connaissance et à la vérité (fiabilité de l’information), biais, représentativité des données
  • l’interdisciplinarité de la data-philosophie avec les sciences de l’information, la sociologie, la psychologie et les sciences politiques

Elle évoque les apports de deux contributeurs à la data-philosophie : Luciano Floridi qui a introduit le concept d’infosphère et Tim Berners-Lee, fondateur du World Wide Web, concepteur du web sémantique et défenseur de la démocratisation et de la décentralisation du web.

Enfin, cette première partie revient sur les concepts clés de la data-philosophie, déjà rapidement évoqués :

  1. la relation entre les données, la connaissance et la réalité : biais potentiels des algorithmes, interprétation des données, utilisation des données personnelles à des fins politiques, infodémie et relation des individus à l’information
  2. la représentativité des données et la façon dont ces dernières peuvent influencer notre compréhension de la réalité
  3. les principes éthiques de l’utilisation des données (vie privée, confidentialité, transparence, responsabilité)
Deuxième partie : les implications de la data-philosophie

Dans cette deuxième partie, l’auteure revient sur les enjeux politiques, sociaux et humains que soulèvent les données numériques, et propose des pistes de réflexion afin d’appréhender leur utilisation de manière éthique et responsable.

Je ne vais pas revenir de manière approfondie sur ces différents enjeux, sauf ceux qui ont plus particulièrement retenu mon attention.

Dans un premier chapitre, Sonia Bressler aborde les implications éthiques : l’importance du consentement et de la transparence (avec les problématiques de respect de la vie privée), la nécessité d’un accès équitable aux données et de la lutte contre les discriminations.

Dans un second chapitre, elle aborde les implications épistémologiques : les limites de la connaissance basée sur les données et la question de la fiabilité de l’information.

Elle revient sur les enjeux de la sélection des données dans le fonctionnement des modèles prédictifs et explicatifs (machine learning, agents) et à nouveau sur les biais algorithmiques notamment dans le domaine de l’emploi (recrutement), de l’économie (accès au crédit, publicité) et de la reconnaissance faciale.

Le dernier chapitre porte sur les implications politiques et sociales :

  • démocratie et gouvernance : la façon dont les données numériques participent de la polarisation des débats politiques, des bulles de filtres et de la manipulation des opinions publiques (ce qui est développé par le deuxième ouvrage que j’évoquerai dans cet article, Toxic Data), l’atteinte à la vie privée, mais également la question de la désinformation avec les biais de confirmation et l’influence sur les comportements électoraux et sociaux
  • protection des droits fondamentaux avec un rappel de la protection des données (RGPD, droit à l’oubli…)
  • la transparence et la responsabilité des institutions, la question de l’ouverture des données / open data (voir le site data.gouv)
  • la participation citoyenne des individus aux questions relatives aux données et donc la nécessité de l’éducation (littératie des données, esprit critique)
  • la relation des données aux domaines de l’économie et du travail (automatisation, protection des travailleurs et innovations technologiques)
troisième partie : perspectives critiques

Dans cette dernière partie consacrées aux débats et controverses en lien avec les données numériques, Sonia Bressler revient dans un premier temps sur les questions de neutralité et d’objectivité des données.

Les données et algorithmes peuvent-ils être neutres ? La question permet de rappeler les différents biais qui peuvent intervenir dans le traitement des données, que ce soit en amont dans la collecte de ces données (échantillonnage non représentatif) ou en aval dans leur traitement (biais de confirmation). Elle aborde également les biais qui interviennent durant la conception des algorithmes ou dans leur fonctionnement (apprentissage automatique).

Humanisme et technologie revient sur les différents penseurs qui alertent sur la déshumanisation de la société (incitation à la surconsommation, dépendance numérique) et sur les enjeux éthiques des innovations technologiques, avec la nécessaire collaboration entre humains et machines.

Le dernier chapitre de l’ouvrage revient sur les enjeux actuels des données numériques et de l’intelligence artificielle, avec à nouveau la nécessité de transparence, les implications éthiques et sociales, la relation entre intelligence artificielle et développement durable, la mise à jour des cadres réglementaires et de la législation.

Mon avis sur l’ouvrage

J’ai trouvé cette mise en relation entre la philosophie (et plus particulièrement ses ramifications anciennes) et les données numériques particulièrement éclairante.

Cela m’a rappelé d’autres lectures, plus anciennes, que j’avais pu faire lorsqu’il s’agissait de préparer les épreuves du CAPES de documentation, et même encore plus loin, les cours de philosophie suivis en terminale et en prépa.

C’est tout l’intérêt de cette question, de voir également la transversalité des données numériques.

Par contre, l’ouvrage a tendance, en voulant insister sur les différents aspects et enjeux des data, parfois à se répéter et à étirer ces problématiques, et j’avoue que cette lecture a été pour moi un peu plus laborieuse que les autres.

Elle permet cependant de prendre de la hauteur par rapport à l’ouvrage que je vais désormais aborder, et que pourtant j’avais lu en premier.


Toxic Data, de David Chavalarias

J’avais ce livre depuis le mois de juin dans ma bibliothèque, et après mes quelques lectures sur l’intelligence artificielle, il m’a paru presque récréatif…

Il apporte un éclairage spécifiquement politique à la question des données numériques et complète à la fois l’ouvrage de Sonia Bressler sur la data-philosophie et l’ouvrage de Pascal Boniface sur la géopolitique de l’intelligence artificielle.

L’auteur ancre son contexte dans la crise provoquée par la prise d’assaut du Capitole par les militants trumpistes suite aux résultats des élections américaines en 2021. Son analyse porte ensuite sur la manière dont les réseaux sociaux transforment la circulation de l’information et influencent les comportements politiques.

Il s’appuie sur un projet lancé en 2016 avec une équipe du CNRS : le Politoscope, qui collecte les messages émis sur Twitter par les comptes appartenant à la sphère politique.

L’ouvrage se décline en 14 chapitres que je vais tâcher de résumer, et propose également des visuels et des outils pour mieux appréhender la question.

chapitre 1 : la france dans le collimateur de l’alt-right

David Chavalarias étudie dans ce chapitre l’utilisation des mèmes pour marquer l’opinion publique, et donc sur le ressort émotionnel de l’information.

Ce mode de communication est utilisé durant la campagne de 2017 par les militants extrémistes, qui vont utiliser la faille de notre système électoral : le fait de ne retenir au second tour des élections que les deux candidats arrivés en tête, ce qui polarise d’autant plus la campagne.

Il analyse également la provenance de ces messages et leur temporalité, l’utilisation des bots pour diffuser les messages, la rapidité de circulation de l’information, et souligne l’habitude que nous avons prise de recevoir cette information de manière instantanée sans forcément la remettre dans son contexte.

chapitre 2 : que se passe-t-il derrière l’écran ?

Ce chapitre revient principalement sur le fonctionnement du réseau social Twitter, la façon dont se forment les communautés (homophilie / influence sociale).

chapitre 3 : nos réseaux sociaux vus du ciel

L’auteur y étudie la participation des différentes communautés politiques à des campagnes de dénigrement de personnalités, et la représentation cartographiques des comptes politiques sur Twitter.

Cela lui permet d’approfondir les phénomènes de diffusion des fausses informations, de bulles de filtres et de repli sur soi.

chapitre 4 : quand les algos partent en vrille

Ce chapitre est l’un des plus captivants : il s’intéresse à une expérience menée par un utilisateur de Facebook qui avait décidé de liker tout ce qui apparaitrait sur sa page Facebook, pour observer la façon dont le fil d’actualités se modifiait en conséquence (filtrage collaboratif).

chapitre 5 : libres de se laisser enfermer

L’auteur étudie trois phénomènes intervenant sur les réseaux sociaux :

  • renforcement
  • contagion algorithmique
  • bulle de filtre

ainsi que le biais de confirmation, mais également le biais de négativité, qui consiste à privilégier ce qui va accentuer nos peurs dans la réception des messages (les informations négatives) plutôt que les informations positives, et là encore le ressort émotionnel des réseaux sociaux.

chapitre 6 : toxicité à tous les étages

Citation de Marshall McLuhan :

Nous façonnons nos outils, et par la suite, nos outils nous façonnent.

À la différence d’un repas familial où nous allons adapter (généralement) nos sujets de conversation à l’auditoire pour éviter de fâcher untel ou untel, nous recevons sur les réseaux sociaux (l’auteur étudie ici le fonctionnement de l’algorithme de Facebook) toutes les informations postées par notre entourage, mettant en lumière des divergences qui autrement auraient pu rester invisibles.

chapitre 7 : quand c’est gratuit, c’est vous le produit

Dans ce chapitre, l’auteur revient sur la collecte systématique et à grande échelle des données, sur le ciblage publicitaire et sur le détournement de ce ciblage à des fins politiques.

Il se penche aussi sur la manipulation des résultats de recherche et sur les suggestions proposées, notamment par l’algorithme de Google. L’auteur propose à titre d’exemples les suggestions de recherche obtenues en tapant le nom des cinq candidats les mieux placés aux élections présidentielles de 2022.

chapitre 8 : diviser pour mieux régner depuis l’étranger

Ce chapitre étudie les phénomènes de désinformation intervenant dans les campagnes électorales (États-Unis, France) depuis l’étranger (Russie) pour influencer les résultats – ou comment l’information (et la désinformation en l’occurence) est utilisée comme moyen de déstabilisation et de division intérieure.

Ces stratégies sont proposées dans l’ouvrage de Sun Tzu, L’Art de la guerre : division entre inférieurs et supérieurs, désinformation (aussi appelée division de mort), corruption.

Elles sont approfondies dans le chapitre suivant, Subversion 2.0, qui revient également sur l’émergence du réseau social Tik Tok.

chapitre 9 : subversion 2.0
  • le réseau social Tik Tok et ses critères de modération contestables
  • retour sur le chatbot Tay lancé par Microsoft capté par des trolls
  • premières analyses du fonctionnement des agents GPT-2 et GPT-3
chapitre 10 : check-up d’une démocratie malade

L’auteur revient ici sur les évolutions du monde politique induites par les réseaux sociaux : fragmentation du monde politique, dérapage vers les extrêmes.

Ces problématiques sont approfondies dans le chapitre suivant, « La démocratie, première victime du Covid-19 », qui se penche sur les chambres d’écho antivax.

Le chapitre 12 s’intéresse quant à lui à la montée du populisme, en étudiant les principales sources de désinformation sur Twitter et les rapports ambigus entre médias traditionnels et médias numériques (rôle de C News dans la campagne d’Éric Zemmour), avec un prolongement dans le chapitre 13, introduit par une référence à la pièce Rhinocéros de Ionesco.

L’auteur finit par étudier dans le dernier chapitre deux concepts à l’oeuvre dans la société actuelle et mettant en péril le processus démocratique : la rigidité d’une société (influence sociale) et la dépendance au chemin (phénomène de renforcement).

En conclusion, il propose deux types de recommandations, au niveau individuel et collectif pour renverser la vapeur, parmi lesquelles :

  1. puisez à la source, aiguisez votre sens critique, identifiez vos « vrais amis », dissociez vos différents réseaux, ayez l’oeil sur vos émotions, prenez vos distances, fuyez les notifications…
  2. donnons la priorité à l’éducation

En annexe de son propos il donne une liste de sophismes à éviter pour de meilleurs débats en ligne, ainsi qu’un glossaire.

Mon avis sur l’ouvrage

Cet ouvrage est absolument captivant, et je me suis retenue de ne pas en faire une recension encore plus poussée.

Les recommandations en fin d’ouvrages peuvent, selon moi être réutilisées en classe pour travailler avec les élèves sur l’esprit critique. De même le glossaire reprend les termes incontournables de l’ouvrage.

Toxic Data m’a permis de tirer des fils et de revenir sur des ressources que j’avais déjà repérée : la vidéo de Fouloscopie sur les réseaux sociaux, le site Seriously qui permet de pacifier des discussions sur Internet, ou le site de Stéphanie de Vanssay, Dompter les trolls.


 Ressources

Notes de lecture sur l’intelligence artificielle (épisode 4)

Pour ce quatrième (et peut-être dernier) épisode de mes notes de lecture sur l’intelligence artificielle, j’ai choisi des ouvrages et des articles qui permettent de susciter le débat sur la question.

En effet, les lectures que j’ai retenues peuvent être mobilisées dans des disciplines principalement associées aux sciences humaines : enseignement moral et civique, philosophie, HLP…

Je précise qu’il s’agit là potentiellement du dernier épisode, car je pense pour l’instant avoir à titre personnel fait le tour de la question, même si je n’exclus pas de prendre à nouveau des notes sur des ouvrages ou des articles qui attireraient mon attention et proposeraient un éclairage d’actualité sur le sujet (je pense en particulier aux ouvrages publiés très récemment sur ChatGPT).

Mais d’ici là, je m’octroie une petite pause sur l’intelligence artificielle (sauf pour avancer dans mes conceptions de séances) et vais plancher sur d’autres lectures scientifiques.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et social : Les Robots font-ils l’amour ? et Des Robots et des hommes
  2. revue de presse avec les numéros 1700 du Courrier international et 432 du Un
  3. sélection de ressources

Les Robots font-ils l’amour : Le transhumanisme en 12 questions, de Laurent Alexandre et Jean-Michel Besnier

Cet ouvrage, publié en 2016, figurait déjà depuis un certain temps dans le rayon philosophie du CDI, et déjà à l’époque, le titre avait retenu mon attention, en me rappelant celui du roman de Philip K. Dick Les Androïdes rêvent-ils de moutons électriques ?, porté à l’écran sous le titre Blade Runner.

Contrairement à mes notes de lecture précédentes, je ne vais pas tenter de faire un résumé de chaque chapitre, le titre étant suffisamment parlant. Je vais me contenter de relever ce qui m’a intéressée dans cet ouvrage et de quelle manière il peut permettre de nourrir un débat sur la question.

L’ouvrage prend la forme d’une discussion (relativement animée) entre les deux auteurs, Laurent Alexandre, médecin et entrepreneur, et Jean-Michel Besnier, philosophe, et cette discussion s’articule autour des 12 questions du sous-titre :

  1. Faut-il améliorer l’espèce humaine ? (implants, détection de la trisomie 21)
  2. L’humanité doit-elle changer sa reproduction ? (fécondation in vitro, manipulations génétiques)
  3. La technologie peut-elle tout réparer ? (thérapie, implants, rôle et déontologie d’un médecin supplanté par les technologies)
  4. Demain, tous cyborgs ? (le chapitre revient sur les craintes soulevées à l’époque par Elon Musk autour de l’intelligence artificielle, et sur la question du libre arbitre au sein d’un corps livré à la technique)
  5. Peut-on faire l’amour avec un robot ? (évocation du film Her, cybersexualité)
  6. Est-il désirable de vivre 1000 ans ? : la lecture de ce chapitre m’a rappelé le roman Tous les hommes sont mortels de Simone de Beauvoir
  7. Le transhumanisme est-il un eugénisme ? (est-il légitime d’utiliser toutes les possibilités de transformation offertes par la science ? rappel du mythe de la singularité, c’est-à-dire le moment où l’esprit humain est dépassé par l’intelligence artificielle)
  8. L’intelligence artificielle va-t-elle tuer l’homme ? (retour sur la lettre ouverte sur l’intelligence artificielle signée en 2015 entre autres par Stephen Hawking, Bill Gates, Elon Musk…) *
  9. Quels sont les enjeux économiques ? (retour sur l’implication des géants du numériques, en particulier Google, le lien entre Big data et IA)
  10. Faut-il légiférer ? (de quelle manière encadrer législativement et de manière éthique les innovations technologiques ? quelles interventions de l’état – ou inter-étatiques – possibles ? nécessaire évolution de l’école)
  11. Doit-on craindre un « meilleur des mondes » ? (risques totalitaires du transhumanisme ou renouveau démocratique ? proposition d’un serment d’Hippocrate pour les scientifiques spécialistes des NBIC)
  12. Jusqu’où pousser la recherche ? (le transhumanisme comme nouvelle religion)

J’ai indiqué par un * les chapitres sur lesquels je me suis davantage attardée. Le chapitre 8 fait un rapide historique de l’intelligence artificielle, sur la définition de l’intelligence, sur la difficulté de l’école à s’adapter aux problématiques actuelles de l’IA, sur les risques de l’intelligence artificielle pour l’emploi, sur la distinction entre IA faible et IA forte et sur la loi de Moore.

Mon avis sur l’ouvrage

Le caractère souvent décomplexé de la conversation m’a parfois quelque peu désarçonnée, mais j’ai trouvé la structure très fluide et intéressante, et avec un recul sur ces différentes questions, je pense qu’elles peuvent être reprises presqu’à l’identique dans le cadre de débats menés en classe avec les élèves.


Des robots et des hommes : Mythes, fantasmes et réalités, de Laurence Devillers

Là encore, il s’agit d’une publication sur la question qui remonte à quelques années (2017).

L’ouvrage s’ouvre par une fiction « LILY, ma robote assistante de santé » où l’auteur imagine un futur désormais proche, en 2025, avec des robots compagnons de vie ayant trois niveaux d’adaptation : le niveau 1 sans adaptation, le niveau 2 où le robot peut apprendre certaines tâches, et le niveau 3 où il s’adapte aux habitudes de l’humain.

L’auteure propose des allers-retours entre cette fiction et les avancées de la robotique et de l’intelligence artificielle au moment où cet ouvrage est publié ainsi que les questionnements qu’elles soulevaient : les agents conversationnels, les capacités propres à l’homme et celles propres aux robots, le traitement des données personnelles.

Dans son avant-propos, Laurence Devillers évoque déjà les expériences menées avec les robots japonais Pepper et Paro (et l’utilisation de ce dernier dans l’accompagnement des personnes âgées), des robots Keepon et Nao pour les enfants souffrant de troubles du spectre autistique.

Principalement, elle pose la question de l’intégration des robots sociaux dans notre vie quotidienne, avec les problématiques de la morale, de l’éthique, de l’empathie, du respect de la vie privée. Elle indique 4 leviers à prendre en compte :

  • éduquer à l’éthique des robots
  • expliciter des règles de bonne conduite à coder sur le robot
  • mettre en oeuvre des outils pour vérifier le respect de ces règles
  • adopter une règlementation juridique en cas de non respect

en s’appuyant sur les lois de la robotique d’Asimov.

L’ouvrage se décline ensuite en deux parties.

Dans la première partie « Les robots : science-fiction, mythes et fantasmes », l’auteure revient aux origines littéraires et cinématographiques de la robotique :

  • Frankenstein ou le Prométhée moderne, de Mary Shelley
  • le mot ROBOT qui trouve son origine chez Karel Capek
  • et évidemment Asimov pour la littérature

Concernant les mythes et fantasmes cinématographiques, elle les fait remonter à Prométhée, Pygmalion, à Faust et au Golem, aux questionnements philosophiques de Descartes (qui dissocie corps et esprit) et aux différences culturelles de perception des robots entre l’Occident et le Japon.

S’ensuivent les références cinématographiques de Metropolis, 2001, Star Wars, A.I., WALL-E., Her, et les séries Real Humans et Westworld, qui posent d’un point de vue fictionnel les problématiques soulevées dans l’avant-propos.

Dans le troisième chapitre de cette première partie « L’intelligence des machines : halte aux fantasmes ! », l’auteure revient sur la définition de l’intelligence et fait un rappel historique de ce que recouvre l’intelligence artificielle (Turing, modes d’apprentissage, hivers de l’IA, recherches menées par les GAFAM et transhumanisme, mythe de la singularité et lettre ouverte de 2015 alertant sur les dangers de l’IA).

Quelques points de réflexion :

  • Tay, l’intelligence artificielle de Microsoft entraîné par les utilisateurs à tenir des propos racistes et antiféministes
  • les failles de la technologie de reconnaissance faciale de Google Photos
  • citation mentionnée de Gérard Berry, informaticien et professeur au Collège de France

L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con.

L’auteure rappelle l’urgence d’aller au-delà du test de Turing pour prendre en compte les nouvelles capacités de l’I.A.

Dans la deuxième partie « Les robots : aujourd’hui et demain », l’auteure s’intéresse à ce qui lie robotique, intelligence artificielle et problématiques sociales et morales.

Dans le chapitre « Qu’est-ce qu’un robot social ? », elle évoque les fonctionnalités les plus récentes des robots, avec les dimensions développées : autonomie, apprentissage et empathie.

Elle définit selon différents critère la robotique sociale : le robot perçoit ce qui l’entoure, peut apprendre et interagir avec nous, et ces différents enjeux dans les chapitres suivants :

  • un robot doit-il le plus possible ressembler à un humain ? va-t-on faire plus confiance à un robot humanoïde ?
  • un robot peut-il manifester de l’empathie ou en susciter ? qu’est-ce qui distingue l’homme du robot dans l’expression des émotions ? une machine peut-elle apprendre à détecter les émotions et adapter sa réponse en conséquence ?
  • comment intégrer aux innovations technologiques la morale et le respect de la vie privée et des données personnelles ?

Pour illustrer cette dernière question, l’auteure cite la nouvelle de John McCarthy, Le Robot et le bébé, où le robot doit déroger à une première règle de fonctionnement pour respecter la deuxième.

Elle soulève également la question de la responsabilité en matière d’intelligence artificielle : qui est responsable entre le concepteur du programme, l’ingénieur, l’opérateur et l’utilisateur ?

Règles et responsabilités interviennent dans les champs suivants :

  1. sécurité civile,
  2. opérations militaires,
  3. voitures autonomes (Moral Machine)

Concernant les relations que les humains peuvent avoir avec un robot social, l’auteure rappelle le rôle chez l’enfant du doudou comme objet transitionnel (note personnelle : ce que constitue déjà le smartphone pour un certain nombre de personnes – voir nomophobie) avec les risques que cela induit : addiction, confusion, repli sur soi.

Les deux derniers chapitres évoquent les peurs suscitées par les robots (piratage, surveillance, risques économiques) et la nécessité d’éviter les deux écueils que sont les craintes irrationnelles et le trop plein de confiance, ce qui amène naturellement à l’épilogue de l’ouvrage, une proposition de onze commandements pour les applications sociales de la robotique, où figurent en premier lieu les données privées et le droit à l’oubli.

Mon avis sur l’ouvrage

Parmi les ouvrages traitant de la question de l’intelligence artificielle par le biais des sciences humaines et en particulier de la philosophie, des émotions et de la morale, cet ouvrage est le plus intéressant que j’ai pu lire jusqu’ici.

La porte d’entrée de la fiction, avec les robots compagnons et les allers-retours avec les questionnements actuels sont assez vertigineux et captivants, surtout lorsqu’on lit aujourd’hui cet ouvrage publié en 2017.

Il complète de manière plus posée le premier ouvrage, et permet d’assoir les arguments qui pourraient survenir dans un débat sur l’intelligence artificielle en classe.


Revue de presse

Pour cette revue de presse, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens, sur les aspects sociaux, philosophiques et artistiques de l’intelligence artificielle. J’ai donc retenu deux documents :

Naomi Klein : « Les IA organisent le plus grand pillage de l’histoire de l’humanité ». Courrier international n°1700, 01/06/2023, p.44-45

Dans cette tribune publiée dans The Guardian, Naomi Klein revient sur les « hallucinations » autour des dernières innovations de l’intelligence artificielle et fait se confronter certaines utopies (utiliser l’IA pour prendre des décisions, pour transformer le monde du travail, pour améliorer l’accès à l’information) et leurs revers (consommations, crise climatique, dérives politiques et économiques.

L’IA va-t-elle nous remplacer ?. Le 1 n°432, 01/02/2023, p.1-6

Dans le numéro de cette revue hebdomadaire, j’ai retenu :

  • les Repères en page 5 « Rêves prométhéens » qui proposent une chronologie littéraire et cinématographique de l’IA.
  • dans le Zoom en page 6 « À quand un ChatGPT français ? », Isabelle Ryl évoque le supercalculateur Jean-Zay et le modèle de langage Bloom, un modèle de langage ouvert, responsable et explicable.
  • dans « L’art au temps de l’intelligence artificielle » Marion Carré revient sur les questionnements récents (et qui font écho à la grève des scénaristes et des acteurs à Hollywood) : l’IA peut-elle être artiste ? quels risques dans l’uniformisation des goûts ? quels sont les droits concernant une oeuvre générée par l’intelligence artificielle ?
  • enfin dans son enquête « Le défi de l’éducation », Manon Paulic revient sur la nécessite de repenser l’enseignement : évalue-t-on la capacité des élèves à emmagasiner et restituer des connaissances ou son raisonnement critique et sa créativité ?

Ce dernier débat me renvoie à l’opposition entre les sophistes et Socrate dans les dialogues platoniciens… et ouvre sur l’une de mes prochaines lectures, que j’évoque dans la partie Ressources.

Ressources

J’avais songé à l’origine faire le compte-rendu dans cette note d’un troisième ouvrage : Data-Philosophie de Sonia Bressler, en y abordant uniquement ce qui a trait à l’intelligence artificielle, mais l’ouvrage opte visiblement pour un questionnement plus large et qui m’intéresse, j’en ferai donc le compte-rendu dans un article ultérieur.

Notes de lecture sur l’intelligence artificielle (épisode 3)

Voici un troisième épisode de mes notes de lecture sur l’intelligence artificielle, où je commence à cerner l’objectif de ces notes :

avoir une vision d’ensemble sur la question et qui me permette de proposer ou de concevoir des séances pédagogiques sur l’IA, aussi bien dans des disciplines associées aux sciences pures (SNT, enseignement scientifique, mathématiques) que dans les sciences humaines (SES, éco-gestion, EMC, HGGSP, HLP…).

Ce troisième épisode abordera donc la question sous l’angle des sciences humaines avec un premier focus sur les aspects économiques et géopolitiques de l’intelligence artificielle.

Dans cet épisode :

  1. les ouvrages Intelligence artificielle, l’affaire de tous et Géopolitique de l’intelligence artificielle
  2. revue de presse avec les numéros de la revue Le Monde diplomatique n° 829 et du Courrier international n°1685, 1695 et 1704
  3. une sélection de ressources

Intelligence artificielle, l’affaire de tous : de la science au business, Thierry Bouron

Il s’agit donc pour moi d’un quatrième ouvrage sur l’intelligence artificielle, après une première lecture à coloration davantage scientifique, et deux lectures de vulgarisation qui tendaient à proposer une vision d’ensemble de la question.

Cet ouvrage a été publié en juillet 2020 aux éditions Pearson et apporte un éclairage davantage professionnel : économie, business, management et marketing. 

Cela se remarque dans les exemples donnés et dès l’introduction, qui revient sur la révolution induite par les intelligences artificielles à la fois dans les différents secteurs économiques mais aussi dans les formations professionnelles.

Ainsi l’auteur rappelle que la Chine a été la première à expérimenter des cours sur l’intelligence artificielle dans une quarantaine de lycées. 

La coloration économique de l’ouvrage est visible aussi dans sa construction, puisqu’en introduction l’auteur souligne les impacts économiques de l’IA, et comment mettre en place une stratégie d’entreprise en en tenant compte.

Deux chapitres rappelant l’essentiel par des exemples et une base historique et scientifique. 

Le chapitre 1 « L’observation d’IA » fait un top 10 des IA impressionnantes, et explique en quoi elles le sont : une IA capable de créer un morceau de musique ou un texte littéraire, les robots Kiva d’Amazon capables d’aller chercher les produits dans les étagères où ils sont stockés, les boutiques Go store, AlphaGo, l’assistant Google qui prend un rendez-vous à notre place. 

Le chapitre 2 « L’IA est plurielle » fait un rappel historique de l’IA qui était déjà abordé dans les ouvrages des précédentes notes de lecture : test de Turing, conférence de Dartmouth, hivers de l’IA. Il revient également sur les notions de machine learning, deep learning et sur les différents courants de pensées liés à l’IA.

  • Le business de l’intelligence artificielle : innovations, investissements économiques et politiques

Dans le chapitre 3 « Un business démesuré », l’auteur s’intéresse aux évolutions induites par l’IA dans l’entreprise, avec le phénomène d’innovations disruptives (ruptures qui peuvent provenir de la création d’un nouveau service, d’un élargissement de l’accessibilité, d’un nouveau modèle de business ou de nouveaux systèmes opératoires). 

Pour ces derniers est convoqué l’exemple du système de recommandation de produits par Amazon. 

L’auteur revient ensuite sur les perspectives de marché de l’IA (impact sur la croissance mondiale par une augmentation de la productivité, la proposition de nouveaux services et un gain de temps), sur les investissements en IA (notamment distribution de contenus sur les réseaux sociaux) et sur les politiques gouvernementales. Pour la France : rapport Villani publié en 2018, prévision d’investir 1,5 Milliards sur cinq ans, sélection de 4 pôles de recherche régionaux. 

Dans le domaine de l’industrie. Les GAFAM ont investi dans l’IA : Alphabet est le premier acteur dans l’acquisition de sociétés d’IA. 

Définition d’une IA COMPAGNY

  1. Stratégie d’acquisition de données
  2. Regroupement et centralisation des données dans des entrepôts
  3. Mise en place de procédures contrôlant le respect des données privées
  4. Automatisation des procédures
  5. Création de nouveaux métiers autour des data sciences

Description des différentes stratégies des GAFAM en IA. Google : agents conversationnels. Facebook : recherche et analyse semantique de textes, images et vidéos (détection de contenus / de faux comptes). Amazon : robots. Apple : Siri. 

Pour soutenir ces évolutions : développement des compétences et des formations universitaires dans ce domaine.

  • Risques de l’intelligence artificielle dans le secteur économique

Dans le chapitre 4, « Les risques effectifs », l’auteur revient sur plusieurs risques soulevés par l’IA. La question des systèmes autonomes permet de traiter le domaine de l’armement et de la défense militaire. 

La partie la plus éclairante concerne les risques propres aux machines apprenantes, notamment à travers la question des corrélations de données (voir l’étude mentionnée de Tyler Vigen : Spurious Correlations et celle sur les fausses corrélations dans un contexte politique : Hack your way to scientific glory) et celle de la généralisation induite par un jeu de données (un outil de recrutement qui élimine certains profils parce qu’ils sont au départ peu représentés). 

Les autres risques mentionnés sont les usages abusifs (exemple de Compas) et les risques liés aux données personnelles avec l’exemple de l’affaire Cambridge Analytica. 

Le dernier risque évoqué est l’impact de l’IA sur l’emploi.

  • Fonctionnement de l’intelligence artificielle

Les 3 chapitres suivants reviennent sur le fonctionnement de l’intelligence artificielle, déjà abordé dans d’autres ouvrages à coloration plus scientifique : « machines apprenantes », « réseaux de neurones artificiels » et « systèmes autonomes » avec des apartés mathématiques pour creuser la question. 

J’ai quelque peu survolé ces chapitres parce qu’ils sont un peu trop mathématiques pour moi, même si dans celui consacré aux systèmes autonomes, une sous-partie « Simulation multi-agents » a retenu mon attention. L’auteur y étudie le renforcement des comportements de consommateurs via l’IA, illustré par le schéma suivant :

Il propose également un jeu de rôles sur les comportements de consommateur, pour manipuler des agents intelligents et se mettre dans la peau d’une IA.

Ce jeu pourrait éventuellement être réutilisé en SNT ou en éco-gestion. Certaines indications sur le nombre de cartes et leur répartition ne sont pas très claires, aussi j’ai essayé de l’adapter de mon mieux dans un jeu que j’ai intégré à une séance de SNT, et que je compte tester prochainement. 

Enfin le dernier chapitre de l’ouvrage « Études de cas » revient sur différentes applications d’intelligence artificielle dont Internet et les agents conversationnels.

Concernant Internet, sont abordés la recommandation et le ciblage : de quelle manière Amazon influence les achats par le système de recommandation personnalisée (un quart des achats sur le site), la suggestion de vidéos sur YouTube et Netflix, la publicité ciblée via les cookies et l’historique de navigation.

Concernant les agents conversationnels, l’auteur fait un rappel du test de Turing, et étudie quelques applications : Siri, Alexa, les chatbots et les enceintes connectées.

En conclusion l’auteur rappelle l’importance de se tenir au courant de l’actualité dans le domaine de l’intelligence artificielle, pour le secteur économique mais cela peut être élargi. Il fait un récapitulatif par un exercice de questions / réponses des différents points abordés dans l’ouvrage.

Mon avis sur l’ouvrage :

Le plus : un véritable éclairage thématique de l’intelligence artificielle. J’ai certes laissé de côté les aspects les plus mathématiques, mais l’ensemble du propos est très éclairant, et peut interroger même sur des domaines comme différents secteurs économiques (immobilier, ressources humaines, entreprise) ou les formations professionnelles, ce qui peut permettre de lier aussi la thématique aux filières d’études des élèves et à leur choix d’orientation.

Par ailleurs, l’auteur a une posture véritablement pédagogique, avec des moments de questions / réponses qui peuvent être réutilisés en classe.


Géopolitique de l’intelligence artificielle, Pascal Boniface

Cet ouvrage a été publié aux éditions Eyrolles en janvier 2021, et il fait partie de la bibliographie très prolifique de Pascal Boniface, spécialiste de géopolitique.

On lui doit des ouvrages plusieurs fois réédités sur les relations internationales (Comprendre le monde) et qui relient la géopolitique à certaines thématiques (le sport, les jeux olympiques, le Covid…).

L’ouvrage consacré à l’intelligence artificielle se décline en sept chapitres, après une introduction où l’auteur rappelle son parcours littéraire malgré son intérêt pour la question, ce qui sera éclairant pour la suite de l’ouvrage.

Le premier chapitre « Intelligence artificielle, histoire et définition » revient de manière succincte sur des éléments déjà abordés dans les ouvrages abordés précédemment : le test de Turing, la conférence de Dartmouth, les hivers de l’IA, deep learning et machine learning, traitement des données.

Un encart revient sur le rôle de la DARPA (Defense Advanced Research Projects Agency) créée en 1958 qui finance aux États-Unis la recherche et le développement dans le domaine des technologies militaires, avec un département dédié à l’innovation et à l’information créé en 2005.

Dans le deuxième chapitre « Corne d’abondance ou machine à exclure ? », l’auteur revient sur la vision que la société a généralement des innovations techniques et des craintes qu’elles suscitent, largement relayées par Pascal Boniface (inégalités, chômage, accès à la santé et transhumanisme, relations des états avec les géants du numérique).

Le troisième chapitre « Les GAFAM vont-ils tuer l’État ? » accentue ces craintes, en faisant notamment un tableau comparatif entre les fortunes des dirigeants et le PIB de certains pays (Amazon / Bezos en 2020 = Qatar en 2019, Elon Musk = Maroc).

Il étudie de quelle manière ces dirigeants s’emparent de domaines jusqu’ici régaliens (la conquête spatiale pour Musk) et affaiblissent les institutions, et leurs arrangements avec la fiscalité, malgré les tentatives de régulation étatiques ou inter-étatiques.

Dans le quatrième chapitre, « Printemps des libertés ou hiver totalitaire ? », Pascal Boniface revient sur le risque d’une surveillance absolue induite par le Big data, en s’appuyant notamment sur l’affaire Cambridge Analytica.

Pour contrebalancer, il rappelle également le rôle des réseaux sociaux notamment dans les mobilisations populaires (printemps arabe, mouvement #MeToo), et relativise le lien entre réseaux sociaux et bulle de filtres, rappelant qu’un lecteur de Libération ira rarement lire Le Figaro.

Le point le plus intéressant du chapitre est l’encart consacré au contrôle social en Chine, et à la façon dont les citoyens chinois sont classés, de AAA (citoyen exemplaire) à D (citoyen malhonnête).

Le chapitre 5 revient d’ailleurs sur « Le duel Chine / États-Unis ». En effet, la Chine concentre ses dépenses non dans le domaine militaire, mais dans le domaine technologique, surtout depuis qu’elle a connu son « moment Spoutnik » avec la défaite de son champion contre AlphaGo.

Elle conjugue depuis croissance économique, montée en puissance technologique et patriotisme, ce qui lui donne un avantage considérable par rapport aux GAFAM, dont les dirigeants n’ont pas les mêmes relations aux institutions gouvernementales. Elle dépasse les États-Unis en publications scientifiques et en dépôt de brevets. Le chapitre revient sur les tentatives américaines pour juguler certaines entreprises chinoises (Huawei et plus récemment l’application TikTok).

Face aux deux géants, le chapitre 6 « Quo vadis, Europa ? » rappelle le retard européen en matière d’investissements. Le RGPD adopté en 2016 peut-être perçu à la fois comme un frein et comme un modèle attractif. Une stratégie européenne a été proposée en 2018 pour rattraper ce retard, en finançant la recherche et l’innovation.

Le dernier chapitre « La France dépassée ? » revient sur les initiatives françaises en matière d’informatique et d’intelligence artificielle :

  • 1966 : Plan calcul et création de l’IRIA (Institut de Recherche, d’informatique et d’automatisme) ancienne INRIA
  • 2018 : lancement des quatre instituts interdisciplinaires de l’IA  (3IA)
  • 2019 : plan de 1.5 milliard d’euros d’investissement dans l’IA jusqu’en 2022 ; supercalculateur installé sur le plateau de Saclay
  • projet d’un cloud souverain et appels d’offres sur la protection des données

En 2019, un tableau recense les pays et régions du monde ayant déposé le plus de brevets IA dans le monde. Rang 1 : USA, rang 2 : Chine. La France arrive au rang 14.

Mon avis sur l’ouvrage :

L’ouvrage de Pascal Boniface était celui que je souhaite le plus lire dans la sélection que je m’étais faite sur la question, et c’est également ce qui m’avait attiré dans son introduction : le fait qu’il s’agisse d’un littéraire se questionnant sur une problématique scientifique.

Cependant, j’ai eu l’impression durant ma lecture que, malgré les éléments de définition du premier chapitre, il traite de l’intelligence artificielle quasiment exclusivement avec la perspective des géants du numérique, même en considérant les aspects qui y sont corrélées (contrôle social, traitement des données).

En gros, j’aurais lu ce livre en premier, il m’aurait servi de porte d’entrée. L’avoir lu en dernier m’a laissé quelque peu sur ma faim. Au lieu d’un auteur spécialiste de géopolitique qui s’intéresse à l’intelligence artificielle, j’aurais eu besoin (à titre personnelle) d’un spécialiste de l’intelligence artificielle qui s’intéresse à la géopolitique.

Revue de presse

Pour cette revue de presse, contrairement aux épisodes précédents, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens.

Le Monde diplomatique n°829

Je l’ai retenu parce qu’il propose un éclairage sur l’intelligence artificielle en Chine : «La Chine entravée dans la bataille de l’intelligence artificielle » (p.12-13).

La Chine a porté ce secteur comme priorité nationale dès 2017 et dispose de différents atouts : précurseur dans le paiement via smartphone, le recours aux robots dans les services publics, l’association étroite entre entreprises, chercheurs et administrations.

Elle bénéficie de travailleurs qualifiés et ses applications sont reconnues (TikTok, cloud d’Alibaba, chatbots, système de circulation automobile, reconnaissance faciale, service de robots taxis, générateur d’images).

Plusieurs freins viennent gêner ces progrès : la fuite des cerveaux chinois, le retard et le blocage des investissements notamment dans le secteur des semi-conducteurs (et du coup le risque de pénurie qu’ils suscitent), la mainmise de l’État, les sanctions des États-Unis à l’encontre de la Chine.

Un encart revient sur l’application TikTok et les pressions et initiatives pour l’interdire en Amérique du Nord et en Europe de l’Ouest.

Courrier international n°1685 (16-22 février 2023)

C’est le premier de l’année, pour ce périodique, à s’intéresser en Une à ChatGPT, avec un article publié dans The Sunday Times du 5 février. Il revient sur les « exploits » de l’outil depuis son lancement en novembre 2022, l’utilisation de ChatGPT par les étudiants britanniques (et les réactions des universités), par les employés pour rédiger des lettres de motivation, dans le milieu du journalisme ou de la programmation.

Le numéro de The Economist du 30 janvier propose lui un retour sur les centres de recherche privés et les entreprises qui ont favorisé la montée en puissance de l’intelligence artificielle, avec d’un côté les géants OpenAI, Amazon, Google et Meta, et de l’autre les organismes chinois financés par l’État comme la Beijing Academy of AI.

Un entretien publié dans le New York Times en décembre 2022 avec Yejin Choi, scientifique et informaticienne, revient enfin sur les idées reçues concernant l’intelligence artificielle.

Le dossier propose en outre :

  • une chronologie de la genèse de ChatGPT
  • une revue de presse revenant sur les réactions suscitées par l’outil (éducation, emploi, recherche, sécurité)
  • ses principaux exploits

Courrier international n°1695 (27 avril – 3 mai 2023)

Le dossier proposé dans ce numéro « Intelligence artificielle : fini de rire » est un peu plus conséquent et propose une vision plus pessimiste, étayée par des articles de la presse américaine, suisse et tchèque.

Il revient sur les risques suscités par le développement des modèles de langue : fuite d’informations, réponses biaisées, hameçonnage, tentatives d’arnaques, qui passent par l’injection dans l’outil de prompts (consignes) pour obtenir des informations personnelles de la part de l’internaute.  (MIT Technology Review)

Un extrait du Temps est consacré au double jeu d’Elon Musk en matière d’IA : signataire d’une pétition demandant une pause de la recherche tout en créant une start-up spécialisée sur la question.

Un entretien avec Niels Ackermann, photojournaliste, revient sur les prouesses des IA génératives dans la création d’images et l’utilisation de ces images et de deepfakes dans les médias. (Heidi news)

La revue de presse du dossier revient sur certaines mesures de régulation prises au moment où paraissait ce numéro : suspension de ChatGPT en Italie, censure en Chine.


Courrier international n°1704 (29 juin – 5 juillet 2023)

Il s’agit ici d’une controverse proposée sur une seule page : « IA : L’Europe fait-elle bien de légiférer ? » avec

  • côté POUR un article du Süddeutsche Zeitung (Allemagne) : publication du IA ACT le 14 juin par le Parlement européen avec l’accent mis sur la protection des données personnelles et le respect de la vie privée, ainsi que la lutte contre la désinformation ;
  • côté CONTRE un article de Rzeczpospolita (Pologne) : l’excès de réglementation européenne comme frein à l’essor économique et le fait pour l’Europe de rester à la traîne dans la course technologique.

En deux mots, d’un côté sécurité, de l’autre liberté.

Autres ressources

Page 1 sur 10

Fièrement propulsé par WordPress & Thème par Anders Norén