cinephiledoc

Blog pour cinéphiles et profs docs

Catégorie : Aux infos, etc. ! (Page 1 sur 10)

Un an de retour d’expérience pédagogique sur l’intelligence artificielle

Avant de terminer l’année scolaire avec l’article #profdoc du mois de juin, je souhaitais tirer un bilan plus approfondi de cette année en présentant un projet que j’ai évoqué plusieurs fois ces derniers mois lorsque j’ai indiqué que je participais à des interventions sur l’intelligence artificielle.

Ayant dû me désister d’une de ces dernières interventions, j’en profite pour partager ce travail, qui s’est nourri à la fois de mes différentes lectures et des retours que l’on a pu me faire, me fournissant des pistes d’évolution et d’amélioration.

Étape 1 : Et si je lisais des choses sur l’intelligence artificielle ?

Il y a donc à peu près un an, j’ai commencé à lire ce qui me tombait sous la main et suscitait ma curiosité sur l’intelligence artificielle. À l’origine, je comptais lire deux ou trois ouvrages, feuilleter quelques articles sur la question, avant de passer à d’autres lectures professionnelles et scientifiques sur le jeu ou sur le numérique.

L’idée était déjà de concevoir une séance pédagogique sur l’intelligence artificielle, et je ne voulais pas l’ébaucher sans avoir accumulé tout de même un bagage solide sur ce sujet.

J’ai commencé à feuilleter également les différents manuels de SNT, pour voir sous quel prisme la question était abordée, et j’ai noté quelques idées issues de ces manuels dans mon bullet journal.

L’idée a également émergé de faire au fur à mesure des comptes-rendus de mes lectures sur ce site, mais je n’avais pas alors pris la dimension du temps que cela me prendrait, ni qu’au mois de juin de cette année, j’aurais encore en brouillon d’article un septième épisode…

Comme je l’ai indiqué durant mes différentes interventions, c’est à l’une de ces lectures que je dois l’idée première de mon scénario pédagogique, à savoir aborder la question de l’IA par l’intermédiaire du jeu de rôle.

Étape 2 : de la réflexion…

Une fois ces premières lectures digérées, j’ai commencé véritablement à réfléchir à ce que je voulais faire.

Il s’agissait de proposer une séance pédagogique à des élèves de seconde, dans le cadre de l’enseignement de SNT, sous la forme d’une mise en bouche.

Deux choses me tenaient à coeur :

  • aborder la question de l’intelligence artificielle sans nécessairement utiliser les outils d’intelligence artificielle ;
  • élargir les représentations des élèves (qu’est-ce que l’intelligence artificielle au delà de Chat GPT ?) et leur faire acquérir une culture de l’IA.

Étape 3 : … à la conception

Pour cela, la forme du jeu s’est rapidement imposée à moi. Je suis partie de l’idée des différents profils (un joueur ou une équipe incarne une relation particulière à l’intelligence artificielle – ce que j’avais déjà pu expérimenter dans des séances sur le droit d’auteur et la citation des sources) présente dans l’ouvrage de Thierry Bouron.

Une fois ces quatre profils définis, je les ai intégrés à un jeu de plateau – un modèle de genially que j’ai tâché de m’approprier. Une fois ce jeu de plateau réalisé, je l’ai envoyé à la collègue de SNT avec laquelle je travaille le plus pour qu’elle me donne son avis.

Elle m’a conseillé d’associer à ce jeu de plateau des flashcards permettant de répondre aux questions des différentes cases. J’ai déterminé quatre thématiques de cartes : histoire de l’IA / l’IA dans la vie / actu de l’IA / vrai ou faux, et pour chaque thématique j’ai créé environ le double de cartes par rapport au nombre de cases du jeu.

Flashcards Jeu IA

En décembre 2023, j’ai demandé à quelques élèves de terminale de tester la première version de ce jeu, ils m’ont alors fait des suggestions de déroulé de la partie, que j’ai ensuite intégrées dans la fiche de présentation de séance pour mes élèves de seconde.

Étape 4 : conception du scénario pédagogique et inscription dans une progression

Pour inscrire cette séance dans un cadre pédagogique, j’ai appuyé mon scénario sur différents éléments :

  • évidemment la circulaire de missions du professeur documentaliste (axe 1)
  • le cadre de référence des compétences numériques
  • l’enseignement de SNT
  • et un projet de référentiel de compétences en intelligence artificielle proposée par l’UNESCO

Au niveau de ma progression pédagogique, j’ai conçu cette séance pour qu’elle intervienne après 3 séances introductives menées en SNT avec deux de mes classes sur « Internet et Web », et avant une séance consacrée aux données structurées.

Les élèves avaient donc l’habitude de travailler avec moi, et les fiches et les supports qui étaient mis à leur disposition leur étaient déjà familiers.


Déroulé des séances menées

En janvier 2024, j’ai pu mener cette séance pédagogique auprès de deux classes en demi-groupe, le 8 et le 10 janvier avec la première classe, et le 15 et le 17 janvier avec la deuxième classe.

Installation de la séance :

Les élèves sont répartis en quatre groupes de quatre. Sur leur table, ils ont à leur disposition la présentation de la séance, le jeu de plateau en format papier, un dé et quatre pions, les différentes cartes. Je leur demande également d’avoir un ordinateur par groupe pour accéder à la version en ligne du jeu, qui leur permet de savoir à quelle question ils doivent répondre.

Les cartes numérotées au dessus du jeu sur la photo sont mes cartes de maître du jeu, et je les utilise dans le temps de debriefing en fin de séance.

Durant ce temps, je demande aux élèves de me redonner les réponses aux différentes questions qu’ils ont pu noter durant le jeu, ce qui me permet également de les évaluer.

J’utilise enfin certaines cartes pour les intégrer à la fiche récapitulative proposée par l’enseignante de SNT pour évaluer l’axe thématique du programme.


Présentations de cette séance durant l’année et évolutions du jeu

Suite à ces séances (l’une d’elles a eu lieu en présence d’Elisabeth Carrara, IGESR) j’ai pu présenter cette expérimentation pédagogique durant différentes interventions.

  • Le 25 janvier, je suis intervenue à l’IH2EF à Poitiers sur « intelligence artificielle générative et professeurs documentalistes » en compagnie de Martine Sache et Bernadette Mendes, IPR EVS.
  • Le 27 février, j’ai participé à une table-ronde à la journée inter-académique des professeurs documentalistes pour présenter ce jeu
  • Le 3 avril, j’ai animé 3 ateliers pour présenter mon jeu sur l’intelligence artificielle au fablab éphémère organisé à Enghien-les-Bains ;
  • Le 4 avril : j’ai animé 2 ateliers au séminaire des interlocuteurs académiques au numérique en documentation à Paris

Chacune de ces interventions a nourri ma réflexion sur la manière dont je voulais voir évoluer mon jeu.

Grâce à l’intervention de janvier, j’ai pu échanger à l’IH2EF sur la façon dont je pourrais partager mon jeu et le diffuser, et c’est cela qui m’a amené à mettre mon genial.ly en mode privé.

En effet, si par habitude je n’hésite généralement pas à partager mon travail, le public de janvier m’a incitée à davantage protéger une production qui m’a pris de longues heures (et qui a continué à me prendre du temps, puisque j’ai fait depuis évoluer ce scénario).

C’est également la raison pour laquelle vous ne trouverez pas le lien de la version cliquable du jeu sur ce site. Le genial.ly tel qu’il est diffusé actuellement est d’ailleurs sous licence Creative Commons.

Les deux interventions du mois d’avril m’ont aussi permis d’avoir des avis sur les différents mécanismes du jeu, ce qui m’a incitée à en expliciter davantage les règles et à retravailler sur les profils d’élèves.

Scénario pédagogique : version actualisée

C’est la version actualisée – avec l’aide d’un ami – du scénario pédagogique et des règles que je partage donc aujourd’hui, et c’est cette version que je proposerai aux élèves à la rentrée prochaine.

Si j’ai également partagé le fichier avec les flashcards, c’est que celui-ci sera évidemment à actualiser, avec d’autres cartes permettant de l’enrichir au gré de l’actualité consacrée à l’intelligence artificielle.

J’ai déjà échangé avec ma collègue de SNT, qui aura en charge des classes d’enseignement scientifique en terminale l’an prochain, ce qui me permettra aussi d’intervenir auprès de ces classes, et peut-être d’approfondir cette séance par une deuxième séance de débat, ce que j’avais prévu initialement.

Remerciements

Pour leurs échanges, leurs différents retours et leur soutien, je remercie (liste non exhaustive) :

  • Aurèle Leyrie, Olivia Moysan, Sacha Touroveroff, Gwenaelle Keravec, Aelya Chatelier (élèves de Terminale) pour leurs retours précieux et pour leur fréquentation assidue du CDI
  • la team #IH2EF : Elisabeth Carrara, Martine Sache, Bernadette Mendes
  • la team #profdoc : Irène Boulay, Audrey Démonière-Rouvel, et les IAN Documentation
  • la team Canopé : Elise Planche, Maryline Brosset et Pauline Corso
  • la team lycée : Sylvie Buisson, Roman Clergeaud et Foucault de Labbey

D’ici là, je laisse reposer (comme moi) pour cet été, je vous donne rendez-vous début juillet pour le dernier article #profdoc de l’année scolaire, et vous dis à très bientôt sur Cinephiledoc.

Notes de lecture sur l’intelligence artificielle (épisode 6)

Comme je l’ai annoncé dans les précédentes notes de lecture (épisode 5), j’ai décidé de consacrer un nouvel article à la question de l’intelligence artificielle.

Pour celui-ci, j’ai décidé de me concentrer sur deux ouvrages relativement récents, et sur des articles publiés dans un numéro du Courrier international. Concernant les ressources en ligne, je tâcherai de faire en sorte qu’elles soient en relation avec ces publications.

J’en profite pour indiquer que j’ai ajouté en format PDF dans l’article consacré à l’intelligence artificielle au cinéma la deuxième réponse que m’avait fournie le service Eurêkoi à la question que je leur avais posée.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcourus : La Révolution ChatGPT et Si Rome n’avait pas chuté
  2. revue de presse avec le numéro 99 du Courrier international Hors-série
  3. sélection de ressources

La Révolution ChatGPT, d’Éric Sarrion

Cet ouvrage a été publié aux éditions Eyrolles en juin 2023.

Comme d’habitude lorsqu’il s’agit de publications dédiées à un outil spécifique et dont cette maison d’édition est coutumière (je pense par exemple aux guides sur WordPress, LinkedIn, Facebook, programmation Python, référencement Google, etc.), je suis toujours un peu frileuse…

J’ai toujours peur que ce type d’ouvrages deviennent un peu trop vite obsolètes face aux évolutions des outils qu’ils décortiquent. Je ne vais donc pas m’attarder sur les chapitres qui se concentrent sur des conseils d’utilisation (même si je les présenterai rapidement), et je vais détailler davantage les chapitres introductifs et conclusifs de ce livre.

En effet, le propos d’Éric Sarrion se décline en cinq parties. Les deux premières reviennent sur les origines et le fonctionnement de ChatGPT.

Partie 1 : Introduction à ChatGPT.

Dans ces premiers chapitres, l’auteur présente ChatGPT, un modèle de traitement du langage naturel pré-entrainé (Generative Pre-trained Transformer), développé et publié par OpenAI en 2019 et qui en est à sa 4e version. Il en indique les principaux domaines d’application, de l’assistance clientèle à la traduction, en passant par l’éducation et le recrutement.

Le fonctionnement de ChatGPT repose sur l’entrainement et la personnalisation, à partir d’un réseau de neurones. Il traite le langage naturel entre autres via la tokenisation (diviser le texte en unités appelées tokens) et les embeddings (représentations vectorielles des mots).

Pour l’entrainer, il faut veiller à nettoyer régulièrement les données collectées pour éviter le bruit – bruit informationnel, ça nous rappelle quelque chose – et les incohérences.

Les applications possibles de ChatGPT sont les assistants virtuels (chatbot), la traduction automatique, la rédaction de contenu et la recherche d’informations.

Partie 2 : Comment entraîner et utiliser ChatGPT ?

Cette partie se concentre sur des aspects techniques d’utilisation de ChatGPT.

L’auteur présente les tâches de pré-entrainement (données non étiquetées) et d’entrainement (affiner le modèle sur une tâche spécifique avec des données étiquetées = fine-tuning). Il énumère les différentes étapes pour entraîner ChatGPT : collecte et préparation des données, paramètres d’entrainement et outils disponibles.

Il indique ensuite comment utiliser ChatGPT dans des projets de développement en s’appuyant sur des bibliothèques et frameworks (Hugging Face par exemple) – ce qui permet de mieux comprendre également comment a pu être créer un outil comme Climate Q&A, évoqué dans mes précédentes notes de lecture.

Il donne enfin des exemples d’intégration et d’utilisation (créer un chatbot en Javascript, utiliser ChatGPT avec une interface vocale), ainsi que quelques stratégies de bonnes pratiques, notamment pour éviter les biais dans les données (diversifier les sources, utiliser des algorithmes pour détecter les biais).

Afin d’évaluer les performances de l’outil, on peut utiliser différentes méthodes comme la perplexité qui évalue la capacité du modèle à prédire la prochaine séquence de mots dans un texte (plus elle est faible, meilleur est le résultat) ou le test de Turing.

Partie 3 : Exemples d’utilisation de ChatGPT

Le premier chapitre de cette partie, « Poser les bonnes questions à ChatGPT » revient sur les éléments essentiels d’un bon prompt : être clair et précis, être spécifique, poser une question à la fois, utiliser un langage clair, garder la même discussion pour un même sujet et être courtois.

S’ensuivent une suite de chapitres détaillant différents exemples d’utilisation :

  • création de contenu textuel pour le marketing ;
  • traduction et apprentissage d’une langue ;
  • recrutement ;
  • création de code informatique (et de code pour Excel, ce qui peut rendre service quand, comme moi, on a du mal avec les tableurs) ;
  • création de contenu artistique et aide à l’innovation

Partie 4 : Implications éthiques

Dans ces trois chapitres, on retrouve les principales problématiques associées à l’intelligence artificielle aujourd’hui :

  1. les biais et les risques dans un premier temps (sources de biais, risques de discriminations avec un retour sur l’exemple de Tay, confidentialité et sécurité)
  2. les effets sur l’emploi et la société (est évoqué le projet construit par l’université de Stanford, EduGPT, pour répondre aux questions des étudiants, mais aussi la propagation des fausses informations)
  3. les réglementations et normes (utilisation responsable, nécessité de transparence, gouvernance de l’IA)

Partie 5 : Perspectives d’avenir

Enfin, les deux derniers chapitres offrent un regard déjà tangible sur les perspectives d’avenir de ChatGPT :

  • les points d’amélioration et de développement, les avancées dans certaines applications, la mise en concurrence
  • les défis à long terme (fusions avec d’autres technologie comme la réalité virtuelle ou l’informatique quantique, enjeux de réglementation et de gouvernance, nécessité de responsabilité et d’éthique)

Mon avis sur l’ouvrage

Comme je l’ai indiqué plus haut, ma principale réserve sur cet ouvrage est celle qui se rapporte d’une certaine manière à son obsolescence programmée, étant donné la rapidité d’évolution des outils d’intelligence artificielle.

Néanmoins, je trouve que ce livre permet de comprendre assez facilement le fonctionnement de ChatGPT avec des exemples d’utilisations concrètes, et d’en avoir un usage averti et critique, ce qui est loin d’être négligeable, surtout pour les élèves.


Si Rome n’avait pas chuté, Raphaël Doan

Le deuxième ouvrage sur lequel je me suis penchée pour ces notes de lecture est un livre fascinant qui utilise les potentialités de l’intelligence artificielle générative dans une perspective historique et historienne.

L’ouvrage a été publié en mai 2023 aux éditions Passés/Composés, une maison d’édition que j’adore parce qu’elle publie des documentaires historiques sous forme d’infographies.

Le propos de Si Rome n’avait pas chuté est assez vertigineux. Il s’agit, pour l’auteur, d’utiliser différents outils d’intelligence artificielle générative (le modèle de GPT-3 text-davinci-003 pour la génération de textes et 3 outils de synthèses d’images pour les illustrations : DALL-E, Midjourney et Stable Diffusion) pour proposer au lecteur une uchronie.

Chaque partie de l’histoire écrite par l’intelligence artificielle est suivie d’un commentaire de l’historien, qui remet en perspective les inventions de l’IA. L’ouvrage est construit de la façon suivante : deux préfaces, quatre parties qui font des allers-retours entre uchronie et commentaire, et une chronologie alternative.

Les deux préfaces reflètent les intentions du livre. La première, relativement succincte, se concentre sur l’uchronie proposée par l’intelligence artificielle : un monde où les Romains ont découvert la machine à vapeur et utilise la technologie pour conquérir le monde et l’espace.

La seconde préface dévoile la démarche de l’auteur. Il y revient sur les évolutions les plus récentes de l’intelligence artificielle générative, sur ce que permettent actuellement les grands modèles de langage (LLM) et sur l’impact actuel de la technologie (rapidité, divertissement, bulles de filtres).

Il explique de quelle manière l’intelligence artificielle peut raconter des histoires, et justement, de quelle manière elle peut servir l’uchronie, à partir de laquelle il pourra ensuite faire des allers-retours entre passé et présent.

S’il utilise le modèle de langage text-davinci-003, c’est parce que contrairement à ChatGPT qui privilégie la pertinence et la cohérence, text-davinci-003 offre une certaine originalité dans ses réponses. Mais comme pour ChatGPT (ce que nous avons vu plus haut), la formulation de la question reste primordiale :

Pour tirer le meilleur parti de ces grands modèles de langage, il faut savoir quoi lui demander. Parfois, il faut lui dire d’écrire comme un historien ; parfois comme un économiste ; parfois, comme un scénariste de cinéma, ou un grand romancier. La précision de la consigne est déterminante ; il faut lui demander d’être prolixe et détaillé, ou bien de donner des exemples. Le résultat est souvent meilleur si on lui dit en préambule : « tu es le meilleur historien spécialiste de la Rome antique au monde » ; comme quoi, la confiance en soi est la clé du succès, même pour les ordinateurs.

Passée cette préface, l’ouvrage s’articule en quatre parties qui vont proposer ces allers-retours entre une fiction aux illusions troublantes et le propos de l’historien.

Chapitre 1 : Néron et la machine à vapeur

Le point de départ de l’uchronie est l’invention de la machine à vapeur par Héron d’Alexandrie et son utilisation par l’empereur Néron. L’auteur utilise aussi cette première partie pour la production de textes littéraires « à la manière de » : la lettre d’un sénateur romain, le passage d’un roman de Pétrone, un poème de Martial.

La lecture de cette première partie m’a rappelée les textes publiés par les écrivains de la fin du 19e siècle et débattant de la beauté ou de la laideur de la Tour Eiffel. Pour revenir à notre uchronie, elle est l’occasion de montrer que chaque invention à ses soutiens et ses détracteurs, ses opportunités et ses risques (comme l’intelligence artificielle).

La suite de l’uchronie revient sur l’invention de l’électricité, avec un personnage qui rappelle les géants du numérique (de Bill Gates à Elon Musk) et le risque de la concentration de ces technologies dans un minimum de mains – revoir à ce sujet la question telle qu’elle est évoquée par Pascal Boniface dans sa Géopolitique de l’intelligence artificielle.

Le commentaire de l’historien revient sur le rapport des Romains aux sciences et aux techniques, et sur la primauté de la théorie sur les applications concrètes.

Je vais revenir de manière un peu plus succincte sur les parties suivantes.

Chapitre 2 : Autres techniques, autres moeurs 

Dans ce deuxième chapitre, l’intelligence artificielle raconte l’invention par un ingénieur romain du moteur à combustion, et de la transformation de la société dans le domaine des transports et du divertissement.

Cette invention permet ainsi d’entrevoir celle des réseaux sociaux, et la transformation des mentalités qu’elle engendre. Le nom donné à ceux-ci est agoraskopia (vision de la foule).

Dans cette partie est également évoquée l’évolution de la place des femmes dans la société et de la religion (avec le culte de la déesse Technè).

Le commentaire de l’auteur revient ici sur la relation des Romains à leurs dieux, le rapport au savoir et aux évolutions de la société (là encore entre partisans et détracteurs du progrès).

Chapitre 3 : Des esclaves aux robots

Cette partie se concentre sur l’invention d’automates pour remplacer les esclaves afin d’exécuter les tâches de manière plus efficaces, et d’éviter les révoltes.

Elle revient également sur la fabrication du premier ordinateur (abacus mechanicus) :

Seuls les individus les plus compétents et les mieux informés étaient capables de l’utiliser au maximum de ses capacités (…).

puis d’un équivalent du smartphone : la tabula calculans, tactile, rechargeable et transportable dans une poche.

Cette partie conduit Raphaël Doan à réinterroger le rapport aux technologies (robotisation) et au travail.

Chapitre 4 : L’empire universel

Cette dernière partie met en perspective les avancées technologiques et les relations internationales avec ici le rapport entre l’empire romain et l’empire chinois, et la façon dont le latin est devenu une langue parlée universellement.

L’historien revient sur l’exploration du monde connu par les Romains, et sur la façon dont les Romains voyaient d’un mauvaise oeil la contamination de leur langue par le grec, de la même manière dont aujourd’hui les anglicismes contaminent le français.

Il s’amuse à remplacer dans les textes latins de l’époque les termes grecs par des expressions en anglais, traduisant chez certains auteurs une forme de snobisme. Il rappelle que la disparition du latin n’est pas tant due à l’influence du grec qu’à son évolution et sa déformation intérieure sous forme de langues dérivées (français, italien, espagnol).

Les dernières pages de l’uchronie orchestrent un conflit mondial avec comme acteur un imposteur – ce qui n’est pas sans rappeler les problématiques actuelles autour de la désinformation et des dérives dans l’utilisation de l’intelligence artificielle, en particulier les deepfakes, et ce qui conduit à mes prochaines lectures qui se pencheront notamment à nouveau sur les relations entre intelligence artificielle et politique.

L’ouvrage se referme avec la présentation de la chronologie alternative proposée par l’uchronie : de 56 avant JC et la découverte de la machine à vapeur, à 510 après JC :

Les Romains créent la première IA consciente d’elle-même, connue sous le nom de « Romulus », qui devient un outil inestimable pour la recherche scientifique et l’exploration.

Mon avis sur l’ouvrage

L’entreprise de Raphaël Doan m’a complètement bluffée et happée, j’ai lu ce texte en moins de 24 heures.

Mes notes ne rendent pas compte de la virtuosité avec laquelle il propose également des illustrations (dont la conception est explicitée dans sa deuxième préface). Le propos est, comme je l’ai dit, assez vertigineux, et remet continuellement en perspective notre rapport au savoir et aux avancées technologiques.

Les allers-retours proposés par l’historien permettent de replacer telle ou telle notion que l’on croit des plus récentes dans un contexte beaucoup plus ancien (la relation au divertissement, aux progrès, au travail, à l’écologie, à la langue), mais aussi de revenir aux sources d’un questionnement antique et d’en voir les prolongements jusqu’à aujourd’hui.

D’un point de vue un peu plus éloigné (quoique), cette uchronie m’a rappelée le scénario pédagogique présenté à la JIAPD par Gabrielle Bour, collègue professeure documentaliste dans l’académie de Paris, qui a fait utiliser des outils d’intelligence artificielle générative à ses élèves pour travailler sur la conjuration de Catilina, ce qui leur a donné des résultats assez surprenants, sources d’une réflexion sur l’usage critique de ces outils.


Revue de presse

Pour cette revue de presse, je me suis concentrée sur les publications du Courrier International, en particulier sur le Hors-série n°99 entièrement consacrée à l’intelligence artificielle, que je décortique en partie, en prélevant les articles qui se penchent sur ces aspects de la question. Je le reprendrai pour d’autres aspects dans de prochaines notes de lecture.

Pour citer les articles concernés, je mettrai en lien leur version en ligne quand le Courrier international la propose.

Ce premier article est issu de The Guardian et a été publié en octobre 2023. Il revient sur les applications principales de l’intelligence artificielle (reconnaissance vocale, voiture autonome, dépistage médical, publicité personnalisée, recommandation) et en profite pour redonner les définitions de certains termes associés : apprentissage automatique, algorithme, grand modèle de langage, chatbot.

L’article est suivi d’une superbe infographie (p.8-9), malheureusement non disponible en ligne, qu’on peut associer à celle proposée sur le site du Courrier international (voir plus bas dans les ressources).

Un encart « Que savent-elles faire ? Sept usages de l’IA » (p.10-11) donne différents exemples d’application : les rédactrices, les traductrices, les illustratrices, les vidéastes, les bavardes, les codeuses et les enquêtrices qui s’intéressent à la vérification de contenus générés par l’IA.

Cet article figure dans la première partie du hors-série, consacrée à l’intimité. Il a été publié en avril 2023 dans la MIT Technology review. Il s’intéresse aux failles des modèles de langage tels que ChatGPT : injection de prompts pour amener l’outil à soutenir des théories racistes ou complotistes, messages cachés facilitant les arnaques…

Les articles suivants de cette partie reviennent sur d’autres dérives ou d’autres applications relevant de la vie quotidienne : « Déshabillées en un clic » (p.17-18) alerte sur un outil permettant de créer photos et vidéos pornographiques, utilisé par les adeptes du revenge porn. « Un coach à la carte » (p.18-19) étudie les intelligences artificielles qui accompagnent les sportifs dans leur entrainement.

« J’ai créé le petit ami presque parfait » (p.20-22) rappelle le film Her : les jeunes chinoises choisissent de plus en plus d’avoir un compagnon virtuel, ce qui n’est pas sans risques.

Dans une deuxième partie, ce hors-série du Courrier international revient sur les impacts économiques de l’intelligence artificielle.

L’article proposé en pages 26-29 s’intéresse aux travailleurs de l’ombre de l’IA : ceux qui assignent des étiquettes à des contenus (en particulier les images) pour ensuite entraîner les modèles de langage, et dont l’existence est mise en péril par les derniers progrès de ces modèles, et l’apprentissage auto-supervisé, qui leur permet d’apprendre à partir de données non étiquetées.

L’article de cette partie que j’ai trouvé le plus intéressant est issu de The Atlantic : « Un an d’IA à l’université, un an de chaos et de confusion ». Il se penche sur la question des étudiants qui utilisent l’intelligence artificielle pour les travaux demandés, les raisons qu’ils invoquent (trouver l’inspiration, réduire le stress), et la nécessité pour les enseignants d’adapter leur pédagogie et leurs méthodes d’évaluation.

Deux autres articles reviennent sur les impacts de l’IA sur le marché du travail (précarisation, nivellement des salaires) quand un article publié dans le Wall Street Journal revient justement sur les nouveaux métiers rendus possibles par l’intelligence artificielle (développeur, ingénieur de requête, psychothérapeute de l’IA).

Ce portfolio fascinant, et accessible gratuitement en ligne sur le site du Courrier international, ouvre sur une nouvelle partie consacrée à l’intelligence artificielle dans les arts et la recherche.

Le premier article « Avec ChatGPT, nous vivrons bientôt tous en uchronie » (p.48-50) a été publié dans Die Zeit. Son auteur, l’écrivain Clemens Setz, revient sur les hallucinations de ChatGPT qui lui invente des oeuvres qu’il n’a pas écrites. Un encart rappelle les plaintes d’écrivains comme George R.R. Martin suite à l’utilisation de l’IA pour générer des textes en s’appuyant sur leurs oeuvres.

Une revue de presse se penche ensuite sur l’encadrement des usages de l’IA obtenus par les scénaristes et les acteurs à Hollywood après les grèves du printemps et de l’été 2023.

Les deux derniers articles s’intéressent aux applications de l’intelligence artificielle dans le domaine de la musique (générer une maquette en quelques clics, changer des voix, restaurer des morceaux en mauvais état, comme une chanson de John Lennon enregistrée sur cassette) et de la médecine (détecter les maladies et établir un diagnostic).

Je m’arrête ici pour ces notes de lecture, je reviendrai sur les derniers articles de ce hors-série dans un prochain épisode.

Quelques ressources pour terminer.

Ressources

Je renvoie une nouvelle fois au site de Bertrand Formet : Une IA par jour, pour continuer à farfouiller dans les nouvelles initiatives autour de l’intelligence artificielle.

Notes de lecture sur l’intelligence artificielle (épisode 5)

Ayant été pas mal accaparée à nouveau par ce sujet qui n’en finit pas de m’intéresser, je vous propose un cinquième épisode (et certainement un sixième très prochainement) de mes notes de lecture sur l’intelligence artificielle.

J’y ferai la recension d’au moins trois ouvrages (publications datant de 2023) et quelques extraits d’un quatrième, de différents articles de presse (2023 et 2024) ainsi qu’un retour d’expérience sur un outil d’intelligence artificielle testé dans le cadre de l’élaboration d’un scénario pédagogique.

Pour ces deux articles successifs, j’aborde deux angles d’approche, ce qui va me permettre de répartir les sources :

  • Le premier de ces angles est la relation entre intelligence artificielle et questionnements climatiques ;
  • Le second s’intéressera plus précisément aux outils d’intelligence artificielle générative, en particulier Chat GPT, tout en mettant l’accent sur des aspects sociaux, politiques et historiques.

Pour ces deux articles, je garderai la même structure que les notes de lecture précédentes.

Dans cet épisode :

  1. les ouvrages Le Département des théories fumeuses, de Tom Gauld et Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo
  2. revue de presse d’articles disponibles en ligne sur la thématique intelligence artificielle et climat
  3. sélection de ressources autour de l’outil Climate Q&A

Le Département des théories fumeuses, de Tom Gauld

Pour commencer cet article avec humour et sous l’angle à la fois du dessin et de la vulgarisation scientifique, je voulais évoquer rapidement cette lecture très récréative, que je dois à l’une de mes amies professeures documentalistes.

J’avais déjà dans ma bibliothèque les ouvrages brillants de Tom Gauld, qui sont fabuleux de drôlerie et de culture : En cuisine avec Kafka et La Revanche des bibliothécaires.

Si je retiens aussi Tom Gauld dans mes notes de lecture sur l’intelligence artificielle, c’est parce que dans ce nouvel ouvrage, Le Département des théories fumeuses, quelques planches permettent d’en illustrer certains aspects.

Je me permets d’en glisser ici deux petits exemples :

Je vous invite fortement à découvrir tous ces ouvrages qui sont magnifiques et également à suivre son compte Instagram.

Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo

Cet ouvrage de vulgarisation est l’un des plus récents paru sur le sujet, et c’est également l’un des derniers ouvrages que j’ai reçus au CDI sur la question.

Ce document compte moins d’une centaine de pages, et propose un aperçu accessible et synthétique.

Dans une première partie « L’homme et la machine« , les auteures dressent un panorama historique de l’intelligence artificielle :

  • les premiers ordinateurs avec la figure d’Ada Lovelace
  • Alan Turing, la machine de Turing, le jeu de l’imitation et le test de Turing
  • la conférence de Dartmouth et le Perceptron de Frank Rosenblatt, dont le fonctionnement tente d’imiter celui de la pensée humaine, ce qui servira de modèle aux systèmes experts
  • le logiciel Eliza, premier à tenir une conversation avec un humain
  • les différentes évolutions : apprentissage automatique (machine learning), apprentissage supervisé, apprentissage par renforcement et apprentissage profond (deep learning)

Le fonctionnement de l’apprentissage automatique est expliqué de manière illustrée

La partie qui m’a le plus intéressée dans ce chapitre est celle de l’entrainement par les jeux, où les auteures proposent une chronologie qui relie les jeux et les évolutions de l’intelligence artificielle, avec différents programmes d’échecs, de dames et de morpion élaborés depuis 1948, jusqu’à Pluribus développé par des ingénieurs de Carnegie-Mellon et capable de bluffer au poker, en passant par Deep Blue et AlphaGo.

Cette partie revient également sur l’utilisation de GTA V pour entraîner des logiciels de voitures autonomes.

Enfin une double-page dresse un aperçu des acteurs de l’intelligence artificielle : entreprises (IBM, DeepMind, Amazon, Facebook), États et instituts de recherche.

Dans la deuxième partie, « Une technologie en plein essor« , l’ouvrage revient sur les fonctionnalités les plus récentes de l’intelligence artificielle :

  1. reconnaissance d’images (surveillance, reconnaissance faciale, santé et industrie)
  2. traitement du langage (chatbots, traduction automatique, reconnaissance vocale et modération)
  3. analyse de données (systèmes de recommandations, voitures autonomes, logiciels de prédiction) jusqu’aux villes intelligentes
  4. robotique

Enfin la troisième partie, « Vers une société « intelligente » ? » ouvre le débat en revenant sur différents aspects de l’intelligence artificielle à remettre en perspective…

D’un côté les points de vigilance :

  • les biais algorithmiques des intelligences artificielles (avec l’exemple de Tay lancé en 2016 par Microsoft)
  • la question de la surveillance et de l’utilisation des données personnelles (et le score social chinois)
  • la manipulation et la désinformation avec un accent mis sur les deepfake
  • les questionnements éthiques (encart Lois de la robotique)

De l’autre les bénéfices :

  • lutte contre la pauvreté
  • santé
  • anticipation du changement climatique

Ce dernier point est abordé très rapidement et revient sur le dilemme consommation d’énergie par les outils d’intelligence artificielle VS établissement de modèles pour prévoir les événements climatiques.

Mon avis sur l’ouvrage

C’est un petit ouvrage très accessible, illustré agréablement et qui revient d’une manière synthétique et rapide sur les différents enjeux de l’intelligence artificielle. Il permet un premier aperçu ou de réactiver (pour ma part) assez succinctement des connaissances sur la question.


Climat et IA : revue de presse

Comme je l’ai indiqué dans mon précédent article #profdoc, j’ai proposé dans le cadre de la semaine de la presse une séance « Presse et Climat » à un groupe de terminale HGGSP, à la demande de mon collègue en charge de l’enseignement.

Pour l’occasion, j’ai élaboré pour les élèves différents ateliers, et un peu tardivement, j’ai eu l’idée de leur proposer également une activité « intelligence artificielle et climat ».

J’ai donc été amenée à consulter un certain nombre de ressources sur la question et c’est aussi pour cette raison que les dernières pages de l’ouvrage présenté plus haut ont retenu mon attention.

Pour cette revue de presse, je propose donc une sélection d’articles issus non pas des abonnements papiers du CDI comme à l’accoutumée, mais issus de ma veille sur la question.

« Une IA a illustré le rapport du GIEC et le résultat est sombre ». L’ADN, 6 avril 2023, https://www.ladn.eu/tech-a-suivre/changements-climatiques-illustration-rapport-intelligence-artificielle-midjourney/

L’article publié en avril 2023 met l’accent sur la façon dont l’intelligence artificielle peut sensibiliser au changement climatique, en prenant comme point de départ une présentation du réchauffement climatique proposé en 2018 par le climatologue Ed Hawkins.

Il explique comment le professeur Aurélien Saussay a utilisé l’outil Midjourney pour réaliser des visuels sur les titres du dernier rapport du GIEC.

Sont ainsi illustrés les phénomènes météorologiques extrêmes, les flux financiers et les adaptations au changement climatique, les risques, la menace pour le bien-être humain.

L’IA pour lutter contre le changement climatique et favoriser la durabilité environnementale | Inria. 6 juillet 2023, https://www.inria.fr/fr/ia-changement-climatique-environnement.

Dans cet article mis à jour en 2024, l’INRIA revient sur la mise en place d’une équipe en son sein par la chercheuse Claire Monteleoni pour prédire l’évolution du climat et anticiper les phénomènes extrêmes.

Cette équipe doit relever le défi des données à traiter pour répondre aux questions climatiques, des données qui restent complexes à manipuler (données massives à exploiter dans certaines zones, données manquantes pour d’autres régions).

L’intelligence artificielle peut aider à combler les données manquantes mais aussi à prendre des décisions, et l’apprentissage automatique peut aider à répondre à ces problématiques.

Le projet ARCHES entend ainsi optimiser l’intelligence artificielle pour lutter contre le changement climatique à travers trois axes de recherche :

  1. L’IA pour la science du climat : pour améliorer la compréhension scientifique de l’évolution du système climatique.
  2. L’IA pour l’adaptation au changement climatique : pour concevoir l’impact social et accompagner les communautés et les décideurs avec des outils d’aide à la prise de décision.
  3. L’IA pour l’atténuation du changement climatique : pour accélérer notre transition écologique, avec un accent particulier sur les énergies renouvelables.
Mettre l’intelligence artificielle au service de l’action climatique dans les pays en développement, voici le défi lancé à la COP 28, Communiqué ONU Changement climatique, 9 décembre 2023

Ce communiqué publié sur le site de la Convention-cadre des Nations unies sur les changements climatiques (COP 28) revient sur les différentes déclarations des participants qui mettent en relation climat et intelligence artificielle.

À retenir, ce paragraphe en particulier :

L’événement de la COP 28 a réuni des dirigeants de gouvernements, des Nations unies, d’agences de coopération au développement et d’entreprises pour discuter de la manière dont l’IA peut être utilisée pour une action climatique transformationnelle dans les nations en développement, tout en veillant à ce qu’elle ne contribue pas à élargir la fracture numérique causée par l’inégalité de l’accès à la technologie.

« Intelligence artificielle bonne ou mauvaise idée pour la planète ? » France Inter, 12 avril 2023, https://www.radiofrance.fr/franceinter/podcasts/la-terre-au-carre/la-terre-au-carre-du-mercredi-12-avril-2023-7653937.

Enfin dans cette dernière ressource (une émission de France Inter que j’avoue ne pas avoir eu le temps d’écouter jusqu’au bout), l’article associé à cette émission revient sur les différents points de débat autour de l’intelligence artificielle et des questionnements climatiques, déjà relevés dans l’article de l’INRIA :

  •  le traitement des données complexes par l’IA et les modélisations climatiques
  • une prédiction plus rapide et efficace des évolutions climatiques
  • mais des technologies elles-mêmes énergivores, avec un poids carbone de plus en plus important

Néanmoins la principale ressource qui revenait dans mes recherches pour faire le lien entre intelligence artificielle et questionnements climatiques était justement un outil d’intelligence artificielle proposé afin d’étudier les différents rapports du GIEC, et c’est sur ce dernier outil, ainsi que sur les ressources qui m’y ont conduites, que je souhaiterais maintenant revenir.

Utilisation de l’outil Climate Q&A qui décrypte les rapports du GIEC.

Exemple d’utilisation avec deux questions :

Quelles preuves avons-nous que le climat change ?

Nous disposons de plusieurs éléments de preuve indiquant que le climat est en train de changer de manière significative au cours du dernier siècle. Voici les principaux points à retenir :

Les études d’attribution montrent que les changements de température sont attribués à divers facteurs, tels que l’influence humaine totale, les gaz à effet de serre, les aérosols, l’ozone, les changements d’utilisation des terres, les éruptions volcaniques, et la variabilité climatique interne.

Les changements observés dans le climat sont associés à des activités humaines et sont catégorisés par différents niveaux de confiance scientifique, allant de moyen à virtuellement certain.

Des preuves issues de changements attribués dans les extrêmes climatiques et météorologiques soutiennent l’idée que même un réchauffement de 0,5°C supplémentaire par rapport à aujourd’hui entraînerait des changements détectables dans ces extrêmes.

Les rapports du GIEC soulignent que le système climatique change rapidement en raison de l’influence humaine, avec des changements documentés dans l’atmosphère, les terres, la cryosphère, la biosphère et les océans, ce qui représente un engagement à l’échelle millénaire pour les éléments du système climatique qui répondent lentement.

L’attribution des changements climatiques à l’influence humaine est devenue de plus en plus forte au fil des rapports du GIEC, avec des preuves solides montrant une influence humaine claire sur le système climatique.

Ces éléments de preuve combinés indiquent de manière indiscutable que l’influence humaine a contribué au réchauffement de l’atmosphère, des océans et des terres, confirmant ainsi le changement climatique en cours.

Quels sont les enjeux de l’utilisation de l’intelligence artificielle face aux changements climatiques ?

L’utilisation de l’intelligence artificielle (IA) pour aborder le changement climatique présente plusieurs défis, comme indiqué dans les documents fournis :

Les technologies numériques, y compris l’IA, peuvent contribuer à atténuer le changement climatique et à atteindre plusieurs objectifs de développement durable. Cependant, certains gains en matière de lutte contre le changement climatique peuvent être réduits par une augmentation de la demande de biens et services due à l’utilisation d’appareils numériques.

L’application de l’IA dans le domaine de la modélisation et de la prévision climatique est encore relativement nouvelle, avec des avancées principalement dans les domaines de la prévision météorologique, des rendements agricoles, des systèmes d’alerte précoce et de la gestion de l’eau.

Les défis liés à l’utilisation de l’IA pour lutter contre le changement climatique comprennent des coûts de formation et de logiciels, la demande des clients et du marché, ainsi que des problèmes juridiques et de gouvernance.

Les modèles d’analyse intégrée et leurs résultats pour fournir des stratégies de réponse au changement climatique ont été critiqués pour leur manque de crédibilité dans certaines hypothèses cruciales, notamment en ce qui concerne la disponibilité des technologies de capture du dioxyde de carbone.

En résumé, les principaux défis de l’utilisation de l’IA pour aborder le changement climatique incluent les coûts, la demande du marché, les problèmes juridiques, la crédibilité des modèles et la disponibilité des technologies nécessaires. Ces défis nécessitent une approche soigneusement planifiée et une gouvernance appropriée pour maximiser les avantages de l’IA dans la lutte contre le changement climatique.

Concernant la question posée sur l’intelligence artificielle, j’ajoute ici différentes captures d’écran qui donnent un aperçu du fonctionnement de l’outil, ce dernier mettant à chaque fois en relation ses réponses avec les rapports du GIEC, et proposant des illustrations :

Pour compléter cet outil voici une sélection d’articles qui en faisaient la présentation :

Notes de lecture sur les données (épisode 2)

Pour ce nouvel épisode de mes notes de lecture, que je vais tâcher de publier fort opportunément au moment du Safer Internet Day 2024, je fais la recension de deux ouvrages qui font figurer le Big Data dans leurs titres.

Néanmoins, si le sujet les rapproche, beaucoup de choses les éloignent dans la façon dont ils abordent la question, et c’est aussi ce qui m’a intéressée. C’est également leur approche du Big Data qui m’a rendu la tâche complexe pour en faire la synthèse.

Encore une fois, j’ai voulu me plonger dans des lectures présentes dans le fonds documentaire du CDI de mon établissement, et je n’ai pas forcément choisi les ouvrages que j’aurais moi-même commandé sur la question ou qui aurait forcément attiré mon attention de prime abord.

Dans cet épisode :

  1. un aperçu de ces deux ouvrages : Dans l’ombre de la peur : Le Big Data et nous et Petit dico critique du Big Data
  2. un panorama de la presse récente sur la question

Dans l’ombre de la peur : Le Big Data et nous, Michaël Keller et Josh Neufeld

Au moment où je commence l’écriture de cet article, ma lecture de cet ouvrage commence à dater, et j’ai un souvenir plus récent du second.

Par ailleurs, son format m’a donné l’idée de consacrer prochainement un cinquième épisode de notes de lecture à l’intelligence artificielle, un sujet qui ne cesse de me captiver cette année et qui retarde d’autant plus mes autres lectures professionnelles en projet, sur le numérique, les écrans ou encore sur le jeu.

Le format de cet ouvrage en rend la recension compliquée, puisqu’il s’agit d’une bande-dessinée publiée en 2017 aux éditions Ça et Là pour sa version française. En effet, il s’agit à l’origine d’une publication américaine datant de 2014.

Le traitement de la question du Big Data remonte ainsi à une dizaine d’années, mais en pose les jalons et revient sur certains éléments qu’il est intéressant de remettre en perspective aujourd’hui.

Le point de départ de cette bande-dessinée, qui aborde la question sous un angle états-unien, c’est une rencontre en 2004 entre les dirigeants de Google, l’ancien président Al Gore et une sénatrice américaine, Liz Figueroa pour parler de Gmail, et de la façon dont la messagerie proposait de la publicité ciblée en analysant les mots-clés présents dans les messages.

Cette sénatrice avait alors déposé un projet de loi exigeant que Google obtienne le consentement des utilisateurs avant d’appliquer toute analyse systémique des données, un projet qui finalement n’a pas été approuvé par le sénat de l’État de Californie.

Ce point de départ donne lieu à une analyse de la façon dont les données personnelles sont collectées dans les différentes applications numériques de la vie courante.

Il donne aussi un aperçu de l’accélération des technologies et de la façon dont les questions que l’on se pose ou que l’on a pu se poser sur cette collecte des données personnelles sont presque instantanément rendues obsolètes par le développement même de ces technologies.

Par exemple, au moment où ils posent la question de l’analyse des données cellulaires pour générer un bulletin du trafic routier, Google Maps opère déjà cette analyse, et leur offre comme perspective l’analyse quotidienne de la boîte noire d’un véhicule, les voitures autonomes, la question du traitement des données dans le domaine des assurances… enjeux que l’on retrouve au coeur des questionnements sur le Big Data en 2024.

Parmi les personnes interrogées sous le format BD par les deux auteurs, on retrouve danah boyd, autrice de C’est compliqué : la vie numérique des adolescents, publié en 2016, qui revient sur la façon dont les jeunes tentent de maîtriser les contenus postés sur les réseaux sociaux, ou encore Amanda Caswell, qui revient sur la façon dont les montres connectées récupèrent les données de santé de leurs utilisateurs.

L’épilogue de l’ouvrage « En voiture avec l’Uber économie » évoque le cas d’un chauffeur qui filme ses passagers, la façon dont usagers et employés d’un service se surveillent et se notent mutuellement, amenant un glissement vers les systèmes de crédit social chinois.

Je profite de ce glissement pour présenter ici le travail réalisé en EMC par deux élèves de seconde.

Timothée et Flavien se sont intéressés aux différentes formes de cyber-contrôle en Chine et ils ont utilisé le support ci-dessous (présenté ici avec leur autorisation à tous deux) pour illustrer leur exposé oral, qui était également de grande qualité.

Diapos issues de la présentation d’EMC de Flavien Amy et Timothée Cailleux (2nde13 – 2023/2024)

Exposé Timothée et Flavien cyber-sécurité

Mon avis sur l’ouvrage

L’ouvrage nous propose, avec un point de départ en 2004, une manière d’effectuer un arrêt sur image en 2014, que l’on peut remettre de notre côté en perspective en 2024, à l’heure où Google vient de fêter ses 25 ans, où Facebook souffle les bougies de son vingtième anniversaire et que Zuckerberg fait partie des dirigeants de réseaux sociaux interrogés par le Sénat américain, et que l’intelligence artificielle générative fait s’emballer différents domaines de publication en ligne.

Finalement, en feuilletant à nouveau cet ouvrage, j’y ai glané plus d’informations qu’à ma première lecture, que j’avais trouvé un peu plus récréative, puisque c’était la forme qui avait retenu mon attention et non le fond.


Petit dico critique du Big Data, sous la direction de Anaïs Theviot

Si le premier ouvrage me paraissait compliqué à résumer, ce n’est rien à côté du second, qui a été pour moi un véritable coup de cœur de lecture.

Il est rare pour moi de parler de « coup de cœur » pour une lecture scientifique et / ou professionnelle, mais c’est le cas pour cette dernière, au point que j’ai eu envie, ma lecture terminée, d’acheter le livre pour ma bibliothèque personnelle, après avoir accaparé pendant environ deux mois l’exemplaire du CDI…

Il faisait partie de ma commande de début d’année avec Data-Philosophie et un ouvrage sur Chat GPT dans lequel je me plongerai prochainement, et il s’agit d’une publication relativement récente, puisqu’il a été publié aux éditions Fyp en avril 2023.

Si j’ai eu du mal à décrocher de ce livre, c’est pour deux raisons.

La première, c’est parce qu’il propose un véritable travail de vulgarisation, sous la plume d’experts de la question : on y retrouve entre autres trois articles ou encarts écrits par Arnaud Mercier, l’article « Culture algorithmique » rédigé par Laurence Allard, l’article « Cyberharcèlement » rédigé par Sophie Jehel, ou encore le PageRank analysé par Guillaume Sire.

Bref, du beau monde, et les sources auxquelles ils renvoient invitent à prolonger le questionnement, comme l’article « Wikipédia » qui s’appuie sur l’ouvrage passionnant publié par Rémi Mathis en 2021.

La seconde, c’est la forme même de l’ouvrage, celle du dictionnaire, qui rend le propos à la fois transversal et très accessible au lecteur. Et c’est également cela qui le rend quasiment impossible à résumer, à moins de faire une liste des différents articles, ce qui ne serait pas très pertinent…

Si l’on se contente du sommaire, on peut voir que ce Petit Dico critique du Big Data aborde aussi bien les implications du Big Data dans des domaines aussi variés que l’administration, les assurances, la politique, le journalisme, l’environnement, la santé, les véhicules autonomes ou l’urbanisme.

Si je choisis d’utiliser cet article comme un classeur de marques-pages personnels, voici ce que je retiens :

  • l’article « Algorithme prédictif » de Baptiste Kotras qui revient sur la façon dont les algorithmes peuvent prédire nos comportements, et les biais et discriminations algorithmiques (avec un encart de rappel sur la notion de machine learning)
  • l’article « Big data électoral » d’Anaïs Theviot, qui m’a renvoyé à la lecture de précédente de Toxic Data, et qui propose ensuite un encart sur l’affaire Cambridge Analytica, de Camila Péres Lagos
  • l’article « Bulle de filtre » de Coralie Le Caroff et l’encart déjà mentionné sur le PageRank de Guillaume Sire
  • l’article « Cyberharcèlement » de Sophie Jehel qui en rappelle les différentes formes, ainsi que les mesures législatives pour lutter contre, et qui renvoie à la lecture de l’ouvrage de Bérengère Stassin publié en 2019
  • l’article « Data journalisme et soft journalism » de Erik Neveu qui revient sur les évolutions du métier de journalisme
  • les articles « Désinformation » de Lorella Sini, « Fact-checking » de Magali Prodhomme et « Fake news » d’Arnaud Mercier.

Ce dernier article revient sur la notion de fake news (auquel on préférera le terme « infox ») comme art de forger des informations pour tromper l’opinion publique par quatre voies : la numérisation, la plateformisation, la dissémination algorithmique et la ressemblance formelle avec les médias traditionnels pour en accroitre la crédibilité.

  • l’article « Données personnelles » d’Anne Bellon propose un rappel chronologique de la reconnaissance de la vie privée dans la loi (avec l’évolution des missions de la CNIL et l’adoption du RGPD)
  • l’article « Réseaux sociaux » de Frédéric Clavert qui fait lui aussi un rappel historique et revient sur la notion de bulle de filtre, avec un encart sur les GAFAM
  • l’article « Surveillance numérique » de Olivier Aïm avec un encart d’Arnaud Mercier sur Wikileaks
  • l’article « Web des émotions » de Camille Alloing et de Julien Pierre, et enfin l’article « Wikipédia » de Bernard Jacquemin

Mon avis sur l’ouvrage

Vous l’aurez compris, la lecture de cet ouvrage m’a complètement happée, et je le considère comme l’un des meilleurs que j’ai pu lire sur la question, et je pense qu’il s’agit d’une excellente porte d’entrée pour quelqu’un qui s’intéresserait à la question de l’utilisation des données numériques.

Je n’hésiterai pas à signaler ce livre aux élèves qui s’intéresseraient à ce domaine, que ce soit pour des recherches en EMC, en SNT ou dans le cadre de la préparation de leurs sujets de grand oral.

Vous l’aurez compris également, même si ce type d’ouvrage est irrémédiablement condamné par certains aspects à une certaine obsolescence, dans les applications qu’il donne en exemples, sa solidité théorique et son accessibilité font qu’il ne tardera pas à rejoindre ma bibliothèque personnelle.


Revue de presse

Concernant la revue de presse, j’ai retenu deux magazines abordant la question des données numériques selon deux approches différentes : le numéro d’Epsiloon de mai 2022 avec un article “Data, elles parlent” de Muriel Valin, et le numéro de Questions internationales de septembre 2021 consacré aux GAFAM. 

Questions internationales n°109, septembre-octobre 2021

Pour ce dernier, le dossier couvre près de 80 pages et propose 10 articles signés par différents experts. 

Parmi eux, l’article “Une géopolitique des GAFAM” de Laurent Carroué revient sur le berceau de ces big tech : la Silicon Valley, et sur la façon dont elles participent au hard power et soft power des États-Unis, finissant par concurrencer les puissances étatiques. 

Laurent Carroué revient sur le rôle des GAFAM dans la circulation de l’information mais aussi dans la diffusion des différentes formes de désinformation (deepfakes, thèses complotistes) à des fins politiques, posant régulièrement la question de leur régulation. 

Se pose également la question du stockage des données et de leur sécurisation, pour contrer la dépendance à ces géants du numérique. 

En deuxième lieu, j’ai retenu un encart de Maud Quessard dans ce même numéro : “L’administration américaine et les GAFAM : de la confiance à la défiance”, avec une photo qui a particulièrement retenu mon attention, puisqu’on y voit Mark Zuckerberg auditionné (déjà) en 2018 par le Congrès des États-Unis. 

L’encart montre l’ambivalence des États-Unis : lutter contre leur monopole tout en bénéficiant de leur rôle de moteur de croissance économique. Il revient également sur les ingérences étrangères et les manipulations de l’information dans le cadre des campagnes électorales en particulier sur Facebook et Twitter, ce qui a donné lieu à cette audition de Zuckerberg par le Congrès après le scandale Cambridge Analytica. 

Entre 2021 et 2022, les réseaux sociaux ont tenté de restaurer leur image, avant que Twitter ne soit racheté par Elon Musk et avant qu’en janvier 2024, Mark Zuckerberg soit de nouveau auditionné cette fois par le Sénat américain, avec d’autres dirigeants de réseaux sociaux, pour n’avoir pas suffisamment protégé les usagers les plus jeunes contre les risques d’exploitation sexuelle et de suicide. 

Enfin, le dernier article à retenir mon attention dans ce dossier est celui d’Anne Perrot, “Plateformes numériques, régulation et droit de la concurrence”, qui revient sur leur position dominante et sur les problématiques qu’elles posent en matière d’utilisation des données personnelles. 

Pour la France, Google détient en 2021 90% de part de marché dans le secteur des moteurs de recherche, et Facebook 70% dans celui des réseaux sociaux. Les données collectées sont monétisées via la publicité ciblée. 

L’article pointe la nécessité de réguler ces plateformes, avec l’élaboration fin 2020 de deux projets de réglements par la Commission européenne : le Digital Service Act pour les contenus et le Digital Markets Act pour essayer de limiter les situations de monopole. 

Valin, Muriel. Data : elles parlent. Epsiloon n°011, 05/2022, p.70-77

Cet article revient de manière très illustrée sur le macroscope, un outil scientifique proposé et présenté par David Chavalarias dans Toxic Data, qui faisait l’objet de mes précédentes notes de lecture sur les données numériques. 

L’article rappelle qu’en une seule minute sur Internet, 5.7 millions de requêtes sont lancées sur Google, 167 millions de vidéos sont regardées sur TikTok et 575000 tweets postés. 

David Chavalarias remet l’immensité des données collectées dans une perspective historique en rappelant que D’Alembert en 1751 rêvait déjà d’un arbre généalogique de la connaissance, rendu aujourd’hui possible avec les progrès de l’algorithmie. 

L’article propose différents exemples du macroscope : la représentation visuelle des publications scientifiques, des communautés climatosceptiques ou encore des échanges sur Twitter entre pro-vaccins et anti-vaccins durant la pandémie de Covid-19. 


Ressources complémentaires

  • Les infographies Data never sleepsavec ce qui se produit sur Internet en une minute

Notes de lecture sur les données (épisode 1)

Dans ce nouvel épisode de mes notes de lecture, j’ai voulu me pencher sur la question des données numériques, pour prolonger les précédentes notes de lecture consacrées plus spécifiquement à l’intelligence artificielle.

Pour préparer cet article, je me suis donc plongée pour l’instant dans deux ouvrages, et dans une sélection de ressources que j’avais consultées durant le traditionnel Cybermoi/s, et qui m’ont également servi à construire mes séances en SNT.

Petite précision concernant ces notes de lecture, il s’agit encore une fois de comptes-rendus subjectifs, et qui me permettent de garder une trace de mes lectures.

Je donne aussi mon ressenti global à la lecture des ouvrages et des articles qui me tombent sous la main, moins pour en faire une critique que pour témoigner de leur accessibilité et en indiquer les prolongements possibles.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et politique : Data-Philosophie et Toxic Data
  2. sélection de ressources

Data-Philosophie, de Sonia Bressler

J’ai acheté ce livre pour le CDI en septembre 2023, parce qu’il m’apparaissait important d’enrichir le fonds philosophie d’ouvrages traitant de problématiques récentes, et propices à intéresser les élèves suivants notamment les spécialités HLP et HGGSP mais également pour permettre à l’ensemble des élèves d’approfondir des notions abordées en cours de philosophie.

L’ambition de ce livre, comme son titre et son avant-propos le rappellent, est donc de lier la pensée philosophique à la question des données numériques, et il soulève des problématiques déjà abordées dans les ouvrages que j’avais pu consulter sur l’intelligence artificielle (voir épisode 4), notamment la question du transhumanisme.

Dans l’introduction, l’auteure rappelle les domaines que recouvre la data-philosophie, à savoir la connaissance, les enjeux éthiques de la collecte et de l’utilisation des données, et, dans une moindre mesure pour cet ouvrage (en tout cas moindre que par exemple l’ouvrage de Pascal Boniface), les implications géopolitiques.

Data-Philosophie est construit en trois parties : contextualisation de la data-philosophie, implications de cette dernière et perspectives critiques.

Première partie : contextualisation de la data-philosophie

Dans cette partie, l’auteure propose un historique de la pensée philosophique en lien avec les données numériques. Elle étudie les ramifications les plus anciennes de la philosophie avec les enjeux actuels de l’accès à la connaissance, de l’esprit critique, de l’intelligence artificielle, etc.

Voici quelques étapes de ces ramifications :

  • Platon et l’allégorie de la caverne
  • Aristote et la classification des connaissances, ainsi la nécessité d’utiliser les données de manière éthique et responsable
  • Descartes : doute méthodique (esprit critique), dualisme homme / machine
  • Leibniz : système de notation binaire, langage universel
  • Kant : impératif catégorique et éthique des données
  • Charles Sanders Peirce : distinction entre signe / objet et interprétant, ce qui permet d’avoir un recul sur la manière dont sont traitées, analysées et interprétées les données
  • les relations entre données et connaissance avec Bertrand Russell, Karl Popper et Thomas Kuhn

L’auteure revient ensuite sur l’émergence du domaine de la data-philosophie à proprement parler (ordinateurs  – internet – réseaux sociaux) et sur :

  • les problèmes éthiques qu’elle soulève : respect de la vie privée, sécurité des données, biais algorithmiques, transparence et responsabilité
  • les problèmes épistémologiques et ontologiques : rapport à la connaissance et à la vérité (fiabilité de l’information), biais, représentativité des données
  • l’interdisciplinarité de la data-philosophie avec les sciences de l’information, la sociologie, la psychologie et les sciences politiques

Elle évoque les apports de deux contributeurs à la data-philosophie : Luciano Floridi qui a introduit le concept d’infosphère et Tim Berners-Lee, fondateur du World Wide Web, concepteur du web sémantique et défenseur de la démocratisation et de la décentralisation du web.

Enfin, cette première partie revient sur les concepts clés de la data-philosophie, déjà rapidement évoqués :

  1. la relation entre les données, la connaissance et la réalité : biais potentiels des algorithmes, interprétation des données, utilisation des données personnelles à des fins politiques, infodémie et relation des individus à l’information
  2. la représentativité des données et la façon dont ces dernières peuvent influencer notre compréhension de la réalité
  3. les principes éthiques de l’utilisation des données (vie privée, confidentialité, transparence, responsabilité)
Deuxième partie : les implications de la data-philosophie

Dans cette deuxième partie, l’auteure revient sur les enjeux politiques, sociaux et humains que soulèvent les données numériques, et propose des pistes de réflexion afin d’appréhender leur utilisation de manière éthique et responsable.

Je ne vais pas revenir de manière approfondie sur ces différents enjeux, sauf ceux qui ont plus particulièrement retenu mon attention.

Dans un premier chapitre, Sonia Bressler aborde les implications éthiques : l’importance du consentement et de la transparence (avec les problématiques de respect de la vie privée), la nécessité d’un accès équitable aux données et de la lutte contre les discriminations.

Dans un second chapitre, elle aborde les implications épistémologiques : les limites de la connaissance basée sur les données et la question de la fiabilité de l’information.

Elle revient sur les enjeux de la sélection des données dans le fonctionnement des modèles prédictifs et explicatifs (machine learning, agents) et à nouveau sur les biais algorithmiques notamment dans le domaine de l’emploi (recrutement), de l’économie (accès au crédit, publicité) et de la reconnaissance faciale.

Le dernier chapitre porte sur les implications politiques et sociales :

  • démocratie et gouvernance : la façon dont les données numériques participent de la polarisation des débats politiques, des bulles de filtres et de la manipulation des opinions publiques (ce qui est développé par le deuxième ouvrage que j’évoquerai dans cet article, Toxic Data), l’atteinte à la vie privée, mais également la question de la désinformation avec les biais de confirmation et l’influence sur les comportements électoraux et sociaux
  • protection des droits fondamentaux avec un rappel de la protection des données (RGPD, droit à l’oubli…)
  • la transparence et la responsabilité des institutions, la question de l’ouverture des données / open data (voir le site data.gouv)
  • la participation citoyenne des individus aux questions relatives aux données et donc la nécessité de l’éducation (littératie des données, esprit critique)
  • la relation des données aux domaines de l’économie et du travail (automatisation, protection des travailleurs et innovations technologiques)
troisième partie : perspectives critiques

Dans cette dernière partie consacrées aux débats et controverses en lien avec les données numériques, Sonia Bressler revient dans un premier temps sur les questions de neutralité et d’objectivité des données.

Les données et algorithmes peuvent-ils être neutres ? La question permet de rappeler les différents biais qui peuvent intervenir dans le traitement des données, que ce soit en amont dans la collecte de ces données (échantillonnage non représentatif) ou en aval dans leur traitement (biais de confirmation). Elle aborde également les biais qui interviennent durant la conception des algorithmes ou dans leur fonctionnement (apprentissage automatique).

Humanisme et technologie revient sur les différents penseurs qui alertent sur la déshumanisation de la société (incitation à la surconsommation, dépendance numérique) et sur les enjeux éthiques des innovations technologiques, avec la nécessaire collaboration entre humains et machines.

Le dernier chapitre de l’ouvrage revient sur les enjeux actuels des données numériques et de l’intelligence artificielle, avec à nouveau la nécessité de transparence, les implications éthiques et sociales, la relation entre intelligence artificielle et développement durable, la mise à jour des cadres réglementaires et de la législation.

Mon avis sur l’ouvrage

J’ai trouvé cette mise en relation entre la philosophie (et plus particulièrement ses ramifications anciennes) et les données numériques particulièrement éclairante.

Cela m’a rappelé d’autres lectures, plus anciennes, que j’avais pu faire lorsqu’il s’agissait de préparer les épreuves du CAPES de documentation, et même encore plus loin, les cours de philosophie suivis en terminale et en prépa.

C’est tout l’intérêt de cette question, de voir également la transversalité des données numériques.

Par contre, l’ouvrage a tendance, en voulant insister sur les différents aspects et enjeux des data, parfois à se répéter et à étirer ces problématiques, et j’avoue que cette lecture a été pour moi un peu plus laborieuse que les autres.

Elle permet cependant de prendre de la hauteur par rapport à l’ouvrage que je vais désormais aborder, et que pourtant j’avais lu en premier.


Toxic Data, de David Chavalarias

J’avais ce livre depuis le mois de juin dans ma bibliothèque, et après mes quelques lectures sur l’intelligence artificielle, il m’a paru presque récréatif…

Il apporte un éclairage spécifiquement politique à la question des données numériques et complète à la fois l’ouvrage de Sonia Bressler sur la data-philosophie et l’ouvrage de Pascal Boniface sur la géopolitique de l’intelligence artificielle.

L’auteur ancre son contexte dans la crise provoquée par la prise d’assaut du Capitole par les militants trumpistes suite aux résultats des élections américaines en 2021. Son analyse porte ensuite sur la manière dont les réseaux sociaux transforment la circulation de l’information et influencent les comportements politiques.

Il s’appuie sur un projet lancé en 2016 avec une équipe du CNRS : le Politoscope, qui collecte les messages émis sur Twitter par les comptes appartenant à la sphère politique.

L’ouvrage se décline en 14 chapitres que je vais tâcher de résumer, et propose également des visuels et des outils pour mieux appréhender la question.

chapitre 1 : la france dans le collimateur de l’alt-right

David Chavalarias étudie dans ce chapitre l’utilisation des mèmes pour marquer l’opinion publique, et donc sur le ressort émotionnel de l’information.

Ce mode de communication est utilisé durant la campagne de 2017 par les militants extrémistes, qui vont utiliser la faille de notre système électoral : le fait de ne retenir au second tour des élections que les deux candidats arrivés en tête, ce qui polarise d’autant plus la campagne.

Il analyse également la provenance de ces messages et leur temporalité, l’utilisation des bots pour diffuser les messages, la rapidité de circulation de l’information, et souligne l’habitude que nous avons prise de recevoir cette information de manière instantanée sans forcément la remettre dans son contexte.

chapitre 2 : que se passe-t-il derrière l’écran ?

Ce chapitre revient principalement sur le fonctionnement du réseau social Twitter, la façon dont se forment les communautés (homophilie / influence sociale).

chapitre 3 : nos réseaux sociaux vus du ciel

L’auteur y étudie la participation des différentes communautés politiques à des campagnes de dénigrement de personnalités, et la représentation cartographiques des comptes politiques sur Twitter.

Cela lui permet d’approfondir les phénomènes de diffusion des fausses informations, de bulles de filtres et de repli sur soi.

chapitre 4 : quand les algos partent en vrille

Ce chapitre est l’un des plus captivants : il s’intéresse à une expérience menée par un utilisateur de Facebook qui avait décidé de liker tout ce qui apparaitrait sur sa page Facebook, pour observer la façon dont le fil d’actualités se modifiait en conséquence (filtrage collaboratif).

chapitre 5 : libres de se laisser enfermer

L’auteur étudie trois phénomènes intervenant sur les réseaux sociaux :

  • renforcement
  • contagion algorithmique
  • bulle de filtre

ainsi que le biais de confirmation, mais également le biais de négativité, qui consiste à privilégier ce qui va accentuer nos peurs dans la réception des messages (les informations négatives) plutôt que les informations positives, et là encore le ressort émotionnel des réseaux sociaux.

chapitre 6 : toxicité à tous les étages

Citation de Marshall McLuhan :

Nous façonnons nos outils, et par la suite, nos outils nous façonnent.

À la différence d’un repas familial où nous allons adapter (généralement) nos sujets de conversation à l’auditoire pour éviter de fâcher untel ou untel, nous recevons sur les réseaux sociaux (l’auteur étudie ici le fonctionnement de l’algorithme de Facebook) toutes les informations postées par notre entourage, mettant en lumière des divergences qui autrement auraient pu rester invisibles.

chapitre 7 : quand c’est gratuit, c’est vous le produit

Dans ce chapitre, l’auteur revient sur la collecte systématique et à grande échelle des données, sur le ciblage publicitaire et sur le détournement de ce ciblage à des fins politiques.

Il se penche aussi sur la manipulation des résultats de recherche et sur les suggestions proposées, notamment par l’algorithme de Google. L’auteur propose à titre d’exemples les suggestions de recherche obtenues en tapant le nom des cinq candidats les mieux placés aux élections présidentielles de 2022.

chapitre 8 : diviser pour mieux régner depuis l’étranger

Ce chapitre étudie les phénomènes de désinformation intervenant dans les campagnes électorales (États-Unis, France) depuis l’étranger (Russie) pour influencer les résultats – ou comment l’information (et la désinformation en l’occurence) est utilisée comme moyen de déstabilisation et de division intérieure.

Ces stratégies sont proposées dans l’ouvrage de Sun Tzu, L’Art de la guerre : division entre inférieurs et supérieurs, désinformation (aussi appelée division de mort), corruption.

Elles sont approfondies dans le chapitre suivant, Subversion 2.0, qui revient également sur l’émergence du réseau social Tik Tok.

chapitre 9 : subversion 2.0
  • le réseau social Tik Tok et ses critères de modération contestables
  • retour sur le chatbot Tay lancé par Microsoft capté par des trolls
  • premières analyses du fonctionnement des agents GPT-2 et GPT-3
chapitre 10 : check-up d’une démocratie malade

L’auteur revient ici sur les évolutions du monde politique induites par les réseaux sociaux : fragmentation du monde politique, dérapage vers les extrêmes.

Ces problématiques sont approfondies dans le chapitre suivant, « La démocratie, première victime du Covid-19 », qui se penche sur les chambres d’écho antivax.

Le chapitre 12 s’intéresse quant à lui à la montée du populisme, en étudiant les principales sources de désinformation sur Twitter et les rapports ambigus entre médias traditionnels et médias numériques (rôle de C News dans la campagne d’Éric Zemmour), avec un prolongement dans le chapitre 13, introduit par une référence à la pièce Rhinocéros de Ionesco.

L’auteur finit par étudier dans le dernier chapitre deux concepts à l’oeuvre dans la société actuelle et mettant en péril le processus démocratique : la rigidité d’une société (influence sociale) et la dépendance au chemin (phénomène de renforcement).

En conclusion, il propose deux types de recommandations, au niveau individuel et collectif pour renverser la vapeur, parmi lesquelles :

  1. puisez à la source, aiguisez votre sens critique, identifiez vos « vrais amis », dissociez vos différents réseaux, ayez l’oeil sur vos émotions, prenez vos distances, fuyez les notifications…
  2. donnons la priorité à l’éducation

En annexe de son propos il donne une liste de sophismes à éviter pour de meilleurs débats en ligne, ainsi qu’un glossaire.

Mon avis sur l’ouvrage

Cet ouvrage est absolument captivant, et je me suis retenue de ne pas en faire une recension encore plus poussée.

Les recommandations en fin d’ouvrages peuvent, selon moi être réutilisées en classe pour travailler avec les élèves sur l’esprit critique. De même le glossaire reprend les termes incontournables de l’ouvrage.

Toxic Data m’a permis de tirer des fils et de revenir sur des ressources que j’avais déjà repérée : la vidéo de Fouloscopie sur les réseaux sociaux, le site Seriously qui permet de pacifier des discussions sur Internet, ou le site de Stéphanie de Vanssay, Dompter les trolls.


 Ressources

Page 1 sur 10

Fièrement propulsé par WordPress & Thème par Anders Norén