cinephiledoc

Blog pour cinéphiles et profs docs

Catégorie : Notes de lecture (Page 1 sur 2)

Notes de lecture sur l’intelligence artificielle (épisode 6)

Comme je l’ai annoncé dans les précédentes notes de lecture (épisode 5), j’ai décidé de consacrer un nouvel article à la question de l’intelligence artificielle.

Pour celui-ci, j’ai décidé de me concentrer sur deux ouvrages relativement récents, et sur des articles publiés dans un numéro du Courrier international. Concernant les ressources en ligne, je tâcherai de faire en sorte qu’elles soient en relation avec ces publications.

J’en profite pour indiquer que j’ai ajouté en format PDF dans l’article consacré à l’intelligence artificielle au cinéma la deuxième réponse que m’avait fournie le service Eurêkoi à la question que je leur avais posée.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcourus : La Révolution ChatGPT et Si Rome n’avait pas chuté
  2. revue de presse avec le numéro 99 du Courrier international Hors-série
  3. sélection de ressources

La Révolution ChatGPT, d’Éric Sarrion

Cet ouvrage a été publié aux éditions Eyrolles en juin 2023.

Comme d’habitude lorsqu’il s’agit de publications dédiées à un outil spécifique et dont cette maison d’édition est coutumière (je pense par exemple aux guides sur WordPress, LinkedIn, Facebook, programmation Python, référencement Google, etc.), je suis toujours un peu frileuse…

J’ai toujours peur que ce type d’ouvrages deviennent un peu trop vite obsolètes face aux évolutions des outils qu’ils décortiquent. Je ne vais donc pas m’attarder sur les chapitres qui se concentrent sur des conseils d’utilisation (même si je les présenterai rapidement), et je vais détailler davantage les chapitres introductifs et conclusifs de ce livre.

En effet, le propos d’Éric Sarrion se décline en cinq parties. Les deux premières reviennent sur les origines et le fonctionnement de ChatGPT.

Partie 1 : Introduction à ChatGPT.

Dans ces premiers chapitres, l’auteur présente ChatGPT, un modèle de traitement du langage naturel pré-entrainé (Generative Pre-trained Transformer), développé et publié par OpenAI en 2019 et qui en est à sa 4e version. Il en indique les principaux domaines d’application, de l’assistance clientèle à la traduction, en passant par l’éducation et le recrutement.

Le fonctionnement de ChatGPT repose sur l’entrainement et la personnalisation, à partir d’un réseau de neurones. Il traite le langage naturel entre autres via la tokenisation (diviser le texte en unités appelées tokens) et les embeddings (représentations vectorielles des mots).

Pour l’entrainer, il faut veiller à nettoyer régulièrement les données collectées pour éviter le bruit – bruit informationnel, ça nous rappelle quelque chose – et les incohérences.

Les applications possibles de ChatGPT sont les assistants virtuels (chatbot), la traduction automatique, la rédaction de contenu et la recherche d’informations.

Partie 2 : Comment entraîner et utiliser ChatGPT ?

Cette partie se concentre sur des aspects techniques d’utilisation de ChatGPT.

L’auteur présente les tâches de pré-entrainement (données non étiquetées) et d’entrainement (affiner le modèle sur une tâche spécifique avec des données étiquetées = fine-tuning). Il énumère les différentes étapes pour entraîner ChatGPT : collecte et préparation des données, paramètres d’entrainement et outils disponibles.

Il indique ensuite comment utiliser ChatGPT dans des projets de développement en s’appuyant sur des bibliothèques et frameworks (Hugging Face par exemple) – ce qui permet de mieux comprendre également comment a pu être créer un outil comme Climate Q&A, évoqué dans mes précédentes notes de lecture.

Il donne enfin des exemples d’intégration et d’utilisation (créer un chatbot en Javascript, utiliser ChatGPT avec une interface vocale), ainsi que quelques stratégies de bonnes pratiques, notamment pour éviter les biais dans les données (diversifier les sources, utiliser des algorithmes pour détecter les biais).

Afin d’évaluer les performances de l’outil, on peut utiliser différentes méthodes comme la perplexité qui évalue la capacité du modèle à prédire la prochaine séquence de mots dans un texte (plus elle est faible, meilleur est le résultat) ou le test de Turing.

Partie 3 : Exemples d’utilisation de ChatGPT

Le premier chapitre de cette partie, « Poser les bonnes questions à ChatGPT » revient sur les éléments essentiels d’un bon prompt : être clair et précis, être spécifique, poser une question à la fois, utiliser un langage clair, garder la même discussion pour un même sujet et être courtois.

S’ensuivent une suite de chapitres détaillant différents exemples d’utilisation :

  • création de contenu textuel pour le marketing ;
  • traduction et apprentissage d’une langue ;
  • recrutement ;
  • création de code informatique (et de code pour Excel, ce qui peut rendre service quand, comme moi, on a du mal avec les tableurs) ;
  • création de contenu artistique et aide à l’innovation

Partie 4 : Implications éthiques

Dans ces trois chapitres, on retrouve les principales problématiques associées à l’intelligence artificielle aujourd’hui :

  1. les biais et les risques dans un premier temps (sources de biais, risques de discriminations avec un retour sur l’exemple de Tay, confidentialité et sécurité)
  2. les effets sur l’emploi et la société (est évoqué le projet construit par l’université de Stanford, EduGPT, pour répondre aux questions des étudiants, mais aussi la propagation des fausses informations)
  3. les réglementations et normes (utilisation responsable, nécessité de transparence, gouvernance de l’IA)

Partie 5 : Perspectives d’avenir

Enfin, les deux derniers chapitres offrent un regard déjà tangible sur les perspectives d’avenir de ChatGPT :

  • les points d’amélioration et de développement, les avancées dans certaines applications, la mise en concurrence
  • les défis à long terme (fusions avec d’autres technologie comme la réalité virtuelle ou l’informatique quantique, enjeux de réglementation et de gouvernance, nécessité de responsabilité et d’éthique)

Mon avis sur l’ouvrage

Comme je l’ai indiqué plus haut, ma principale réserve sur cet ouvrage est celle qui se rapporte d’une certaine manière à son obsolescence programmée, étant donné la rapidité d’évolution des outils d’intelligence artificielle.

Néanmoins, je trouve que ce livre permet de comprendre assez facilement le fonctionnement de ChatGPT avec des exemples d’utilisations concrètes, et d’en avoir un usage averti et critique, ce qui est loin d’être négligeable, surtout pour les élèves.


Si Rome n’avait pas chuté, Raphaël Doan

Le deuxième ouvrage sur lequel je me suis penchée pour ces notes de lecture est un livre fascinant qui utilise les potentialités de l’intelligence artificielle générative dans une perspective historique et historienne.

L’ouvrage a été publié en mai 2023 aux éditions Passés/Composés, une maison d’édition que j’adore parce qu’elle publie des documentaires historiques sous forme d’infographies.

Le propos de Si Rome n’avait pas chuté est assez vertigineux. Il s’agit, pour l’auteur, d’utiliser différents outils d’intelligence artificielle générative (le modèle de GPT-3 text-davinci-003 pour la génération de textes et 3 outils de synthèses d’images pour les illustrations : DALL-E, Midjourney et Stable Diffusion) pour proposer au lecteur une uchronie.

Chaque partie de l’histoire écrite par l’intelligence artificielle est suivie d’un commentaire de l’historien, qui remet en perspective les inventions de l’IA. L’ouvrage est construit de la façon suivante : deux préfaces, quatre parties qui font des allers-retours entre uchronie et commentaire, et une chronologie alternative.

Les deux préfaces reflètent les intentions du livre. La première, relativement succincte, se concentre sur l’uchronie proposée par l’intelligence artificielle : un monde où les Romains ont découvert la machine à vapeur et utilise la technologie pour conquérir le monde et l’espace.

La seconde préface dévoile la démarche de l’auteur. Il y revient sur les évolutions les plus récentes de l’intelligence artificielle générative, sur ce que permettent actuellement les grands modèles de langage (LLM) et sur l’impact actuel de la technologie (rapidité, divertissement, bulles de filtres).

Il explique de quelle manière l’intelligence artificielle peut raconter des histoires, et justement, de quelle manière elle peut servir l’uchronie, à partir de laquelle il pourra ensuite faire des allers-retours entre passé et présent.

S’il utilise le modèle de langage text-davinci-003, c’est parce que contrairement à ChatGPT qui privilégie la pertinence et la cohérence, text-davinci-003 offre une certaine originalité dans ses réponses. Mais comme pour ChatGPT (ce que nous avons vu plus haut), la formulation de la question reste primordiale :

Pour tirer le meilleur parti de ces grands modèles de langage, il faut savoir quoi lui demander. Parfois, il faut lui dire d’écrire comme un historien ; parfois comme un économiste ; parfois, comme un scénariste de cinéma, ou un grand romancier. La précision de la consigne est déterminante ; il faut lui demander d’être prolixe et détaillé, ou bien de donner des exemples. Le résultat est souvent meilleur si on lui dit en préambule : « tu es le meilleur historien spécialiste de la Rome antique au monde » ; comme quoi, la confiance en soi est la clé du succès, même pour les ordinateurs.

Passée cette préface, l’ouvrage s’articule en quatre parties qui vont proposer ces allers-retours entre une fiction aux illusions troublantes et le propos de l’historien.

Chapitre 1 : Néron et la machine à vapeur

Le point de départ de l’uchronie est l’invention de la machine à vapeur par Héron d’Alexandrie et son utilisation par l’empereur Néron. L’auteur utilise aussi cette première partie pour la production de textes littéraires « à la manière de » : la lettre d’un sénateur romain, le passage d’un roman de Pétrone, un poème de Martial.

La lecture de cette première partie m’a rappelée les textes publiés par les écrivains de la fin du 19e siècle et débattant de la beauté ou de la laideur de la Tour Eiffel. Pour revenir à notre uchronie, elle est l’occasion de montrer que chaque invention à ses soutiens et ses détracteurs, ses opportunités et ses risques (comme l’intelligence artificielle).

La suite de l’uchronie revient sur l’invention de l’électricité, avec un personnage qui rappelle les géants du numérique (de Bill Gates à Elon Musk) et le risque de la concentration de ces technologies dans un minimum de mains – revoir à ce sujet la question telle qu’elle est évoquée par Pascal Boniface dans sa Géopolitique de l’intelligence artificielle.

Le commentaire de l’historien revient sur le rapport des Romains aux sciences et aux techniques, et sur la primauté de la théorie sur les applications concrètes.

Je vais revenir de manière un peu plus succincte sur les parties suivantes.

Chapitre 2 : Autres techniques, autres moeurs 

Dans ce deuxième chapitre, l’intelligence artificielle raconte l’invention par un ingénieur romain du moteur à combustion, et de la transformation de la société dans le domaine des transports et du divertissement.

Cette invention permet ainsi d’entrevoir celle des réseaux sociaux, et la transformation des mentalités qu’elle engendre. Le nom donné à ceux-ci est agoraskopia (vision de la foule).

Dans cette partie est également évoquée l’évolution de la place des femmes dans la société et de la religion (avec le culte de la déesse Technè).

Le commentaire de l’auteur revient ici sur la relation des Romains à leurs dieux, le rapport au savoir et aux évolutions de la société (là encore entre partisans et détracteurs du progrès).

Chapitre 3 : Des esclaves aux robots

Cette partie se concentre sur l’invention d’automates pour remplacer les esclaves afin d’exécuter les tâches de manière plus efficaces, et d’éviter les révoltes.

Elle revient également sur la fabrication du premier ordinateur (abacus mechanicus) :

Seuls les individus les plus compétents et les mieux informés étaient capables de l’utiliser au maximum de ses capacités (…).

puis d’un équivalent du smartphone : la tabula calculans, tactile, rechargeable et transportable dans une poche.

Cette partie conduit Raphaël Doan à réinterroger le rapport aux technologies (robotisation) et au travail.

Chapitre 4 : L’empire universel

Cette dernière partie met en perspective les avancées technologiques et les relations internationales avec ici le rapport entre l’empire romain et l’empire chinois, et la façon dont le latin est devenu une langue parlée universellement.

L’historien revient sur l’exploration du monde connu par les Romains, et sur la façon dont les Romains voyaient d’un mauvaise oeil la contamination de leur langue par le grec, de la même manière dont aujourd’hui les anglicismes contaminent le français.

Il s’amuse à remplacer dans les textes latins de l’époque les termes grecs par des expressions en anglais, traduisant chez certains auteurs une forme de snobisme. Il rappelle que la disparition du latin n’est pas tant due à l’influence du grec qu’à son évolution et sa déformation intérieure sous forme de langues dérivées (français, italien, espagnol).

Les dernières pages de l’uchronie orchestrent un conflit mondial avec comme acteur un imposteur – ce qui n’est pas sans rappeler les problématiques actuelles autour de la désinformation et des dérives dans l’utilisation de l’intelligence artificielle, en particulier les deepfakes, et ce qui conduit à mes prochaines lectures qui se pencheront notamment à nouveau sur les relations entre intelligence artificielle et politique.

L’ouvrage se referme avec la présentation de la chronologie alternative proposée par l’uchronie : de 56 avant JC et la découverte de la machine à vapeur, à 510 après JC :

Les Romains créent la première IA consciente d’elle-même, connue sous le nom de « Romulus », qui devient un outil inestimable pour la recherche scientifique et l’exploration.

Mon avis sur l’ouvrage

L’entreprise de Raphaël Doan m’a complètement bluffée et happée, j’ai lu ce texte en moins de 24 heures.

Mes notes ne rendent pas compte de la virtuosité avec laquelle il propose également des illustrations (dont la conception est explicitée dans sa deuxième préface). Le propos est, comme je l’ai dit, assez vertigineux, et remet continuellement en perspective notre rapport au savoir et aux avancées technologiques.

Les allers-retours proposés par l’historien permettent de replacer telle ou telle notion que l’on croit des plus récentes dans un contexte beaucoup plus ancien (la relation au divertissement, aux progrès, au travail, à l’écologie, à la langue), mais aussi de revenir aux sources d’un questionnement antique et d’en voir les prolongements jusqu’à aujourd’hui.

D’un point de vue un peu plus éloigné (quoique), cette uchronie m’a rappelée le scénario pédagogique présenté à la JIAPD par Gabrielle Bour, collègue professeure documentaliste dans l’académie de Paris, qui a fait utiliser des outils d’intelligence artificielle générative à ses élèves pour travailler sur la conjuration de Catilina, ce qui leur a donné des résultats assez surprenants, sources d’une réflexion sur l’usage critique de ces outils.


Revue de presse

Pour cette revue de presse, je me suis concentrée sur les publications du Courrier International, en particulier sur le Hors-série n°99 entièrement consacrée à l’intelligence artificielle, que je décortique en partie, en prélevant les articles qui se penchent sur ces aspects de la question. Je le reprendrai pour d’autres aspects dans de prochaines notes de lecture.

Pour citer les articles concernés, je mettrai en lien leur version en ligne quand le Courrier international la propose.

Ce premier article est issu de The Guardian et a été publié en octobre 2023. Il revient sur les applications principales de l’intelligence artificielle (reconnaissance vocale, voiture autonome, dépistage médical, publicité personnalisée, recommandation) et en profite pour redonner les définitions de certains termes associés : apprentissage automatique, algorithme, grand modèle de langage, chatbot.

L’article est suivi d’une superbe infographie (p.8-9), malheureusement non disponible en ligne, qu’on peut associer à celle proposée sur le site du Courrier international (voir plus bas dans les ressources).

Un encart « Que savent-elles faire ? Sept usages de l’IA » (p.10-11) donne différents exemples d’application : les rédactrices, les traductrices, les illustratrices, les vidéastes, les bavardes, les codeuses et les enquêtrices qui s’intéressent à la vérification de contenus générés par l’IA.

Cet article figure dans la première partie du hors-série, consacrée à l’intimité. Il a été publié en avril 2023 dans la MIT Technology review. Il s’intéresse aux failles des modèles de langage tels que ChatGPT : injection de prompts pour amener l’outil à soutenir des théories racistes ou complotistes, messages cachés facilitant les arnaques…

Les articles suivants de cette partie reviennent sur d’autres dérives ou d’autres applications relevant de la vie quotidienne : « Déshabillées en un clic » (p.17-18) alerte sur un outil permettant de créer photos et vidéos pornographiques, utilisé par les adeptes du revenge porn. « Un coach à la carte » (p.18-19) étudie les intelligences artificielles qui accompagnent les sportifs dans leur entrainement.

« J’ai créé le petit ami presque parfait » (p.20-22) rappelle le film Her : les jeunes chinoises choisissent de plus en plus d’avoir un compagnon virtuel, ce qui n’est pas sans risques.

Dans une deuxième partie, ce hors-série du Courrier international revient sur les impacts économiques de l’intelligence artificielle.

L’article proposé en pages 26-29 s’intéresse aux travailleurs de l’ombre de l’IA : ceux qui assignent des étiquettes à des contenus (en particulier les images) pour ensuite entraîner les modèles de langage, et dont l’existence est mise en péril par les derniers progrès de ces modèles, et l’apprentissage auto-supervisé, qui leur permet d’apprendre à partir de données non étiquetées.

L’article de cette partie que j’ai trouvé le plus intéressant est issu de The Atlantic : « Un an d’IA à l’université, un an de chaos et de confusion ». Il se penche sur la question des étudiants qui utilisent l’intelligence artificielle pour les travaux demandés, les raisons qu’ils invoquent (trouver l’inspiration, réduire le stress), et la nécessité pour les enseignants d’adapter leur pédagogie et leurs méthodes d’évaluation.

Deux autres articles reviennent sur les impacts de l’IA sur le marché du travail (précarisation, nivellement des salaires) quand un article publié dans le Wall Street Journal revient justement sur les nouveaux métiers rendus possibles par l’intelligence artificielle (développeur, ingénieur de requête, psychothérapeute de l’IA).

Ce portfolio fascinant, et accessible gratuitement en ligne sur le site du Courrier international, ouvre sur une nouvelle partie consacrée à l’intelligence artificielle dans les arts et la recherche.

Le premier article « Avec ChatGPT, nous vivrons bientôt tous en uchronie » (p.48-50) a été publié dans Die Zeit. Son auteur, l’écrivain Clemens Setz, revient sur les hallucinations de ChatGPT qui lui invente des oeuvres qu’il n’a pas écrites. Un encart rappelle les plaintes d’écrivains comme George R.R. Martin suite à l’utilisation de l’IA pour générer des textes en s’appuyant sur leurs oeuvres.

Une revue de presse se penche ensuite sur l’encadrement des usages de l’IA obtenus par les scénaristes et les acteurs à Hollywood après les grèves du printemps et de l’été 2023.

Les deux derniers articles s’intéressent aux applications de l’intelligence artificielle dans le domaine de la musique (générer une maquette en quelques clics, changer des voix, restaurer des morceaux en mauvais état, comme une chanson de John Lennon enregistrée sur cassette) et de la médecine (détecter les maladies et établir un diagnostic).

Je m’arrête ici pour ces notes de lecture, je reviendrai sur les derniers articles de ce hors-série dans un prochain épisode.

Quelques ressources pour terminer.

Ressources

Je renvoie une nouvelle fois au site de Bertrand Formet : Une IA par jour, pour continuer à farfouiller dans les nouvelles initiatives autour de l’intelligence artificielle.

Notes de lecture sur l’intelligence artificielle (épisode 5)

Ayant été pas mal accaparée à nouveau par ce sujet qui n’en finit pas de m’intéresser, je vous propose un cinquième épisode (et certainement un sixième très prochainement) de mes notes de lecture sur l’intelligence artificielle.

J’y ferai la recension d’au moins trois ouvrages (publications datant de 2023) et quelques extraits d’un quatrième, de différents articles de presse (2023 et 2024) ainsi qu’un retour d’expérience sur un outil d’intelligence artificielle testé dans le cadre de l’élaboration d’un scénario pédagogique.

Pour ces deux articles successifs, j’aborde deux angles d’approche, ce qui va me permettre de répartir les sources :

  • Le premier de ces angles est la relation entre intelligence artificielle et questionnements climatiques ;
  • Le second s’intéressera plus précisément aux outils d’intelligence artificielle générative, en particulier Chat GPT, tout en mettant l’accent sur des aspects sociaux, politiques et historiques.

Pour ces deux articles, je garderai la même structure que les notes de lecture précédentes.

Dans cet épisode :

  1. les ouvrages Le Département des théories fumeuses, de Tom Gauld et Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo
  2. revue de presse d’articles disponibles en ligne sur la thématique intelligence artificielle et climat
  3. sélection de ressources autour de l’outil Climate Q&A

Le Département des théories fumeuses, de Tom Gauld

Pour commencer cet article avec humour et sous l’angle à la fois du dessin et de la vulgarisation scientifique, je voulais évoquer rapidement cette lecture très récréative, que je dois à l’une de mes amies professeures documentalistes.

J’avais déjà dans ma bibliothèque les ouvrages brillants de Tom Gauld, qui sont fabuleux de drôlerie et de culture : En cuisine avec Kafka et La Revanche des bibliothécaires.

Si je retiens aussi Tom Gauld dans mes notes de lecture sur l’intelligence artificielle, c’est parce que dans ce nouvel ouvrage, Le Département des théories fumeuses, quelques planches permettent d’en illustrer certains aspects.

Je me permets d’en glisser ici deux petits exemples :

Je vous invite fortement à découvrir tous ces ouvrages qui sont magnifiques et également à suivre son compte Instagram.

Intelligence artificielle, de Julie Lardon et Agathe Robinson-Deroo

Cet ouvrage de vulgarisation est l’un des plus récents paru sur le sujet, et c’est également l’un des derniers ouvrages que j’ai reçus au CDI sur la question.

Ce document compte moins d’une centaine de pages, et propose un aperçu accessible et synthétique.

Dans une première partie « L’homme et la machine« , les auteures dressent un panorama historique de l’intelligence artificielle :

  • les premiers ordinateurs avec la figure d’Ada Lovelace
  • Alan Turing, la machine de Turing, le jeu de l’imitation et le test de Turing
  • la conférence de Dartmouth et le Perceptron de Frank Rosenblatt, dont le fonctionnement tente d’imiter celui de la pensée humaine, ce qui servira de modèle aux systèmes experts
  • le logiciel Eliza, premier à tenir une conversation avec un humain
  • les différentes évolutions : apprentissage automatique (machine learning), apprentissage supervisé, apprentissage par renforcement et apprentissage profond (deep learning)

Le fonctionnement de l’apprentissage automatique est expliqué de manière illustrée

La partie qui m’a le plus intéressée dans ce chapitre est celle de l’entrainement par les jeux, où les auteures proposent une chronologie qui relie les jeux et les évolutions de l’intelligence artificielle, avec différents programmes d’échecs, de dames et de morpion élaborés depuis 1948, jusqu’à Pluribus développé par des ingénieurs de Carnegie-Mellon et capable de bluffer au poker, en passant par Deep Blue et AlphaGo.

Cette partie revient également sur l’utilisation de GTA V pour entraîner des logiciels de voitures autonomes.

Enfin une double-page dresse un aperçu des acteurs de l’intelligence artificielle : entreprises (IBM, DeepMind, Amazon, Facebook), États et instituts de recherche.

Dans la deuxième partie, « Une technologie en plein essor« , l’ouvrage revient sur les fonctionnalités les plus récentes de l’intelligence artificielle :

  1. reconnaissance d’images (surveillance, reconnaissance faciale, santé et industrie)
  2. traitement du langage (chatbots, traduction automatique, reconnaissance vocale et modération)
  3. analyse de données (systèmes de recommandations, voitures autonomes, logiciels de prédiction) jusqu’aux villes intelligentes
  4. robotique

Enfin la troisième partie, « Vers une société « intelligente » ? » ouvre le débat en revenant sur différents aspects de l’intelligence artificielle à remettre en perspective…

D’un côté les points de vigilance :

  • les biais algorithmiques des intelligences artificielles (avec l’exemple de Tay lancé en 2016 par Microsoft)
  • la question de la surveillance et de l’utilisation des données personnelles (et le score social chinois)
  • la manipulation et la désinformation avec un accent mis sur les deepfake
  • les questionnements éthiques (encart Lois de la robotique)

De l’autre les bénéfices :

  • lutte contre la pauvreté
  • santé
  • anticipation du changement climatique

Ce dernier point est abordé très rapidement et revient sur le dilemme consommation d’énergie par les outils d’intelligence artificielle VS établissement de modèles pour prévoir les événements climatiques.

Mon avis sur l’ouvrage

C’est un petit ouvrage très accessible, illustré agréablement et qui revient d’une manière synthétique et rapide sur les différents enjeux de l’intelligence artificielle. Il permet un premier aperçu ou de réactiver (pour ma part) assez succinctement des connaissances sur la question.


Climat et IA : revue de presse

Comme je l’ai indiqué dans mon précédent article #profdoc, j’ai proposé dans le cadre de la semaine de la presse une séance « Presse et Climat » à un groupe de terminale HGGSP, à la demande de mon collègue en charge de l’enseignement.

Pour l’occasion, j’ai élaboré pour les élèves différents ateliers, et un peu tardivement, j’ai eu l’idée de leur proposer également une activité « intelligence artificielle et climat ».

J’ai donc été amenée à consulter un certain nombre de ressources sur la question et c’est aussi pour cette raison que les dernières pages de l’ouvrage présenté plus haut ont retenu mon attention.

Pour cette revue de presse, je propose donc une sélection d’articles issus non pas des abonnements papiers du CDI comme à l’accoutumée, mais issus de ma veille sur la question.

« Une IA a illustré le rapport du GIEC et le résultat est sombre ». L’ADN, 6 avril 2023, https://www.ladn.eu/tech-a-suivre/changements-climatiques-illustration-rapport-intelligence-artificielle-midjourney/

L’article publié en avril 2023 met l’accent sur la façon dont l’intelligence artificielle peut sensibiliser au changement climatique, en prenant comme point de départ une présentation du réchauffement climatique proposé en 2018 par le climatologue Ed Hawkins.

Il explique comment le professeur Aurélien Saussay a utilisé l’outil Midjourney pour réaliser des visuels sur les titres du dernier rapport du GIEC.

Sont ainsi illustrés les phénomènes météorologiques extrêmes, les flux financiers et les adaptations au changement climatique, les risques, la menace pour le bien-être humain.

L’IA pour lutter contre le changement climatique et favoriser la durabilité environnementale | Inria. 6 juillet 2023, https://www.inria.fr/fr/ia-changement-climatique-environnement.

Dans cet article mis à jour en 2024, l’INRIA revient sur la mise en place d’une équipe en son sein par la chercheuse Claire Monteleoni pour prédire l’évolution du climat et anticiper les phénomènes extrêmes.

Cette équipe doit relever le défi des données à traiter pour répondre aux questions climatiques, des données qui restent complexes à manipuler (données massives à exploiter dans certaines zones, données manquantes pour d’autres régions).

L’intelligence artificielle peut aider à combler les données manquantes mais aussi à prendre des décisions, et l’apprentissage automatique peut aider à répondre à ces problématiques.

Le projet ARCHES entend ainsi optimiser l’intelligence artificielle pour lutter contre le changement climatique à travers trois axes de recherche :

  1. L’IA pour la science du climat : pour améliorer la compréhension scientifique de l’évolution du système climatique.
  2. L’IA pour l’adaptation au changement climatique : pour concevoir l’impact social et accompagner les communautés et les décideurs avec des outils d’aide à la prise de décision.
  3. L’IA pour l’atténuation du changement climatique : pour accélérer notre transition écologique, avec un accent particulier sur les énergies renouvelables.
Mettre l’intelligence artificielle au service de l’action climatique dans les pays en développement, voici le défi lancé à la COP 28, Communiqué ONU Changement climatique, 9 décembre 2023

Ce communiqué publié sur le site de la Convention-cadre des Nations unies sur les changements climatiques (COP 28) revient sur les différentes déclarations des participants qui mettent en relation climat et intelligence artificielle.

À retenir, ce paragraphe en particulier :

L’événement de la COP 28 a réuni des dirigeants de gouvernements, des Nations unies, d’agences de coopération au développement et d’entreprises pour discuter de la manière dont l’IA peut être utilisée pour une action climatique transformationnelle dans les nations en développement, tout en veillant à ce qu’elle ne contribue pas à élargir la fracture numérique causée par l’inégalité de l’accès à la technologie.

« Intelligence artificielle bonne ou mauvaise idée pour la planète ? » France Inter, 12 avril 2023, https://www.radiofrance.fr/franceinter/podcasts/la-terre-au-carre/la-terre-au-carre-du-mercredi-12-avril-2023-7653937.

Enfin dans cette dernière ressource (une émission de France Inter que j’avoue ne pas avoir eu le temps d’écouter jusqu’au bout), l’article associé à cette émission revient sur les différents points de débat autour de l’intelligence artificielle et des questionnements climatiques, déjà relevés dans l’article de l’INRIA :

  •  le traitement des données complexes par l’IA et les modélisations climatiques
  • une prédiction plus rapide et efficace des évolutions climatiques
  • mais des technologies elles-mêmes énergivores, avec un poids carbone de plus en plus important

Néanmoins la principale ressource qui revenait dans mes recherches pour faire le lien entre intelligence artificielle et questionnements climatiques était justement un outil d’intelligence artificielle proposé afin d’étudier les différents rapports du GIEC, et c’est sur ce dernier outil, ainsi que sur les ressources qui m’y ont conduites, que je souhaiterais maintenant revenir.

Utilisation de l’outil Climate Q&A qui décrypte les rapports du GIEC.

Exemple d’utilisation avec deux questions :

Quelles preuves avons-nous que le climat change ?

Nous disposons de plusieurs éléments de preuve indiquant que le climat est en train de changer de manière significative au cours du dernier siècle. Voici les principaux points à retenir :

Les études d’attribution montrent que les changements de température sont attribués à divers facteurs, tels que l’influence humaine totale, les gaz à effet de serre, les aérosols, l’ozone, les changements d’utilisation des terres, les éruptions volcaniques, et la variabilité climatique interne.

Les changements observés dans le climat sont associés à des activités humaines et sont catégorisés par différents niveaux de confiance scientifique, allant de moyen à virtuellement certain.

Des preuves issues de changements attribués dans les extrêmes climatiques et météorologiques soutiennent l’idée que même un réchauffement de 0,5°C supplémentaire par rapport à aujourd’hui entraînerait des changements détectables dans ces extrêmes.

Les rapports du GIEC soulignent que le système climatique change rapidement en raison de l’influence humaine, avec des changements documentés dans l’atmosphère, les terres, la cryosphère, la biosphère et les océans, ce qui représente un engagement à l’échelle millénaire pour les éléments du système climatique qui répondent lentement.

L’attribution des changements climatiques à l’influence humaine est devenue de plus en plus forte au fil des rapports du GIEC, avec des preuves solides montrant une influence humaine claire sur le système climatique.

Ces éléments de preuve combinés indiquent de manière indiscutable que l’influence humaine a contribué au réchauffement de l’atmosphère, des océans et des terres, confirmant ainsi le changement climatique en cours.

Quels sont les enjeux de l’utilisation de l’intelligence artificielle face aux changements climatiques ?

L’utilisation de l’intelligence artificielle (IA) pour aborder le changement climatique présente plusieurs défis, comme indiqué dans les documents fournis :

Les technologies numériques, y compris l’IA, peuvent contribuer à atténuer le changement climatique et à atteindre plusieurs objectifs de développement durable. Cependant, certains gains en matière de lutte contre le changement climatique peuvent être réduits par une augmentation de la demande de biens et services due à l’utilisation d’appareils numériques.

L’application de l’IA dans le domaine de la modélisation et de la prévision climatique est encore relativement nouvelle, avec des avancées principalement dans les domaines de la prévision météorologique, des rendements agricoles, des systèmes d’alerte précoce et de la gestion de l’eau.

Les défis liés à l’utilisation de l’IA pour lutter contre le changement climatique comprennent des coûts de formation et de logiciels, la demande des clients et du marché, ainsi que des problèmes juridiques et de gouvernance.

Les modèles d’analyse intégrée et leurs résultats pour fournir des stratégies de réponse au changement climatique ont été critiqués pour leur manque de crédibilité dans certaines hypothèses cruciales, notamment en ce qui concerne la disponibilité des technologies de capture du dioxyde de carbone.

En résumé, les principaux défis de l’utilisation de l’IA pour aborder le changement climatique incluent les coûts, la demande du marché, les problèmes juridiques, la crédibilité des modèles et la disponibilité des technologies nécessaires. Ces défis nécessitent une approche soigneusement planifiée et une gouvernance appropriée pour maximiser les avantages de l’IA dans la lutte contre le changement climatique.

Concernant la question posée sur l’intelligence artificielle, j’ajoute ici différentes captures d’écran qui donnent un aperçu du fonctionnement de l’outil, ce dernier mettant à chaque fois en relation ses réponses avec les rapports du GIEC, et proposant des illustrations :

Pour compléter cet outil voici une sélection d’articles qui en faisaient la présentation :

Notes de lecture sur les données (épisode 2)

Pour ce nouvel épisode de mes notes de lecture, que je vais tâcher de publier fort opportunément au moment du Safer Internet Day 2024, je fais la recension de deux ouvrages qui font figurer le Big Data dans leurs titres.

Néanmoins, si le sujet les rapproche, beaucoup de choses les éloignent dans la façon dont ils abordent la question, et c’est aussi ce qui m’a intéressée. C’est également leur approche du Big Data qui m’a rendu la tâche complexe pour en faire la synthèse.

Encore une fois, j’ai voulu me plonger dans des lectures présentes dans le fonds documentaire du CDI de mon établissement, et je n’ai pas forcément choisi les ouvrages que j’aurais moi-même commandé sur la question ou qui aurait forcément attiré mon attention de prime abord.

Dans cet épisode :

  1. un aperçu de ces deux ouvrages : Dans l’ombre de la peur : Le Big Data et nous et Petit dico critique du Big Data
  2. un panorama de la presse récente sur la question

Dans l’ombre de la peur : Le Big Data et nous, Michaël Keller et Josh Neufeld

Au moment où je commence l’écriture de cet article, ma lecture de cet ouvrage commence à dater, et j’ai un souvenir plus récent du second.

Par ailleurs, son format m’a donné l’idée de consacrer prochainement un cinquième épisode de notes de lecture à l’intelligence artificielle, un sujet qui ne cesse de me captiver cette année et qui retarde d’autant plus mes autres lectures professionnelles en projet, sur le numérique, les écrans ou encore sur le jeu.

Le format de cet ouvrage en rend la recension compliquée, puisqu’il s’agit d’une bande-dessinée publiée en 2017 aux éditions Ça et Là pour sa version française. En effet, il s’agit à l’origine d’une publication américaine datant de 2014.

Le traitement de la question du Big Data remonte ainsi à une dizaine d’années, mais en pose les jalons et revient sur certains éléments qu’il est intéressant de remettre en perspective aujourd’hui.

Le point de départ de cette bande-dessinée, qui aborde la question sous un angle états-unien, c’est une rencontre en 2004 entre les dirigeants de Google, l’ancien président Al Gore et une sénatrice américaine, Liz Figueroa pour parler de Gmail, et de la façon dont la messagerie proposait de la publicité ciblée en analysant les mots-clés présents dans les messages.

Cette sénatrice avait alors déposé un projet de loi exigeant que Google obtienne le consentement des utilisateurs avant d’appliquer toute analyse systémique des données, un projet qui finalement n’a pas été approuvé par le sénat de l’État de Californie.

Ce point de départ donne lieu à une analyse de la façon dont les données personnelles sont collectées dans les différentes applications numériques de la vie courante.

Il donne aussi un aperçu de l’accélération des technologies et de la façon dont les questions que l’on se pose ou que l’on a pu se poser sur cette collecte des données personnelles sont presque instantanément rendues obsolètes par le développement même de ces technologies.

Par exemple, au moment où ils posent la question de l’analyse des données cellulaires pour générer un bulletin du trafic routier, Google Maps opère déjà cette analyse, et leur offre comme perspective l’analyse quotidienne de la boîte noire d’un véhicule, les voitures autonomes, la question du traitement des données dans le domaine des assurances… enjeux que l’on retrouve au coeur des questionnements sur le Big Data en 2024.

Parmi les personnes interrogées sous le format BD par les deux auteurs, on retrouve danah boyd, autrice de C’est compliqué : la vie numérique des adolescents, publié en 2016, qui revient sur la façon dont les jeunes tentent de maîtriser les contenus postés sur les réseaux sociaux, ou encore Amanda Caswell, qui revient sur la façon dont les montres connectées récupèrent les données de santé de leurs utilisateurs.

L’épilogue de l’ouvrage « En voiture avec l’Uber économie » évoque le cas d’un chauffeur qui filme ses passagers, la façon dont usagers et employés d’un service se surveillent et se notent mutuellement, amenant un glissement vers les systèmes de crédit social chinois.

Je profite de ce glissement pour présenter ici le travail réalisé en EMC par deux élèves de seconde.

Timothée et Flavien se sont intéressés aux différentes formes de cyber-contrôle en Chine et ils ont utilisé le support ci-dessous (présenté ici avec leur autorisation à tous deux) pour illustrer leur exposé oral, qui était également de grande qualité.

Diapos issues de la présentation d’EMC de Flavien Amy et Timothée Cailleux (2nde13 – 2023/2024)

Exposé Timothée et Flavien cyber-sécurité

Mon avis sur l’ouvrage

L’ouvrage nous propose, avec un point de départ en 2004, une manière d’effectuer un arrêt sur image en 2014, que l’on peut remettre de notre côté en perspective en 2024, à l’heure où Google vient de fêter ses 25 ans, où Facebook souffle les bougies de son vingtième anniversaire et que Zuckerberg fait partie des dirigeants de réseaux sociaux interrogés par le Sénat américain, et que l’intelligence artificielle générative fait s’emballer différents domaines de publication en ligne.

Finalement, en feuilletant à nouveau cet ouvrage, j’y ai glané plus d’informations qu’à ma première lecture, que j’avais trouvé un peu plus récréative, puisque c’était la forme qui avait retenu mon attention et non le fond.


Petit dico critique du Big Data, sous la direction de Anaïs Theviot

Si le premier ouvrage me paraissait compliqué à résumer, ce n’est rien à côté du second, qui a été pour moi un véritable coup de cœur de lecture.

Il est rare pour moi de parler de « coup de cœur » pour une lecture scientifique et / ou professionnelle, mais c’est le cas pour cette dernière, au point que j’ai eu envie, ma lecture terminée, d’acheter le livre pour ma bibliothèque personnelle, après avoir accaparé pendant environ deux mois l’exemplaire du CDI…

Il faisait partie de ma commande de début d’année avec Data-Philosophie et un ouvrage sur Chat GPT dans lequel je me plongerai prochainement, et il s’agit d’une publication relativement récente, puisqu’il a été publié aux éditions Fyp en avril 2023.

Si j’ai eu du mal à décrocher de ce livre, c’est pour deux raisons.

La première, c’est parce qu’il propose un véritable travail de vulgarisation, sous la plume d’experts de la question : on y retrouve entre autres trois articles ou encarts écrits par Arnaud Mercier, l’article « Culture algorithmique » rédigé par Laurence Allard, l’article « Cyberharcèlement » rédigé par Sophie Jehel, ou encore le PageRank analysé par Guillaume Sire.

Bref, du beau monde, et les sources auxquelles ils renvoient invitent à prolonger le questionnement, comme l’article « Wikipédia » qui s’appuie sur l’ouvrage passionnant publié par Rémi Mathis en 2021.

La seconde, c’est la forme même de l’ouvrage, celle du dictionnaire, qui rend le propos à la fois transversal et très accessible au lecteur. Et c’est également cela qui le rend quasiment impossible à résumer, à moins de faire une liste des différents articles, ce qui ne serait pas très pertinent…

Si l’on se contente du sommaire, on peut voir que ce Petit Dico critique du Big Data aborde aussi bien les implications du Big Data dans des domaines aussi variés que l’administration, les assurances, la politique, le journalisme, l’environnement, la santé, les véhicules autonomes ou l’urbanisme.

Si je choisis d’utiliser cet article comme un classeur de marques-pages personnels, voici ce que je retiens :

  • l’article « Algorithme prédictif » de Baptiste Kotras qui revient sur la façon dont les algorithmes peuvent prédire nos comportements, et les biais et discriminations algorithmiques (avec un encart de rappel sur la notion de machine learning)
  • l’article « Big data électoral » d’Anaïs Theviot, qui m’a renvoyé à la lecture de précédente de Toxic Data, et qui propose ensuite un encart sur l’affaire Cambridge Analytica, de Camila Péres Lagos
  • l’article « Bulle de filtre » de Coralie Le Caroff et l’encart déjà mentionné sur le PageRank de Guillaume Sire
  • l’article « Cyberharcèlement » de Sophie Jehel qui en rappelle les différentes formes, ainsi que les mesures législatives pour lutter contre, et qui renvoie à la lecture de l’ouvrage de Bérengère Stassin publié en 2019
  • l’article « Data journalisme et soft journalism » de Erik Neveu qui revient sur les évolutions du métier de journalisme
  • les articles « Désinformation » de Lorella Sini, « Fact-checking » de Magali Prodhomme et « Fake news » d’Arnaud Mercier.

Ce dernier article revient sur la notion de fake news (auquel on préférera le terme « infox ») comme art de forger des informations pour tromper l’opinion publique par quatre voies : la numérisation, la plateformisation, la dissémination algorithmique et la ressemblance formelle avec les médias traditionnels pour en accroitre la crédibilité.

  • l’article « Données personnelles » d’Anne Bellon propose un rappel chronologique de la reconnaissance de la vie privée dans la loi (avec l’évolution des missions de la CNIL et l’adoption du RGPD)
  • l’article « Réseaux sociaux » de Frédéric Clavert qui fait lui aussi un rappel historique et revient sur la notion de bulle de filtre, avec un encart sur les GAFAM
  • l’article « Surveillance numérique » de Olivier Aïm avec un encart d’Arnaud Mercier sur Wikileaks
  • l’article « Web des émotions » de Camille Alloing et de Julien Pierre, et enfin l’article « Wikipédia » de Bernard Jacquemin

Mon avis sur l’ouvrage

Vous l’aurez compris, la lecture de cet ouvrage m’a complètement happée, et je le considère comme l’un des meilleurs que j’ai pu lire sur la question, et je pense qu’il s’agit d’une excellente porte d’entrée pour quelqu’un qui s’intéresserait à la question de l’utilisation des données numériques.

Je n’hésiterai pas à signaler ce livre aux élèves qui s’intéresseraient à ce domaine, que ce soit pour des recherches en EMC, en SNT ou dans le cadre de la préparation de leurs sujets de grand oral.

Vous l’aurez compris également, même si ce type d’ouvrage est irrémédiablement condamné par certains aspects à une certaine obsolescence, dans les applications qu’il donne en exemples, sa solidité théorique et son accessibilité font qu’il ne tardera pas à rejoindre ma bibliothèque personnelle.


Revue de presse

Concernant la revue de presse, j’ai retenu deux magazines abordant la question des données numériques selon deux approches différentes : le numéro d’Epsiloon de mai 2022 avec un article “Data, elles parlent” de Muriel Valin, et le numéro de Questions internationales de septembre 2021 consacré aux GAFAM. 

Questions internationales n°109, septembre-octobre 2021

Pour ce dernier, le dossier couvre près de 80 pages et propose 10 articles signés par différents experts. 

Parmi eux, l’article “Une géopolitique des GAFAM” de Laurent Carroué revient sur le berceau de ces big tech : la Silicon Valley, et sur la façon dont elles participent au hard power et soft power des États-Unis, finissant par concurrencer les puissances étatiques. 

Laurent Carroué revient sur le rôle des GAFAM dans la circulation de l’information mais aussi dans la diffusion des différentes formes de désinformation (deepfakes, thèses complotistes) à des fins politiques, posant régulièrement la question de leur régulation. 

Se pose également la question du stockage des données et de leur sécurisation, pour contrer la dépendance à ces géants du numérique. 

En deuxième lieu, j’ai retenu un encart de Maud Quessard dans ce même numéro : “L’administration américaine et les GAFAM : de la confiance à la défiance”, avec une photo qui a particulièrement retenu mon attention, puisqu’on y voit Mark Zuckerberg auditionné (déjà) en 2018 par le Congrès des États-Unis. 

L’encart montre l’ambivalence des États-Unis : lutter contre leur monopole tout en bénéficiant de leur rôle de moteur de croissance économique. Il revient également sur les ingérences étrangères et les manipulations de l’information dans le cadre des campagnes électorales en particulier sur Facebook et Twitter, ce qui a donné lieu à cette audition de Zuckerberg par le Congrès après le scandale Cambridge Analytica. 

Entre 2021 et 2022, les réseaux sociaux ont tenté de restaurer leur image, avant que Twitter ne soit racheté par Elon Musk et avant qu’en janvier 2024, Mark Zuckerberg soit de nouveau auditionné cette fois par le Sénat américain, avec d’autres dirigeants de réseaux sociaux, pour n’avoir pas suffisamment protégé les usagers les plus jeunes contre les risques d’exploitation sexuelle et de suicide. 

Enfin, le dernier article à retenir mon attention dans ce dossier est celui d’Anne Perrot, “Plateformes numériques, régulation et droit de la concurrence”, qui revient sur leur position dominante et sur les problématiques qu’elles posent en matière d’utilisation des données personnelles. 

Pour la France, Google détient en 2021 90% de part de marché dans le secteur des moteurs de recherche, et Facebook 70% dans celui des réseaux sociaux. Les données collectées sont monétisées via la publicité ciblée. 

L’article pointe la nécessité de réguler ces plateformes, avec l’élaboration fin 2020 de deux projets de réglements par la Commission européenne : le Digital Service Act pour les contenus et le Digital Markets Act pour essayer de limiter les situations de monopole. 

Valin, Muriel. Data : elles parlent. Epsiloon n°011, 05/2022, p.70-77

Cet article revient de manière très illustrée sur le macroscope, un outil scientifique proposé et présenté par David Chavalarias dans Toxic Data, qui faisait l’objet de mes précédentes notes de lecture sur les données numériques. 

L’article rappelle qu’en une seule minute sur Internet, 5.7 millions de requêtes sont lancées sur Google, 167 millions de vidéos sont regardées sur TikTok et 575000 tweets postés. 

David Chavalarias remet l’immensité des données collectées dans une perspective historique en rappelant que D’Alembert en 1751 rêvait déjà d’un arbre généalogique de la connaissance, rendu aujourd’hui possible avec les progrès de l’algorithmie. 

L’article propose différents exemples du macroscope : la représentation visuelle des publications scientifiques, des communautés climatosceptiques ou encore des échanges sur Twitter entre pro-vaccins et anti-vaccins durant la pandémie de Covid-19. 


Ressources complémentaires

  • Les infographies Data never sleepsavec ce qui se produit sur Internet en une minute

Notes de lecture sur les données (épisode 1)

Dans ce nouvel épisode de mes notes de lecture, j’ai voulu me pencher sur la question des données numériques, pour prolonger les précédentes notes de lecture consacrées plus spécifiquement à l’intelligence artificielle.

Pour préparer cet article, je me suis donc plongée pour l’instant dans deux ouvrages, et dans une sélection de ressources que j’avais consultées durant le traditionnel Cybermoi/s, et qui m’ont également servi à construire mes séances en SNT.

Petite précision concernant ces notes de lecture, il s’agit encore une fois de comptes-rendus subjectifs, et qui me permettent de garder une trace de mes lectures.

Je donne aussi mon ressenti global à la lecture des ouvrages et des articles qui me tombent sous la main, moins pour en faire une critique que pour témoigner de leur accessibilité et en indiquer les prolongements possibles.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et politique : Data-Philosophie et Toxic Data
  2. sélection de ressources

Data-Philosophie, de Sonia Bressler

J’ai acheté ce livre pour le CDI en septembre 2023, parce qu’il m’apparaissait important d’enrichir le fonds philosophie d’ouvrages traitant de problématiques récentes, et propices à intéresser les élèves suivants notamment les spécialités HLP et HGGSP mais également pour permettre à l’ensemble des élèves d’approfondir des notions abordées en cours de philosophie.

L’ambition de ce livre, comme son titre et son avant-propos le rappellent, est donc de lier la pensée philosophique à la question des données numériques, et il soulève des problématiques déjà abordées dans les ouvrages que j’avais pu consulter sur l’intelligence artificielle (voir épisode 4), notamment la question du transhumanisme.

Dans l’introduction, l’auteure rappelle les domaines que recouvre la data-philosophie, à savoir la connaissance, les enjeux éthiques de la collecte et de l’utilisation des données, et, dans une moindre mesure pour cet ouvrage (en tout cas moindre que par exemple l’ouvrage de Pascal Boniface), les implications géopolitiques.

Data-Philosophie est construit en trois parties : contextualisation de la data-philosophie, implications de cette dernière et perspectives critiques.

Première partie : contextualisation de la data-philosophie

Dans cette partie, l’auteure propose un historique de la pensée philosophique en lien avec les données numériques. Elle étudie les ramifications les plus anciennes de la philosophie avec les enjeux actuels de l’accès à la connaissance, de l’esprit critique, de l’intelligence artificielle, etc.

Voici quelques étapes de ces ramifications :

  • Platon et l’allégorie de la caverne
  • Aristote et la classification des connaissances, ainsi la nécessité d’utiliser les données de manière éthique et responsable
  • Descartes : doute méthodique (esprit critique), dualisme homme / machine
  • Leibniz : système de notation binaire, langage universel
  • Kant : impératif catégorique et éthique des données
  • Charles Sanders Peirce : distinction entre signe / objet et interprétant, ce qui permet d’avoir un recul sur la manière dont sont traitées, analysées et interprétées les données
  • les relations entre données et connaissance avec Bertrand Russell, Karl Popper et Thomas Kuhn

L’auteure revient ensuite sur l’émergence du domaine de la data-philosophie à proprement parler (ordinateurs  – internet – réseaux sociaux) et sur :

  • les problèmes éthiques qu’elle soulève : respect de la vie privée, sécurité des données, biais algorithmiques, transparence et responsabilité
  • les problèmes épistémologiques et ontologiques : rapport à la connaissance et à la vérité (fiabilité de l’information), biais, représentativité des données
  • l’interdisciplinarité de la data-philosophie avec les sciences de l’information, la sociologie, la psychologie et les sciences politiques

Elle évoque les apports de deux contributeurs à la data-philosophie : Luciano Floridi qui a introduit le concept d’infosphère et Tim Berners-Lee, fondateur du World Wide Web, concepteur du web sémantique et défenseur de la démocratisation et de la décentralisation du web.

Enfin, cette première partie revient sur les concepts clés de la data-philosophie, déjà rapidement évoqués :

  1. la relation entre les données, la connaissance et la réalité : biais potentiels des algorithmes, interprétation des données, utilisation des données personnelles à des fins politiques, infodémie et relation des individus à l’information
  2. la représentativité des données et la façon dont ces dernières peuvent influencer notre compréhension de la réalité
  3. les principes éthiques de l’utilisation des données (vie privée, confidentialité, transparence, responsabilité)
Deuxième partie : les implications de la data-philosophie

Dans cette deuxième partie, l’auteure revient sur les enjeux politiques, sociaux et humains que soulèvent les données numériques, et propose des pistes de réflexion afin d’appréhender leur utilisation de manière éthique et responsable.

Je ne vais pas revenir de manière approfondie sur ces différents enjeux, sauf ceux qui ont plus particulièrement retenu mon attention.

Dans un premier chapitre, Sonia Bressler aborde les implications éthiques : l’importance du consentement et de la transparence (avec les problématiques de respect de la vie privée), la nécessité d’un accès équitable aux données et de la lutte contre les discriminations.

Dans un second chapitre, elle aborde les implications épistémologiques : les limites de la connaissance basée sur les données et la question de la fiabilité de l’information.

Elle revient sur les enjeux de la sélection des données dans le fonctionnement des modèles prédictifs et explicatifs (machine learning, agents) et à nouveau sur les biais algorithmiques notamment dans le domaine de l’emploi (recrutement), de l’économie (accès au crédit, publicité) et de la reconnaissance faciale.

Le dernier chapitre porte sur les implications politiques et sociales :

  • démocratie et gouvernance : la façon dont les données numériques participent de la polarisation des débats politiques, des bulles de filtres et de la manipulation des opinions publiques (ce qui est développé par le deuxième ouvrage que j’évoquerai dans cet article, Toxic Data), l’atteinte à la vie privée, mais également la question de la désinformation avec les biais de confirmation et l’influence sur les comportements électoraux et sociaux
  • protection des droits fondamentaux avec un rappel de la protection des données (RGPD, droit à l’oubli…)
  • la transparence et la responsabilité des institutions, la question de l’ouverture des données / open data (voir le site data.gouv)
  • la participation citoyenne des individus aux questions relatives aux données et donc la nécessité de l’éducation (littératie des données, esprit critique)
  • la relation des données aux domaines de l’économie et du travail (automatisation, protection des travailleurs et innovations technologiques)
troisième partie : perspectives critiques

Dans cette dernière partie consacrées aux débats et controverses en lien avec les données numériques, Sonia Bressler revient dans un premier temps sur les questions de neutralité et d’objectivité des données.

Les données et algorithmes peuvent-ils être neutres ? La question permet de rappeler les différents biais qui peuvent intervenir dans le traitement des données, que ce soit en amont dans la collecte de ces données (échantillonnage non représentatif) ou en aval dans leur traitement (biais de confirmation). Elle aborde également les biais qui interviennent durant la conception des algorithmes ou dans leur fonctionnement (apprentissage automatique).

Humanisme et technologie revient sur les différents penseurs qui alertent sur la déshumanisation de la société (incitation à la surconsommation, dépendance numérique) et sur les enjeux éthiques des innovations technologiques, avec la nécessaire collaboration entre humains et machines.

Le dernier chapitre de l’ouvrage revient sur les enjeux actuels des données numériques et de l’intelligence artificielle, avec à nouveau la nécessité de transparence, les implications éthiques et sociales, la relation entre intelligence artificielle et développement durable, la mise à jour des cadres réglementaires et de la législation.

Mon avis sur l’ouvrage

J’ai trouvé cette mise en relation entre la philosophie (et plus particulièrement ses ramifications anciennes) et les données numériques particulièrement éclairante.

Cela m’a rappelé d’autres lectures, plus anciennes, que j’avais pu faire lorsqu’il s’agissait de préparer les épreuves du CAPES de documentation, et même encore plus loin, les cours de philosophie suivis en terminale et en prépa.

C’est tout l’intérêt de cette question, de voir également la transversalité des données numériques.

Par contre, l’ouvrage a tendance, en voulant insister sur les différents aspects et enjeux des data, parfois à se répéter et à étirer ces problématiques, et j’avoue que cette lecture a été pour moi un peu plus laborieuse que les autres.

Elle permet cependant de prendre de la hauteur par rapport à l’ouvrage que je vais désormais aborder, et que pourtant j’avais lu en premier.


Toxic Data, de David Chavalarias

J’avais ce livre depuis le mois de juin dans ma bibliothèque, et après mes quelques lectures sur l’intelligence artificielle, il m’a paru presque récréatif…

Il apporte un éclairage spécifiquement politique à la question des données numériques et complète à la fois l’ouvrage de Sonia Bressler sur la data-philosophie et l’ouvrage de Pascal Boniface sur la géopolitique de l’intelligence artificielle.

L’auteur ancre son contexte dans la crise provoquée par la prise d’assaut du Capitole par les militants trumpistes suite aux résultats des élections américaines en 2021. Son analyse porte ensuite sur la manière dont les réseaux sociaux transforment la circulation de l’information et influencent les comportements politiques.

Il s’appuie sur un projet lancé en 2016 avec une équipe du CNRS : le Politoscope, qui collecte les messages émis sur Twitter par les comptes appartenant à la sphère politique.

L’ouvrage se décline en 14 chapitres que je vais tâcher de résumer, et propose également des visuels et des outils pour mieux appréhender la question.

chapitre 1 : la france dans le collimateur de l’alt-right

David Chavalarias étudie dans ce chapitre l’utilisation des mèmes pour marquer l’opinion publique, et donc sur le ressort émotionnel de l’information.

Ce mode de communication est utilisé durant la campagne de 2017 par les militants extrémistes, qui vont utiliser la faille de notre système électoral : le fait de ne retenir au second tour des élections que les deux candidats arrivés en tête, ce qui polarise d’autant plus la campagne.

Il analyse également la provenance de ces messages et leur temporalité, l’utilisation des bots pour diffuser les messages, la rapidité de circulation de l’information, et souligne l’habitude que nous avons prise de recevoir cette information de manière instantanée sans forcément la remettre dans son contexte.

chapitre 2 : que se passe-t-il derrière l’écran ?

Ce chapitre revient principalement sur le fonctionnement du réseau social Twitter, la façon dont se forment les communautés (homophilie / influence sociale).

chapitre 3 : nos réseaux sociaux vus du ciel

L’auteur y étudie la participation des différentes communautés politiques à des campagnes de dénigrement de personnalités, et la représentation cartographiques des comptes politiques sur Twitter.

Cela lui permet d’approfondir les phénomènes de diffusion des fausses informations, de bulles de filtres et de repli sur soi.

chapitre 4 : quand les algos partent en vrille

Ce chapitre est l’un des plus captivants : il s’intéresse à une expérience menée par un utilisateur de Facebook qui avait décidé de liker tout ce qui apparaitrait sur sa page Facebook, pour observer la façon dont le fil d’actualités se modifiait en conséquence (filtrage collaboratif).

chapitre 5 : libres de se laisser enfermer

L’auteur étudie trois phénomènes intervenant sur les réseaux sociaux :

  • renforcement
  • contagion algorithmique
  • bulle de filtre

ainsi que le biais de confirmation, mais également le biais de négativité, qui consiste à privilégier ce qui va accentuer nos peurs dans la réception des messages (les informations négatives) plutôt que les informations positives, et là encore le ressort émotionnel des réseaux sociaux.

chapitre 6 : toxicité à tous les étages

Citation de Marshall McLuhan :

Nous façonnons nos outils, et par la suite, nos outils nous façonnent.

À la différence d’un repas familial où nous allons adapter (généralement) nos sujets de conversation à l’auditoire pour éviter de fâcher untel ou untel, nous recevons sur les réseaux sociaux (l’auteur étudie ici le fonctionnement de l’algorithme de Facebook) toutes les informations postées par notre entourage, mettant en lumière des divergences qui autrement auraient pu rester invisibles.

chapitre 7 : quand c’est gratuit, c’est vous le produit

Dans ce chapitre, l’auteur revient sur la collecte systématique et à grande échelle des données, sur le ciblage publicitaire et sur le détournement de ce ciblage à des fins politiques.

Il se penche aussi sur la manipulation des résultats de recherche et sur les suggestions proposées, notamment par l’algorithme de Google. L’auteur propose à titre d’exemples les suggestions de recherche obtenues en tapant le nom des cinq candidats les mieux placés aux élections présidentielles de 2022.

chapitre 8 : diviser pour mieux régner depuis l’étranger

Ce chapitre étudie les phénomènes de désinformation intervenant dans les campagnes électorales (États-Unis, France) depuis l’étranger (Russie) pour influencer les résultats – ou comment l’information (et la désinformation en l’occurence) est utilisée comme moyen de déstabilisation et de division intérieure.

Ces stratégies sont proposées dans l’ouvrage de Sun Tzu, L’Art de la guerre : division entre inférieurs et supérieurs, désinformation (aussi appelée division de mort), corruption.

Elles sont approfondies dans le chapitre suivant, Subversion 2.0, qui revient également sur l’émergence du réseau social Tik Tok.

chapitre 9 : subversion 2.0
  • le réseau social Tik Tok et ses critères de modération contestables
  • retour sur le chatbot Tay lancé par Microsoft capté par des trolls
  • premières analyses du fonctionnement des agents GPT-2 et GPT-3
chapitre 10 : check-up d’une démocratie malade

L’auteur revient ici sur les évolutions du monde politique induites par les réseaux sociaux : fragmentation du monde politique, dérapage vers les extrêmes.

Ces problématiques sont approfondies dans le chapitre suivant, « La démocratie, première victime du Covid-19 », qui se penche sur les chambres d’écho antivax.

Le chapitre 12 s’intéresse quant à lui à la montée du populisme, en étudiant les principales sources de désinformation sur Twitter et les rapports ambigus entre médias traditionnels et médias numériques (rôle de C News dans la campagne d’Éric Zemmour), avec un prolongement dans le chapitre 13, introduit par une référence à la pièce Rhinocéros de Ionesco.

L’auteur finit par étudier dans le dernier chapitre deux concepts à l’oeuvre dans la société actuelle et mettant en péril le processus démocratique : la rigidité d’une société (influence sociale) et la dépendance au chemin (phénomène de renforcement).

En conclusion, il propose deux types de recommandations, au niveau individuel et collectif pour renverser la vapeur, parmi lesquelles :

  1. puisez à la source, aiguisez votre sens critique, identifiez vos « vrais amis », dissociez vos différents réseaux, ayez l’oeil sur vos émotions, prenez vos distances, fuyez les notifications…
  2. donnons la priorité à l’éducation

En annexe de son propos il donne une liste de sophismes à éviter pour de meilleurs débats en ligne, ainsi qu’un glossaire.

Mon avis sur l’ouvrage

Cet ouvrage est absolument captivant, et je me suis retenue de ne pas en faire une recension encore plus poussée.

Les recommandations en fin d’ouvrages peuvent, selon moi être réutilisées en classe pour travailler avec les élèves sur l’esprit critique. De même le glossaire reprend les termes incontournables de l’ouvrage.

Toxic Data m’a permis de tirer des fils et de revenir sur des ressources que j’avais déjà repérée : la vidéo de Fouloscopie sur les réseaux sociaux, le site Seriously qui permet de pacifier des discussions sur Internet, ou le site de Stéphanie de Vanssay, Dompter les trolls.


 Ressources

Notes de lecture sur l’intelligence artificielle (épisode 4)

Pour ce quatrième (et peut-être dernier) épisode de mes notes de lecture sur l’intelligence artificielle, j’ai choisi des ouvrages et des articles qui permettent de susciter le débat sur la question.

En effet, les lectures que j’ai retenues peuvent être mobilisées dans des disciplines principalement associées aux sciences humaines : enseignement moral et civique, philosophie, HLP…

Je précise qu’il s’agit là potentiellement du dernier épisode, car je pense pour l’instant avoir à titre personnel fait le tour de la question, même si je n’exclus pas de prendre à nouveau des notes sur des ouvrages ou des articles qui attireraient mon attention et proposeraient un éclairage d’actualité sur le sujet (je pense en particulier aux ouvrages publiés très récemment sur ChatGPT).

Mais d’ici là, je m’octroie une petite pause sur l’intelligence artificielle (sauf pour avancer dans mes conceptions de séances) et vais plancher sur d’autres lectures scientifiques.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et social : Les Robots font-ils l’amour ? et Des Robots et des hommes
  2. revue de presse avec les numéros 1700 du Courrier international et 432 du Un
  3. sélection de ressources

Les Robots font-ils l’amour : Le transhumanisme en 12 questions, de Laurent Alexandre et Jean-Michel Besnier

Cet ouvrage, publié en 2016, figurait déjà depuis un certain temps dans le rayon philosophie du CDI, et déjà à l’époque, le titre avait retenu mon attention, en me rappelant celui du roman de Philip K. Dick Les Androïdes rêvent-ils de moutons électriques ?, porté à l’écran sous le titre Blade Runner.

Contrairement à mes notes de lecture précédentes, je ne vais pas tenter de faire un résumé de chaque chapitre, le titre étant suffisamment parlant. Je vais me contenter de relever ce qui m’a intéressée dans cet ouvrage et de quelle manière il peut permettre de nourrir un débat sur la question.

L’ouvrage prend la forme d’une discussion (relativement animée) entre les deux auteurs, Laurent Alexandre, médecin et entrepreneur, et Jean-Michel Besnier, philosophe, et cette discussion s’articule autour des 12 questions du sous-titre :

  1. Faut-il améliorer l’espèce humaine ? (implants, détection de la trisomie 21)
  2. L’humanité doit-elle changer sa reproduction ? (fécondation in vitro, manipulations génétiques)
  3. La technologie peut-elle tout réparer ? (thérapie, implants, rôle et déontologie d’un médecin supplanté par les technologies)
  4. Demain, tous cyborgs ? (le chapitre revient sur les craintes soulevées à l’époque par Elon Musk autour de l’intelligence artificielle, et sur la question du libre arbitre au sein d’un corps livré à la technique)
  5. Peut-on faire l’amour avec un robot ? (évocation du film Her, cybersexualité)
  6. Est-il désirable de vivre 1000 ans ? : la lecture de ce chapitre m’a rappelé le roman Tous les hommes sont mortels de Simone de Beauvoir
  7. Le transhumanisme est-il un eugénisme ? (est-il légitime d’utiliser toutes les possibilités de transformation offertes par la science ? rappel du mythe de la singularité, c’est-à-dire le moment où l’esprit humain est dépassé par l’intelligence artificielle)
  8. L’intelligence artificielle va-t-elle tuer l’homme ? (retour sur la lettre ouverte sur l’intelligence artificielle signée en 2015 entre autres par Stephen Hawking, Bill Gates, Elon Musk…) *
  9. Quels sont les enjeux économiques ? (retour sur l’implication des géants du numériques, en particulier Google, le lien entre Big data et IA)
  10. Faut-il légiférer ? (de quelle manière encadrer législativement et de manière éthique les innovations technologiques ? quelles interventions de l’état – ou inter-étatiques – possibles ? nécessaire évolution de l’école)
  11. Doit-on craindre un « meilleur des mondes » ? (risques totalitaires du transhumanisme ou renouveau démocratique ? proposition d’un serment d’Hippocrate pour les scientifiques spécialistes des NBIC)
  12. Jusqu’où pousser la recherche ? (le transhumanisme comme nouvelle religion)

J’ai indiqué par un * les chapitres sur lesquels je me suis davantage attardée. Le chapitre 8 fait un rapide historique de l’intelligence artificielle, sur la définition de l’intelligence, sur la difficulté de l’école à s’adapter aux problématiques actuelles de l’IA, sur les risques de l’intelligence artificielle pour l’emploi, sur la distinction entre IA faible et IA forte et sur la loi de Moore.

Mon avis sur l’ouvrage

Le caractère souvent décomplexé de la conversation m’a parfois quelque peu désarçonnée, mais j’ai trouvé la structure très fluide et intéressante, et avec un recul sur ces différentes questions, je pense qu’elles peuvent être reprises presqu’à l’identique dans le cadre de débats menés en classe avec les élèves.


Des robots et des hommes : Mythes, fantasmes et réalités, de Laurence Devillers

Là encore, il s’agit d’une publication sur la question qui remonte à quelques années (2017).

L’ouvrage s’ouvre par une fiction « LILY, ma robote assistante de santé » où l’auteur imagine un futur désormais proche, en 2025, avec des robots compagnons de vie ayant trois niveaux d’adaptation : le niveau 1 sans adaptation, le niveau 2 où le robot peut apprendre certaines tâches, et le niveau 3 où il s’adapte aux habitudes de l’humain.

L’auteure propose des allers-retours entre cette fiction et les avancées de la robotique et de l’intelligence artificielle au moment où cet ouvrage est publié ainsi que les questionnements qu’elles soulevaient : les agents conversationnels, les capacités propres à l’homme et celles propres aux robots, le traitement des données personnelles.

Dans son avant-propos, Laurence Devillers évoque déjà les expériences menées avec les robots japonais Pepper et Paro (et l’utilisation de ce dernier dans l’accompagnement des personnes âgées), des robots Keepon et Nao pour les enfants souffrant de troubles du spectre autistique.

Principalement, elle pose la question de l’intégration des robots sociaux dans notre vie quotidienne, avec les problématiques de la morale, de l’éthique, de l’empathie, du respect de la vie privée. Elle indique 4 leviers à prendre en compte :

  • éduquer à l’éthique des robots
  • expliciter des règles de bonne conduite à coder sur le robot
  • mettre en oeuvre des outils pour vérifier le respect de ces règles
  • adopter une règlementation juridique en cas de non respect

en s’appuyant sur les lois de la robotique d’Asimov.

L’ouvrage se décline ensuite en deux parties.

Dans la première partie « Les robots : science-fiction, mythes et fantasmes », l’auteure revient aux origines littéraires et cinématographiques de la robotique :

  • Frankenstein ou le Prométhée moderne, de Mary Shelley
  • le mot ROBOT qui trouve son origine chez Karel Capek
  • et évidemment Asimov pour la littérature

Concernant les mythes et fantasmes cinématographiques, elle les fait remonter à Prométhée, Pygmalion, à Faust et au Golem, aux questionnements philosophiques de Descartes (qui dissocie corps et esprit) et aux différences culturelles de perception des robots entre l’Occident et le Japon.

S’ensuivent les références cinématographiques de Metropolis, 2001, Star Wars, A.I., WALL-E., Her, et les séries Real Humans et Westworld, qui posent d’un point de vue fictionnel les problématiques soulevées dans l’avant-propos.

Dans le troisième chapitre de cette première partie « L’intelligence des machines : halte aux fantasmes ! », l’auteure revient sur la définition de l’intelligence et fait un rappel historique de ce que recouvre l’intelligence artificielle (Turing, modes d’apprentissage, hivers de l’IA, recherches menées par les GAFAM et transhumanisme, mythe de la singularité et lettre ouverte de 2015 alertant sur les dangers de l’IA).

Quelques points de réflexion :

  • Tay, l’intelligence artificielle de Microsoft entraîné par les utilisateurs à tenir des propos racistes et antiféministes
  • les failles de la technologie de reconnaissance faciale de Google Photos
  • citation mentionnée de Gérard Berry, informaticien et professeur au Collège de France

L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con.

L’auteure rappelle l’urgence d’aller au-delà du test de Turing pour prendre en compte les nouvelles capacités de l’I.A.

Dans la deuxième partie « Les robots : aujourd’hui et demain », l’auteure s’intéresse à ce qui lie robotique, intelligence artificielle et problématiques sociales et morales.

Dans le chapitre « Qu’est-ce qu’un robot social ? », elle évoque les fonctionnalités les plus récentes des robots, avec les dimensions développées : autonomie, apprentissage et empathie.

Elle définit selon différents critère la robotique sociale : le robot perçoit ce qui l’entoure, peut apprendre et interagir avec nous, et ces différents enjeux dans les chapitres suivants :

  • un robot doit-il le plus possible ressembler à un humain ? va-t-on faire plus confiance à un robot humanoïde ?
  • un robot peut-il manifester de l’empathie ou en susciter ? qu’est-ce qui distingue l’homme du robot dans l’expression des émotions ? une machine peut-elle apprendre à détecter les émotions et adapter sa réponse en conséquence ?
  • comment intégrer aux innovations technologiques la morale et le respect de la vie privée et des données personnelles ?

Pour illustrer cette dernière question, l’auteure cite la nouvelle de John McCarthy, Le Robot et le bébé, où le robot doit déroger à une première règle de fonctionnement pour respecter la deuxième.

Elle soulève également la question de la responsabilité en matière d’intelligence artificielle : qui est responsable entre le concepteur du programme, l’ingénieur, l’opérateur et l’utilisateur ?

Règles et responsabilités interviennent dans les champs suivants :

  1. sécurité civile,
  2. opérations militaires,
  3. voitures autonomes (Moral Machine)

Concernant les relations que les humains peuvent avoir avec un robot social, l’auteure rappelle le rôle chez l’enfant du doudou comme objet transitionnel (note personnelle : ce que constitue déjà le smartphone pour un certain nombre de personnes – voir nomophobie) avec les risques que cela induit : addiction, confusion, repli sur soi.

Les deux derniers chapitres évoquent les peurs suscitées par les robots (piratage, surveillance, risques économiques) et la nécessité d’éviter les deux écueils que sont les craintes irrationnelles et le trop plein de confiance, ce qui amène naturellement à l’épilogue de l’ouvrage, une proposition de onze commandements pour les applications sociales de la robotique, où figurent en premier lieu les données privées et le droit à l’oubli.

Mon avis sur l’ouvrage

Parmi les ouvrages traitant de la question de l’intelligence artificielle par le biais des sciences humaines et en particulier de la philosophie, des émotions et de la morale, cet ouvrage est le plus intéressant que j’ai pu lire jusqu’ici.

La porte d’entrée de la fiction, avec les robots compagnons et les allers-retours avec les questionnements actuels sont assez vertigineux et captivants, surtout lorsqu’on lit aujourd’hui cet ouvrage publié en 2017.

Il complète de manière plus posée le premier ouvrage, et permet d’assoir les arguments qui pourraient survenir dans un débat sur l’intelligence artificielle en classe.


Revue de presse

Pour cette revue de presse, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens, sur les aspects sociaux, philosophiques et artistiques de l’intelligence artificielle. J’ai donc retenu deux documents :

Naomi Klein : « Les IA organisent le plus grand pillage de l’histoire de l’humanité ». Courrier international n°1700, 01/06/2023, p.44-45

Dans cette tribune publiée dans The Guardian, Naomi Klein revient sur les « hallucinations » autour des dernières innovations de l’intelligence artificielle et fait se confronter certaines utopies (utiliser l’IA pour prendre des décisions, pour transformer le monde du travail, pour améliorer l’accès à l’information) et leurs revers (consommations, crise climatique, dérives politiques et économiques.

L’IA va-t-elle nous remplacer ?. Le 1 n°432, 01/02/2023, p.1-6

Dans le numéro de cette revue hebdomadaire, j’ai retenu :

  • les Repères en page 5 « Rêves prométhéens » qui proposent une chronologie littéraire et cinématographique de l’IA.
  • dans le Zoom en page 6 « À quand un ChatGPT français ? », Isabelle Ryl évoque le supercalculateur Jean-Zay et le modèle de langage Bloom, un modèle de langage ouvert, responsable et explicable.
  • dans « L’art au temps de l’intelligence artificielle » Marion Carré revient sur les questionnements récents (et qui font écho à la grève des scénaristes et des acteurs à Hollywood) : l’IA peut-elle être artiste ? quels risques dans l’uniformisation des goûts ? quels sont les droits concernant une oeuvre générée par l’intelligence artificielle ?
  • enfin dans son enquête « Le défi de l’éducation », Manon Paulic revient sur la nécessite de repenser l’enseignement : évalue-t-on la capacité des élèves à emmagasiner et restituer des connaissances ou son raisonnement critique et sa créativité ?

Ce dernier débat me renvoie à l’opposition entre les sophistes et Socrate dans les dialogues platoniciens… et ouvre sur l’une de mes prochaines lectures, que j’évoque dans la partie Ressources.

Ressources

J’avais songé à l’origine faire le compte-rendu dans cette note d’un troisième ouvrage : Data-Philosophie de Sonia Bressler, en y abordant uniquement ce qui a trait à l’intelligence artificielle, mais l’ouvrage opte visiblement pour un questionnement plus large et qui m’intéresse, j’en ferai donc le compte-rendu dans un article ultérieur.

Page 1 sur 2

Fièrement propulsé par WordPress & Thème par Anders Norén