cinephiledoc

Blog pour cinéphiles et profs docs

Catégorie : Notes de lecture

Notes de lecture sur les données (épisode 2)

Pour ce nouvel épisode de mes notes de lecture, que je vais tâcher de publier fort opportunément au moment du Safer Internet Day 2024, je fais la recension de deux ouvrages qui font figurer le Big Data dans leurs titres.

Néanmoins, si le sujet les rapproche, beaucoup de choses les éloignent dans la façon dont ils abordent la question, et c’est aussi ce qui m’a intéressée. C’est également leur approche du Big Data qui m’a rendu la tâche complexe pour en faire la synthèse.

Encore une fois, j’ai voulu me plonger dans des lectures présentes dans le fonds documentaire du CDI de mon établissement, et je n’ai pas forcément choisi les ouvrages que j’aurais moi-même commandé sur la question ou qui aurait forcément attiré mon attention de prime abord.

Dans cet épisode :

  1. un aperçu de ces deux ouvrages : Dans l’ombre de la peur : Le Big Data et nous et Petit dico critique du Big Data
  2. un panorama de la presse récente sur la question

Dans l’ombre de la peur : Le Big Data et nous, Michaël Keller et Josh Neufeld

Au moment où je commence l’écriture de cet article, ma lecture de cet ouvrage commence à dater, et j’ai un souvenir plus récent du second.

Par ailleurs, son format m’a donné l’idée de consacrer prochainement un cinquième épisode de notes de lecture à l’intelligence artificielle, un sujet qui ne cesse de me captiver cette année et qui retarde d’autant plus mes autres lectures professionnelles en projet, sur le numérique, les écrans ou encore sur le jeu.

Le format de cet ouvrage en rend la recension compliquée, puisqu’il s’agit d’une bande-dessinée publiée en 2017 aux éditions Ça et Là pour sa version française. En effet, il s’agit à l’origine d’une publication américaine datant de 2014.

Le traitement de la question du Big Data remonte ainsi à une dizaine d’années, mais en pose les jalons et revient sur certains éléments qu’il est intéressant de remettre en perspective aujourd’hui.

Le point de départ de cette bande-dessinée, qui aborde la question sous un angle états-unien, c’est une rencontre en 2004 entre les dirigeants de Google, l’ancien président Al Gore et une sénatrice américaine, Liz Figueroa pour parler de Gmail, et de la façon dont la messagerie proposait de la publicité ciblée en analysant les mots-clés présents dans les messages.

Cette sénatrice avait alors déposé un projet de loi exigeant que Google obtienne le consentement des utilisateurs avant d’appliquer toute analyse systémique des données, un projet qui finalement n’a pas été approuvé par le sénat de l’État de Californie.

Ce point de départ donne lieu à une analyse de la façon dont les données personnelles sont collectées dans les différentes applications numériques de la vie courante.

Il donne aussi un aperçu de l’accélération des technologies et de la façon dont les questions que l’on se pose ou que l’on a pu se poser sur cette collecte des données personnelles sont presque instantanément rendues obsolètes par le développement même de ces technologies.

Par exemple, au moment où ils posent la question de l’analyse des données cellulaires pour générer un bulletin du trafic routier, Google Maps opère déjà cette analyse, et leur offre comme perspective l’analyse quotidienne de la boîte noire d’un véhicule, les voitures autonomes, la question du traitement des données dans le domaine des assurances… enjeux que l’on retrouve au coeur des questionnements sur le Big Data en 2024.

Parmi les personnes interrogées sous le format BD par les deux auteurs, on retrouve danah boyd, autrice de C’est compliqué : la vie numérique des adolescents, publié en 2016, qui revient sur la façon dont les jeunes tentent de maîtriser les contenus postés sur les réseaux sociaux, ou encore Amanda Caswell, qui revient sur la façon dont les montres connectées récupèrent les données de santé de leurs utilisateurs.

L’épilogue de l’ouvrage « En voiture avec l’Uber économie » évoque le cas d’un chauffeur qui filme ses passagers, la façon dont usagers et employés d’un service se surveillent et se notent mutuellement, amenant un glissement vers les systèmes de crédit social chinois.

Je profite de ce glissement pour présenter ici le travail réalisé en EMC par deux élèves de seconde.

Timothée et Flavien se sont intéressés aux différentes formes de cyber-contrôle en Chine et ils ont utilisé le support ci-dessous (présenté ici avec leur autorisation à tous deux) pour illustrer leur exposé oral, qui était également de grande qualité.

Diapos issues de la présentation d’EMC de Flavien Amy et Timothée Cailleux (2nde13 – 2023/2024)

Exposé Timothée et Flavien cyber-sécurité

Mon avis sur l’ouvrage

L’ouvrage nous propose, avec un point de départ en 2004, une manière d’effectuer un arrêt sur image en 2014, que l’on peut remettre de notre côté en perspective en 2024, à l’heure où Google vient de fêter ses 25 ans, où Facebook souffle les bougies de son vingtième anniversaire et que Zuckerberg fait partie des dirigeants de réseaux sociaux interrogés par le Sénat américain, et que l’intelligence artificielle générative fait s’emballer différents domaines de publication en ligne.

Finalement, en feuilletant à nouveau cet ouvrage, j’y ai glané plus d’informations qu’à ma première lecture, que j’avais trouvé un peu plus récréative, puisque c’était la forme qui avait retenu mon attention et non le fond.


Petit dico critique du Big Data, sous la direction de Anaïs Theviot

Si le premier ouvrage me paraissait compliqué à résumer, ce n’est rien à côté du second, qui a été pour moi un véritable coup de cœur de lecture.

Il est rare pour moi de parler de « coup de cœur » pour une lecture scientifique et / ou professionnelle, mais c’est le cas pour cette dernière, au point que j’ai eu envie, ma lecture terminée, d’acheter le livre pour ma bibliothèque personnelle, après avoir accaparé pendant environ deux mois l’exemplaire du CDI…

Il faisait partie de ma commande de début d’année avec Data-Philosophie et un ouvrage sur Chat GPT dans lequel je me plongerai prochainement, et il s’agit d’une publication relativement récente, puisqu’il a été publié aux éditions Fyp en avril 2023.

Si j’ai eu du mal à décrocher de ce livre, c’est pour deux raisons.

La première, c’est parce qu’il propose un véritable travail de vulgarisation, sous la plume d’experts de la question : on y retrouve entre autres trois articles ou encarts écrits par Arnaud Mercier, l’article « Culture algorithmique » rédigé par Laurence Allard, l’article « Cyberharcèlement » rédigé par Sophie Jehel, ou encore le PageRank analysé par Guillaume Sire.

Bref, du beau monde, et les sources auxquelles ils renvoient invitent à prolonger le questionnement, comme l’article « Wikipédia » qui s’appuie sur l’ouvrage passionnant publié par Rémi Mathis en 2021.

La seconde, c’est la forme même de l’ouvrage, celle du dictionnaire, qui rend le propos à la fois transversal et très accessible au lecteur. Et c’est également cela qui le rend quasiment impossible à résumer, à moins de faire une liste des différents articles, ce qui ne serait pas très pertinent…

Si l’on se contente du sommaire, on peut voir que ce Petit Dico critique du Big Data aborde aussi bien les implications du Big Data dans des domaines aussi variés que l’administration, les assurances, la politique, le journalisme, l’environnement, la santé, les véhicules autonomes ou l’urbanisme.

Si je choisis d’utiliser cet article comme un classeur de marques-pages personnels, voici ce que je retiens :

  • l’article « Algorithme prédictif » de Baptiste Kotras qui revient sur la façon dont les algorithmes peuvent prédire nos comportements, et les biais et discriminations algorithmiques (avec un encart de rappel sur la notion de machine learning)
  • l’article « Big data électoral » d’Anaïs Theviot, qui m’a renvoyé à la lecture de précédente de Toxic Data, et qui propose ensuite un encart sur l’affaire Cambridge Analytica, de Camila Péres Lagos
  • l’article « Bulle de filtre » de Coralie Le Caroff et l’encart déjà mentionné sur le PageRank de Guillaume Sire
  • l’article « Cyberharcèlement » de Sophie Jehel qui en rappelle les différentes formes, ainsi que les mesures législatives pour lutter contre, et qui renvoie à la lecture de l’ouvrage de Bérengère Stassin publié en 2019
  • l’article « Data journalisme et soft journalism » de Erik Neveu qui revient sur les évolutions du métier de journalisme
  • les articles « Désinformation » de Lorella Sini, « Fact-checking » de Magali Prodhomme et « Fake news » d’Arnaud Mercier.

Ce dernier article revient sur la notion de fake news (auquel on préférera le terme « infox ») comme art de forger des informations pour tromper l’opinion publique par quatre voies : la numérisation, la plateformisation, la dissémination algorithmique et la ressemblance formelle avec les médias traditionnels pour en accroitre la crédibilité.

  • l’article « Données personnelles » d’Anne Bellon propose un rappel chronologique de la reconnaissance de la vie privée dans la loi (avec l’évolution des missions de la CNIL et l’adoption du RGPD)
  • l’article « Réseaux sociaux » de Frédéric Clavert qui fait lui aussi un rappel historique et revient sur la notion de bulle de filtre, avec un encart sur les GAFAM
  • l’article « Surveillance numérique » de Olivier Aïm avec un encart d’Arnaud Mercier sur Wikileaks
  • l’article « Web des émotions » de Camille Alloing et de Julien Pierre, et enfin l’article « Wikipédia » de Bernard Jacquemin

Mon avis sur l’ouvrage

Vous l’aurez compris, la lecture de cet ouvrage m’a complètement happée, et je le considère comme l’un des meilleurs que j’ai pu lire sur la question, et je pense qu’il s’agit d’une excellente porte d’entrée pour quelqu’un qui s’intéresserait à la question de l’utilisation des données numériques.

Je n’hésiterai pas à signaler ce livre aux élèves qui s’intéresseraient à ce domaine, que ce soit pour des recherches en EMC, en SNT ou dans le cadre de la préparation de leurs sujets de grand oral.

Vous l’aurez compris également, même si ce type d’ouvrage est irrémédiablement condamné par certains aspects à une certaine obsolescence, dans les applications qu’il donne en exemples, sa solidité théorique et son accessibilité font qu’il ne tardera pas à rejoindre ma bibliothèque personnelle.


Revue de presse

Concernant la revue de presse, j’ai retenu deux magazines abordant la question des données numériques selon deux approches différentes : le numéro d’Epsiloon de mai 2022 avec un article “Data, elles parlent” de Muriel Valin, et le numéro de Questions internationales de septembre 2021 consacré aux GAFAM. 

Questions internationales n°109, septembre-octobre 2021

Pour ce dernier, le dossier couvre près de 80 pages et propose 10 articles signés par différents experts. 

Parmi eux, l’article “Une géopolitique des GAFAM” de Laurent Carroué revient sur le berceau de ces big tech : la Silicon Valley, et sur la façon dont elles participent au hard power et soft power des États-Unis, finissant par concurrencer les puissances étatiques. 

Laurent Carroué revient sur le rôle des GAFAM dans la circulation de l’information mais aussi dans la diffusion des différentes formes de désinformation (deepfakes, thèses complotistes) à des fins politiques, posant régulièrement la question de leur régulation. 

Se pose également la question du stockage des données et de leur sécurisation, pour contrer la dépendance à ces géants du numérique. 

En deuxième lieu, j’ai retenu un encart de Maud Quessard dans ce même numéro : “L’administration américaine et les GAFAM : de la confiance à la défiance”, avec une photo qui a particulièrement retenu mon attention, puisqu’on y voit Mark Zuckerberg auditionné (déjà) en 2018 par le Congrès des États-Unis. 

L’encart montre l’ambivalence des États-Unis : lutter contre leur monopole tout en bénéficiant de leur rôle de moteur de croissance économique. Il revient également sur les ingérences étrangères et les manipulations de l’information dans le cadre des campagnes électorales en particulier sur Facebook et Twitter, ce qui a donné lieu à cette audition de Zuckerberg par le Congrès après le scandale Cambridge Analytica. 

Entre 2021 et 2022, les réseaux sociaux ont tenté de restaurer leur image, avant que Twitter ne soit racheté par Elon Musk et avant qu’en janvier 2024, Mark Zuckerberg soit de nouveau auditionné cette fois par le Sénat américain, avec d’autres dirigeants de réseaux sociaux, pour n’avoir pas suffisamment protégé les usagers les plus jeunes contre les risques d’exploitation sexuelle et de suicide. 

Enfin, le dernier article à retenir mon attention dans ce dossier est celui d’Anne Perrot, “Plateformes numériques, régulation et droit de la concurrence”, qui revient sur leur position dominante et sur les problématiques qu’elles posent en matière d’utilisation des données personnelles. 

Pour la France, Google détient en 2021 90% de part de marché dans le secteur des moteurs de recherche, et Facebook 70% dans celui des réseaux sociaux. Les données collectées sont monétisées via la publicité ciblée. 

L’article pointe la nécessité de réguler ces plateformes, avec l’élaboration fin 2020 de deux projets de réglements par la Commission européenne : le Digital Service Act pour les contenus et le Digital Markets Act pour essayer de limiter les situations de monopole. 

Valin, Muriel. Data : elles parlent. Epsiloon n°011, 05/2022, p.70-77

Cet article revient de manière très illustrée sur le macroscope, un outil scientifique proposé et présenté par David Chavalarias dans Toxic Data, qui faisait l’objet de mes précédentes notes de lecture sur les données numériques. 

L’article rappelle qu’en une seule minute sur Internet, 5.7 millions de requêtes sont lancées sur Google, 167 millions de vidéos sont regardées sur TikTok et 575000 tweets postés. 

David Chavalarias remet l’immensité des données collectées dans une perspective historique en rappelant que D’Alembert en 1751 rêvait déjà d’un arbre généalogique de la connaissance, rendu aujourd’hui possible avec les progrès de l’algorithmie. 

L’article propose différents exemples du macroscope : la représentation visuelle des publications scientifiques, des communautés climatosceptiques ou encore des échanges sur Twitter entre pro-vaccins et anti-vaccins durant la pandémie de Covid-19. 


Ressources complémentaires

  • Les infographies Data never sleepsavec ce qui se produit sur Internet en une minute

Notes de lecture sur les données (épisode 1)

Dans ce nouvel épisode de mes notes de lecture, j’ai voulu me pencher sur la question des données numériques, pour prolonger les précédentes notes de lecture consacrées plus spécifiquement à l’intelligence artificielle.

Pour préparer cet article, je me suis donc plongée pour l’instant dans deux ouvrages, et dans une sélection de ressources que j’avais consultées durant le traditionnel Cybermoi/s, et qui m’ont également servi à construire mes séances en SNT.

Petite précision concernant ces notes de lecture, il s’agit encore une fois de comptes-rendus subjectifs, et qui me permettent de garder une trace de mes lectures.

Je donne aussi mon ressenti global à la lecture des ouvrages et des articles qui me tombent sous la main, moins pour en faire une critique que pour témoigner de leur accessibilité et en indiquer les prolongements possibles.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et politique : Data-Philosophie et Toxic Data
  2. sélection de ressources

Data-Philosophie, de Sonia Bressler

J’ai acheté ce livre pour le CDI en septembre 2023, parce qu’il m’apparaissait important d’enrichir le fonds philosophie d’ouvrages traitant de problématiques récentes, et propices à intéresser les élèves suivants notamment les spécialités HLP et HGGSP mais également pour permettre à l’ensemble des élèves d’approfondir des notions abordées en cours de philosophie.

L’ambition de ce livre, comme son titre et son avant-propos le rappellent, est donc de lier la pensée philosophique à la question des données numériques, et il soulève des problématiques déjà abordées dans les ouvrages que j’avais pu consulter sur l’intelligence artificielle (voir épisode 4), notamment la question du transhumanisme.

Dans l’introduction, l’auteure rappelle les domaines que recouvre la data-philosophie, à savoir la connaissance, les enjeux éthiques de la collecte et de l’utilisation des données, et, dans une moindre mesure pour cet ouvrage (en tout cas moindre que par exemple l’ouvrage de Pascal Boniface), les implications géopolitiques.

Data-Philosophie est construit en trois parties : contextualisation de la data-philosophie, implications de cette dernière et perspectives critiques.

Première partie : contextualisation de la data-philosophie

Dans cette partie, l’auteure propose un historique de la pensée philosophique en lien avec les données numériques. Elle étudie les ramifications les plus anciennes de la philosophie avec les enjeux actuels de l’accès à la connaissance, de l’esprit critique, de l’intelligence artificielle, etc.

Voici quelques étapes de ces ramifications :

  • Platon et l’allégorie de la caverne
  • Aristote et la classification des connaissances, ainsi la nécessité d’utiliser les données de manière éthique et responsable
  • Descartes : doute méthodique (esprit critique), dualisme homme / machine
  • Leibniz : système de notation binaire, langage universel
  • Kant : impératif catégorique et éthique des données
  • Charles Sanders Peirce : distinction entre signe / objet et interprétant, ce qui permet d’avoir un recul sur la manière dont sont traitées, analysées et interprétées les données
  • les relations entre données et connaissance avec Bertrand Russell, Karl Popper et Thomas Kuhn

L’auteure revient ensuite sur l’émergence du domaine de la data-philosophie à proprement parler (ordinateurs  – internet – réseaux sociaux) et sur :

  • les problèmes éthiques qu’elle soulève : respect de la vie privée, sécurité des données, biais algorithmiques, transparence et responsabilité
  • les problèmes épistémologiques et ontologiques : rapport à la connaissance et à la vérité (fiabilité de l’information), biais, représentativité des données
  • l’interdisciplinarité de la data-philosophie avec les sciences de l’information, la sociologie, la psychologie et les sciences politiques

Elle évoque les apports de deux contributeurs à la data-philosophie : Luciano Floridi qui a introduit le concept d’infosphère et Tim Berners-Lee, fondateur du World Wide Web, concepteur du web sémantique et défenseur de la démocratisation et de la décentralisation du web.

Enfin, cette première partie revient sur les concepts clés de la data-philosophie, déjà rapidement évoqués :

  1. la relation entre les données, la connaissance et la réalité : biais potentiels des algorithmes, interprétation des données, utilisation des données personnelles à des fins politiques, infodémie et relation des individus à l’information
  2. la représentativité des données et la façon dont ces dernières peuvent influencer notre compréhension de la réalité
  3. les principes éthiques de l’utilisation des données (vie privée, confidentialité, transparence, responsabilité)
Deuxième partie : les implications de la data-philosophie

Dans cette deuxième partie, l’auteure revient sur les enjeux politiques, sociaux et humains que soulèvent les données numériques, et propose des pistes de réflexion afin d’appréhender leur utilisation de manière éthique et responsable.

Je ne vais pas revenir de manière approfondie sur ces différents enjeux, sauf ceux qui ont plus particulièrement retenu mon attention.

Dans un premier chapitre, Sonia Bressler aborde les implications éthiques : l’importance du consentement et de la transparence (avec les problématiques de respect de la vie privée), la nécessité d’un accès équitable aux données et de la lutte contre les discriminations.

Dans un second chapitre, elle aborde les implications épistémologiques : les limites de la connaissance basée sur les données et la question de la fiabilité de l’information.

Elle revient sur les enjeux de la sélection des données dans le fonctionnement des modèles prédictifs et explicatifs (machine learning, agents) et à nouveau sur les biais algorithmiques notamment dans le domaine de l’emploi (recrutement), de l’économie (accès au crédit, publicité) et de la reconnaissance faciale.

Le dernier chapitre porte sur les implications politiques et sociales :

  • démocratie et gouvernance : la façon dont les données numériques participent de la polarisation des débats politiques, des bulles de filtres et de la manipulation des opinions publiques (ce qui est développé par le deuxième ouvrage que j’évoquerai dans cet article, Toxic Data), l’atteinte à la vie privée, mais également la question de la désinformation avec les biais de confirmation et l’influence sur les comportements électoraux et sociaux
  • protection des droits fondamentaux avec un rappel de la protection des données (RGPD, droit à l’oubli…)
  • la transparence et la responsabilité des institutions, la question de l’ouverture des données / open data (voir le site data.gouv)
  • la participation citoyenne des individus aux questions relatives aux données et donc la nécessité de l’éducation (littératie des données, esprit critique)
  • la relation des données aux domaines de l’économie et du travail (automatisation, protection des travailleurs et innovations technologiques)
troisième partie : perspectives critiques

Dans cette dernière partie consacrées aux débats et controverses en lien avec les données numériques, Sonia Bressler revient dans un premier temps sur les questions de neutralité et d’objectivité des données.

Les données et algorithmes peuvent-ils être neutres ? La question permet de rappeler les différents biais qui peuvent intervenir dans le traitement des données, que ce soit en amont dans la collecte de ces données (échantillonnage non représentatif) ou en aval dans leur traitement (biais de confirmation). Elle aborde également les biais qui interviennent durant la conception des algorithmes ou dans leur fonctionnement (apprentissage automatique).

Humanisme et technologie revient sur les différents penseurs qui alertent sur la déshumanisation de la société (incitation à la surconsommation, dépendance numérique) et sur les enjeux éthiques des innovations technologiques, avec la nécessaire collaboration entre humains et machines.

Le dernier chapitre de l’ouvrage revient sur les enjeux actuels des données numériques et de l’intelligence artificielle, avec à nouveau la nécessité de transparence, les implications éthiques et sociales, la relation entre intelligence artificielle et développement durable, la mise à jour des cadres réglementaires et de la législation.

Mon avis sur l’ouvrage

J’ai trouvé cette mise en relation entre la philosophie (et plus particulièrement ses ramifications anciennes) et les données numériques particulièrement éclairante.

Cela m’a rappelé d’autres lectures, plus anciennes, que j’avais pu faire lorsqu’il s’agissait de préparer les épreuves du CAPES de documentation, et même encore plus loin, les cours de philosophie suivis en terminale et en prépa.

C’est tout l’intérêt de cette question, de voir également la transversalité des données numériques.

Par contre, l’ouvrage a tendance, en voulant insister sur les différents aspects et enjeux des data, parfois à se répéter et à étirer ces problématiques, et j’avoue que cette lecture a été pour moi un peu plus laborieuse que les autres.

Elle permet cependant de prendre de la hauteur par rapport à l’ouvrage que je vais désormais aborder, et que pourtant j’avais lu en premier.


Toxic Data, de David Chavalarias

J’avais ce livre depuis le mois de juin dans ma bibliothèque, et après mes quelques lectures sur l’intelligence artificielle, il m’a paru presque récréatif…

Il apporte un éclairage spécifiquement politique à la question des données numériques et complète à la fois l’ouvrage de Sonia Bressler sur la data-philosophie et l’ouvrage de Pascal Boniface sur la géopolitique de l’intelligence artificielle.

L’auteur ancre son contexte dans la crise provoquée par la prise d’assaut du Capitole par les militants trumpistes suite aux résultats des élections américaines en 2021. Son analyse porte ensuite sur la manière dont les réseaux sociaux transforment la circulation de l’information et influencent les comportements politiques.

Il s’appuie sur un projet lancé en 2016 avec une équipe du CNRS : le Politoscope, qui collecte les messages émis sur Twitter par les comptes appartenant à la sphère politique.

L’ouvrage se décline en 14 chapitres que je vais tâcher de résumer, et propose également des visuels et des outils pour mieux appréhender la question.

chapitre 1 : la france dans le collimateur de l’alt-right

David Chavalarias étudie dans ce chapitre l’utilisation des mèmes pour marquer l’opinion publique, et donc sur le ressort émotionnel de l’information.

Ce mode de communication est utilisé durant la campagne de 2017 par les militants extrémistes, qui vont utiliser la faille de notre système électoral : le fait de ne retenir au second tour des élections que les deux candidats arrivés en tête, ce qui polarise d’autant plus la campagne.

Il analyse également la provenance de ces messages et leur temporalité, l’utilisation des bots pour diffuser les messages, la rapidité de circulation de l’information, et souligne l’habitude que nous avons prise de recevoir cette information de manière instantanée sans forcément la remettre dans son contexte.

chapitre 2 : que se passe-t-il derrière l’écran ?

Ce chapitre revient principalement sur le fonctionnement du réseau social Twitter, la façon dont se forment les communautés (homophilie / influence sociale).

chapitre 3 : nos réseaux sociaux vus du ciel

L’auteur y étudie la participation des différentes communautés politiques à des campagnes de dénigrement de personnalités, et la représentation cartographiques des comptes politiques sur Twitter.

Cela lui permet d’approfondir les phénomènes de diffusion des fausses informations, de bulles de filtres et de repli sur soi.

chapitre 4 : quand les algos partent en vrille

Ce chapitre est l’un des plus captivants : il s’intéresse à une expérience menée par un utilisateur de Facebook qui avait décidé de liker tout ce qui apparaitrait sur sa page Facebook, pour observer la façon dont le fil d’actualités se modifiait en conséquence (filtrage collaboratif).

chapitre 5 : libres de se laisser enfermer

L’auteur étudie trois phénomènes intervenant sur les réseaux sociaux :

  • renforcement
  • contagion algorithmique
  • bulle de filtre

ainsi que le biais de confirmation, mais également le biais de négativité, qui consiste à privilégier ce qui va accentuer nos peurs dans la réception des messages (les informations négatives) plutôt que les informations positives, et là encore le ressort émotionnel des réseaux sociaux.

chapitre 6 : toxicité à tous les étages

Citation de Marshall McLuhan :

Nous façonnons nos outils, et par la suite, nos outils nous façonnent.

À la différence d’un repas familial où nous allons adapter (généralement) nos sujets de conversation à l’auditoire pour éviter de fâcher untel ou untel, nous recevons sur les réseaux sociaux (l’auteur étudie ici le fonctionnement de l’algorithme de Facebook) toutes les informations postées par notre entourage, mettant en lumière des divergences qui autrement auraient pu rester invisibles.

chapitre 7 : quand c’est gratuit, c’est vous le produit

Dans ce chapitre, l’auteur revient sur la collecte systématique et à grande échelle des données, sur le ciblage publicitaire et sur le détournement de ce ciblage à des fins politiques.

Il se penche aussi sur la manipulation des résultats de recherche et sur les suggestions proposées, notamment par l’algorithme de Google. L’auteur propose à titre d’exemples les suggestions de recherche obtenues en tapant le nom des cinq candidats les mieux placés aux élections présidentielles de 2022.

chapitre 8 : diviser pour mieux régner depuis l’étranger

Ce chapitre étudie les phénomènes de désinformation intervenant dans les campagnes électorales (États-Unis, France) depuis l’étranger (Russie) pour influencer les résultats – ou comment l’information (et la désinformation en l’occurence) est utilisée comme moyen de déstabilisation et de division intérieure.

Ces stratégies sont proposées dans l’ouvrage de Sun Tzu, L’Art de la guerre : division entre inférieurs et supérieurs, désinformation (aussi appelée division de mort), corruption.

Elles sont approfondies dans le chapitre suivant, Subversion 2.0, qui revient également sur l’émergence du réseau social Tik Tok.

chapitre 9 : subversion 2.0
  • le réseau social Tik Tok et ses critères de modération contestables
  • retour sur le chatbot Tay lancé par Microsoft capté par des trolls
  • premières analyses du fonctionnement des agents GPT-2 et GPT-3
chapitre 10 : check-up d’une démocratie malade

L’auteur revient ici sur les évolutions du monde politique induites par les réseaux sociaux : fragmentation du monde politique, dérapage vers les extrêmes.

Ces problématiques sont approfondies dans le chapitre suivant, « La démocratie, première victime du Covid-19 », qui se penche sur les chambres d’écho antivax.

Le chapitre 12 s’intéresse quant à lui à la montée du populisme, en étudiant les principales sources de désinformation sur Twitter et les rapports ambigus entre médias traditionnels et médias numériques (rôle de C News dans la campagne d’Éric Zemmour), avec un prolongement dans le chapitre 13, introduit par une référence à la pièce Rhinocéros de Ionesco.

L’auteur finit par étudier dans le dernier chapitre deux concepts à l’oeuvre dans la société actuelle et mettant en péril le processus démocratique : la rigidité d’une société (influence sociale) et la dépendance au chemin (phénomène de renforcement).

En conclusion, il propose deux types de recommandations, au niveau individuel et collectif pour renverser la vapeur, parmi lesquelles :

  1. puisez à la source, aiguisez votre sens critique, identifiez vos « vrais amis », dissociez vos différents réseaux, ayez l’oeil sur vos émotions, prenez vos distances, fuyez les notifications…
  2. donnons la priorité à l’éducation

En annexe de son propos il donne une liste de sophismes à éviter pour de meilleurs débats en ligne, ainsi qu’un glossaire.

Mon avis sur l’ouvrage

Cet ouvrage est absolument captivant, et je me suis retenue de ne pas en faire une recension encore plus poussée.

Les recommandations en fin d’ouvrages peuvent, selon moi être réutilisées en classe pour travailler avec les élèves sur l’esprit critique. De même le glossaire reprend les termes incontournables de l’ouvrage.

Toxic Data m’a permis de tirer des fils et de revenir sur des ressources que j’avais déjà repérée : la vidéo de Fouloscopie sur les réseaux sociaux, le site Seriously qui permet de pacifier des discussions sur Internet, ou le site de Stéphanie de Vanssay, Dompter les trolls.


 Ressources

Notes de lecture sur l’intelligence artificielle (épisode 4)

Pour ce quatrième (et peut-être dernier) épisode de mes notes de lecture sur l’intelligence artificielle, j’ai choisi des ouvrages et des articles qui permettent de susciter le débat sur la question.

En effet, les lectures que j’ai retenues peuvent être mobilisées dans des disciplines principalement associées aux sciences humaines : enseignement moral et civique, philosophie, HLP…

Je précise qu’il s’agit là potentiellement du dernier épisode, car je pense pour l’instant avoir à titre personnel fait le tour de la question, même si je n’exclus pas de prendre à nouveau des notes sur des ouvrages ou des articles qui attireraient mon attention et proposeraient un éclairage d’actualité sur le sujet (je pense en particulier aux ouvrages publiés très récemment sur ChatGPT).

Mais d’ici là, je m’octroie une petite pause sur l’intelligence artificielle (sauf pour avancer dans mes conceptions de séances) et vais plancher sur d’autres lectures scientifiques.

Dans cet épisode :

  1. un aperçu de deux ouvrages que j’ai parcouru et qui abordent la question d’un point de vue philosophique et social : Les Robots font-ils l’amour ? et Des Robots et des hommes
  2. revue de presse avec les numéros 1700 du Courrier international et 432 du Un
  3. sélection de ressources

Les Robots font-ils l’amour : Le transhumanisme en 12 questions, de Laurent Alexandre et Jean-Michel Besnier

Cet ouvrage, publié en 2016, figurait déjà depuis un certain temps dans le rayon philosophie du CDI, et déjà à l’époque, le titre avait retenu mon attention, en me rappelant celui du roman de Philip K. Dick Les Androïdes rêvent-ils de moutons électriques ?, porté à l’écran sous le titre Blade Runner.

Contrairement à mes notes de lecture précédentes, je ne vais pas tenter de faire un résumé de chaque chapitre, le titre étant suffisamment parlant. Je vais me contenter de relever ce qui m’a intéressée dans cet ouvrage et de quelle manière il peut permettre de nourrir un débat sur la question.

L’ouvrage prend la forme d’une discussion (relativement animée) entre les deux auteurs, Laurent Alexandre, médecin et entrepreneur, et Jean-Michel Besnier, philosophe, et cette discussion s’articule autour des 12 questions du sous-titre :

  1. Faut-il améliorer l’espèce humaine ? (implants, détection de la trisomie 21)
  2. L’humanité doit-elle changer sa reproduction ? (fécondation in vitro, manipulations génétiques)
  3. La technologie peut-elle tout réparer ? (thérapie, implants, rôle et déontologie d’un médecin supplanté par les technologies)
  4. Demain, tous cyborgs ? (le chapitre revient sur les craintes soulevées à l’époque par Elon Musk autour de l’intelligence artificielle, et sur la question du libre arbitre au sein d’un corps livré à la technique)
  5. Peut-on faire l’amour avec un robot ? (évocation du film Her, cybersexualité)
  6. Est-il désirable de vivre 1000 ans ? : la lecture de ce chapitre m’a rappelé le roman Tous les hommes sont mortels de Simone de Beauvoir
  7. Le transhumanisme est-il un eugénisme ? (est-il légitime d’utiliser toutes les possibilités de transformation offertes par la science ? rappel du mythe de la singularité, c’est-à-dire le moment où l’esprit humain est dépassé par l’intelligence artificielle)
  8. L’intelligence artificielle va-t-elle tuer l’homme ? (retour sur la lettre ouverte sur l’intelligence artificielle signée en 2015 entre autres par Stephen Hawking, Bill Gates, Elon Musk…) *
  9. Quels sont les enjeux économiques ? (retour sur l’implication des géants du numériques, en particulier Google, le lien entre Big data et IA)
  10. Faut-il légiférer ? (de quelle manière encadrer législativement et de manière éthique les innovations technologiques ? quelles interventions de l’état – ou inter-étatiques – possibles ? nécessaire évolution de l’école)
  11. Doit-on craindre un « meilleur des mondes » ? (risques totalitaires du transhumanisme ou renouveau démocratique ? proposition d’un serment d’Hippocrate pour les scientifiques spécialistes des NBIC)
  12. Jusqu’où pousser la recherche ? (le transhumanisme comme nouvelle religion)

J’ai indiqué par un * les chapitres sur lesquels je me suis davantage attardée. Le chapitre 8 fait un rapide historique de l’intelligence artificielle, sur la définition de l’intelligence, sur la difficulté de l’école à s’adapter aux problématiques actuelles de l’IA, sur les risques de l’intelligence artificielle pour l’emploi, sur la distinction entre IA faible et IA forte et sur la loi de Moore.

Mon avis sur l’ouvrage

Le caractère souvent décomplexé de la conversation m’a parfois quelque peu désarçonnée, mais j’ai trouvé la structure très fluide et intéressante, et avec un recul sur ces différentes questions, je pense qu’elles peuvent être reprises presqu’à l’identique dans le cadre de débats menés en classe avec les élèves.


Des robots et des hommes : Mythes, fantasmes et réalités, de Laurence Devillers

Là encore, il s’agit d’une publication sur la question qui remonte à quelques années (2017).

L’ouvrage s’ouvre par une fiction « LILY, ma robote assistante de santé » où l’auteur imagine un futur désormais proche, en 2025, avec des robots compagnons de vie ayant trois niveaux d’adaptation : le niveau 1 sans adaptation, le niveau 2 où le robot peut apprendre certaines tâches, et le niveau 3 où il s’adapte aux habitudes de l’humain.

L’auteure propose des allers-retours entre cette fiction et les avancées de la robotique et de l’intelligence artificielle au moment où cet ouvrage est publié ainsi que les questionnements qu’elles soulevaient : les agents conversationnels, les capacités propres à l’homme et celles propres aux robots, le traitement des données personnelles.

Dans son avant-propos, Laurence Devillers évoque déjà les expériences menées avec les robots japonais Pepper et Paro (et l’utilisation de ce dernier dans l’accompagnement des personnes âgées), des robots Keepon et Nao pour les enfants souffrant de troubles du spectre autistique.

Principalement, elle pose la question de l’intégration des robots sociaux dans notre vie quotidienne, avec les problématiques de la morale, de l’éthique, de l’empathie, du respect de la vie privée. Elle indique 4 leviers à prendre en compte :

  • éduquer à l’éthique des robots
  • expliciter des règles de bonne conduite à coder sur le robot
  • mettre en oeuvre des outils pour vérifier le respect de ces règles
  • adopter une règlementation juridique en cas de non respect

en s’appuyant sur les lois de la robotique d’Asimov.

L’ouvrage se décline ensuite en deux parties.

Dans la première partie « Les robots : science-fiction, mythes et fantasmes », l’auteure revient aux origines littéraires et cinématographiques de la robotique :

  • Frankenstein ou le Prométhée moderne, de Mary Shelley
  • le mot ROBOT qui trouve son origine chez Karel Capek
  • et évidemment Asimov pour la littérature

Concernant les mythes et fantasmes cinématographiques, elle les fait remonter à Prométhée, Pygmalion, à Faust et au Golem, aux questionnements philosophiques de Descartes (qui dissocie corps et esprit) et aux différences culturelles de perception des robots entre l’Occident et le Japon.

S’ensuivent les références cinématographiques de Metropolis, 2001, Star Wars, A.I., WALL-E., Her, et les séries Real Humans et Westworld, qui posent d’un point de vue fictionnel les problématiques soulevées dans l’avant-propos.

Dans le troisième chapitre de cette première partie « L’intelligence des machines : halte aux fantasmes ! », l’auteure revient sur la définition de l’intelligence et fait un rappel historique de ce que recouvre l’intelligence artificielle (Turing, modes d’apprentissage, hivers de l’IA, recherches menées par les GAFAM et transhumanisme, mythe de la singularité et lettre ouverte de 2015 alertant sur les dangers de l’IA).

Quelques points de réflexion :

  • Tay, l’intelligence artificielle de Microsoft entraîné par les utilisateurs à tenir des propos racistes et antiféministes
  • les failles de la technologie de reconnaissance faciale de Google Photos
  • citation mentionnée de Gérard Berry, informaticien et professeur au Collège de France

L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con.

L’auteure rappelle l’urgence d’aller au-delà du test de Turing pour prendre en compte les nouvelles capacités de l’I.A.

Dans la deuxième partie « Les robots : aujourd’hui et demain », l’auteure s’intéresse à ce qui lie robotique, intelligence artificielle et problématiques sociales et morales.

Dans le chapitre « Qu’est-ce qu’un robot social ? », elle évoque les fonctionnalités les plus récentes des robots, avec les dimensions développées : autonomie, apprentissage et empathie.

Elle définit selon différents critère la robotique sociale : le robot perçoit ce qui l’entoure, peut apprendre et interagir avec nous, et ces différents enjeux dans les chapitres suivants :

  • un robot doit-il le plus possible ressembler à un humain ? va-t-on faire plus confiance à un robot humanoïde ?
  • un robot peut-il manifester de l’empathie ou en susciter ? qu’est-ce qui distingue l’homme du robot dans l’expression des émotions ? une machine peut-elle apprendre à détecter les émotions et adapter sa réponse en conséquence ?
  • comment intégrer aux innovations technologiques la morale et le respect de la vie privée et des données personnelles ?

Pour illustrer cette dernière question, l’auteure cite la nouvelle de John McCarthy, Le Robot et le bébé, où le robot doit déroger à une première règle de fonctionnement pour respecter la deuxième.

Elle soulève également la question de la responsabilité en matière d’intelligence artificielle : qui est responsable entre le concepteur du programme, l’ingénieur, l’opérateur et l’utilisateur ?

Règles et responsabilités interviennent dans les champs suivants :

  1. sécurité civile,
  2. opérations militaires,
  3. voitures autonomes (Moral Machine)

Concernant les relations que les humains peuvent avoir avec un robot social, l’auteure rappelle le rôle chez l’enfant du doudou comme objet transitionnel (note personnelle : ce que constitue déjà le smartphone pour un certain nombre de personnes – voir nomophobie) avec les risques que cela induit : addiction, confusion, repli sur soi.

Les deux derniers chapitres évoquent les peurs suscitées par les robots (piratage, surveillance, risques économiques) et la nécessité d’éviter les deux écueils que sont les craintes irrationnelles et le trop plein de confiance, ce qui amène naturellement à l’épilogue de l’ouvrage, une proposition de onze commandements pour les applications sociales de la robotique, où figurent en premier lieu les données privées et le droit à l’oubli.

Mon avis sur l’ouvrage

Parmi les ouvrages traitant de la question de l’intelligence artificielle par le biais des sciences humaines et en particulier de la philosophie, des émotions et de la morale, cet ouvrage est le plus intéressant que j’ai pu lire jusqu’ici.

La porte d’entrée de la fiction, avec les robots compagnons et les allers-retours avec les questionnements actuels sont assez vertigineux et captivants, surtout lorsqu’on lit aujourd’hui cet ouvrage publié en 2017.

Il complète de manière plus posée le premier ouvrage, et permet d’assoir les arguments qui pourraient survenir dans un débat sur l’intelligence artificielle en classe.


Revue de presse

Pour cette revue de presse, j’ai décidé de ne pas trop détaillé le contenu des périodiques concernés et de me concentrer sur ce que j’ai pu trouver de plus récent – hors quotidiens, sur les aspects sociaux, philosophiques et artistiques de l’intelligence artificielle. J’ai donc retenu deux documents :

Naomi Klein : « Les IA organisent le plus grand pillage de l’histoire de l’humanité ». Courrier international n°1700, 01/06/2023, p.44-45

Dans cette tribune publiée dans The Guardian, Naomi Klein revient sur les « hallucinations » autour des dernières innovations de l’intelligence artificielle et fait se confronter certaines utopies (utiliser l’IA pour prendre des décisions, pour transformer le monde du travail, pour améliorer l’accès à l’information) et leurs revers (consommations, crise climatique, dérives politiques et économiques.

L’IA va-t-elle nous remplacer ?. Le 1 n°432, 01/02/2023, p.1-6

Dans le numéro de cette revue hebdomadaire, j’ai retenu :

  • les Repères en page 5 « Rêves prométhéens » qui proposent une chronologie littéraire et cinématographique de l’IA.
  • dans le Zoom en page 6 « À quand un ChatGPT français ? », Isabelle Ryl évoque le supercalculateur Jean-Zay et le modèle de langage Bloom, un modèle de langage ouvert, responsable et explicable.
  • dans « L’art au temps de l’intelligence artificielle » Marion Carré revient sur les questionnements récents (et qui font écho à la grève des scénaristes et des acteurs à Hollywood) : l’IA peut-elle être artiste ? quels risques dans l’uniformisation des goûts ? quels sont les droits concernant une oeuvre générée par l’intelligence artificielle ?
  • enfin dans son enquête « Le défi de l’éducation », Manon Paulic revient sur la nécessite de repenser l’enseignement : évalue-t-on la capacité des élèves à emmagasiner et restituer des connaissances ou son raisonnement critique et sa créativité ?

Ce dernier débat me renvoie à l’opposition entre les sophistes et Socrate dans les dialogues platoniciens… et ouvre sur l’une de mes prochaines lectures, que j’évoque dans la partie Ressources.

Ressources

J’avais songé à l’origine faire le compte-rendu dans cette note d’un troisième ouvrage : Data-Philosophie de Sonia Bressler, en y abordant uniquement ce qui a trait à l’intelligence artificielle, mais l’ouvrage opte visiblement pour un questionnement plus large et qui m’intéresse, j’en ferai donc le compte-rendu dans un article ultérieur.

Notes de lecture sur l’intelligence artificielle (épisode 1)

Voici mes notes de lecture et une sélection de ressources sur l’intelligence artificielle.

 

Ce premier épisode revient sur :

  1. l’ouvrage Turing à la plage
  2. le dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon
  3. une sélection de ressources numériques

Turing à la plage : l’intelligence artificielle dans un transat, Rachid Guerraoui, Rachid et Lê Nguyên Hoang.

Ouvrage publié en 2020, 220 pages. 8 chapitres, un glossaire à la fin, ainsi que des propositions bibliographiques de prolongement.

Le prologue propose quelques éléments biographiques sur Alan Turing. Sur l’intelligence artificielle les points clefs sont :

  • le test Turing qui met à l’épreuve la faculté d’une machine à discuter avec un être humain (prix Loebner : lien avec les bots conversationnels) ;
  • l’article publié en 1936 par Turing qui décrit une machine modèle de nos futurs ordinateur ;
  • le décryptage d’Enigma ;
  • l’article Computing Machinery and Intelligence publié en 1950 sur les machines qui pensent.
Chapitre 1 : au cœur de l’intelligence artificielle

Selon Turing, l’intelligence des machines réside nécessairement dans l’algorithme qu’elles exécutent, c’est-à-dire une liste d’instructions et d’opérations logiques ou une recette permettant de résoudre des problèmes compliquées à partir d’étapes simples.

Ada Lovelace est la première à avoir l’idée de programmer les machines à calculer inventées initialement par Pascal et Babbage, en utilisant des cartes perforées.

Dans son article de 1936, Turing propose une machine universelle qui serait capable d’apprendre des algorithmes et de les exécuter à la demande, algorithmes qui peuvent être transposés d’une machine à l’autre.

L’exemple de PageRank : cet algorithme développé par Google consiste à calculer un score de popularité pour chaque page web, en s’appuyant sur les liens entre les pages.

« Plus les liens qui pointent vers une page sont nombreux, plus PageRank lui attribue un score élevé. »

Ce système de recommandations s’applique également aux suggestions d’amis sur Facebook ou sur le conseil de produits sur des sites et des applications.

Ce que l’on désigne généralement sous le terme « intelligence artificielle », ce sont les algorithmes auto-apprenants qui apprennent de leurs expériences pour résoudre des problèmes de plus en plus complexes et les systèmes experts qui déduisent des faits à partir de règles, et qui peuvent en déduire de plus en plus lorsque de nouvelles données leur sont fournies.

Idée de définition retenue : l’intelligence artificielle est la capacité d’un algorithme à résoudre un problème que seul l’humain pensait être capable de résoudre.

chapitre 2 : les limites des machines

Notions retenues :

  • la théorie d’incomplétude de Kurt Gödel selon laquelle toute théorie mathématique contient des vérités non démontrables ;
  • le paradoxe du Crétois. Un Crétois déclare « je mens ». Si ce qu’il dit est vrai, alors ce qu’il dit est faux. Et si ce qu’il dit est faux, alors le Crétois dit la vérité.
  • les algorithmes seront toujours confrontés à des problèmes qu’ils ne pourront pas résoudre.
Chapitre 3 : des progrès ahurissants

Des premières machines purement mécaniques, on en vient à la Seconde guerre mondiale à construire des machines électromécaniques à des fins de cryptanalyse (la plus connue est Enigma).

Pour décoder Enigma, Turing et ses collègues conçurent une machine à calculer surpuissante, la Bombe de Turing.

  • 1943 : Mark 1, une machine de la société IBM
  • 1956 : invention du transistor, un interrupteur actionnable électroniquement. La combinaison de plusieurs transistors permet la fabrication de circuits logiques.
  • 1988 : le joueur d’échecs David Levy est battu par l’algorithme Deep Thought, lui-même battu l’année suivante par Gary Kasparov.
  • 1996 : l’algorithme Deep Blue bat Kasparov, avant d’être battu par d’autres algorithmes.

La mise en réseau des machines (Internet) permet d’aller plus vite et de traiter un plus grand nombre de données en répondant à deux besoins : la tolérance aux défaillances et la puissance de calcul. Google répond à presque 4 milliards de requêtes par minute.

chapitre 4 : le code de l’intelligence

Contrairement au langage naturel, le langage machine n’a pas d’ambiguïté. Il est composé par les symboles 0 et 1 manipulés par le processeur d’une machine. Les langages de programmations sont des intermédiaires entre ces langages machines et le langage naturel.

Un langage de programmation est dit « Turing-complet » s’il est universel, c’est-à-dire traduisible dans un autre langage. On parle de « pensée algorithmique » pour décrire une façon de construire des idées à l’aide de ces langages de programmation.

Extrait p.109 :

Nous sommes capables instinctivement de reconnaître un chat dans une image, mais nous ne savons pas comment. (…) Nous parvenons à exécuter l’algorithme de détection de chat qui se trouve dans nos cerveaux, mais il nous est impossible de décrire cet algorithme.

Cette distinction est particulièrement importante à faire dans le cadre des sciences afin d’aiguiser son esprit critique. Il nous arrive souvent d’être persuadés d’une chose sans être capable de décrire le raisonnement logique qui nous a conduits à cette conclusion.

Exemple des captchas : démontrer qu’on est un humain revient à trouver les objets demandés, une tâche facile pour l’humain et complexe pour l’algorithme.

1950 : l’argument de Turing. Aucun humain ni groupe d’humain ne serait capable d’écrire ligne à ligne le code algorithmique d’une IA de niveau humain. Cela induit le principe des learning machines, qui doivent remplacer l’humain dans l’écriture du code et apprendre leur propre algorithme.

chapitre 5 : des machines qui pensent

Le jeu de l’imitation ou test de Turing est un test visant à mesurer la capacité d’une intelligence artificielle à imiter une conversation humaine.

Voir notamment le prix Loebner mentionné plus haut, les chat bots, le film Her de Spike Jonz ou les applications développées récemment comme ChatGPT.

De nombreuses IA modernes fonctionnent avec un apprentissage par renforcement, c’est-à-dire par le fait de recevoir des récompenses en cas de prouesses (ou de clics de l’utilisateurs) et des punitions en cas de défaillances, le tout sous la forme de signaux, qui vont modifier leurs propres algorithmes.

chapitre 6 : des artistes de silicium

Ce chapitre s’intéresse aux capacités des machines à développer de la créativité, c’est-à-dire la capacité à nous fasciner ou à nous surprendre.

  • l’algorithme AlphaGo développé par Google Deepmind en 2016
  • les créations artistiques réalisées par des algorithmes qui passent un test de Turing artistique
  • les algorithmes de recommandation développés pour estimer ce qui plaira aux utilisateurs (Spotify, Netflix)
Chapitre 7 : des algorithmes dans la nature

Dans ce chapitre sont étudiés les mécanismes naturels qui déterminent les différentes formes et structures des êtres vivants (soit le domaine de la morphogénèse) et le mécanisme de l’hérédité (soit la réplication de l’information génétique).

Applications vivantes de l’intelligence collective : les nuées d’oiseaux et les bancs de poissons.

chapitre 8 : l’IA est-elle un danger pour l’humanité ?
  • Inquiétudes autour de l’IA : dans la culture populaire avec 2001, l’Odyssée de l’espace, Terminator et Matrix.
  • Dans l’univers de la science-fiction avec Isaac Asimov et ses lois de la robotique.
  • Applications militaires et gouvernementales de l’IA : armes, drones, reconnaissance faciale. Dérives avec les deepfakes.

Le chapitre s’intéresse en outre aux biais des algorithmes, dont le logiciel de recrutement proposé en 2015 par Amazon qui éliminait systématiquement les CV des femmes.

Les effets secondaires : la question des algorithmes de recommandation, p.188

Typiquement, ces algorithmes de recommandation nous conduisent à cloisonner nos centres d’intérêt. Il s’agit d’une conséquence du biais de familiarité : plus une chose nous est familière, plus nous l’apprécions. Mais alors, plus nous apprécions un contenu, plus l’IA de YouTube nous recommandera ce contenu, et plus ce contenu nous deviendra familier. Et plus nous l’apprécierons. Petit à petit, les différentes communautés d’intérêt se referment ainsi sur elles-mêmes, tandis que s’appauvrit l’esprit critique de ses membres. On assiste à une polarisation croissante des opinions, et au développement d’une culture de l’entre-soi.

Mon avis sur l’ouvrage :

Le plus : un rappel historique et scientifique de ce qu’est l’intelligence artificielle et une bonne mise en bouche qui permet une compréhension du sujet, même pour des non-scientifiques.

Cette approche est la plus théorique et scientifique de l’intelligence artificielle, et me permet de survoler certains des concepts abordés dans les autres ouvrages.

Dossier « ChatGPT : ce n’est que le début… » du numéro 25 de la revue Epsiloon (juillet 2023) pp. 42-57

Ce dossier s’intéresse aux implications les plus récentes de l’intelligence artificielle, avec GPT-4, le successeur de ChatGPT.

Il prend comme point de départ la fascination évoquée plus haut et suscitée par ChatGPT, et les craintes qui vont de pair.

Aux origines : un article publié par une équipe de Google : « Attention is all you need » en 2017 qui proposait une nouvelle architecture, Transformer, basée sur un mécanisme d’attention, en d’autres termes « un système statistique qui tente de prédire le mot suivant d’une phrase, en s’appuyant sur le texte environnant ».

GPT-4 intègre 1000 milliards de paramètres, et parvient à réussir différents examens et concours mieux que la plupart des étudiants.

GPT-4 semble capable de développer des capacités sociales telles que raisonnement, sens commun, compréhension, créativité ou abstraction.

L’enjeu est de comprendre le fonctionnement de ces machines pour mieux appréhender les failles qu’elles présentent : biais sexistes et racistes, fautes de langage, réponses intuitives et précipitées, invention de faits et de concepts.

Pistes d’évolution de ces intelligences : leur fournir de nouvelles perceptions comme la vue, la mémoire à long terme…

En fin de dossier : les réactions de chercheurs de différents domaines (géopolitique, sociologie, droit, physique, SIC, sciences cognitives…).

Les encarts « Des étincelles d’intelligence » 

Ces encarts reviennent sur certaines prouesses de GPT-4 :

  • la capacité à réussir des tests cognitifs
  • le test de l’équilibre
  • la recherche d’informations (chercher une info dans un moteur de recherche, utiliser les commandes Linux d’un ordinateur pour le pirater…)

Le dossier propose en prolongements les trois vidéos sur la question publiées par l’INRIA : Comment fonctionne ChatGPT, Le Prompting, Les limites de ChatGPT.

Ressources supplémentaires

  • Le site Moral Machine qui compile différentes perspectives humaines sur les décisions morales prises par les machines intelligentes
  • La vidéo d’Hugo Décrypte publiée en février 2023 :

Fièrement propulsé par WordPress & Thème par Anders Norén