Note : le livre “Fantasia” m’a été gratuitement donné par l’autrice pour que je le critique. Je n’ai pas reçu d’instructions particulières sur le contenu ou la forme de cette critique, donc tout ce qui suit représente mon opinion, sans filtre.
Fantasia, écrit par Laura Sibony, sortira (ou est sorti selon quand vous lisez ceci) le 31 janvier 2024 aux éditions Grasset. Le livre parle d’intelligence artificielle, et puisque c’est un peu mon truc, onPour être tout à fait transparent: c’est une collègue, amie de l’autrice, qui m’a demandé si ça m’intéressait d’en faire une critique. m’a envoyé un exemplaire pour que je donne mon avis. Parce qu’apparemment je suis un influenceur maintenant !
Je vais scinder cette critique en deux parties : mon opinion en bref et sans “spoiler”, et puis quelques digressions.
Mon opinion en bref
Qu’est-ce que Fantasia ? C’est un recueil de courts récits et essais autour de l’intelligence artificielle. L’idée générale du livre est : l’IA est un concept un peu fourre-tout, un domaine aux multiples facettes, qu’on ne peut pas réduire à une définition simple. Plutôt que de définir et expliquer, il vaut donc mieux la raconter.
Et raconter, l’autrice Laura Sibony fait ça très bien. C’est prenant, c’est très agréable à lire et, même si elle n’est pas une spécialiste de l’IA, c’est assez juste, en tout cas dans les grandes lignes. Si on veut se faire une idée générale des enjeux réels autour de l’intelligence artificielle en passant un très bon moment de lecture, Fantasia est vraiment un très bon livre. Il ne faut pas y chercher, par contre, un contenu technique : ce n’est clairement pas son objectif.
Là où j’ai un peu plus de mal, c’est dans le flou inconfortable (pour moi) qui règne tout au long du livre entre ce qui est de l’ordre de l’essai, du reportage ou de la fiction. Selon les chapitres, l’autrice s’adresse directement à nous pour nous expliquer des choses. Ou elle met en scène des personnages réels dans des situations un peu romancées, mais ancrées dans la réalité. Ou elle met en scène des personnages fictifs, peut-être basés sur des personnes réelles, pour raconter des anecdotes parfois vraies, parfois “basées sur des faits réels”, parfois on ne sait pas trop. C’est clairement un choix, et je ne dis pas que c’est un mauvais choix, juste que pour moi en tout cas ça crée parfois une légère frustration.
Ca ne m’a pas empêché de bien profiter du livre, et je le recommande sans trop d’hésitation : c’est rare de trouver des textes sur l’intelligence artificielle qui soient à la fois bien écrits et qui ne partent pas (trop) dans des délires, soit apocalyptiques, soit sur la toute-puissance de ChatGPT-qui-va-dominer-le-monde. Laura Sibony n’est pas une spécialiste, mais elle a clairement eu à coeur d’écouter des spécialistes et de mettre en avant des réels et des possibles plutôt que des improbables.
Digressions
En lisant le livre, déformation professionnelle, je ne pouvais pas m’empêcher de temps en temps de fact-checker les histoires, pour essayer de détricoter le réel de l’imaginaire, ce qui m’a amené sur les trois digressions suivantes : sur la façon erronnée (à mon pas-si-humble avis) dont Deep Blue est présenté; sur les histoires réelles qui se cachent derrière certains “contes”; et sur une légende urbaine tenace.
1. Deep Blue, l’éternel incompris
Dans le livre, Deep Blue, le programme d’IBM qui a battu Kasparov aux échecs en 1997, est contrasté avec le Turc mécanique, un faux automate joueur d’échec. Le Turc (tel qu’il était présenté et imaginé) représente une intelligence mécanique, entièrement programmée, suivant un arbre de décision prédéterminé. Deep Blue y représente l’intelligence modélisée, qui “cherche à interpréter les données qu’elle rencontre”, entraînée par machine learning à détecter des “patterns” sur une base de données de parties jouées par des Grands Maîtres d’échecs.
Mais ça ne me parait pas une caractérisation très correcte de Deep Blue, dont le fonctionnement a été expliqué par les ingénieurs qui menaient le projet dans un article paru en 2002Campbell, M., Hoane, A. J., & Hsu, F. (2002). Deep Blue. Artificial Intelligence, 134(1-2), 57–83. https://doi.org/10.1016/s0004-3702(01)00129-1. Deep Blue, en résumé, avait quatre modes d’opération possibles : le “livre d’ouverture” (Opening book), le “livre étendu” (Extended book), le mode de recherche, et le mode “fin de partie”.
En “ouverture”, Deep Blue suit, tout simplement, un arbre de décision prévu à l’avance par des Grands Maîtres d’échecs qui participaient au projet, et conçu pour être adapté aux stratégies attendues de Kasparov.
En “livre étendu”, la “base de données” intervient, mais pas vraiment dans une approche “machine learning” : les critères d’interprétation des données sont en effet manuels. Lorsque, dans une partie, la position des pièces correspond à des parties connues jouées par des Grands Maîtres, les différents coups possibles reçoivent un bonus ou un malus selon la fréquence où ils ont été joués, qui les a joués, quand ils ont été joués (les coups de parties plus récentes recevant un plus grand bonus), et les résultats de la partie (si le joueur a perdu après avoir fait ce coup, il reçoit plutôt un malus).
Dans le mode de recherche, Deep Blue teste un maximum de coups possibles, évaluant à l’aide de critères complexes (définis là aussi manuellement par l’équipe d’IBM) quel coup l’amène à une meilleure position.
Et finalement, s’il ne reste plus beaucoup de pièce, il passe en mode “fin de partie”, où à nouveau il utilise une base de donnée de positions possibles qu’il peut reconnaître : il suit alors simplement les coups qui, selon cette base de données, amènent au résultat le plus avantageux.
Deep Blue est donc en réalité bien proche du “Turc mécanique” décrit dans Fantasia : il suit ses instructions à la lettre, même si ses rouages sont électroniques. Ce n’est pas la première fois que je vois cette confusion : le fait que le deep learning a associé le mot deep au concept du machine learning dans l’imaginaire collectif (enfin, des gens qui ont ce genre de vocabulaire dans leur imaginaire collectif, ne nous jugez pas!) n’aide pas.
2. Google, Trotsky et Noûs
Dans une partie du livre, Lev Davidovich donne une conférence sur la rencontre entre l’intelligence artificielle et l’art. Les projets qu’il raconte sont bien réels, mais les personnages sont… fictifs ? Pseudonymes ? Des amalgames de personnes existantes ? C’est un peu difficile à dire. Lev Davidovich, qui est le héros d’un autre livre à paraître (Old Europe’s Club) de Laura Sibony, est aussi le nom de Trotsky et d’un physicien – je ne sais pas à qui est dû l’hommage ici. Mais les projets qu’il raconte, en tout cas, semblent principalement être ceux de Google Arts and Culture. Où Laura Sibony a elle-même travaillé. Je ne sais pas si la couche de fiction est ici un choix de style, une volonté de ne pas mettre en scène elle-même ou d’anciens collègues, ou une obligation contractuelle liée à un NDA ou autre. Mais plus tard dans le livre Google Arts and Culture est aussi mentionné, dans un chapitre qui est plus présenté comme un essai.
On a aussi à un moment une longue “interview” avec Camille Noûs, chercheur fictif représentant traditionnellement “la communauté scientifique”.
Et je ne sais pas trop que faire de ces informations. C’est peut-être ça qui me gêne un peu dans ma lecture : je me demande pourquoi ces chapitres en particulier nécessitent une mise en scène fictive, alors que d’autres sont plus directs. Je pense que j’aurais préféré, quelque part, que soit l’ensemble du livre soit présenté comme un essai, soit qu’il soit entièrement présenté sous une forme “romancée”. Peut-être qu’un pur essai aurait été moins agréable à lire, et que tout romancer aurait fait partir le livre trop loin du domaine de la non-fiction.
C’est en tout cas un choix qui a le mérite de me faire rechercher, revérifier toutes les informations, ce qui est toujours une bonne pratique. Et j’aurai appris des choses, grâce à ces recherches.
3. À la recherche du tank perdu
Un de chapitres présente les “Silly Valley Awards”, une cérémonie qui ne semble pas exister réellement, mais qui sert d’excuse ici pour mettre en avant de très courtes histoires de “fails” de l’IA. Ces histoires sont, à nouveau, un mix de vrai, de peut-être et de possiblement inventé. Mais la dernière de ces histoires m’a amené au genre de plongée dans les profondeurs du net que j’adore, donc je la partage.
Dans l’histoire, une IA a été entraînée à reconnaître la nationalité des tanks depuis des images satellites. Mais voilà, pas de bol, si toutes les images de tanks américains étaient prises par temps dégagé, celles de tanks russes provenaient toutes de l’invasion de l’Ukraine “dans une boue froide et grise”. Résultat : l’IA prédisait ensuite des tanks russes dès qu’il pleuvait, des tanks américains dès qu’il faisait beau.
L’histoire semble peu plausible de base. Si ce genre de biais peuvent effectivement pourrir un set de données, il faudrait vraiment que des gens très nuls se soient chargés du développement de cette IA pour se faire avoir par quelque chose d’aussi basique.
Et en cherchant un peu si c’était réel, je suis tombé sur cette très, très longue page écrite par Gwern Branwen qui retrace toutes les versions de cette légende urbaine qui semble être issue des années 60, et s’être transformée au cours du temps et de l’actualité. Gwern est un “rationaliste” issu des forums de LessWrong (plutôt que de continuer la digression sur LessWrong, je vais simplement lier au blog de David Gerard sur les liens entre ce forum, les “Effective Altruists” et les arnaques aux cryptomonnaies, c’est super intéressant mais ça nous éloigne de plus en plus du sujet). Il en adopte le style ultra-verbeux (même pour moi !), mais sa démarche ici me parle assez bien.
Ce que je trouve aussi intéressant dans l’inclusion de cette légende urbaine dans le livre, c’est que je ne retrouve pas d’autre version de la légende qui la place dans le contexte “post-invasion de l’Ukraine” qui est présenté ici. Il est tout à fait possible que cette version ait circulé quelque part et que je ne l’ai pas trouvée dans mes brèves recherches, mais il est aussi possible que Laura Sibony ait décidé d’ajouter ce détail elle-même. Ce qui lui donne une place auprès de tous les autres inventeurs d’anecdote qui se relaient depuis soixante ans autour de cette légende urbaine. Comme quoi, le flou artistique dans le domaine de l’IA, ce n’est pas quelque chose de nouveau !