ChatGPT: quand Le Soir part en vrille…

Dans le journal du 17 décembre 2022, Le Soir propose une double page sur le buzz technologique du moment: ChatGPT, le “chatbot” d’OpenAI (décliné en 3 articles en ligne [1, 2, 3]). Il y a certainement des choses intéressantes à dire sur ce buzz et sur les technologies des modèles de langage, mais malheureusement l’article du Soir ressemble plus à un flyer promotionnel d’OpenAI qu’à un travail journalistique. Allons-y point par point…

1. La parole des expert.e.s et le parti pris

Le titre donne le ton de l’article: “Tsunami technologique”, “invention du siècle”. De qui viennent ces affirmations enthousiastes? La première est attribuée à Sam Altman… CEO d’OpenAI. Pas tout à fait la source la plus neutre sur le sujet, donc. La seconde est anonyme:

“L’invention du siècle”, s’aventurent même certains, pourtant aguerris à l’innovation.

Certains, donc, sont convaincus. Bien. Qui d’autre a été interrogé pour construire ce dossier? La majorité de l’article principal “expliquant” ChatGPT semble être basée sur l’expérience du journaliste, Philippe Laloux, qui a “discuté plusieurs heures avec cet outil”, ainsi que sur l’expérience de David Frenay, “ingénieur et président de Medispring (coopérative de médecin)”, qui s’est aussi “amusé” à demander une série de choses à ChatGPT et en est ressorti très enthousiaste. L’autre gros morceau du dossier est une “interview avec ChatGPT”, où la “parole” est donc laissée à l’outil lui-même.

Enfin, dans un petit encart, on laisse une petite note attribuée à… “la plupart des chercheurs en intelligence artificielle”, qui sont visiblement des mauvais joueurs parce qu’ils disent bêtement que “les chatbots ne seraient jamais que des ‘perroquets stochastiques'”, et que “leurs connaissances ne proviennent que de gigaoctets de données, plutôt que d’une compréhension humaine du monde en tant que système complexe et abstrait.” Cette tentative de tempérer les ardeurs est immédiatement elle-même tempérée par David Frenay, et ce n’est que toute à la fin de ce dossier qu’on mentionne en passant les “flagrant délit de biais algorithmiques, raciste et sexistes, notamment”.

Et pour s’assurer qu’on ne se quitte pas sur une mauvaise note, la dernière phrase est:

Pour l’heure, ses rares difficultés à distinguer le vrai du faux et sa capacité à inventer certains faits le rendent peut-être plus proche encore de l’humain, surtout sur les réseaux sociaux.

Le parti pris du dossier est donc très clair: ChatGPT est révolutionnaire, c’est un outil formidable, et si quelques mauvaises langues (comme “la plupart des experts”) viennent dire le contraire c’est qu’ils n’ont pas du assez jouer avec ChatGPT, sinon ils se seraient bien rendu compte du génie de l’outil.

2. Erreurs factuelles

Je reconnais au journaliste le droit d’avoir un parti pris. Je suis convaincu que la “neutralité journalistique” n’existe pas, et au moins ici le parti pris a le mérite d’être relativement clair et assumé. Mais la ligne choisie ici par Philippe Laloux le pousse dans des erreurs factuelles qui auraient sans doute pu être évitées si les “experts” avaient eu un peu plus de place pour s’exprimer par rapport aux “enthousiastes”…

Un remplaçant pour Google?

L’article annonce que “Google vient de prendre un sacré coup de vieux”: ChatGPT, au lieu de juste donner des liens, “répond à la question” et “quand il ne sait pas (c’est rare), il le dit.”

C’est faux, à plusieurs niveaux.

D’abord — et je reconnais que c’est un peu subtil — ChatGPT ne “répond” pas: il génère un texte qui a une forte probabilité d’être reconnu par un humain comme une réponse. ChatGPT n’a pas de “base de connaissance”. Ce n’est pas “rare” qu’il ne sache pas. Il ne sait jamais. Savoir ne fait pas partie de sa conception. Lorsqu’on lui pose une question, il va construire un texte sur base de contenus disponibles dans ses “données d’apprentissage”. Lorsque la question est “facile” (c’est-à-dire qu’il y a beaucoup de textes qui y répondent dans sa base d’apprentissage), il y a une très forte probabilité que sa réponse sera factuellement correcte. Dès qu’on s’écarte un peu des cas faciles, par contre, ChatGPT va combler ses lacunes en inventant ce qui lui manque. Et, contrairement à ce que dit ici Le Soir, le plus souvent il ne le “dit” pas. Il ne s’en rend pas compte, parce qu’à nouveau il ne “sait” rien, donc il ne sait pas qu’il invente!

Même Sam Altman d’ailleurs (le CEO d’OpenAI) ne dit pas le contraire: Philippe Laloux aurait pu choisir une autre citation de ce dernier pour ouvrir un article d’un autre ton:

ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. it’s a mistake to be relying on it for anything important right now. it’s a preview of progress; we have lots of work to do on robustness and truthfulness.

fun creative inspiration; great! reliance for factual queries; not such a good idea. we will work hard to improve!

Sam Altman sur Twitter

“ChatGPT est incroyablement limité, mais assez bon pour certaines choses pour créer une impression trompeuse de grandeur. C’est une erreur de s’y fier pour quoi que ce soit d’important pour le moment. (…) inspiration créative amusante; super! s’y fier pour des recherches factuelles; pas une si bonne idée.”

Proche de la singularité

C’est une affirmation un peu bizarre, parce que même chez OpenAI je n’ai pas l’impression qu’ils se sont avancés dans cette direction, donc ici je ne sais pas d’où vient cet enthousiasme particulier. Mais on affirme donc que ChatGPT “n’est pas loin d’atteindre ce tant redouté « point de singularité technologique » où la machine, au final, est capable de s’améliorer elle-même.”

Ceci est entièrement de la science-fiction. ChatGPT n’a aucune capacité particulière à “s’améliorer elle-même”. Toutes ses “améliorations”, à ce stade, proviennent du feedback humain qui lui indique quand ses réponses sont à côté de la plaque ou quand elles sont convaincantes (c’est d’ailleurs un des objectifs probables principaux d’OpenAI en poussant le “buzz” sur ChatGPT: tous ces gens qui jouent avec fournissent gratuitement des masses de données d’apprentissage qui leur coûterait des millions s’ils devaient payer des gens pour le faire). ChatGPT n’a pas non plus d’interface lui permettant de toucher à son propre code, où de faire quelque action que ce soit de manière autonome. ChatGPT n’est pas plus proche de la singularité que ne l’était le chatbot ELIZA dans les années 1960.

Remplacement des avocats, ingénieurs, médecins…

David Frenay a “coécrit un livre de 400 pages consacré aux modèles des coopératives”, s’est “amusé avec un neurologue à lui demander un diagnostic pointu: il y est arrivé”, se demande “pourquoi dépenser 1.000 euros pour rédiger des conditions d’utilisations standard pour un site” auprès d’un avocat si ChatGPT peut le faire pour lui, et constate qu’il est désormais “inutile de savoir coder”, et que cet outil “remet en cause tous mes plans pour engager du personnel”, car “mes meilleurs développeurs ont besoin d’une demi-heure pour repérer un bug dans un code. ChatGPT m’a donné quatre solutions en dix secondes.”

Je suis sûr que les ingénieurs de Medispring auront été ravis de lire cette interview, mais attardons-nous un peu sur ces affirmations. ChatGPT est-il capable de faire tout cela?

À nouveau, la réponse est non. Il peut par contre en donner l’illusion.

Le livre de 400 pages? Je suis sûr qu’il donne l’impression d’être correct, et peut-être même intéressant. Mais outre le fait que, d’un point de vue du style, ChatGPT est souvent répétitif et, à part quand on joue à lui faire imiter des styles rigolos, un peu chiant, on retombe à nouveau sur le même problème. Tout ce qui se retrouverait dans ce livre va être des informations largement disponibles dans les données d’apprentissage du modèle. Autrement dit: des informations bien connues. “Co-écrire” un livre avec ChatGPT, c’est se résigner dès le départ à faire un livre vide de contenu nouveau.

On va retrouver le même problème pour tous ces cas d’utilisations: bien sûr, faire des “conditions d’utilisations standard pour un site” semble facile… Mais on ne paye pas les avocats pour le template tout prêt: on les paye pour penser aux petits détails spécifiques à l’activité de la société qui pourraient coûter très cher s’ils sont oubliés. Et ces petits détails, ChatGPT ne va jamais les trouver. Le code? J’ai vu plusieurs exemples des capacités de ChatGPT à ce niveau partagés sur les réseaux sociaux. En général, on a deux catégories: des résultats justes, pour lesquels j’ai systématiquement trouvé une version plus complète et plus détaillée dans le premier résultat d’une recherche Google; et des résultats faux ou sous-optimaux, souvent par des petites subtilités difficile à repérer directement, dès que la question s’écarte des exemples classiques utilisés dans des tutoriels habituels.

Si Medispring décide de licencier ses ingénieurs pour les remplacer par ChatGPT, je conseille vivement à tous les médecins qui utilisent leurs logiciels de fuir avant l’hécatombe…

3. Arrêtons d’humaniser les logiciels, par pitié!

Le Soir présente ChatGPT comme une personne. On a une interview qui est formatée comme un entretien classique avec un être humain, on a l’illustration où une forme robotique humanoïde lui est donnée, et le denier article du dossier est sur ses “failles tellement humaines”.

J’ai déjà mis le lien plus haut, mais ça vaut la peine de le remettre: Philippe Laloux et David Frenay sont tombés tous droits dans le classique “effet ELIZA“:

En interagissant avec le programme, ces derniers [les utilisateurs] ont commencé à attribuer à ELIZA des qualités de compréhension et une certaine motivation

C’est un grand classique de l’histoire de l’intelligence artificielle: dès qu’un logiciel est conçu pour “ressembler” à un humain, notre cerveau tombe dans le panneau et commence à associer tout le lexique des émotions et des raisonnements humains pour décrire son “comportement”. C’est complètement passer à côté de comment fonctionne réellement ces logiciels.

Il n’y a pas de “pensée” dans ChatGPT. Pas d’autonomie. Pas de conscience. Pas de libre-arbitre. Pas de raisonnement symbolique. Pas de compréhension. Pas de connaissance. La référence au “perroquet stochastique” (stochastic parrot) vient d’un excellent article scientifique par Emily Bender et trois collègues. Comme cet article l’explique, les limitations des “modèles de langage” qui sont derrière les logiciels comme ChatGPT ne sont pas juste des petits problèmes “difficiles à résoudre” ou “des petites bêtises rigolotes de débutant”, pour reprendre David Frenay. Ces limitations sont des aspects fondamentaux de la technologie, dont rien n’indique aujourd’hui qu’il est possible de se débarrasser sans un changement complet d’approche. Autrement dit: ce n’est pas pour tout de suite qu’on pourra accorder le moindre degré de “certitude” à ce que ChatGPT ou ses successeurs nous sortent.

Et ses erreurs ne sont pas du tout “humaines”. Elles reflètent certainement parfois des biais humains, mais ce sont des erreurs complètement liées à la technologie en elle-même.

ChatGPT est un logiciel informatique. Le présenter comme une personne ne profite pas aux lecteurs qui se retrouvent dans ce dossier avec une impression trompeuse des capacités du logiciel. Et ce n’est pas à ce stade un logiciel utile. C’est un jouet, impressionnant, parfois rigolo, mais extrêmement peu fiable et à bien des égards dangereux.

Le buzz sur ChatGPT permet à OpenAI d’avoir des testeurs gratuits, et sans doute de convaincre de nouveaux investisseurs de leur donner un joli tas de sous. C’est dommage de voir les médias tomber aussi facilement dans le panneau en leur donnant une double page de publicité gratuite.


Notes:

David Frenay a réagit à cet article sur LinkedIn [à lire ici], ce qui a conduit à une discussion raisonnablement intéressante sur les limitations de ChatGPT. Mes conclusions suite à ses remarques (et à celles de quelques autres intervenants) sont également lisibles sur LinkedIn.

Philippe Laloux a également réagi, via un Google Doc [à lire ici], qui ne nécessite je pense pas de réponse…

L’affaire Julius Pringles

La mascotte de Pringles s’appelle Julius. Ce n’est pas vraiment un fait intéressant. C’est, au mieux, une petite anecdote bonne à remplir un “Topito” ou un quizz. Mais derrière Julius Pringles se trouve un terrible mensonge, vieux de plus de quinze ans.

23 décembre 2020

Il est 14h58, le 23 décembre 2020.

Sur Wikipedia.fr, un utilisateur non-identifié se connecte depuis un iPhone. Il édite l’article “Pringles” pour y ajouter deux mots : “Julius Pringles”, identifiant ainsi la “mascotte” de la marque. Quelques minutes plus tard (à 15h23), il fait une autre modification, sans lien apparent. Sur la page de “Marcel Duchamp“, il transforme le nom de la mère de Duchamp (Marie Caroline Lucie) en lien hypertexte. Ce seront les deux seules contributions de l’adresse IP 82.250.180.110 à Wikipedia.fr.

Modification de l’article “Pringles” sur Wikipedia.fr, 23 décembre 2020 [source : Wikipedia].

Il n’y a pas de source pour cette information. Mais qui inventerait une chose pareille?

Décembre 2006 – Mars 2007

Sur la version anglophone de l’encyclopédie, l’identité de Mr Pringles est connue depuis beaucoup plus longtemps. Elle apparaît en réalité le 4 décembre 2006. Cette fois-ci, ce n’est pas le fait d’un utilisateur anonyme. Il s’agit de “Platypus222”, Justin Shillock de son vrai nom, éditeur régulièrement actif sur le site.

Dans la section “Trivia” de la page, il rajoute l’information:

The man depicted in the Pringles logo is actually named Julius Pringles.

Là non plus, pas de citation. Pendant un temps, l’information passe inaperçue (combien de gens se préoccupent vraiment de fact-checker la page “Pringles” de Wikipedia ?), mais quelqu’un finit par se poser la question. En février 2007, un utilisateur supprime la ligne… Mais – anonymement cette fois-ci – Shillock ou un comparse la remet, en rajoutant la fameuse mention [citation needed] à côté de l’affirmation.

Le mystère est insoutenable. Non ? [source : Wikipedia].

Dans les semaines qui suivent, l’information est plusieurs fois supprimée, mais Platypus222 veille au grain : chaque fois, un utilisateur anonyme persiste et réaffirme l’identité de Julius. Il finit par réussir à la glisser dans l’introduction, où elle passera visiblement plus facilement inaperçue.

2012 : Kellogg’s

Gloire à Kellogg’s, Leader des Céréales ! [source : Kellogg’s 2012 annual report]

En 2012, la marque Pringles, jusque là détenue par Procter & Gamble, est rachetée par Kellogg’s. Dans le rapport d’activité annuel de la société, la liste des “trademarks” détenus par Kellogg’s inclus “Mr. P or Julius
Pringles
for Pringles potato crisps and sticks”.

Pourtant… il s’agit là de la première fois que “Julius” est officiellement associé à Pringles, et aucune trace d’un trademark enregistré officiellement n’a été trouvée. Mais Kellogg’s, comme tout le monde, se fie visiblement à Wikipedia. Si l’encyclopédie dit que la mascotte s’appelle Julius, c’est que ça doit être vrai.

Mars 2022 : la vérité éclate

Le 22 mars 2022, sur Twitter, un certain @Platypus222 affirme avoir créé Julius Pringles de tout pièce. Julius est un canular qui, après avoir passé des années discrètes sur Wikipedia, s’est finalement transformé en réalité.

J’accuse l’homme-ornithorynque, armé d’un clavier, sur Wikipedia. [source : Twitter]

L’histoire se propage rapidement. Des articles fleurissent résumant l’affaire [Mashable]. Justin Shillock, Platypus Man, devient brièvement une star. Puis tout se tasse, évidemment (à croire qu’il y a des choses plus importantes qui se passent dans le monde en mars 2022). Sur Wikipedia en anglais, l’origine réelle de la mascotte se retrouve maintenant mentionnée. La version française, elle, n’a guère bougé depuis décembre 2020. Le logo a été mis à jour. La page a été retirée de la catégorie “Procter & Gamble” et rajoutée à celle de “Kellogg’s”. Des oignons ont été rajoutés à la crème aigre dans les recettes classiques. Julius reste là, simplement, information non sourcée, pas remise en question.

Il a perdu des cheveux, mais sa moustache reste glorieuse [source : Wikipedia]

La citogénèse

“Citogenesis”, un terme inventé par Randall Munroe dans son webcomic xkcd en 2011 [xkcd.com], décrit un phénomène d’auto-génération de “citations fiables”, observé de façon malheureusement régulière sur Wikipedia. Le mécanisme est simple : quelqu’un, par malice ou par erreur, met une fausse information sur Wikipedia. Un journaliste, ou autre “source fiable”, pressé de publier un article et à la conscience professionnelle défaillante, utilise cette information sans la vérifier. Un éditeur de Wikipedia y voit le fait non sourcé, cherche rapidement sur Google, et trouve l’article du journaliste. Il l’ajoute comme source. La boucle est bouclée, le fait est sourcé.

[Source: xkcd.com]

L’affaire Julius Pringles est intéressante parce que presque toutes les étapes de la supercherie sont visibles, publiques. On peut retracer, minute par minute, la façon dont le canular s’est lentement transformé en réalité.

Et c’est ce qui fait de Wikipedia, potentiellement, une source extrêmement fiable… si on l’utilise correctement. On peut y retracer le chemin de l’information comme nulle part ailleurs. S’agit-il d’un ajout récent? Est-il sujet à discussion entre les éditeurs? A-t-il été sourcé à un moment? Tout cela est publiquement disponible. Et si au bout du fil on ne trouve aucune source antérieure à l’apparition de l’information sur Wikipedia, c’est peut-être bien parce qu’on a la chance d’être témoin de la naissance d’une citation…

La carte et la variole

Une carte illustrant les pays où la variole du singe a été détectée fait tout doucement le tour des réseaux complotistes et/ou antivax. Son origine semble être différents tabloïds anglais, comme Metro ou le Daily Mail.

Version diffusée sur Twitter par Bertrand Scholler [Source], initialement publiée par le Daily Mail [Source]

Si l’on suit le raisonnement qui accompagne généralement l’image, on est supposé voir cette carte et se dire: tiens, c’est curieux, pourquoi la variole du singe touche-t-elle principalement les pays occidentaux, ceux “où la population a été la plus vaccinée“. Serait-ce le plan du nouvel ordre mondial: nous affaiblir avec un vaccin pour mieux nous assommer après avec un nouveau virus?

Mais avant de chercher à interpréter la carte, une question fondamentale doit être résolue… ils sortent d’où, exactement, ces chiffres?

Une constante des partages complotistes sur les réseaux sociaux, c’est de ne pas citer leurs sources: pas moyen de vérifier les chiffres par là. Le Daily Mail n’est pas particulièrement connu pour sa rigueur scientifique non plus, et on peut supposer que ce n’est pas eux qui ont compilé les cas. Mais si le Daily Mail ne cite pas directement la source pour la carte, on la retrouve facilement à travers tout leurs articles : sans surprise, il s’agit de l’OMS.

Et à première vue, l’OMS semble bien confirmer ces chiffres. Ils ont même leur propre carte:

Version de l’OMS. [Source]

Mais… il y a une petite subtilité. Le texte qui accompagne cette carte indique qu’il s’agit de la distribution géographique des cas détectés dans les pays où le virus n’est pas endémique. Si on regarde les rapports hebdomadaires de l’OMS sur les différentes épidémies sévissant sur le continent africain, on peut par exemple voir qu’entre le 6 mars 2022 et le 17 avril 2022 il y a eu 448 cas recensés en République Démocratique du Congo, principal foyer de contamination. Cela correspond à une dizaine de cas détectés par jour. Par comparaison, le Royaume-Unis, l’Espagne et le Portugal, pays non-endémiques les plus touchés selon le rapport de l’OMS, ont entre 21 et 30 cas signalés entre le 13 et le 21 mai 2022, ce qui revient à peu près à 10 nouveaux cas par jour pour les trois pays mis ensemble.

Une carte plus fidèle à la réalité complète serait donc par exemple celle proposée par Al Jazeera (qui, par ailleurs, a le mérite de nommer la source de ses données directement dans l’image!):

Version de Al Jazeera [Source]

Donc pour résumer: non, la variole du singe ne touche pas en particulier les pays “affaiblis par la vaccination”. Et une carte sans source et sans légende, c’est aussi informatif qu’une boussole sans aiguille.

(Et non, ce n’est pas lié au fait que le vaccin AstraZeneca utilise un adénovirus de chimpanzé comme vecteur pour transporter la protéine Spike. La variole du singe, comme son nom ne l’indique pas, est principalement présente dans la nature chez des rongeurs, même s’il a été originellement identifié dans des singes de laboratoire.)

La France à droite, bien à droite

Mise à jour 11/04/2022 avec les résultats définitifs du premier tour 2022.

Pour la deuxième élection consécutive, il n’y aura pas de candidat étiqueté “à gauche” au second tour de l’élection présidentielle française. Sur les cinq dernières élections, la gauche n’y aura été présente que deux fois: Ségolène Royal en 2007, et François Hollande en 2012.

On met souvent cette absence sur le dos d’une dispersion des voix de gauche entre de trop nombreux candidats, mais je ne pense pas que ce soit une analyse très juste (à part pour 2002, on y reviendra).

Si on veut compter la dispersion des voix “de gauche” en y incluant PS, les écolos, et les diverses mouvances communistes, ouvrières, etc., on doit la comparer avec la dispersion des voix “de droite” en y incluant Républicains, et les diverses mouvances nationalistes, identitaires, etc. Les convergences d’idées y sont certainement aussi forte (surtout ces dernières années, ou même les discours du “centre” macroniste sont parfois difficiles à distinguer de ceux de l’extrême-droite “adoucie” de Marine Le Pen).

En 2022, Jean-Luc Mélenchon aura obtenu 69% des suffrages “de gauche” (21,95%, contre 9.99% pour tous les autres candidat.e.s “de gauche” rassemblé.e.s). Marine Le Pen, de son côté, rassemble 62% des suffrages “de droite”. Quand on regarde toutes les élections depuis 2002, on voit que la concentration des voix “à gauche” n’est pas fondamentalement plus mauvaise qu’à droite:

Proportion des votes “de gauche” et “de droite” obtenu par le premier candidat de la faction.

En 2007, 2012 et 2022, la concentration des voix est relativement similaire. En 2017, les votes de droite se sont particulièrement dispersés entre Fillon et Le Pen (mais le total des voix “de gauche” était largement plus faible, les électeurs ayant été happés par le “centre” macroniste).

Et puis il y a 2002… Lionel Jospin n’avait obtenu que 34% des voix “de gauche”, une dispersion qui très clairement lui a coûté l’élection.

Car l’autre côté des chiffres, c’est la balance totale entre “la gauche” (et l’extrême-gauche), “la droite” (et l’extrême-droite) et “le centre”.

Distribution des voix entre “gauche/extrême-gauche”, “centre” et “droite/extrême-droite” depuis 2002.

Des cinq dernières élections, la seule dans laquelle la gauche a obtenu plus de voix que la droite au premier tour est celle de 2002, où malgré cette “victoire” le second tour s’était finalement joué entre Jacques Chirac et Jean-Marie Le Pen.

Il est clair en regardant l’évolution de la distribution des voix que le “centre” siphonne largement plus de voix à gauche qu’à droite. On pourrait y voir une indication que le centre français est un centre-gauche… mais ni le discours, ni le programme d’Emmanuel Macron ne colle avec cette analyse.

Non, le constat me semble plutôt que le réservoir de voix “de gauche” est, tout simplement, aujourd’hui trop faible en France que pour permettre de gagner des élections au niveau national.

Et aussi (mais ce n’est pas nouveau): le système présidentiel est vraiment nul. Le système belge est loin d’être parfait, mais chaque fois que je vois une élection française ou américaine, je me dis qu’on est quand même mieux lotis.


Notes: candidats inclus dans chaque “faction” pour les diverses élections:

Gauche / Extrême-gaucheCentreDroite / Extrême-droite
2022Mélenchon, Jadot, Roussel, Hidalgo, Poutou, ArthaudMacron, LassalleLe Pen, Zemmour, Pécresse, Dupont-Aignan
2017Mélenchon, Hamon, Poutou, Arthaud, CheminadeMacron, LassalleLe Pen, Fillon, Dupont-Aignan, Asselinau
2012Hollande, Mélenchon, Joly, Poutou, Arthaud, CheminadeBayrouSarkozy, Le Pen, Dupont-Aignan
2007Royal, Besancenot, Buffet, Voynet, Laguiller, Bové, Nihous, SchivardiBayrouSarkozy, Le Pen, de Villiers
2002Jospin, Laguiller, Chevènement, Mamère, Besancenot, Saint-Josse, Hue, Taubira, GlucksteinBayrou, LepageChirac, Le Pen, Madelin, Mégret, Boutin

Sources des données utilisées:

Suite: La Libre Belgique et bit4you

Je notais le 20 février dans l’article “Bitcoin et médias: La Libre Belgique et bit4you” le traitement douteux des cryptomonnaies par les médias, et en particulier les mauvaises pratiques apparentes de La Libre, dont le partenariat commercial avec la plateforme bit4you semblait parfois déborder dangereusement sur leur contenu journalistique.

Suite à cet article, j’ai signalé le problème au Conseil de Déontologie Journalistique, en notant en particulier:

  • Des tweets n’indiquant pas la nature publicitaire de certains “publireportages” de bit4you.
  • Un manque de clarté sur les pages de ces publireportages quand au fait qu’on regardait un contenu publicitaire.
  • Un possible conflit d’intérêt avec des articles non-publicitaires mettant largement en avant bit4you et son cofondateur Marc Toledo alors qu’une relation commerciale existe aussi entre La Libre et bit4you (exemples: [1, 2, 3]).

Réponse de La Libre

Suite à la transmission de ma plainte au journal, La Libre a supprimé les “tweets” incriminés (sauf un…), et a modifié l’apparence des publireportages pour les rendre plus distinctifs et plus visiblement “publicitaires”. Dans sa réponse au CDJ, M. Legge, rédacteur en chef de LaLibre.be, indique que les tweets sont le résultat d’un problème technique qui, de mi-janvier à mi-février, a perturbé leur système de publication automatique sur Twitter qui ne filtrait plus les publireportages. Ce problème serait maintenant résolu.

Avant / Après : nature publicitaire plus clairement établie
Avant / Après: apparence du publireportage

Concernant les articles “non-publicitaires”, ils invoquent l’indépendance de la rédaction qui implique de “ne pas exclure un interlocuteur pertinent parce qu’il est aussi un annonceur régulier ou pas”, ce qui serait contraire à “l’esprit de
l’indépendance journalistique”. M. Legge note également que La Libre a aussi publié des articles critiques des cryptomonnaies et pointe quelques exemples [1, 2, 3, 4].

Suffisant ?

Le CDJ m’a demandé si, suite à cette réponse, je souhaitais poursuivre et demander à ce qu’ils traitent la plainte sur le fond. J’ai répondu que non.

Je reste très dubitatif quand au choix rédactionnel de La Libre. Les plateformes d’échanges de cryptomonnaies ne sont pas de simples business. Il est impossible d’y participer sans être associé, directement ou indirectement, à des pratiques douteuses et/ou frauduleuses. Bit4you, par exemple, utilise pour toutes ses transactions la cryptomonnaie de la société “Tether” (USDT), qui est largement soupçonnée de fraude et de manipulation du marché. Il me semble qu’une attention particulière devrait être prise par les journalistes lorsqu’ils traitent avec de tels partenaires.

Mais il s’agit là d’un choix rédactionnel. Je pense que La Libre fait ici un mauvais choix, et qu’ils auraient besoin de se tourner vers d’autres experts pour traiter les questions relatives aux cryptomonnaies, mais je ne dispose pas d’éléments permettant de soupçonner de la malhonnêteté de la part du journal. Je pense que c’est du mauvais journalisme, mais ça c’est une toute autre question !

Bitcoin et médias: La Libre Belgique et bit4you

Suite (18/3/2022).

Il est difficile de ne pas voir une certaine responsabilité médiatique dans la vaste arnaque que sont les cryptomonnaies, NFTs, et autres “révolutions” de la blockchain. En traitant bien souvent les cryptomonnaies comme “un investissement” (risqué, certes, mais légitime) dont on rapporte les montées et descentes comme si c’était une action cotée en bourse, ils leur donne une aura de respectabilité qui aide à recruter les nouvelles générations d’investisseurs… qui se retrouvent bien souvent les cibles de la prochaine arnaque, ou simplement les victimes de la nature légèrement… “pyramidale” de l’investissement.

Au vu de la vaste quantité d’argent sale au cœur de cette “crypto-économie”, il me semble particulièrement important pour les médias de s’assurer que, dans leurs propres transactions avec le milieu, ils sont irréprochables et au-dessus de tout conflit d’intérêt. Ce qui m’amène à La Libre Belgique et à la société bit4you.

La Libre Belgique a attiré mon attention par leur couverture particulièrement positive et constante des cryptomonnaies. C’est peut-être une impression personnelle, mais je les vois plus que la plupart des autres médias francophones diffuser chaque montée du prix, et offrir une tribune à des entrepreneurs en blockchain et cryptomonnaies.

Avec parfois, me semble-t-il, un léger flou entre le contenu publicitaire et le contenu journalistique. Parce que La Libre publie des “publireportages”, contenu sponsorisé prenant le format d’un article “normal”. Par exemple: cette série de 6 articles “#Décrypto”. Ces articles sont clairement marqués comme “contenu de partenaire” et “PUBLICITE”, mais ils se retrouvent catégorisés dans la section “Placements et marchés” du site et sont écrits comme des articles “informatifs”. Plus récemment, on a ces articles “Le bitcoin, un nouvel eldorado pour les jeunes” et “Les jeunes investisseurs“, eux aussi marqués “publireportage” et avec une note indiquant qu’il s’agit d’un contenu publicitaire à la fin, mais visuellement absolument identiques à tous les articles “légitimes” (et aussi écris dans un style “neutre” qui cherche clairement à donner l’impression qu’il s’agit d’articles et pas de publicités).

Cette limite floue entre “contenu journalistique” et “publicité” est déjà un peu dérangeante, mais jusque là “ça peut aller”. Mais voici où les choses deviennent un peu plus franchement problématiques. Ces contenus publicitaires proviennent tous des “bit4you“, une plateforme d’échange de cryptomonnaies basée en Belgique et dirigée par un certain Marc Toledo.

Et, en même temps que La Libre se fait payer pour diffuser les contenus publicitaires de bit4you, ils diffusent aussi des “vrais” articles faisant les louanges de cette même société. Voir aussi ici et ici. Aucun de ces articles ne sont des publicités, mais ils mettent clairement en avant une société en particulier, et donnent largement la parole à Marc Toledo qui se retrouve de facto “l’expert” de prédilection sur les questions de cryptomonnaies pour le journal.

La relation entre La Libre et bit4you est donc trouble: d’un côté, c’est une relation commerciale, où bit4you paie La Libre pour y placer son contenu publicitaire. D’un autre côté, c’est une relation journalistique, où La Libre interview Marc Toledo en tant qu’expert pour alimenter du contenu informatif.

Est-ce illégal ou une faute professionnelle? Honnêtement, je n’en sais rien du tout. Mais ce qui me semble très clair, c’est que le milieu des cryptomonnaies est pourri jusqu’à l’os, est remplis d’arnaques et de sociétés à l’honnêteté plus que douteuse, et que face à ce genre de milieu les médias devraient faire preuve d’une attention particulière à éviter de se retrouver dans des situations de potentiel conflits d’intérêt, qui les rendraient (éthiquement si pas juridiquement) complices des malversations en tout genre qui font tourner cette “crypto-économie”.

Hold On et vaccins: comment faire mentir des chiffres

“Hold On”, c’est le film anti-vaccination réalisé par “un collectif d’anciens journalistes.” Comme toujours dans les pseudo-documentaires complotistes, il y a tellement d’affirmations fausses ou sorties de leur contexte à la minute qu’il faut dix fois plus de temps pour les réfuter qu’il n’en a fallu pour produire le film. Je trouve cependant toujours intéressant de regarder la malhonnêteté avec laquelle ce genre de projets manipule les chiffres pour générer la peur, leur source principale de revenus.

Un exemple flagrant est celui des décès liés aux vaccins. Dans le film, une musique dramatique accompagne la révélation des chiffres “sous-évalués” et dont les médias “n’ont jamais parlé”. 905 décès Pfizer. 77 Moderna. 216 AstraZeneca. 24 Johnson & Johnson. D’une voix sombre, le narrateur annonce: “Ici, ces personnes ne sont pas mortes de maladie, elles étaient sans doute bien portantes.”

Les chiffres annoncés ont même une source: l’Agence Nationale de la Sécurité du Médicament, l’ANSM. Plus précisément, on peut les trouver dans le dossier thématique COVID-19 de cette agence. Ainsi, en ouvrant le rapport détaillé Pfizer [lien PDF] au 26 Août 2021, on trouve effectivement un tableau parlant de 905 décès (et un peu plus loin dans le même tableau 906, et plus loin dans le texte 907: une constante des données médicales, c’est que c’est toujours la galère pour avoir des données complètement fiables!). Il s’agit bien de décès déclarés en pharmacovigilance après une vaccination: le visuel ne contient pas de mensonge.

Mais des mensonges, il y en a deux dans ce passage: un direct, et un par omission. Le direct est à l’oral. Lorsque le narrateur dit que ces personnes étaient “sans doute bien portantes”, c’est entièrement faux, et il suffit de lire la suite du rapport pour s’en rendre compte. Les chiffres incluent par exemple des “décès en lien avec l’évolution d’une pathologie chronique déjà présente avant la vaccination.”

Ce qui nous amène au mensonge principal, qui consiste à omettre les éléments du rapport qui expliquent et contextualisent les chiffres en question. Pour commencer, le fait que un décès déclaré “après une vaccination” ne signifie évidemment pas décès “causé par une vaccination”. Dès qu’une personne décède peu de temps après avoir reçu le vaccin (et ce “peu de temps” peut aller jusqu’à plusieurs semaines!), le décès est rapporté aux agences de pharmacovigilance pour qu’une enquête puisse avoir lieu. Le décès rentre alors directement dans les chiffres. Bien souvent, il est impossible de déterminer avec certitude au cas par cas si le vaccin est en cause. Parfois, il y a une autre cause très clairement établie.

Par exemple, dans ce rapport, on détaille les 36 décès survenu parmi les moins de 50 ans. On a des “causes inconnues” où “aucun élément transmis n’indiquait un rôle potentiel du vaccin”, des décès liés “à une évolution d’une maladie
préexistante”, et une série de 8 cas où les causes ont pu être établies de manière plus détaillées:

  • Une réaction allergique aux arachides (le patient avait “ingéré une sauce à base d’arachides” juste avant que les symptômes n’apparaissent).
  • Des problèmes d’AVC, rupture d’aneurisme, embolie pulmonaires, etc… qui sont arrivés entre deux semaines et deux mois après la vaccination, avec pour tous les patients sauf un des antécédents d’obésité/surcharge pondérale.
  • Un cas d’AVC le soir même de l’injection chez un patient avec des antécédents d’hypertension artérielle.

Le coeur du mensonge est là: “Hold On” cherche clairement à présenter ces chiffres comme si il s’agissait des morts causées par le vaccin. Ce n’est pas le cas. Ces morts ont été déclarées après une vaccination, et le rôle de la pharmacovigilance est d’analyser tous les rapports de problèmes de santés déclarés après une vaccination pour déterminer si un lien existe.

Comment peut-on établir ce lien? En plus des enquêtes détaillées sur chaque décès qui permettent de voir si certains indices inquiétants en ressortent, on peut regarder si la mortalité après vaccination est plus ou moins importante que la mortalité attendue en temps normal. Ainsi, le rapport de l’ANSM indique que, pour près de 17 millions de vaccinés Pfizer de moins de 50 ans, on s’attendrait à avoir environ 700 décès sur la période étudiée. On en a 36. Cela ne signifie bien entendu pas que le vaccin Pfizer protège de toutes les autres causes de décès: on peut supposer que, par exemple, si quelqu’un décède après s’être fait renverser par un bus, on ne le signalera pas à l’ANSM même s’il sortait du centre de vaccination. Ces chiffres sont aussi évidemment à mettre en relation avec un autre: combien de décès liés au COVID durant cette même période?

En France, un peu plus de 900 décès pour prêt de 40 millions de vaccinés Pfizer (incluant des cas où il n’y a clairement pas de lien entre le vaccin et le décès). Toujours en France, 120.000 décès directement liés au COVID (pour environ 7,5 millions de cas rapportés).

Quand on regarde tous les chiffres, la conclusion est claire: se vacciner est, certainement pour les adultes (et probablement pour les enfants aussi), de très très loin la meilleure option.

Provinces-Unies de Belgique?

Le système électoral américain est, pour être poli, archaïque. Chaque fois qu’une de leurs élections menace de plonger le monde dans le chaos pour quatre ans, je me retrouve à jouer au “et si…” : et si la Belgique avait un système similaire ?

Il serait complètement idiot d’essayer de jouer avec les résultats électoraux belges dans un système américain et d’en tirer une quelconque conclusion : les partis, l’électorat, les médias traiteraient l’élection de manière tellement différente que les résultats seraient drastiquement changés. Idiot, mais moi je trouve ça un peu rigolo quand même, donc allons-y.

Voyons d’abord les caractéristiques principales du système électoral américain.

  • Chaque État (et Washington DC) tient le même jour une élection.
  • Chaque État dispose d’un nombre de “grands électeurs” égal au nombre de représentants de cet état au Congrès, soit deux sénateurs et un nombre de représentants à la chambre qui dépend de la population de l’État. Le District de Columbia (Washington DC) dispose de 3 grand électeurs, même s’ils n’ont pas de représentants au Congrès.
  • Chaque État* donne l’ensemble des voix de ses “grands électeurs” au candidat qui y a obtenu le plus de voix.

* Sauf le Maine et le Nebraska, mais honnêtement on ne va pas commencer à s’embourber dans toutes les subtilités et absurdités du système sinon on ne s’en sortira jamais !

Comment pourrait-on traduire ce système à la Belgique ? Je vais faire au plus simple :

  • Chaque Province (et Bruxelles-Capitale) tient le même jour une élection.
  • Chaque Province (et Bruxelles-Capitale) dispose d’un nombre de grands électeurs égal au nombre de représentants à la Chambre. Le Sénat ne compte pas, parce que les délégués ne sont pas liés aux provinces, et que “le Sénat ne compte pas”, c’est un peu l’idée générale en Belgique. Vous allez me dire : les provinces aussi. C’est pas faux. Tant pis, ceci n’est pas un travail académique.
  • Chaque Province (et Bruxelles) donne l’ensemble des voix de ses grands électeurs au ou à la président·e du parti qui y a obtenu le plus de voix.

Il y a 150 sièges à la Chambre. Le but du jeu est donc d’obtenir 76 voix auprès des grands électeurs. À quoi aurait ressemblé la carte électorale après les élections législatives de 2019, si tout le monde avait bizarrement voté pareil malgré ce système complètement différent ?

Commençons par les grands perdants de ces élections : tous les partis néerlandophones qui ne sont pas la N-VA. Bart De Wever est en tête dans toute la Flandre, et rafle 87 grands électeurs pour immédiatement devenir Premier Ministre. Aucun suspense, les médias peuvent annoncer le vainqueur dès la fermeture des bureaux de vote. Aucun autre parti flamand n’apparaît sur la carte.

Autre perdant de ce système : le MR, avec 9 grands électeurs (contre 14 sièges réellement gagnés aux élections). Il n’est en tête que dans les deux provinces les moins peuplées de Belgique, le Brabant Wallon et le Luxembourg, où leurs 200 voix d’avances sur le cdH leur permet tout de même de rafler les électeurs de la province. Le cdH, tout comme le PTB et DéFI, disparaissent de la circulation.

Ecolo s’en sort mieux en nombre de grands électeurs qu’en nombre de sièges effectivement gagnés dans le système belge. Avec 8.000 voix d’avance à Bruxelles, ils obtiennent 15 grands électeurs et devient le troisième parti politique du pays. Le PS conserve le “mur rouge” du sillon Sambre-et-Meuse, et obtient 39 voix.

Toutes ces considérations de “nombre de siège” contre “nombre de grands électeurs” étant bien sûr sans impact : dans le système américain, seul le gagnant compte. Quoique, si on remonte suffisamment loin dans le temps, leur système originel voulait que le second devienne vice-président, ce qui nous permettrait de voir aux commandes le tandem De Wever – Di Rupo.

Tout cet exercice était parfaitement inutile. J’assume !

Coronavirus: faire le point

Je ne suis pas médecin. Je ne suis pas épidémiologiste. Je ne suis pas virologue. Je n’ai une compréhension que très partielle des modes de contamination et de l’efficacité des différentes mesures que l’on peut mettre en place pour limiter l’épidémie.

Comment dès lors se faire une opinion raisonnée et raisonnable sur ce qu’il faut faire, et sur le risque réel posé par ce qui est désormais officiellement une pandémie mondiale ?

Mon réflexe face à une déferlante médiatique alarmiste est toujours de relativiser (“la grippe saisonnière fait plus de morts”) et de soutenir les solutions minimales (“ne cédons pas à la panique”). Mais je veux aussi regarder les chiffres (parce que ça, je sais faire!) et en tirer les conclusions nécessaires.

Chiffres issus des communiqués du SPF Santé Publique (https://www.info-coronavirus.be/fr/news/)

Quelques faits qui me semblent importants :

  • Les chiffres publiés tous les jours par le SPF Santé sont à prendre avec beaucoup de précautions. Les “nouveaux cas détectés” sont principalement corrélés avec le nombre de tests effectués (et donc avec la disponibilité de ces tests).
  • Vu le temps important entre l’infection et les symptômes (et donc les détections), il y a un décalage de une à deux semaines entre la “courbe des infections réelles” et la “courbe des infections détectées“. (voir par exemple cette étude). En se basant sur les données de Hubei, par exemple, les ~300 cas détectés en Belgique aujourd’hui correspondent possiblement à ~2000 personnes réellement infectées aujourd’hui. Notons bien que la marge d’erreur sur une telle extrapolation est énorme. Le nombre de cas réel pourrait tout aussi bien être de 500 que de 5000.
  • Conséquence importante de ce “décalage des courbes”: la croissance exponentielle de la contamination – si on est dans une croissance exponentielle – continue environ 10 jours après que des mesures drastiques de confinement soient mises en place.

La question pour la Belgique est: faisons-nous face à une croissance exponentielle actuellement ? La réponse n’est pas, pour l’instant, possible à obtenir. Le début d’une croissance exponentielle est impossible à distinguer d’une croissance linéaire. L’incertitude sur les chiffres actuels est trop grande.

Le principe de précaution veut, dans ce cas, qu’on utilise l’hypothèse la plus défavorable. Si nous sommes aujourd’hui sur une croissance exponentielle, nous aurons dans une semaine ou deux (quelles que soient les mesures prises dans les jours qui viennent) plusieurs milliers de cas détectés. Si aucune autre mesure n’est prise dans les jours qui viennent, il n’est pas irréaliste de s’attendre à plusieurs dizaines de milliers de cas d’ici trois à quatre semaines.

En attendant que la courbe soit clairement exponentielle (comme en Italie, en Iran, en Corée du Sud, et maintenant en Espagne ou en France…) pour mettre en place des “mesures drastiques“, on court un risque élevé de prendre ces mesures trop tard.

Aujourd’hui, l’Italie ferme les commerces, les bars, les restaurants. Si la situation suit l’exemple chinois, ils devront malgré cela faire face à encore dix jours de croissance du nombre de personnes infectées, alors que leurs infrastructures médicales sont déjà surchargées aujourd’hui. Il est facile de critiquer leur gestion de la crise a posteriori: s’ils avaient pris ces mesures il y a deux semaines, la situation serait restées sous contrôle.

Il y a deux semaines, il y avait 650 cas détectés en Italie. Aujourd’hui, il y en a 300 en Belgique… et plus de 12.000 en Italie. Nous avons le luxe en Belgique de pouvoir profiter de ce décalage de deux semaines entre l’arrivée du virus en Italie et son arrivée chez nous pour garder la courbe en-dessous du taux de saturation des hôpitaux.

Faut-il alors fermer aujourd’hui les écoles, les bars, les restaurants, les crèches, les clubs sportifs ? Je n’ai pas la moindre idée de ce qui peut être laissés ouvert et ce ce qu’il faut fermer pour être le plus efficace. Mais si le gouvernement a un plan pour le “stade 3” – comme ils s’apprêtent sans doute à le faire en France – c’est en l’activant le plus tôt possible qu’on limitera le plus le dégâts.

SpaceX : à qui appartient le ciel ?

Le 24 mai, le Dr Marco Langbroek (chercheur en archéologie paléolithique, météorites, astéroïdes et “satellites espions”) pointait son télescope vers le ciel nocturne et réussissait à capturer une vidéo impressionnante, publiée sur son blog et reprise par de nombreux médias :

Starlink, c’est quoi ?

Ce “train” de lumières est constitué de 60 satellites. Il s’agit de la deuxième vague de la “constellation” Starlink, rejoignant deux satellites lancés en février 2018. Starlink est un projet de SpaceX, l’entreprise aérospatiale d’Elon Musk. Il s’agit d’un “réseau de satellites capable de connecter le globe, et particulièrement les régions actuellement non-connectées, avec des services Internet haut-débit fiable et abordable.” (Starlink Press Kit, PDF)

Si 60 satellites se baladant en rang d’oignon impressionnent, ce n’est rien par rapport à ce qui est prévu pour la suite : d’ici 2027, près de 12.000 satellites devraient être déployés. Pour contextualiser, on recensait début 2019 un total de 4.987 satellites en orbite autour de la Terre. Si on ajoute les projets certes moins ambitieux d’Amazon, Telesat ou OneWeb, on parle ici de quadrupler le nombre de satellites en orbite sur les dix prochaines années.

Le débat déclenché par la vidéo du Dr Langbroek fait des vagues dans tous les médias. Le noyau de ce débat est simple : le projet d’Elon Musk (et des autres) va bien au-delà d’un simple projet de télécommunication. Il s’agit d’un changement radical de notre paysage orbital. Les conséquences exactes sont difficiles à prévoir. Estimer l’effet qu’auront ces milliers de nouveaux satellites sur le ciel nocturne est compliqué, et dépend de nombreux paramètres pas toujours disponibles : forme exacte des satellites (et de leurs éléments réfléchissants), altitude et position finales, position de l’observateur…

Dans le meilleur des cas, l’effet à l’oeil nu sera quasi nul. Dans le pire des cas, le ciel nocturne dans dix ans sera radicalement transformé. Quoi qu’il en soit, l’impact sera en tout cas directement visible pour les télescopes basés sur Terre.

Elon a dit

Au-delà du débat technique sur l’impact de ces nouvelles “constellations”, c’est une conversation Twitter (comme souvent avec Elon Musk) qui soulève à mon avis une question plus fondamentale. Interrogé par Varun Ramesh sur la “pollution lumineuse du ciel”, Elon Musk répond :

“Il y a déjà 4900 satellites en orbite, que les gens remarquent ~0% du temps. Starlink ne sera vu par personne sauf s’ils regardent avec beaucoup d’attention & l’impact sur les avancements en astronomie sera de ~0%. De toute façon, les télescopes devraient être mis en orbite. L’atténuation atmosphérique est terrible.”

Fraser Cain, éditeur du site Universe Today, fait remarquer que “s’ils aident des milliards de gens dans des lieux reculés à avoir un accès bon marché à Internet, c’est un prix que je suis prêt à payer.

Elon Musk :

“Exactement, potentiellement aider des milliards de gens économiquement désavantagés est pour le plus grand bien. Cela étant dit, nous nous assurerons que Starlink n’a aucun effet matériel sur les découvertes en astronomie. Nous nous soucions beaucoup de la science.

Voilà. Problème réglé, discussion close : Elon Musk a pesé le pour et le contre, a écouté nos arguments, et a tranché. À nous pauvres mortels d’accepter Sa décision. Le fait que le plus grand bien de l’humanité coïncide avec un revenu potentiel de “30 milliards par an” n’est bien sûr qu’un heureux hasard.

La question fondamentale, donc : SpaceX, Amazon & co peuvent-ils juste ignorer les critiques et faire ce qu’ils veulent ?

Qui a le droit ?

Petit moment “droit spatial” (désolé, ça m’a un peu fasciné de lire tout ça alors je partage). Donc, la réglementation autour de l’exploitation de l’espace pour les télécommunications est globalement le domaine de l’Union Internationale des Télécommunications, une agence des Nations Unies fondée en 1865 lors de la convention télégraphique internationale. Celle-ci fonctionne selon des principes énoncés dans une constitution (PDF) dont le préambule commence :

En reconnaissant pleinement à chaque Etat le droit souverain de réglementer ses télécommunications…

En terme de satellites, sa préoccupation principale est l’allocation des positions orbitales géostationnaires, et de coordonner les positions et les fréquences d’émission pour éviter les interférences.

Starlink n’occupe pas d’orbite géostationnaire : son lancement n’a donc besoin que de se référer à son État souverain, c’est-à-dire les États-Unis. SpaceX a donc requis l’autorisation de deux agences fédérales américaines : la FCC (pour l’utilisation des fréquences) et de la FAA (pour les lancements).

Et… c’est tout ?

Il n’y a pas de mécanisme prévu qui se préoccupe d’une quelconque manière (autant que j’aie pu trouver en tout cas) de l’impact des satellites ni sur la recherche scientifique, ni sur les astronomes amateurs (qui ne peuvent pas vraiment suivre la suggestion d’Elon Musk de mettre leur télescopes en orbite), ni sur cette ressource tellement banale qu’est le “ciel nocturne”.

Si par hasard un conflit survenait, et des tribunaux internationaux se retrouvaient impliqués dans l’affaire, et devaient donner leur avis face à cette brusque invasion du ciel par des sociétés privées, ils devraient sans doute faire un retour aux sources : le “Traité de l’Espace” de 1967, qui entérine les principes fondamentaux de l’utilisation de l’espace extra-atmosphérique [4]. Notons que celui-ci concerne les États, pas les sociétés privées, mais qu’il stipule que “les activités des entités non gouvernementales dans l’espace extra-atmosphérique (…) doivent faire l’objet d’une autorisation et d’une surveillance continue de la part de l’État approprié partie au Traité.” (Art. VI)

L’article I nous dit :

L’exploration et l’utilisation de l’espace extra-atmosphérique, y compris la lune et les autres corps célestes, doivent se faire pour le bien et dans l’intérêt de tous les pays, quel que soit le stade de leur développement économique ou scientifique ; elles sont l’apanage de l’humanité tout entière.

L’argument d’Elon Musk que Starlink est “pour le plus grand bien” n’est donc pas anodin. En insistant sur l’objectif de fournir des moyens de télécommunication à tous les pays, il place son projet commercial dans le cadre généralement admis des “bons projets” spatiaux, inattaquables.

Et si certains ne sont pas d’accord, il semblerait que pour l’instant, ce soit tant pis pour eux. Et que l’on peut s’estimer heureux si la pollution lumineuse reste un “dommage collatéral”. Car pour l’instant, rien dans le droit international n’empêcherait une société d’utiliser la visibilité des satellites à “orbite basse” dans un but plus ouvertement commercial… comme le proposerait une start-up Russe (honnêtement, en voyant leur site, je ne suis pas tout à fait convaincu que ce n’est pas une satire, mais en tout cas ils sont pris au sérieux par divers médias).

Capture d’écran : “the orbital display”, Vlad Sitnikov (https://vimeo.com/309893059)

Voir passer un satellite lors d’une belle nuit d’été à la campagne était jusqu’à présent un bref moment d’émerveillement en regardant les étoiles. Il s’agira peut-être bientôt d’une inévitable nuisance.