Windows 10 : premières impressions

Un grand sage a dit : “si tu installe une version de Windows avant le premier Service Pack, tu vas avoir des emmerdes.”

Un an passé sur Windows 8 m’a convaincu d’ignorer le grand sage et de lancer la mise à jour. J’utilise Windows 10 depuis maintenant une semaine, et pour l’instant c’est globalement une bonne expérience. Globalement.

Windows 10 répond à sa promesse principale : un retour à la dernière version qui marchait (Windows 7), sur lesquelles viennent se greffer des petites améliorations d’interface, et quelques fonctionnalités plus ou moins utiles. Le menu “Démarrer” est bien revenu, et il est plutôt bien, avec des accès rapides aux documents et applications récents et souvent utilisés, et des fonctionnalités de recherche plutôt efficaces. Il paraît que le nouveau navigateur, Edge, est bien aussi, mais je n’ai pas encore vraiment testé. La mise à jour était facile à effectuer. La stupide interface “Metro” a disparu.

Le premier problème auquel je me suis heurté, c’est la fourberie de la “Configuration Express” de Windows 10 lors de la mise à jour. Par défaut, Windows 10 envoie tout ce qu’on tape au clavier et tous nos clics de souris à Microsoft. Google fait pareil sur les téléphones Androïd, mais ils ont un peu plus l’excuse de vouloir améliorer les fonctions “auto-correct” et autres qui rendent l’utilisation d’un GSM nettement plus facile. Pour un ordinateur… Le besoin est moindre, et le risque de dérive nettement plus important. Bref : désactivé. Windows remplace aussi toutes les applications “par défaut” : Edge comme navigateur, leur lecteur média pour les vidéos, etc… Tout ça peut être changé en trouvant le petit bout de texte “custom configuration” planqué en bas de l’écran de configuration express…

Ça, c’est pour les problèmes qui n’en sont pas vraiment, puisqu’ils sont voulus par Microsoft. Depuis la mise à jour, je me suis aussi retrouvé avec des bugs plus traditionnels : problème de driver pour mon “touchpad”, DLL manquante pour Visual C++ qui empêche une partie des programmes de s’exécuter, gestion un peu bizarre de la mise en veille / verrouillage de l’ordinateur…

Des problèmes assez vite réglés par une recherche Google, mais qui sont toujours un peu pénibles.

En conclusion : est-ce que je suis satisfait de Windows 10 ? Plutôt, oui. Je ne regrette en tout cas pas de laisser Windows 8 derrière moi, et cette version semble prometteuse. Est-ce que je recommande la mise à jour ? Pas encore, sauf si vous aimez jouer à chipoter dans des panneaux de configuration pour que tout fonctionne comme il faut.

Pluton enfin dévoilée

Pluton a beau avoir été éjectée du club sélect des huit “vraies” planètes du système solaire, on pourrait penser qu’un objet aussi important, aussi proche de la Terre à l’échelle cosmique, serait déjà bien connu. Pourtant, ce n’est que maintenant, avec le passage de la sonde New Horizons, que l’on découvre les premières photos détaillées de sa surface.

La découverte “officielle” de Pluton date de 1930. Les astronomes se doutaient depuis quelques temps déjà de sa présence : des anomalies dans les orbites d’Uranus et de Neptune montrait que “quelque chose” se trouvait dans cette région de l’espace. Cet objet mystérieux, appelé “Planète X”, était avidement recherché par de nombreux observatoires, qui tentaient de prédire sa localisation pour pouvoir capturer une preuve photographique. En 1930, cette preuve arrive :

pluto_discoveryPluton, en 1930.

La méthode utilisée était assez simple sur le principe : prendre une photo du même bout de ciel où l’on s’attend à la voir passer à quelques jours d’intervalle, et regarder si il y a quelque chose qui a bougé entre les deux observations. Les étoiles, “infiniment” lointaines, restent au même endroit. Les planètes, plus proches, bougent. À l’heure actuelle, ce genre d’observation peut être effectué automatiquement très facilement. À l’époque, ça impliquait de donner à un nouveau pleins de photos “avant-après” et de lui demander de jouer aux sept différences.

Pendant les années qui ont suivi, des calculs divers permettent de se faire une meilleure idée de sa taille, sa masse et sa composition, mais il faut attendre les années 80 pour avoir la première idée de ce à quoi ressemble la surface :

pluto_charon_surfacePluton et Charon. D’après Buie, Tholen & Horne, Albedo Maps of Pluto and Charon: Initial Mutual Event Results, Icarus 97, 1992 [PDF].

Ce n’est toujours pas une photo. Cette image est calculée à partir d’une série d’observations : lorsque Charon, la lune de Pluton, passe devant la surface de celle-ci, elle y porte son ombre. Depuis la Terre, on observe alors une baisse de la luminosité de Pluton (puisque sa surface est en partie masquée). Lorsque Charon masque une zone plus brillante de Pluton, la diminution de luminosité est plus forte ; lorsqu’elle masque une zone plus sombre, la diminution est moindre. En combinant les observations de luminosité sur de multiples passages, on peut ainsi constituer une carte grossière des zones sombres et lumineuses de Pluton.

Jusqu’à aujourd’hui, c’est globalement tout ce qu’on avait. Des observations du télescope Hubble au début du XXIème siècle ont permis d’améliorer nettement le niveau de détail… mais toujours sans photo directe de la surface.

En 2006, la NASA a lancé la sonde New Horizons pour remédier au problème. Ce 14 juillet 2015, après neuf ans de voyage, la sonde est passée en coup de vent à proximité de Pluton et de ses lunes. Le temps de prendre quelques photos avant de continuer son chemin dans le vide de l’espace. Pas question en effet de revenir : New Horizons se déplace à prêt de 14 km/s, et laissera bien vite Pluton et l’ensemble du système solaire derrière elle, avant de s’éteindre entièrement d’ici 2030.

pluto_new_horizonsSurface de Pluton vue par New Horizons, 14 juillet 2015

New Horizons est incapable de communiquer avec la Terre en même temps qu’elle prend des photos : pendant de nombreuses heures, pendant qu’elle récupérait les précieuses données pour lesquelles elle a quitté notre planète il y a dix ans, elle est restée silencieuse. Elle a ensuite pu tourner à nouveau son antenne vers nous et a envoyé son statut. La NASA estimait à 2/10.000 ses chances d’être détruite durant son passage : à la vitesse où elle se déplace, un contact avec un caillou ou un débris de glace est fatal. Le signal qui est revenu disait en substance : “tout va bien”. La position, la vitesse, le niveau d’énergie, le nombre d’images prises, la position des capteurs, tout semble correspondre aux prédictions. Dans les jours et les mois qui viennent, les images et mesures détaillées devraient être transmises (la connexion n’est pas hyper rapide à cette distance…), et les astronomes pourront enfin travailler sur des images de bonne qualité.

Pluton rejoint donc la courte liste des astres explorés. Seules la Terre et la Lune ont été touchées par l’homme ; des sondes se sont posées sur Mars, Vénus, Titan et une comète ; d’autres sont passées à proximité de Mercure, Jupiter et ses lunes, Saturne, Uranus, Neptune, quelques astéroïdes, et maintenant Pluton. À l’échelle cosmique, nous n’avons donc en réalité rien vu, rien découvert. Nous avons exploré un grain de sable sur la plage. On ne sait pas encore si le reste de la plage contient un trésor enfoui, ou si elle est couverte de crottes de chiens. L’ère spatiale ne fait que commencer…

Vote électronique : vote démocratique ?

Le 25 mai 2014, les belges se rendaient aux urnes pour un triple scrutin législatif, régional et européen. Dans 17 des 19 communes bruxelloises, le système de vote utilisé est électronique, et fonctionne depuis 1994 sans accrocs. Cette fois-ci, cependant, il y a un bug. Les résultats se font attendre, les explications aussi. Quelques jours plus tard, les informations commencent à sortir : environ 2000 votes ont du être annulés car le logiciel comptabilisait mal les voix lorsque l’utilisateur était revenu en arrière pour changer son choix.

Le nouveau journal coopératif “Médor” en a fait le sujet son premier dossier d’investigation. Je n’aime pas trop ce dossier, qui en cherchant à présenter les faits d’une manière plus ludiques, sous forme d’enquête, perd je trouve beaucoup en clarté. Le fait qu’une grande partie de leurs informations techniques viennent d’un “hacker” non-identifié n’aide pas non plus à apporter la crédibilité requise. Mais avec leurs informations, celles publiées par l’association PourEVA (Pour une Éthique de Vote Automatisé), et aussi le code source du système de vote ainsi que l’explication du bug publié par le Ministère de l’Intérieur, on peut se faire une bonne idée de ce qui s’est passé.

  1. Partie technique : le Code et le Bug
  2. Un vote démocratique et sécurisé, c’est quoi ?
  3. Vote électronique, stop ou encore ?

1. Partie technique : le Code et le Bug

L’application de vote automatisé JITES a été développée par la société Stésud, rachetée depuis par le groupe NRB via sa filière Civadis. Ils ne sont pas les seuls en cause : le code est contrôlé de manière indépendante avant chaque élection par PricewaterhouseCooper, qui valide que tout est fonctionnel.

En jetant un coup d’oeil sur le code, on comprend très vite pourquoi l’erreur n’a pas pu être détectée : c’est le bordel complet. Fonctions mal ou pas documentées, conventions inexistantes, et surtout manque total de contrôle de la cohérence des données : avant d’enregistrer le vote sur la carte, rien ne vérifie si il y a un problème potentiel, si il n’y a bien qu’une seule liste sélectionnée, si il n’y a pas de candidats de listes différentes sélectionnés… Bref, que tout est en ordre.

Autre manquement majeur : le code tel qu’il est présenté ne permet pas de facilement créer la batterie de tests automatisés qui seule pourrait garantir qu’un changement effectué dans le code ne change rien au comportement du programme. Ce manque de rigueur peut fonctionner pour des programmes où ce n’est pas grave si une partie des utilisateurs tombent sur des bugs, corrigés au fur et à mesure qu’ils sont trouvés. Pour un système de vote, c’est tout simplement impardonnable. Et c’est ce manque de rigueur qui, visiblement, à permis au fameux bug d’apparaître.

Le bug, donc. Il se situe dans la partie du programme permettant de désélectionner un candidat. Lors des élections précédentes, cela ne pouvait se faire que en appuyant sur le bouton “Annuler”. Nouveauté de 2014 : on peut le faire en ré-appuyant sur la case à côté du nom du candidat. Le ministère de l’intérieur nous explique les circonstances dans lesquelles le problème se produit :

  • un électeur sélectionne une liste ;
  • il sélectionne un ou plusieurs candidat(s) ;
  • ensuite il désélectionne ce ou ces candidat(s) ;
  • il revient au menu des listes ;
  • il choisit une autre liste de parti;
  • il poursuit le processus de vote normal.

jites_candL’écran incriminé (image prise dans le manuel d’utilisation fourni avec les sources)

Le code gérant cet écran se trouve dans un fichier appelé mod_cand.c. On y retrouve une fonction qui, chaque fois qu’on appuie avec le stylo optique sur l’écran, va vérifier l’action à effectuer. Je mets le code ci-dessous pour ceux que ça intéresse.


static int Cand_Check_Selection(int _iX, int _iY)
{
  int i, x1, x2, y1, y2;
  

  if(_iY > 452) /* At the bottom (Validate/Cancel or
                   go back tho the lists) */
  {
    if(giNbCandidSel != 0) /* Almost one candidate selected */
    {
#ifdef EL2014
      if((_iX > 10) && (_iX < 310)) /* Cancel */ { giNbCandidSel = 0; swpas = 0; swnoir = 0; swconf = 0; Cancel_Selection(giCurrentScr,giCurrentList,1); return(0); } if((_iX > 330) && (_iX < 630)) /* Validation */ { if((gshScrutin[giCurrentScr].nom_s == '4') && (Choix_RLg == 'F')) swVLR = 0; ++giCurrentScr; ptfunct = Scrut_Loop; return(1); } #else if((_iX > 10) && (_iX < 310)) /* Validation */ { ++giCurrentScr; ptfunct = Scrut_Loop; return(1); } if((_iX > 330) && (_iX < 630)) /* Cancel */ { giNbCandidSel = 0; swpas = 0; swnoir = 0; swconf = 0; Cancel_Selection(giCurrentScr,giCurrentList,1); return(0); } #endif return(0); } else /* No candidate selected -> go back to the list selection */
    {
      if((_iX > 110) && (_iX < 530))
      {
#ifdef EL2014
        ptfunct = les_listes;
#else        
        ptfunct = List_Display;
#endif      
        return(1);
      }
      else /* Not managed */
        return(0);
    }
  }
  else /* Candidate's areas */
  {
    for(i=0;i<=giCurrentCandid;i++) /* Who has been selected ? (LightPen) */ { x1 = gaiPosc[i][0]; x2 = gaiPosc[i][1]; y1 = gaiPosc[i][2]; y2 = gaiPosc[i][3]; if(i) /* A specific candidate (not the "head of the list") */ { x1 += giXCapture; x2 -= giYCapture; y1 += giYCapture; y2 -= giYCapture; } if((_iX>=x1) && (_iX<x2)) { if((_iY>=y1) && (_iY<=y2)) /* This area */ { if(arcMemoCandid[giCurrentScr][giCurrentList][i] == 0) /* Unselected -> Selected */
          {
            ++giNbCandidSel; /* cfr iSWDeselectC */
            Cand_Select(giCurrentScr,giCurrentList,i);
            Cand_Update(i);
            Cand_Circle(i);
            Cand_Switch(i);
            return(0);
          }
#ifdef EL2014         
          else /* Selected -> Unselected */
          {
            --giNbCandidSel; /* cfr iSWDeselectC */
            if (giNbCandidSel == 0) {
                swpas = swnoir = swconf = 0;
            }
            Cand_Unselect(giCurrentScr,giCurrentList,i);
            Cand_Update(i);
            Cand_Circle(i);
            Cand_Switch(i);
            return(0);
          }
#endif        
        }
      }
    }
    return(0);
  }
}

En français, ça donne :

  • Si on appuie en bas de l’écran et que l’on a déjà sélectionné au moins un candidat : soit on est sur le bouton “Annuler” et on exécute la fonction “Cancel_Selection”, soit on est sur le bouton “Valider” et on passe au scrutin suivant.
  • Si on appuie en bas de l’écran et qu’aucun candidat n’est sélectionné, on revient à l’écran de choix de la liste pour laquelle on veut voter.
  • Si on appuie sur un des candidats et qu’il n’est pas encore sélectionné : on exécute la fonction “Cand_Select” et on ajoute “1” au compteur de nombre de candidats sélectionnés.
  • Si on appuie sur un des candidats et qu’il est déjà sélectionné : on exécute la fonction “Cand_Unselect” et on retire “1” au même compteur.

C’est donc cette fonction Cand_Unselect qui a été rajoutée pour l’élection de 2014. Ce n’est pas une fonction très compliquée, elle ne fait que quelques lignes :


void Cand_Unselect(int _x, int _y, int _z)
{
  arcMemoCandid[_x][_y][_z] = 0;
  //280613 arcMemoList[_x][_y] = 0;
  //280613 arcMemoScrutin[_x] = 0;
}

La fonction reçoit donc trois chiffres, qui correspondent au scrutin, à la liste, et au candidat à désélectionner. Dans le tableau arcMemoCandid, qui contient pour chaque candidat de chaque liste de chaque scrutin un 0 si le candidat est sélectionné, un 1 sinon, on met la case choisie à 0. C’est simple et direct. Les deux lignes suivantes sont commentées, et ne sont donc pas exécutées : elles désélectionnaient également la liste et le scrutin.

Et c’est là que se situe le problème. Si l’utilisateur désélectionne tous les candidats de la liste, le compteur sera bien mis à zéro. Lorsque l’utilisateur appuie ensuite sur le bas de l’écran pour quitter la liste des candidats, il sera ramené à l’écran des listes sans appeler la fonction Cancel_Selection, et la liste ne sera jamais marquée comme non sélectionnée. Lorsque l’utilisateur sélectionne une autre liste et valide son vote, il y a donc deux listes indiquées comme sélectionnées dans la mémoire. Le bulletin de vote est donc nul.

2. Un vote démocratique et sécurisé, c’est quoi ?

Pour qu’une élection soit réellement démocratique, il faut que chaque citoyen puisse être assuré que son vote est comptabilisé, et que son vote est secret. Pour que ces conditions soient respectées, il importe que, à chaque étape du scrutin, des observateurs puissent contrôler l’absence de fraude. Il y a différents points clés où des erreurs (ou des fraudes) peuvent mettre en doute le résultat des élections :

  • Dans l’isoloir : si le bulletin de vote n’est pas clair ou favorise un ou plusieurs candidats (c’est le cas par exemple aux USA, où les candidats des partis autre que Démocrates et Républicains n’apparaissent pas sur le bulletin de vote, dans beaucoup d’Etats : leur nom doit être rajouté à la main par l’électeur si il veut leur donner une voix).
  • Dans l’urne : si quelqu’un rajoute ou retire des bulletins de l’urne (ou si les données sont modifiées, dans le cas électronique)
  • Lors du comptage au bureau de vote : en ne comptant pas des voix valides, ou en les comptabilisant pour le mauvais partis.
  • Lors du décompte final : en additionnant mal les votes des différents bureaux, pour arriver à un mauvais résultat.

Plus les problèmes apparaissent tard dans le processus, plus il est facile d’y remédier. Si le décompte final est mauvais, on peut refaire les additions. Si le décompte du bureau de vote est mauvais, on peut recompter. Les choses deviennent plus difficiles si ce qui se trouve dans l’urne n’est pas valide. Dans le meilleur des cas, on peut alors identifier les bulletins problématiques et les annuler (c’est ce qui s’est produit avec le bug de 2014). Dans le pire des cas, il faut revoter.

3. Vote électronique, stop ou encore ?

En se basant sur les critères ainsi définis, le vote électronique tel qu’il se passe dans 17 des communes bruxelloises n’est pas démocratique. Il a en effet une lacune énorme et impardonnable : il n’y a aucun moyen pour l’électeur de vérifier que le contenu de la carte magnétique correspond bien à son vote. Il ne peut pas savoir si la machine n’a pas été trafiquée, ou si les données n’ont pas été corrompues entre le moment où il a pu voir son vote sur la machine et le moment où la carte a été éjectée. Les observateurs non plus n’ont aucun moyen de vérifier, pendant le dépouillement, que les bulletins sont correctement comptabilisés. Même si le code était bon (ce qui n’est pas le cas), même si en pratique tout se déroulait parfaitement comme prévu, ce système resterait par nature non-démocratique.

Faut-il alors jeter le vote électronique à la poubelle ? Non ! La solution est simple, et elle est déjà appliquée dans les communes qui ont choisi de mettre en place un système plus moderne. Il s’agit de ne pas stocker le vote sur une carte magnétique, mais sur un papier, sur lequel sera indiqué le vote en toutes lettres de manière lisible, accompagné d’un code barre permettant à un ordinateur de le comptabiliser automatiquement. L’électeur peut vérifier, au moment de son vote, qu’il glisse bien dans l’urne un papier portant le(s) nom(s) qu’il a choisi. Les observateurs peuvent vérifier facilement que le système qui scanne les votes donne bien la même information que celle inscrite en toutes lettres sur le papier. Et en cas de doute ou de problème, on peut toujours tout recompter à la main.

On peut ainsi combiner les avantages du vote électronique (rapidité de comptage, clarté du bulletin de vote…), et la sécurité du vote papier. Il serait dommage que, après le bug de 2014, Bruxelles décide de revenir entièrement en arrière, et retourne au vote papier. Mais si le choix est le vote papier ou le système actuel, c’est le vote papier qui doit primer : le système actuel n’est pas sécurisé, il n’est pas démocratique. Le meilleur choix serait évidemment de passer à un système de vote électronique moderne. Je ne l’ai jamais essayé, mais le système utilisé à Woluwe-Saint-Lambert et Watermael semble un bon candidat…

Flat Earth Society : comment prouver que la Terre est plate ?

Nous sommes durant l’été de l’an 1838. À une centaine de kilomètres de Londres, où la reine Victoria vient d’être couronnée, Samuel Rowbotham prend son télescope et patauge dans le canal de Bedford pour réaliser une expérience scientifique révolutionnaire : il veut prouver que la terre est plate, et non sphérique comme l’affirment depuis plus de deux mille ans les hérétiques en tous genres. Pourquoi ce canal ? Parce qu’il coule en ligne droite sur une distance d’environ dix kilomètres. Si la terre est sphérique, un bateau qui s’éloigne dessus devrait progressivement disparaître, caché par la courbure terrestre.

Rowbotham–curvatureLe dispositif expérimental de Rowbotham (Wikipédia).

Rowbotham affirme alors que, contrairement aux prédictions, il peut toujours voir le bateau dans son télescope, même dix kilomètres plus loin. La terre est plate ! Il l’affirme et le publie dans un article puis finalement un livre, Earth Not A Globe. D’autres personnes tentent de reproduire cette surprenante découverte, par différentes méthodes similaires. La plupart n’arrivent pas à reproduire ses résultats. D’autres prétendent eux aussi avoir observé une terre plate. Certains rabats-joies (aussi appelés “scientifiques”) expliquent les résultats divergents par un effet d’optique : la réfraction. Dans certaines conditions climatiques, la réfaraction de la lumière permet de voir l’objet malgré la courbure terrestre (le “rayon lumineux” suit cette courbure et donne à nos yeux l’impression que l’objet est à la même hauteur que notre oeil).

Il n’y avait rien d’anormal là-dedans, la terre est bien plus-ou-moins-sphérique, on ne doit pas réécrire toute la science. Affaire classée ?

Au milieu du vingtième siècle, alors que la course à l’espace bat son plein et que l’on prend les premières photos de la Terre depuis l’espace, Samuel Shenton crée la Flat Earth Society. Cette association qui se réapproprie les thèses de Rowbotham a un certain succès durant la Guerre Froide (profitant sans doute d’une certaine méfiance vis-à-vis des propagandes américaines et russes), avant de progressivement disparaître. Mais en 2004, la magie d’Internet s’opère. Un forum se crée, des gens se rassemblent, et en 2009 la Flat Earth Society est officiellement rétablie avec un site internet présentant ses théories.

Il y a donc en ce moment même dans le monde des gens qui sont en train d’utiliser Internet tout en étant convaincu (et en cherchant à convaincre les autres) que la terre est plate.

flat-earth-map-fergusonCarte de la terre plate selon Orlando Ferguson, 1893. (Wikipedia)

Quelle est la “théorie de la terre plate” à l’heure du GSM, du GPS, de la Station Spatiale Internationale, de Virgin Galactic ? En résumé : la NASA nous ment, toutes les agences spatiales nous mentent, tous les fabricants de satellites et de GPS, tous les astronomes, tous les astronautes, cosmonautes et spationautes nous mentent. La terre est plate, entourée par un gigantesque mur de glace infranchissable (l’Antarctique), le soleil est une sorte de projecteur qui éclaire une partie du disque terrestre à la fois, la “gravité” est due à une accélération constante de ce disque à travers l’espace.

Plus que probablement, la majorité des gens “actifs” dans la Flat Earth Society sont des “Trolls”. Le principal point d’activité est un forum internet, et il est impossible de savoir si les participants de ce forum sont sérieux ou satirisent les positions ridiculement conspirationnistes et pseudoscientifiques des quelques convaincus. Mais des convaincus, il y en a bien. Et sur Internet, quelque soit la croyance farfelue que l’on peut avoir, on trouvera toujours un refuge dans lequel d’autres pourront nous rassurer sur le fait qu’on a raison, que le reste du monde a tort, et que si on nous tourne en ridicule, c’est parce qu’on a peur, ou qu’on nous cache quelque chose.

Homéopathie : science et pseudoscience

La majorité des médecins belges estiment que l’homéopathie n’a pas sa place dans les soins de santé. Pourtant, l’acceptation de l’homéopathie comme moyen de traitement par les consommateurs se généralise : la moitié des belges lui feraient confiance. Les européens en sont particulièrement friands : le leader mondial est Boiron, une société française, dont le chiffre d’affaire en 2014 s’élève à 600 millions d’euros.

L’industrie homéopathique, sans être au même niveau que l’industrie pharmaceutique, est donc bien florissante. Est-elle basée sur des traitements réellement efficaces, ou sur du vent ? Entrons dans le vif du sujet…

Un cas concret

L’Oscillococcinum est un “médicament homéopathique utilisé dans la prévention et le traitement des états grippaux“. Il coûte à peu près un euro par dose de un gramme. D’après le Ministère français de l’économie, des finances et de l’industrie, ça le place environ 50% plus cher que sa concurrence. Sa composition : “extraits filtrés de foie et de coeur d’Anas barbariae dynamisé à la 200e K. Excipients (saccharose, lactose).”

Où est le problème ? “extraits filtrés de foie et de coeur d’Anas barbariae dynamisé à la 200e K” signifie, en clair : prendre de l’extrait de foie et de coeur de canard de barbarie et y appliquer 200 dilutions “korsakovienne” successives. La dilution korsakovienne consiste à prendre un flacon contenant le composant actif, à le vider, le remplir d’eau, et le secouer fortement pour mélanger ce qui restait sur les parois avec l’eau. Au bout d’une dizaine de dilutions, il ne reste statistiquement plus aucune molécule du composant actif. Au bout de 200 dilutions, c’est une certitude presque absolue que aucun flacon de ce médicament qui ai jamais été vendu dans le monde ne contient la moindre molécule du composant actif. Reste donc du saccharose et du lactose : autrement dit, du sucre.

canard-barbarieAnas Barbariae, dans son état pre-Oscillococcinum

Mais pourtant ça marche !

La réponse habituelle de l’industrie homéopathique est : ça marche, pleins de gens se traitent avec de l’homéopathie et se sentent mieux après, “l’efficacité thérapeutique est certaine”. Comment expliquer que tant de gens observent les effets de l’homéopathie, si ce n’est qu’un placebo ? Justement. Quand on dit qu’un traitement n’a pas plus d’effet qu’un placebo, la première réaction est souvent de dire : “quoi, ça ne marche pas ? Mais pourtant je connais untel chez qui ça a marché !” On associe “effet placebo” avec “aucun effet”, mais c’est loin d’être le cas. L’effet placebo est bien réel, et offre souvent d’excellents résultats, notamment pour le traitement des douleurs mais aussi pour des troubles immunitaires, hormonaux ou respiratoire (Price et al., A Comprehensive Review of the Placebo Effect: Recent Advances and Current Thought [PDF], Annual Review of Psychology, 2008.)

L’effet placebo dépend de nombreux facteurs, dont le mode d’administration, les attentes du patient, son conditionnement… Il n’est donc pas surprenant en soi que des remèdes homéopathiques puissent avoir un effet. C’est là aussi qu’intervient le traitement personnalisé : une consultation chez un homéopathe va typiquement être plus longue et plus personnelle qu’une consultation chez un médecin, ce qui augmente les chances d’obtenir une bonne réponse au placebo.

Ce n’est pas pour rien que l’homéopathie est particulièrement prescrite pour ces mêmes problèmes où le placebo est le plus efficace : traitement des allergies, des douleurs, des symptômes grippaux…

Et selon les homéopathes, ça marche comment ?

La théorie fondamentale de l’homéopathie est développée au XVIIIème siècle par Samuel Hahnemann. À l’époque, l’invention récente du microscope permet à la médecine de commencer à s’extirper des textes antiques et de la théorie des “humeurs” (dans laquelle le corps humain contient un équilibre entre sang, phlegme, bile jaune et bile noire). L’idée de Hahnemann est assez simple : lutter contre une maladie en ingérant des petites quantités d’une substance provoquant des symptômes similaires. Ce n’est pas une idée particulièrement loufoque à l’époque : on vient alors de découvrir que l’inoculation de petites doses de variole permet de protéger des symptômes les plus graves de la maladie.

Hahnemann
Samuel Hahnemann

L’homéopathie selon Hahnemann repose sur trois principes. Le principe de similitude (datant d’Hippocrate), selon lequel “les semblables sont aptes à guérir les semblables”. Le principe de dilution, pour éliminer le risque de toxicité. Et le principe de dynamisation : secouer le mélange solvant – principe actif pour que le solvant s’imprègne de “l’essence” du remède.

On mesure le plus souvent les dilutions en “Centésimale hahnemannienne” ou “CH”. 1 CH signifie diluer au centième de sa concentration le produit initial. Typiquement, un produit homéopathique moderne aura une dilution allant de 4-5 CH jusqu’à 30 CH. Est-ce beaucoup ? Une dilution à 10 CH correspond à une goutte de produit actif dans le Lac Léman. Une dilution à 23 CH correspond à une molécule de produit actif dans tous les océans du monde. Au delà de 12 CH, on obtient statistiquement moins d’une molécule dans une dose du remède homéopathique.

Comment l’industrie homéopathique justifie-t-elle que ces produits (qui ne contiennent au mieux que quelques traces infinitésimales de produit actif, et bien souvent n’en contiennent pas une seule molécule) ont un effet sur l’organisme ? En parlant de “mémoire de l’eau“. La dynamisation (ou : secouer très fort la bouteille) permettrait de faire en sorte que le solvant garde la “mémoire” du composant actif. La mémoire de l’eau est un concept proposé par Jacques Benveniste. Ses résultats, montrant que l’eau conserve une “empreinte” des éléments avec lesquelles elle a été en contact même lorsque ceux-ci ne sont plus présents en solution, n’ont jamais pu être reproduits et sont généralement considérés comme le fruit d’erreurs expérimentales. L’idée a cependant été reprise avec enthousiasme par les homéopathes, qui y ont vu une justification scientifique du processus de dilution-dynamisation.

Il n’empêche que, à l’heure actuelle, rien dans notre compréhension des mécanismes physiques et chimiques sur lesquels reposent notre science moderne ne permet de voir dans la théorie homéopathique autre chose que de la pseudoscience.

Que nous reste-t-il ?

Comment alors caractériser l’homéopathie ? C’est une méthode de traitement basée sur une science inexacte, qui conduit à la production de remède constitués uniquement d’eau, d’alcool ou de sucre, et dont les résultats, selon les études les plus charitables, nécessitent plus de tests pour déterminer leur efficacité, ou plus généralement sont identiques aux résultats obtenus par placebo. Les agences gouvernementales comme le Centre Fédéral d’Expertise des Soins de Santé (Belgique), le NHS (Royaume-Uni), ou récemment le NHMRC (Australie) sont tous arrivés à la même conclusion.

Peut-on pour autant dire que l’homéopathie ne remplit aucune fonction, voir est dangereuse ? Oui et non. Les remèdes homéopathiques en tant que tels ne sont pas dangereux. Le fait qu’ils n’ont pas de principes actifs joue dans les deux sens : ils ne peuvent faire ni du bien, ni du mal. Lorsque le remède homéopathique est pris comme complément à un médicament réellement actif, il ne peut pas faire de mal, et va aider le patient, via l’effet placebo, dans sa guérison (par exemple : des gouttes homéopathiques pour les yeux ajoutés à un anti-histaminique pour lutter contre des allergies). De même lorsque aucun traitement n’est nécessaire (par exemple : pour “guérir” d’un rhume). Tant que l’homéopathie ne vient pas se substituer à un traitement classique, où est le mal ?

Reste le fait que les produits homéopathiques sont présentés de manière malhonnête. Ils ne sont pas vendus en tant que placebo, mais en tant que médicaments. Ils prétendent avoir des composants actifs, et que ce sont ces composant actifs qui ont un impact sur la santé du patient. Chaque patient a le droit d’être informé sur les différents aspects du traitement qu’il reçoit. Dans le cas de l’homéopathie, ce critère d’information n’est pas rempli. La notice de l’Oscillococcinum parle de posologie, de composants actifs, d’effets secondaires possibles (en cas de réaction au sucre…), sans qu’il soit jamais clair qu’aucune molécule de “coeur et de foie d’Anas Barbariae” ne sera jamais présente dans aucune dose du produit qui sera jamais vendue.

canard-barbarieAnas Barbariae, dans son état post-Oscillococcinum

Au moins ils ne risquent pas de devoir tuer beaucoup de canards…

Pourquoi votre ordinateur ne fonctionne pas.

Vous regardez l’écran de votre ordinateur avec frustration. Il a planté, encore une fois. Il est lent. Il est inutilisable. Il lui faut dix minutes pour s’allumer. Les pages web mettent tellement de temps à charger que vous avez le temps de boire un café entre chaque e-mail ouvert. Vous pensez à le jeter par la fenêtre, ou encore mieux sur la tête de l’esprit tordu qui l’a conçu, et qui n’a pas pu faire en sorte que, tout simplement, ça marche. Est-ce vraiment si compliqué ? Est-ce vraiment trop demander ? Oui. Pourquoi ?

spinning-beachballNon, c’est bon, j’ai le temps…

Réaliser un programme informatique, c’est comme préparer un grand repas (pas vraiment en fait, mais on va faire comme si). Lorsque vous préparez votre menu, vous n’allez pas tout faire à partir de zéro. Vous n’allez pas planter et récolter les légumes, traire les vaches, élever les cochons, moudre le blé. Non : vous allez sélectionner les ingrédients dont vous avez besoin, et essayer de les mettre ensemble au mieux. Vous allez les préparer, les découper, les combiner, les assaisonner, jusqu’à obtenir le résultat voulu : des plats équilibré, un menu construit et cohérent, réfléchi. Vous vous imaginez dans votre tête le client dégustant chaque pièce de nourriture dans le bon ordre, tel que vous l’avez préparé.

Ça, c’est la théorie. Ensuite, le vrai travail commence. Il y a beaucoup à faire, vous vous entourez d’une équipe de cuisiniers. Chacun insiste pour travailler avec sa marque de couteau, sa poêle fétiche. L’un veut que les tomates soient coupées dans un sens, l’autre refuse de les servir comme ça. On s’engueule un peu, mais au final tout le monde s’y met. Les préparatifs avancent, tout prend forme. Vous serez prêt à servir dans une heure.

Le patron du restaurant arrive : “Ah oui, j’ai oublié de vous prévenir, le client adore le chocolat. Je lui ai promis qu’il y en aurait dans chaque plat. Vous allez faire ça bien, je vous fait confiance !”

Vous n’avez pas le temps de réagir qu’il est déjà parti. Vous voyez la catastrophe arriver : vous n’avez même pas de chocolat ! Vous trouvez vite un fournisseur qui est prêt à vous en donner, mais il n’accepte de vous le vendre que si vous achetez aussi ses pommes. Votre pâtissier râle, parce que ce n’est pas ses pommes habituelles, mais il finit par accepter. Vous accommodez tant bien que mal le reste du repas pour ajouter des morceaux de chocolat partout sans trop détruire le reste. Vous voyez bien que ce ne sera pas aussi bon que vous l’aviez prévu, mais bon, tant pis, si c’est pour satisfaire le client… Le service démarre. Quelques minutes plus tard, on vous appelle en salle. Il y a un problème. Vous craignez le pire : est-ce qu’un cheveu s’est glissé dans la soupe ? Est-ce qu’un morceau de viande était de mauvaise qualité ?

Le client vous montre son assiette du doigt. “Ce n’est vraiment pas bon, le Ketchup masque complètement le goût de tout le reste.” Le vide se fait dans votre cerveau. Vous n’avez pas mis de ketchup. Vous voyez une bouteille sur la table. Vous demandez poliment : “pourquoi avez-vous ajouté du Ketchup ?” Immédiatement, il se braque : “Je n’ai rien ajouté du tout ! C’était comme ça !”. Vous soupirez, reprenez le Ketchup et l’assiette, en ramenez une autre. Cette fois-ci, vous restez dans les parages pour vérifier qu’il n’ajoute rien. Peine perdue : dès que vous détournez le regard, un paquet de sauce, du sel, du poivre ou de la sauce piquante arrivent comme par magie entre ses mains.

Le repas touche à sa fin. Il vous rappelle une dernière fois. “C’était pas mal du tout. Par contre, pourquoi avez-vous mis du chocolat partout ?”

chocolate-pizzaMiam! (via lovethispic.com)

Est-ce vraiment si compliqué, donc ? Oui. Chaque fois que vous utilisez votre ordinateur, vous vous reposer sur des dizaines, des centaines d’applications différentes, conçues par des équipes de parfois plusieurs centaines de personnes qui n’ont chacun qu’une vision partielle du produit qu’ils sont en train de développer. Des programmes qui se reposent sur des technologies datant d’il y a entre un mois et cinquante ans, qui n’ont jamais été conçus pour fonctionner ensemble mais qui ont été bricolés pour que “ça marche” — la plupart du temps.

Les interactions entre les différents programmes se passent dans équilibre fragile. À chaque mise à jour, cet équilibre peut être brisé : une application est modifiée, une autre cesse de fonctionner. Pas de chance : ses développeurs ont fait faillite, il n’y aura pas de correction. La solution : ne rien mettre à jour ? Félicitations, vous vous rendez plus vulnérable à des failles de sécurité qui sont découvertes tous les jours, dans tous les programmes un peu populaires.

Alors quand votre ordinateur plante, où quand il devient lent, on vous dit : redémarrez. Désinstallez un maximum de programmes. Nettoyez la mémoire. Retirez les Malwares, les Spywares, les Virus. Redémarrez encore. À chaque redémarrage, les millions de rouages qui font tourner l’ordinateur se remettent dans une position plus ou moins cohérente, plus ou moins connue. Dès que les programmes se mettent en marche, dès que les rouages tournent, ils commencent à bouger, à se gêner les uns les autres, jusqu’à ce qu’ils se bloquent à nouveau. Si vous faites bien attention, si vous prenez soin de votre ordinateur, que vous n’installez pas de programmes superflus, que vous prenez garde à ce que vous téléchargez, aux pages web que vous visitez, vous pouvez reculer l’échéance. Mais lorsque l’inévitable fini par arriver, que vous devez une nouvelle fois changer d’ordinateur, sachez que ce n’est pas uniquement de votre faute (même si vous avez peut-être accélérés sa déchéance) : voyez-y le résultat des tentatives de milliers d’informaticiens, partout dans le monde, de garder un minimum de cohérence dans ce fouillis de technologies. Tentatives, aussi, de se convaincre qu’ils comprennent encore comment fonctionne vraiment le programme qu’ils viennent d’écrire.

Et pourtant, elle chauffe

Lorsque Jim Inhofe, sénateur de l’Oklahoma, a pris la parole jeudi dernier devant le Sénat américain, il avait une idée en tête : montrer à ses collègues, au peuple américain, peut-être au monde entier, que le réchauffement climatique n’est qu’une fantaisie née de l’imagination des scientifiques en quête de subsides. Son argumentation, dans la vidéo ci-dessous, est concise et irréfutable.


James “Jim” Inhofe face au Sénat américain (CSPAN via YouTube)

On entend sans arrêt que 2014 a été l’année la plus chaude jamais enregistrée“, nous dit-il. Il démontre le contraire : “Savez-vous ce que c’est ? C’est une boule de neige, ramassée juste ici dehors. Donc il fait très, très froid dehors“. Imparable. Apparemment, les mesures réalisées par des équipements météorologiques et par des satellites sur l’ensemble du globe à longueur d’année peuvent être jetées à la poubelle, parce qu’il y a de la neige à Washington DC.

La vidéo ne fait que 30 secondes, mais elle résume bien tout ce qu’il reste comme argument à ceux qui, contre toute la communauté scientifique, contre le consensus académique, résistent encore et toujours à l’inévitable conclusion que oui, la Terre se réchauffe anormalement vite, que oui, l’être humain en est la cause via les émissions de gaz à effet de serre, que oui, il faut réduire ces émissions, rapidement, ou subir des conséquences désastreuses tant sur le plan économique que sur le plan humain.

Visiblement, Jim Inhofe a du mal avec le concept des saisons, et avec le concept de “climat planétaire” en opposition à la météo locale. Mais ne craignons rien : je suis sûr qu’il n’a pas d’influence sur les décisions en matière d’environnement, n’est-ce pas ?

À ce propos… James “Jim” Inhofe n’est pas que le représentant de l’Oklahoma au sénat. Il y préside le comité chargé de l’environnement et des travaux publics. À ce titre, il a donc une énorme influence sur la politique américaine en matière de réduction des émissions de carbone, et du développement de l’énergie durable.

Il y a quelques mois, Barack Obama, dans un discours à l’ONU, répétait l’importance d’une action coordonnée pour lutter contre le réchauffement climatique. Visiblement, la participation des États-Unis à cet effort n’est pas tout à fait assurée…