Comment un article sérieux devient : « Solved: the mystery of the expansion of the universe »

Un splendide exemple de Transposition

Ou comment un papier scientifique   » Consistency of the local Hubble constant with the cosmic microwave background » devient ce titre  « Solved: the mystery of the expansion of the universe« 
Le service de presse de l’UNIGE écrit : A UNIGE researcher has solved a scientific controversy about the speed of the expansion of the universe by suggesting that it is not totally homogeneous on a large scale.
Or l’article dit
These results therefore suggest borderline consistency between the local and Planck measurements of the Hubble constant. Generally accounting for the environmental uncertainty, the local measurement may be reinterpreted as a constraint on the cosmological Hubble constant of km/s/Mpc.

Inévitable transposition des savoirs

On comprend bien que l’annonce par l’université s’adresse à un public plus large. On devine qu’ils veulent rendre attractif la nouvelle…
mais ce faisant la nature scientifique, nuancée, précise se perd inévitablement.
Et le public risque de croire que la science produit des vérités définitives… Puis devient méfiant quand des progrès de la science les remettent en question.
Ce processus de Transposition est qualifié d’inévitable et nécessaire par Chevallard, Y. (1991). Il est aussi pertinent dans la vulgarisation scientifique :« Le contexte, la situation, le cadre et les méthodes de recherche qui ont produit les résultats sont perdus, la discussion de ces résultats, leur incertitude, leur portée et leur validité disparaissent et sont réduits à une conclusion simple, notable et souvent sensationnaliste présentée comme définitive. »
Lombard, F., & Weiss, L. (2018)) ici

Que faire ?

Ainsi ne reprochons pas au service de presse de faire leur métier – et très bien : cette news m’a accroché tout de suite !…
Mais encourage le lecteur – qui a un master en physique ou chimie ou biologie – à aller vérifier dans l’article d’origine :  ici.
Et à aider ses élèves à remonter autant que possible selon leur niveau vers les savoirs authentiques. Développer l’esprit critique c’est aussi leur apprendre progressivement à affronter la complexité du monde.

Pour vous donner envie …

Une publication qui réconcilie les deux approches

Page de garde.jpg
Fig 1: image d’illustration  [img]. Source :unige © All rights reserved

D’après le press release de l’unige 

La terre, le système solaire, toute la Voie lactée et les quelques milliers de galaxies les plus proches de nous se déplacent dans une vaste «bulle» de 250 millions d’années-lumière de diamètre, où la densité moyenne de la matière est deux fois moins importante que pour le reste de l’univers.  C’est l’hypothèse avancée par un physicien théoricien de l’Université de Genève (UNIGE) pour résoudre une controverse dans la communauté scientifique depuis une décennie: à quelle vitesse l’univers se dilate-t-il ?

Jusqu’à présent, au moins deux méthodes de calcul indépendantes sont arrivées à deux valeurs différentes d’environ 10% avec un écart statistiquement inconciliable. Cette nouvelle approche, exposée dans la revue Physics Letters B, résout cette divergence sans recourir à une «nouvelle physique». Traduction Automatique retouchée. Voir le PDF complet

D’après Lombriser lui-même « Consistency of the local Hubble constant with the cosmic microwave background »

Allez vérifier vous-même :   encourage le lecteur à consulter Lombriser, L. (2020). ici
L’abstract de l’article est plus nuancé et plus explicite :

A significant tension has become manifest between the current expansion rate of our Universe measured from the cosmic microwave background by the Planck satellite and from local distance probes, which has prompted for interpretations of that as evidence of new physics. Within conventional cosmology a likely source of this discrepancy is identified here as a matter density fluctuation around the cosmic average of the 40 Mpc environment in which the calibration of Supernovae Type Ia separations with Cepheids and nearby absolute distance anchors is performed. Inhomogeneities on this scale easily reach 40% and more. In that context, the discrepant expansion rates serve as evidence of residing in an underdense region of . The probability for finding this local expansion rate given the Planck data lies at the 95% confidence level. Likewise, a hypothetical equivalent local data set with mean expansion rate equal to that of Planck, while statistically favoured, would not gain strong preference over the actual data in the respective Bayes factor. These results therefore suggest borderline consistency between the local and Planck measurements of the Hubble constant. Generally accounting for the environmental uncertainty, the local measurement may be reinterpreted as a constraint on the cosmological Hubble constant of km/s/Mpc. The current simplified analysis may be augmented with the employment of the full available data sets, an impact study for the immediate ≲10 Mpc environment of the distance anchors, more prone to inhomogeneities, as well as expansion rates measured by quasar lensing, gravitational waves, currently limited to the same 40 Mpc region, and local galaxy distributions.


Pour ceux qui ne sont pas des physiciens :

L’univers s’est étendu depuis le Big Bang il y a 13,8 milliards d’années – une proposition faite pour la première fois par le canon et physicien belge Georges Lemaître (1894-1966), et démontrée pour la première fois par Edwin Hubble (1889-1953). L’astronome américain a découvert en 1929 que chaque galaxie s’éloignait de nous et que les galaxies les plus éloignées se déplaçaient le plus rapidement. Cela suggère qu’il y a eu un temps dans le passé où toutes les galaxies étaient situées au même endroit, un temps qui ne peut correspondre qu’au Big Bang. Cette recherche a donné naissance à la loi de Hubble-Lemaître, y compris la constante de Hubble (H0), qui dénote le taux d’expansion de l’univers. Les meilleures estimations de H0 se situent actuellement autour de 70 (km/s)/Mpc (ce qui signifie que l’univers s’étend 70 kilomètres par seconde plus rapidement tous les 3,26 millions d’années-lumière). Le problème est qu’il existe deux méthodes de calcul contradictoires.

Supernovae sporadiques

Le premier est basé sur le fond cosmique des micro-ondes: c’est le rayonnement micro-ondes qui nous vient de partout, émis au moment où l’univers est devenu suffisamment froid pour que la lumière puisse enfin circuler librement (environ 370 000 ans après le Big Bang). En utilisant les données précises fournies par la mission spatiale Planck, et étant donné que l’univers est homogène et isotrope, une valeur de 67,4 est obtenue pour H0 en utilisant la théorie de la relativité générale d’Einstein pour parcourir le scénario. La deuxième méthode de calcul est basée sur les supernovae qui apparaissent sporadiquement dans les galaxies lointaines. Ces événements très lumineux fournissent à l’observateur des distances très précises, une approche qui a permis de déterminer une valeur pour H0 de 74.

Lucas Lombriser, professeur au Département de physique théorique de la Faculté des sciences de l’UNIGE, explique: «Ces deux valeurs ont continué à se préciser pendant de nombreuses années tout en restant différentes l’une de l’autre. Il n’a pas fallu grand-chose pour déclencher une controverse scientifique et même pour susciter l’espoir excitant que nous avions peut-être affaire à une «nouvelle physique». » Pour réduire l’écart, le professeur Lombriser a entretenu l’idée que l’univers n’est pas aussi homogène qu’on le prétend, hypothèse qui peut sembler évidente à des échelles relativement modestes. Il ne fait aucun doute que la matière est distribuée différemment à l’intérieur d’une galaxie qu’à l’extérieur. Il est cependant plus difficile d’imaginer des fluctuations de la densité moyenne de matière calculées sur des volumes des milliers de fois plus importants qu’une galaxie.

La «bulle Hubble»

«Si nous étions dans une sorte de« bulle »gigantesque, poursuit le professeur Lombriser, où la densité de matière était nettement inférieure à la densité connue pour l’univers entier, cela aurait des conséquences sur les distances des supernovae et, finalement, sur la détermination de H0 .  »

Il suffirait que cette «bulle de Hubble» soit suffisamment grande pour inclure la galaxie qui sert de référence pour mesurer les distances. En établissant un diamètre de 250 millions d’années-lumière pour cette bulle, le physicien a calculé que si la densité de matière à l’intérieur était de 50% inférieure à celle du reste de l’univers, une nouvelle valeur serait obtenue pour la constante de Hubble, qui serait alors d’accord avec celui obtenu en utilisant le fond micro-ondes cosmique. « La probabilité qu’il y ait une telle fluctuation à cette échelle est de 1 sur 20 à 1 sur 5, explique le professeur Lombriser, ce qui signifie que ce n’est pas un fantasme de théoricien. Il y a beaucoup de régions comme la nôtre dans le vaste univers. »

Traduction de la press-release


Références:

Cette entrée a été publiée dans Perspective sur les savoirs, Savoirs en sciences, avec comme mot(s)-clef(s) , , , . Vous pouvez la mettre en favoris avec ce permalien.

Les commentaires sont fermés.