Une équipe internationale d’astrophysiciens et de cosmologistes, utilisant l’Hyper Suprime-Cam (HSC), l’une des caméras astronomiques les plus puissantes au monde, et les données des trois premières années du relevé du ciel HSC, a passé l’année dernière à étudier la matière noire.
Grâce à l’Hyper Suprime-Cam (HSC), une équipe dirigée par l’université de Princeton a étudié la distribution de la matière noire et a constaté un écart entre la « densité » (valeur S8) de la matière noire dans l’univers actuel et dans l’univers primitif. Cette divergence pourrait indiquer une erreur non reconnue ou un modèle cosmologique standard incomplet.
Cela ressemble à un paradoxe classique : comment voit-on l’invisible ? Mais pour les astronomes modernes, il s’agit d’un défi bien réel : comment mesurer la matière noire qui, par définition, n’émet pas de lumière ?
La réponse : On observe l’impact qu’elle a sur les choses que l’on peut voir. Dans le cas de la matière noire, les astronomes observent la façon dont la lumière provenant de galaxies lointaines se courbe autour d’elle.
Une équipe internationale d’astrophysiciens et de cosmologistes a passé l’année dernière à percer les secrets de cette matière insaisissable, en utilisant des simulations informatiques sophistiquées et les observations de l’une des caméras astronomiques les plus puissantes au monde, l’Hyper Suprime-Cam (HSC). L’équipe est dirigée par des astronomes de l’université de Princeton et des communautés astronomiques du Japon et de Taïwan. Elle utilise les données des trois premières années de l’étude du ciel HSC, une étude d’imagerie à grand champ réalisée avec le télescope Subaru de 8,2 mètres situé au sommet du Maunakea, à Hawaï. Subaru est exploité par l’Observatoire astronomique national du Japon ; son nom est le mot japonais désignant l’amas d’étoiles que nous appelons les Pléiades.
L’équipe soumet actuellement une série de cinq articles décrivant ses découvertes.
Exemple d’une image obtenue avec HSC-SSP. Crédit : projet HSC-SSP & ; NAOJ
« Notre objectif global est de mesurer certaines des propriétés les plus fondamentales de notre univers », a déclaré Roohi Dalal, premier auteur de l’un des articles et étudiant en astrophysique à Princeton. « Nous savons que l’énergie noire et la matière noire constituent 95 % de notre univers, mais nous comprenons très mal ce qu’elles sont réellement et comment elles ont évolué au cours de l’histoire de l’univers. Les amas de matière noire déforment la lumière des galaxies lointaines par un faible effet de lentille gravitationnelle, un phénomène prédit par la théorie générale de la relativité d’Einstein. Cette distorsion est très, très faible : la forme d’une seule galaxie est déformée de façon imperceptible. Mais lorsque nous effectuons cette mesure pour 25 millions de galaxies, nous sommes en mesure de mesurer la distorsion avec une très grande précision ».
Pour en venir à la conclusion : L’équipe a mesuré une valeur de 0,776 pour la « densité » de la matière noire de l’univers (connue des cosmologistes sous le nom de « S8 »), ce qui correspond aux valeurs que d’autres études par lentille gravitationnelle ont trouvées en examinant l’univers relativement récent – mais cela ne correspond pas à la valeur de 0,83 dérivée du fond diffus cosmologique, qui remonte à l’origine de l’univers.
Résultats de la mesure du paramètre S8 à partir des données HSC-SSP de l’année 3. Le graphique montre les résultats de quatre méthodes différentes, qui utilisent différentes parties des données HSC-SSP de l’année 3 ou combinent les données HSC-SSP de l’année 3 avec d’autres données. À titre de comparaison, « Planck CMB » montre le résultat de la mesure de S8 à partir des données du fond diffus cosmologique du satellite Planck. La rubrique « Autres résultats de faible lentille » montre les résultats de mesures similaires de faible lentille basées sur les données du Dark Energy Survey (DES) et du Kilo-Degree Survey (KiDS). Crédit : Kavli IPMU
L’écart entre ces deux valeurs est faible, mais comme de plus en plus d’études confirment chacune des deux valeurs, il ne semble pas accidentel. Les autres possibilités sont qu’il y ait une erreur non encore reconnue dans l’une de ces deux mesures ou que le modèle cosmologique standard soit incomplet d’une manière intéressante.
« Nous restons assez prudents », a déclaré Michael Strauss, directeur du département des sciences astrophysiques de Princeton et l’un des responsables de l’équipe HSC. « Nous ne disons pas que nous venons de découvrir que la cosmologie moderne est entièrement fausse, car, comme l’a souligné Roohi, l’effet que nous mesurons est très subtil. Maintenant, nous pensons que nous avons effectué la mesure correctement. Et les statistiques montrent qu’il n’y a qu’une chance sur 20 que cela soit dû au hasard, ce qui est convaincant mais pas totalement définitif. Mais comme la communauté des astronomes arrive à la même conclusion après de multiples expériences, et que nous continuons à faire ces mesures, nous sommes peut-être en train de découvrir que c’est réel ».
Sommaire
Cacher et découvrir les données
L’idée qu’un changement est nécessaire dans le modèle cosmologique standard, qu’un élément fondamental de la cosmologie reste à découvrir, est délicieusement séduisante pour certains scientifiques.
« Nous sommes des êtres humains et nous avons des préférences. C’est pourquoi nous procédons à ce que nous appelons une analyse « à l’aveugle » », a déclaré M. Strauss. « Les scientifiques sont devenus suffisamment conscients d’eux-mêmes pour savoir que nous nous biaiserons nous-mêmes, quelle que soit notre prudence, si nous n’effectuons pas notre analyse sans nous permettre de connaître les résultats jusqu’à la fin. En ce qui me concerne, j’aimerais vraiment trouver quelque chose de fondamentalement nouveau. Ce serait vraiment passionnant. Mais comme j’ai des préjugés dans ce sens, nous devons faire très attention à ne pas les laisser influencer l’analyse que nous faisons ».
Pour protéger leur travail de leurs préjugés, ils ont littéralement caché leurs résultats à eux-mêmes et à leurs collègues, mois après mois après mois.
« J’ai travaillé sur cette analyse pendant un an et je n’ai pas eu l’occasion de voir les valeurs qui en ressortaient », a déclaré M. Dalal.
L’équipe a même ajouté une couche d’obscurcissement supplémentaire : elle a effectué ses analyses sur trois catalogues de galaxies différents, l’un réel et les deux autres avec des valeurs numériques compensées par des valeurs aléatoires.
« Nous ne savions pas lequel des trois était réel, donc même si quelqu’un voyait accidentellement les valeurs, nous ne saurions pas si les résultats étaient basés sur le vrai catalogue ou non », a-t-elle déclaré.
Le 16 février, l’équipe internationale s’est réunie sur Zoom – le soir à Princeton, le matin au Japon et à Taïwan – pour la « levée de l’aveuglement ».
« C’est comme une cérémonie, un rituel, que nous avons vécu », a déclaré Strauss. « Nous avons dévoilé les données et effectué nos tracés, et nous avons immédiatement constaté que les résultats étaient excellents. Tout le monde s’est dit « Oh, ouf ! » et tout le monde était très heureux.
Dalal et sa colocataire ont fait sauter une bouteille de champagne ce soir-là.
Une grande enquête avec la plus grande caméra télescopique du monde
HSC est la plus grande caméra au monde sur un télescope de cette taille, une position qu’elle conservera jusqu’à ce que l’Observatoire Vera C. Rubin, actuellement en construction dans les Andes chiliennes, entame le Legacy Survey of Space and Time (LSST) à la fin de 2024. En fait, les données brutes de HSC sont traitées avec le logiciel conçu pour LSST. « Il est fascinant de constater que nos logiciels sont capables de traiter de telles quantités de données bien avant le LSST », a déclaré Andrés Plazas, coauteur des articles et chercheur associé à Princeton.
Le relevé utilisé par l’équipe de recherche couvre environ 420 degrés carrés du ciel, soit l’équivalent de 2000 pleines lunes. Il ne s’agit pas d’un seul morceau de ciel contigu, mais de six morceaux différents, chacun d’entre eux ayant la taille d’un poing tendu. Les 25 millions de galaxies étudiées sont si éloignées qu’au lieu de les voir telles qu’elles sont aujourd’hui, le CSH a enregistré ce qu’elles étaient il y a des milliards d’années.
Exemple de distribution 3D de la matière noire dérivée de HSC-SSP. Cette carte est obtenue en utilisant les données de la première année, mais la présente étude a examiné une zone du ciel environ trois fois plus grande. Crédit : Université de Tokyo/NAOJ
Chacune de ces galaxies brille des feux de dizaines de milliards de soleils, mais comme elles sont très éloignées, elles sont extrêmement faibles, jusqu’à 25 millions de fois plus faibles que les étoiles les plus ténues que nous pouvons voir à l’œil nu.
« Il est extrêmement excitant de voir ces résultats de la collaboration HSC, d’autant plus que ces données sont les plus proches de ce que nous attendons de l’Observatoire Rubin, vers lequel la communauté travaille ensemble », a déclaré la cosmologiste Alexandra Amon, Senior Kavli Fellow à l’Université de Cambridge et chercheur principal au Trinity College, qui n’a pas été impliquée dans cette recherche. « Leur étude approfondie permet d’obtenir de belles données. Pour moi, il est intriguant que HSC, comme les autres relevés indépendants de faible lentille, indique une faible valeur pour S8 – il s’agit d’une validation importante, et il est passionnant que ces tensions et tendances nous obligent à faire une pause et à réfléchir à ce que ces données nous disent sur notre Univers ! »
Le modèle cosmologique standard
Le modèle standard de la cosmologie est « étonnamment simple » à certains égards, explique Andrina Nicola de l’université de Bonn, qui a conseillé Dalal sur ce projet lorsqu’elle était chercheuse postdoctorale à Princeton. Le modèle postule que l’univers n’est constitué que de quatre éléments de base : la matière ordinaire (atomes, principalement d’hydrogène et d’hélium), la matière noire, l’énergie noire et les photons.
Selon le modèle standard, l’univers est en expansion depuis le Big Bang, il y a 13,8 milliards d’années : au départ, il était presque parfaitement lisse, mais l’attraction de la gravité sur les subtiles fluctuations de l’univers a entraîné la formation de structures – des galaxies enveloppées dans des amas de matière noire. Dans l’univers actuel, les contributions relatives de la matière ordinaire, de la matière noire et de l’énergie noire sont d’environ 5 %, 25 % et 70 %, plus une minuscule contribution des photons.
Le modèle standard n’est défini que par une poignée de chiffres : le taux d’expansion de l’univers, une mesure de l’agglutination de la matière noire (S8), les contributions relatives des constituants de l’univers (les chiffres de 5 %, 25 % et 70 % ci-dessus), la densité globale de l’univers et une quantité technique décrivant la relation entre l’agglutination de l’univers à grande échelle et celle à petite échelle.
« Et c’est à peu près tout ! » a déclaré Strauss. « Nous, la communauté cosmologique, avons convergé vers ce modèle, qui est en place depuis le début des années 2000.
Les cosmologistes sont impatients de tester ce modèle en contraignant ces chiffres de diverses manières, notamment en observant les fluctuations du fond diffus cosmologique (qui est en fait la photo du bébé de l’univers, c’est-à-dire l’image qu’il avait après ses 400 000 premières années), en modélisant l’histoire de l’expansion de l’univers, en mesurant la densité de l’univers dans un passé relativement récent, et d’autres méthodes encore.
Nous confirmons un sentiment de plus en plus répandu dans la communauté, à savoir qu’il existe une réelle divergence entre la mesure de l’agrégation dans l’univers primitif (mesurée à partir du CMB) et celle de l’ère des galaxies, il y a « seulement » 9 milliards d’années », a déclaré Arun Kannawadi, chercheur associé à Princeton, qui a participé à l’analyse.
Les cinq articles
L’article de Dalal est l’un des cinq articles soumis conjointement à Physical Review D sur ce sujet. Son article fait une analyse dite de l’espace de Fourier ; une analyse parallèle de l’espace réel a été menée par Xiangchong Li de l’Université Carnegie Mellon. Li travaille en étroite collaboration avec Rachel Mandelbaum, qui a obtenu son baccalauréat en physique en 2000 et son doctorat en 2006, tous deux à Princeton. Une troisième analyse, dite analyse 3×2 points, adopte une approche différente en mesurant le signal de lentille gravitationnelle autour de galaxies individuelles, afin de calibrer la quantité de matière noire associée à chaque galaxie. Cette analyse est décrite dans trois articles dirigés par Sunao Sugiyama de l’université de Tokyo, Hironao Miyatake (un ancien postdoctorant de Princeton) de l’université de Nagoya et Surhud More du Centre interuniversitaire d’astronomie et d’astrophysique de Pune, en Inde. Ces cinq articles utilisent les données du HSC pour parvenir à la même conclusion concernant S8.
Effectuer à la fois l’analyse de l’espace réel et l’analyse de l’espace de Fourier « était en quelque sorte une vérification de bon sens », a déclaré Mme Dalal. Elle et Li ont travaillé en étroite collaboration pour coordonner leurs analyses, en utilisant des données en aveugle. Toute divergence entre ces deux analyses indiquerait que la méthodologie des chercheurs est erronée. « Cela nous renseignerait moins sur l’astrophysique que sur la façon dont nous avons pu nous tromper », a déclaré Mme Dalal.
« Nous ne savions pas avant la levée de l’aveugle que les deux résultats étaient parfaitement identiques », a-t-elle ajouté. « Cela semblait miraculeux.
Sunao a ajouté : « Notre analyse 3×2 points combine l’analyse du faible effet de lentille et le regroupement des galaxies. Ce n’est qu’après avoir levé l’aveugle que nous avons su que nos résultats étaient en parfait accord avec ceux de Roohi et Xiangchong. Le fait que toutes ces analyses donnent la même réponse nous conforte dans l’idée que nous faisons quelque chose de bien ! »
Références :
« Résultats de l’année 3 de l’Hyper Suprime-Cam : Cosmology from Galaxy Clustering and Weak Lensing with HSC and SDSS using the Emulator Based Halo Model » par Hironao Miyatake, Sunao Sugiyama, Masahiro Takada, Takahiro Nishimichi, Xiangchong Li, Masato Shirasaki, Surhud More, Yosuke Kobayashi, Atsushi J. Nishizawa, Markus M. Rau, Tianqing Zhang, Ryuichi Takahashi, Roohi Dalal, Rachel Mandelbaum, Michael A. Strauss, Takashi Hamana, Masamune Oguri, Ken Osato, Wentao Luo, Arun Kannawadi, Bau-Ching Hsieh, Robert Armstrong, Yutaka Komiyama, Robert H. Lupton, Nate B. Lust, Lauren A. MacArthur, Satoshi Miyazaki, Hitoshi Murayama, Yuki Okura, Paul A. Price, Tomomi Sunayama, Philip J. Tait, Masayuki Tanaka et Shiang-Yu Wang, 3 avril 2023, Astrophysics > ; Cosmology and Nongalactic Astrophysics.
arXiv:2304.00704
« Résultats de l’année 3 de l’Hyper Suprime-Cam : Measurements of Clustering of SDSS-BOSS Galaxies, Galaxy-Galaxy Lensing and Cosmic Shear » par Surhud More, Sunao Sugiyama, Hironao Miyatake, Markus Michael Rau, Masato Shirasaki, Xiangchong Li, Atsushi J. Nishizawa, Ken Osato, Tianqing Zhang, Masahiro Takada, Takashi Hamana, Ryuichi Takahashi, Roohi Dalal, Rachel Mandelbaum, Michael A. Strauss, Yosuke Kobayashi, Takahiro Nishimichi, Masamune Oguri, Arun Kannawadi, Robert Armstrong, Yutaka Komiyama, Robert H. Lupton, Nate B. Lust, Satoshi Miyazaki, Hitoshi Murayama, Yuki Okura, Paul A. Price, Philip J. Tait, Masayuki Tanaka et Shiang-Yu Wang, 3 avril 2023, Astrophysics > ; Cosmology and Nongalactic Astrophysics.
arXiv:2304.00703
« Hyper Suprime-Cam Year 3 Results : Cosmology from Galaxy Clustering and Weak Lensing with HSC and SDSS using the Minimal Bias Model » par Sunao Sugiyama, Hironao Miyatake, Surhud More, Xiangchong Li, Masato Shirasaki, Masahiro Takada, Yosuke Kobayashi, Ryuichi Takahashi, Takahiro Nishimichi, Atsushi J. Nishizawa, Markus M. Rau, Tianqing Zhang, Roohi Dalal, Rachel Mandelbaum, Michael A. Strauss, Takashi Hamana, Masamune Oguri, Ken Osato, Arun Kannawadi, Robert Armstrong, Yutaka Komiyama, Robert H. Lupton, Nate B. Lust, Satoshi Miyazaki, Hitoshi Murayama, Yuki Okura, Paul A. Price, Philip J. Tait, Masayuki Tanaka et Shiang-Yu Wang, 3 avril 2023, Astrophysics > ; Cosmology and Nongalactic Astrophysics.
arXiv:2304.00705
« Hyper Suprime-Cam Year 3 Results : Cosmology from Cosmic Shear Power Spectra » par Roohi Dalal, Xiangchong Li, Andrina Nicola, Joe Zuntz, Michael A. Strauss, Sunao Sugiyama, Tianqing Zhang, Markus M. Rau, Rachel Mandelbaum, Masahiro Takada, Surhud More, Hironao Miyatake, Arun Kannawadi, Masato Shirasaki, Takanori Taniguchi, Ryuichi Takahashi, Ken Osato, Takashi Hamana, Masamune Oguri, Atsushi J. Nishizawa, Andrés A. Plazas Malagón, Tomomi Sunayama, David Alonso, Anže Slosar, Robert Armstrong, James Bosch, Yutaka Komiyama, Robert H. Lupton, Nate B. Lust, Lauren A. MacArthur, Satoshi Miyazaki, Hitoshi Murayama, Takahiro Nishimichi, Yuki Okura, Paul A. Price, Philip J. Tait, Masayuki Tanaka et Shiang-Yu Wang, 3 avril 2023, Astrophysics > ; Cosmology and Nongalactic Astrophysics.
arXiv:2304.00701
« Hyper Suprime-Cam Year 3 Results : Cosmology from Cosmic Shear Two-point Correlation Functions » par Xiangchong Li, Tianqing Zhang, Sunao Sugiyama, Roohi Dalal, Markus M. Rau, Rachel Mandelbaum, Masahiro Takada, Surhud More, Michael A. Strauss, Hironao Miyatake, Masato Shirasaki, Takashi Hamana, Masamune Oguri, Wentao Luo, Atsushi J. Nishizawa, Ryuichi Takahashi, Andrina Nicola, Ken Osato, Arun Kannawadi, Tomomi Sunayama, Robert Armstrong, Yutaka Komiyama, Robert H. Lupton, Nate B. Lust, Satoshi Miyazaki, Hitoshi Murayama, Takahiro Nishimichi, Yuki Okura, Paul A. Price, Philip J. Tait, Masayuki Tanaka, Shiang-Yu Wang, 3 avril 2023, Astrophysics > ; Cosmology and Nongalactic Astrophysics.
arXiv:2304.00702
Cette recherche a été soutenue par le National Science Foundation Graduate Research Fellowship Program (DGE-2039656) ; l’Observatoire astronomique national du Japon ; l’Institut Kavli pour la physique et les mathématiques de l’univers ; l’Université de Tokyo ; l’Organisation de recherche sur les accélérateurs de haute énergie (KEK) ; l’Academia Sinica Institute for Astronomy and Astrophysics à Taiwan ; l’Université de Princeton ; le programme FIRST du Cabinet Office japonais ; le ministère de l’éducation, de la culture, des sports, de la science et de la technologie (MEXT) ; la Société japonaise pour la promotion de la science ; l’Agence japonaise pour la science et la technologie ; la Toray Science Foundation ; et l’Observatoire Vera C. Rubin.