LES ASTRONEWS de
planetastronomy.com:
Mise
à jour : 2 Janvier 2018 JOYEUSE ANNÉE
2018 À TOUS !!
Conférences et Évènements :
Calendrier .............. Rapport
et CR
Prochaine
conférence SAF « Une vie d’astronaute et de nouvelles missions » par
Claudie Haigneré
astronaute ESA le Vendredi 12 Janvier 2018
.
Réservation à partir du 16 Dec en cliquant sur la ligne réservation
(il ne reste que quelques places)
La suivante : « Les formes de l’espace, du trou noir au
multivers. » par JP Luminet
le vendredi 16 Février à 19H00 (résa > 13 Janv)
Liste
des conférences SAF en vidéo. (pas encore à jour!)
Astronews précédentes :
ICI
dossiers à télécharger par ftp :
ICI
ARCHIVES DES ASTRONEWS
: clic sur le sujet désiré :
Astrophysique/cosmologie
;
Spécial Mars ;
Terre/Lune
;
Système solaire ;
Astronautique/conq
spatiale
;
3D/divers
;
Histoire astro
/Instruments ;
Observations
;
Soleil
;
Étoiles/Galaxies ;
Livres/Magazines ;
Jeunes /Scolaires
Certains peuvent recevoir en double ces news, car ils sont
inscrits sur plusieurs listes. J’en suis désolé.
Sommaire de ce numéro :
Les amas de galaxies : CR de la conf SAF de F Durret du 15 Dec. 2017.
(02/01/2018)
Exoplanètes : CR de la conf de P Léna (Institut) du 12 Dec. 2017.
(02/01/2018)
Recherche de la matière noire : CR de la conf SAF (Cosmologie) avec M
Cirelli du 16 Dec. 2017. (02/01/2018)
Synchrotron Soleil : CR de la visite Vega du 7 Dec. 2017.
(02/01/2018)
Astronomie Gamma : CR conf IAP de H Sol du 5 Déc. 2017.
(02/01/2018)
Expo météorites : CR de la visite SAF du 4 Déc. 2017 au MNHN.
(02/01/2018)
François Forget :
Un nouvel Académicien des Sciences. (02/01/2018)
Nicolas Biver :
Médaille Arago. (02/01/2018)
Cosmologie : Un
article de vulgarisation de Denis Gialis.
(02/01/2018)
Exoplanètes :. Gliese 436b ne tourne vraiment pas
rond ! (02/01/2018)
Bizarre : Une étoile qui ne voulait pas mourir !
(02/01/2018)
JUNO :.Des
détails sur la grande tache rouge. (02/01/2018)
CÉRÈS :.Une explication pour les nombreux bright spots.
(02/01/2018)
Galileo :.Ariane
5 lance 4 nouveaux satellites (19 à 22) de la constellation.
(02/01/2018)
Ariane 6 : Du nouveau : des moteurs et des décisions.
(02/01/2018)
Vu d'en haut :.Toulouse.
(02/01/2018)
Disparition :
Alain Souchier nous a quittés ! (02/01/2018)
Un site Internet
à découvrir :.NASA Image of the Day Gallery.
(02/01/2018)
FRANÇOIS
FORGET : UN NOUVEL ACADÉMICIEN DES SCIENCES.
(02/01/2018)
Je suis particulièrement content d’annoncer, pour ceux qui ne le
savent pas encore, que notre ami
François Forget
de l’IPSL (LMD) a été nommé académicien des Sciences en Décembre 2017.
Nous lui présentons toutes nos félicitations pour cette
nomination bien méritée.
(Il a été nommé en même temps que Jean Jouzel, comme indiqué dans
ce communiqué)
François est bien connu de nos lecteurs, il est Directeur de
recherche au CNRS, en poste au Laboratoire de Météorologie Dynamique (LMD) ,
Institut Pierre Simon Laplace (IPSL) Université P. et M. Curie.
Il a de nombreuses fois donné des conférences dans le cadre de la
SAF, de Vega et d’autres institutions.
Signalons qu’il a été chercheur à la NASA (Ames) après avoir été
au CNES notamment. Thèse sur la planète Mars, sa préférée !
Il est très impliqué dans les modèles numériques du climat des
planètes comme Mars, ou même Pluton.
Il participe activement aux programmes des sondes spatiales
suivantes : Mars Express, New Horizons ; Exomars et Insight.
Son cursus
professionnel complet.
Encore bravo François et comme on dit là-bas : Keep up the good
work !!!
NICOLAS
BIVER : MÉDAILLE ARAGO.
(02/01/2018)
Encore une autre décoration ; Nicolas Biver, astronome du LESIA
et membre de la SAF a reçu, en toute intimité, la médaille Arago de l’Académie
des Sciences le 21 Nov 2017.
Nicolas est trop modeste pour avoir prévenu un large cercle de
personnes, aussi, l’avons-nous su un peu tard.
Néanmoins, cher Nicolas, accepte toutes nos félicitations.
La séance de remises des prix est sur
le site de l’Institut.
COSMOLOGIE : UN ARTICLE DE VULGARISATION DE DENIS GIALIS.
(02/01/2018)
Denis Gialis est astrophysicien, et il est un peu excédé par
toutes les théories cosmologiques
propagées par des non scientifiques.
Il veut remettre les choses d’aplomb.
À cet effet il m’a envoyé un (long) texte de vulgarisation sur ce
sujet qu’il m’autorise à publier dans ces astronews.
Je le publie mais on peut aussi le trouver complet sur
astrosurf.
C’est un excellent résumé de la situation scientifique actuelle.
Cosmologie et théorie du Big Bang : un état des lieux
Par
Denis GIALIS, astrophysicien
La
cosmologie a connu ces dernières années une évolution sans précédent :
l’avènement de nouveaux instruments d’observation, comme - par exemple – les
satellites WMAP ou Planck, a permis de rassembler un exceptionnel ensemble de
nouvelles données scientifiques qu’il convient d’analyser, de comprendre et
d’expliquer.
La
confrontation régulière entre ces données et la mise en place théorique de
modèles cosmologiques cohérents est à l’origine d’une effervescence scientifique
remarquable dans une discipline encore et toujours en plein essor.
Le
modèle standard cosmologique, construit autour de l’idée centrale que constitue
le Big Bang, a connu de nombreux ajustements au cours des dernières décennies.
S’accordant souvent avec succès aux nouvelles contraintes observationnelles, il
reste tout de même certaines (de trop nombreuses !) zones d’ombre que ce modèle
ne parvient pas à mettre en lumière et qui sont la source d'intenses débats dans
la communauté scientifique.
C’est
la raison pour laquelle ce modèle a des détracteurs : cependant, aucun de ces
détracteurs n’est aujourd’hui en mesure d’apporter un modèle scientifique aussi
satisfaisant qui expliquerait l’ensemble des observations réalisées depuis un
siècle.
Alors
que faire ? Plusieurs voies sont possibles aujourd’hui : doit-on, et si oui,
comment peut-on améliorer ce modèle ?
Faut-il, pourquoi pas, changer totalement notre vision de l’Univers ? Ou bien,
faut-il réinventer toute une partie de la physique dans une approche
unificatrice ?
Toutes
ces questions sont délicates et restent parmi les plus difficiles de la science
moderne.
Mais
avant d’aller plus loin,
rappelons ce que l’on appelle la cosmologie.
La
cosmologie s’intéresse à l’étude globale de l’Univers, ce dernier étant défini
comme l’ensemble de tout ce qui existe physiquement.
Son
objet est de comprendre et d’expliquer la formation des différentes structures
(galaxies, amas de galaxies, superamas, …) que l’on observe aujourd'hui dans
l’Univers et d’établir les liens existants entre ces dernières tout en les
replaçant dans un contexte d’étude globale de l’Univers, de son histoire et de
son évolution.
Cette
vision globale atteint son paroxysme lorsque certains cosmologistes ne
s’intéressent qu’à la forme géométrique ou à la topologie de l’Univers sans
avoir trop besoin de se soucier de la nature des objets qu’il contient, mais
seulement, peut-être, de son contenu énergétique.
C'est
d'ailleurs le sens même des équations d'Einstein : la géométrie et le contenu
énergétique de l'espace-temps sont étroitement liés. D’autres cosmologistes, en
revanche, s’intéressent plus au contenu « moyen » de l’Univers, c’est-à-dire à
l’abondance relative, et à son évolution au cours du temps, de ses différents
constituants possibles. De la même façon, certains essaient, par exemple, de
déterminer la répartition dans l’Univers de son contenu visible et invisible par
des observations directes et indirectes : on parle alors de cosmologie
observationnelle, et ses limites sont celles de l'Univers observable.
Enfin,
une partie des cosmologistes est spécialisée dans les aspects théoriques liés à
la naissance même de l’Univers et à sa première seconde d’existence (!). On
parle alors de cosmologie primordiale et le Big Bang est son point de départ.
Les compétences requises font alors appel aux disciplines fondamentales de la
physique : physique des particules, théorie quantique, et ainsi que toutes les
théories émergentes (théorie des cordes et supercordes, gravité quantique à
boucles…).
Pour
mieux comprendre les limites du modèle standard, il est bon de se demander
comment, de façon générale, se construit un modèle cosmologique.
L'objet physique étudié, l'Univers, a la particularité, par définition, d'être
unique et non reproductible ce qui, contrairement à de nombreux autres
phénomènes physiques, empêche toute comparaison et toute démarche expérimentale
de nature statistique.
En
outre, nous sommes des observateurs placés en un point précis de l'Univers,
c'est-à- dire à
l'intérieur de l'objet que l'on veut étudier, que ce soit en matière de
position spatiale ou bien d'instant d'observation.
La
vision que nous pouvons avoir de l'Univers est de ce fait très particulière et
très limitée.
En
effet, la finitude de la vitesse de transmission d'informations - via la
lumière, par exemple - fait que l'Univers observable ne constitue qu'une toute
petite partie de l'Univers tout entier.
Cette
posture scientifique, fondamentalement limitée, est donc peu confortable.
Comment, dès lors, imaginer et concevoir ce qui se passe ailleurs et partout
dans l'Univers et à tout autre instant de son histoire ?
C'est
l'un des problèmes fondamentaux de tout modèle cosmologique.
Il en
résulte au moins deux postulats de départ : le premier est que tout modèle
cosmologique se doit de proposer une solution scientifique probable permettant
de rendre compte de l'ensemble des observations effectuées. Cette solution peut
très bien ne pas être unique et rien ne permet, d'ailleurs, de prouver une
éventuelle unicité.
Le
second postulat est que les lois de la physique que l'on observe localement –
sur Terre, dans les laboratoires et dans notre environnement proche - sont
valables en tout autre point de l'Univers et à tout autre instant de son
histoire. Cette hypothèse est non triviale et surtout, non démontrée. C'est
d'ailleurs une conséquence directe du fameux principe d'équivalence d'Einstein.
Sans même changer les lois, différents paramètres peuvent néanmoins évoluer et
changer.
Ainsi,
de nombreuses expériences ont été menées pour mesurer l'ordre de grandeur d'une
éventuelle variation au cours du temps de la constante universelle de la
gravitation ou bien de la constante de structure fine. Plusieurs modèles
théoriques, comme la théorie des cordes, tiennent compte de ces possibles
variations sur de grandes échelles de temps.
Ce
qu'il faut retenir est que les lois de la physique à l'échelle subatomique sont
essentielles, bien que non suffisantes, à la construction d'un modèle
cosmologique cohérent : leur universalité reste néanmoins un postulat, pratique
certes, mais discutable.
Outre
ces deux postulats de départ, le modèle standard cosmologique s'est construit
autour de quatre
hypothèses principales :
La première est la théorie de la relativité générale,
donnant une explication cohérente aux phénomènes gravitationnels que l'on
observe et dont les prédictions sont en extraordinaire accord avec les mesures
effectuées (sauf dans le cas particulier des courbes de rotation des galaxies,
voir ci-après). Toutefois, il existe aujourd'hui de nombreuses théories qui,
bien que profondément différentes de la relativité générale, aboutissent aux
mêmes prédictions mais diffèrent lorsqu'il s'agit de décrire les débuts de
l'Univers. Car le problème est bien là : le modèle standard utilise deux
théories aux fondements incompatibles, la théorie de la relativité générale pour
la géométrie à « grande échelle » de l’espace-temps et la physique quantique
pour le comportement microscopique du contenu de cet espace-temps.
C’est
un affrontement direct entre une physique du « continu » dans laquelle
l’espace-temps est conçu comme une surface
(ou
variété) lisse et une physique du « discontinu » où l’espace-temps a une
structure que l’on pourrait qualifier de « granulaire », voire indescriptible
en-dessous de la longueur de Planck (environ 10-33 cm) qui représente
en quelque sorte la taille des plus petits grains décrits par nos théories
physiques. Et le problème devient insurmontable lorsque l’on se rapproche de
l’instant zéro de la création de l’Univers, car aucune des deux théories n’est
suffisante pour décrire le comportement de l’Univers au voisinage du Big Bang.
Leurs domaines respectifs de validité sont tout simplement dépassés et le
physicien a besoin d’autres outils pour comprendre.
La deuxième est la description qui est faite de la matière par les lois
physiques. Par
exemple, les courbes de vitesses de rotation des galaxies, la dynamique des
galaxies au sein des amas ou encore les grandes structures, ne sont explicables,
via la relativité générale, que grâce à l'introduction de la matière noire. De
même, l'expansion accélérée de l'Univers ne peut être comprise, dans le modèle
standard, qu'en supposant une constante cosmologique non nulle, c'est-à-dire en
postulant l'existence d'une énergie sombre (ou noire) qui représente environ 70%
du contenu total en énergie de l'Univers. L'introduction de ces paramètres
cosmologiques a évidemment une influence directe sur un autre modèle standard
qui est celui des particules : quelle est la nature de cette matière noire et de
cette énergie sombre ? Faut-il découvrir de nouvelles particules ? Ces questions
marquent encore le lien profond qui existe entre la physique de l'infiniment
grand et celle de l'infiniment petit.
La troisième hypothèse invoque des propriétés de symétrie de l'espace-temps
permettant de résoudre les équations d'Einstein de la relativité générale. Elle
est le reflet de l'isotropie observée en ce qui concerne, par exemple, le fond
diffus cosmologique ou bien la distribution des galaxies sur de grandes
échelles. Cela se traduit par une réduction drastique du nombre des possibilités
quant à la détermination de la métrique universelle. En fait, il n'y a plus que
deux possibilités : soit notre Univers est à symétrie sphérique et nous sommes
situés proche de son centre, soit il est spatialement isotrope en chacun de ses
points, ce que l'on traduit également par l'Univers est homogène et spatialement
isotrope. Cette seconde possibilité constitue ce que l'on appelle le principe
cosmologique. A défaut de pouvoir trancher via des observations, c'est celle-ci
qui est retenue comme postulat en supposant que nous n'avons aucune raison
d'être des observateurs ayant une place privilégiée dans l'Univers, autrement
dit, en invoquant le principe de Copernic. Cela conduit à une métrique dite de
Friedmann-Lemaître (appelée aussi métrique de
Friedmann-Robertson-Walker-Lemaître) qui nous dit que localement les tranches
d'espace sont homogènes et isotropes et que leur géométrie ne peut être que de
trois types différents, à savoir, sphérique, euclidienne ou hyperbolique.
La quatrième et dernière hypothèse, enfin, concerne la structure globale de
l'Univers dont
l'unicité n'est aucunement nécessaire pour garantir la géométrie localement
observée. Par exemple, un cylindre a la même métrique ou la même géométrie qu'un
plan, mais sa topologie, ou sa forme, est différente. Le problème est qu'il est
très difficile, voire impossible, de déterminer, grâce à des observations, la
forme de l'Univers, surtout lorsque celui-ci a une taille qui dépasse le rayon
de Hubble (défini comme le rapport c/H, où c est la vitesse de la lumière dans
le vide et H la constante de Hubble actuelle).
Revenons à présent sur la construction historique du modèle standard ou théorie
du Big-Bang des origines, datant du début du siècle dernier, à nos jours.
Nous
avons vu le rôle central de la relativité générale dans l'élaboration d'un
modèle cosmologique : il n'est pas étonnant dès lors que l'un des premiers à
s'être intéressés à l'évolution de l'Univers est
Albert Einstein.
En 1917, il imagine un Univers statique dont la topologie spatiale est celle
d'une sphère, et cela, grâce à l'introduction d'une constante cosmologique ad
hoc dont on ne savait alors pas trop quoi penser.
Dans
les années 1920, ce sont
Alexandre Friedmann (1888-1925) et
Georges Lemaître
(1894-1966) qui développent indépendamment des solutions plus générales aux
équations d'Einstein tout en montrant qu'elles impliquent que l'Univers est en
expansion.
Lemaître fut le premier à prédire que cette expansion doit produire un décalage
vers le rouge des raies spectrales produites par des objets lointains, le fameux
redshift cosmologique. Il faut savoir qu'à cette époque, la distance des
galaxies n'avait pas été déterminée et que celles-ci étaient classées comme des
nébuleuses faisant partie de la Voie Lactée.
Mais,
en 1929, les observations
d'Edwin Hubble
confirment la prédiction de Lemaître tout en montrant que la Voie Lactée n'est
pas la seule galaxie dans l'Univers ! L'Univers est désormais en expansion et
son taux d'expansion, la constante de Hubble, peut être mesurée.
Mais
les travaux de Lemaître et Friedmann, lorsque l'on remonte dans le passé,
impliquent également que l'Univers a connu une phase de son existence pendant
laquelle la densité et la température devaient être incroyablement élevées :
Lemaître appela cette idée la théorie de
l'atome primitif.
C'était, bien sûr, l'ancêtre de ce qui allait devenir la théorie du Big Bang.
Cette
théorie naissante allait pourtant connaître un certain nombre de détracteurs
parmi lesquels le plus célèbre est sans conteste
Fred Hoyle
(1915-2001) avec sa théorie de l'état stationnaire. Paradoxalement, c'est ce
même détracteur qui, lors d'une émission radio sur la BBC en mars 1948, qualifia
de Big Bang ce que la théorie de l'expansion nous apprenait de la naissance de
l'Univers. La notoriété de la théorie du BigBang était désormais inscrite dans
les esprits.
C'est
alors qu'entrent en scène les physiciens
Ralph Alpher, Hans Bethe
et George Gamow qui, dans un célèbre article de 1948, évoquent pour la
première fois le problème de la nucléosynthèse primordiale c'est-à-dire la
formation des premiers noyaux atomiques dans l'histoire de l'Univers. La même
année, avec Robert Herman, Alpher prédit même l'existence et la
température (2,7 K) du
fond diffus cosmologique, rayonnement émis au moment où l'Univers est
devenu transparent au rayonnement électromagnétique, environ 380000 ans après le
Big Bang.
La
confirmation observationnelle de ce fond diffus cosmologique attendra 1964 et la
découverte fortuite des radio-astronomes
Arno Penzias et Robert
Wilson. Face à ce succès, les opposants à la théorie du Big Bang allaient
alors être beaucoup moins nombreux...
Mais
en cette fin des années quarante, la théorie du Big Bang connue également un
important développement théorique initié par
Evgeny Lifshitz
(1915-1985), ancien élève et collaborateur du célèbre
Lev Landau.
À
partir des équations d'Einstein, il étudia comment de faibles perturbations de
densité, dans les premiers instants de l'Univers, pouvaient conduire aux grandes
structures que l'on observe aujourd'hui (amas de galaxies, superamas, filaments
et grands espaces vides).
Ces
travaux sont à l'origine d'un élément essentiel du modèle standard actuel, à
savoir, la théorie de
l'inflation, dont les arguments utilisent à la fois la physique quantique
et la relativité générale et dont les conséquences peuvent être mesurées – par
exemple – dans l'anisotropie de la température du fond diffus cosmologique.
Rappelons que la théorie de l'inflation est apparue à la fin des années
soixante-dix avec les travaux de
François Englert, Robert
Brout et Edgard Gunzig, puis ceux
d'Alexei Stavrobinsky
ou encore d'Alan Guth
à partir de 1981.
L'inflation est une phase d'expansion accélérée de l'Univers primordial, lorsque
celui-ci était proche d'un espace dit de de Sitter, qui se serait produite juste
avant la phase de domination du rayonnement.
Elle
marque la fin de la période dite de Grande Unification et les débuts d'une
nouvelle force, l'interaction forte.
L'Univers change littéralement d'état (comme lorsque de l'eau se transforme en
glace...): on appelle cela une
transition de phase.
Associée à une brisure de symétrie, la libération d'énergie est simplement
colossale. L'inflation fait intervenir un nouveau champ scalaire, appelé
inflaton, qui est à l'origine de l'accélération prodigieuse de l'expansion de
l'Univers.
C'est
au cours de cette expansion que les fluctuations quantiques ont été amplifiées
jusqu'à permettre la formation des grandes structures. En seulement 10-32s,
la taille de l'Univers a augmenté d'un facteur de plus de 10⁵⁰.
À titre de comparaison, la taille de l'Univers de la période qui a suivi
l'inflation jusqu'à aujourd'hui n'a varié que d'un facteur mille.
Cette
théorie a fourni pour la première fois une explication cohérente des premiers
instants de l'Univers que la théorie initiale n'était pas en mesure de décrire.
Elle apporte une solution à deux problèmes principaux qui ne sont rien d'autre
que des conséquences des équations de la relativité générale. Il y a tout
d'abord le problème dit de la platitude qui veut que l'Univers ait quasiment ou
exactement la densité requise pour avoir une courbure nulle. Schématiquement,
pendant l'inflation, la courbure de l'Univers s'annule très rapidement.
Puis,
il y a le problème de l'horizon qui soulève le paradoxe de l'homogénéité d'un
Univers constitué de zones causalement déconnectées remplies d'un même fond
diffus cosmologique.
Enfin,
l'inflation sert aussi de point d'ancrage à la théorie
des multivers ou
univers bulles (Andreï
Linde, célèbre chercheur russe, emploie même le terme de mousse
d'univers) créés de façon continue par des processus inflationnaires sans début
ni fin...
Ce qui
est sûr, c'est que l'amélioration des techniques de détection des ondes
gravitationnelles et les nouveaux projets instrumentaux, qui verront le jour
dans les prochaines années, font que l'inflation pourra bientôt être soumise à
de nouveaux tests observationnels : l'idée sera en effet la détection directe ou
indirecte d'un spectre unique d'ondes gravitationnelles produites durant la
phase inflationnaire et présentes dans tout l'Univers.
En résumé, le modèle cosmologique standard actuel semble ne pas
pouvoir se passer d'une
phase inflationnaire précédent ce que l'on appelle la phase chaude du Big
Bang (voir encadré).
Il intègre la notion
de matière noire et
d'énergie sombre en supposant une constante cosmologique non nulle, notée
traditionnellement L.
Sa formulation date de 1995 et elle est due à
Jeremy Ostriker et Paul
Steinhardt : on parle alors de modèle CDM (CDM pour Cold Dark Matter). Il
est corroboré par trois observations principales que sont :
l'homogénéité du fond diffus
cosmologique,
l'abondance relative des différents
éléments chimiques présents dans l'Univers et,
bien sûr, l'expansion de l'Univers.
Dans ce modèle, l'histoire de l'Univers post-inflationnaire peut
se scinder en trois phases d'expansion, distinctes d'un point de vue
thermodynamique :
une première phase pendant laquelle
l'Univers est dominé par
l'énergie du rayonnement,
une deuxième dominée par l'énergie
associée à la matière
baryonique et
enfin, une troisième, celle dans
laquelle nous sommes, dominée par
l'énergie sombre.
En 1998, une autre observation, que l'on peut qualifier
d'historique, et concernant les
supernovæ de type Ia
marqua un tournant important dans la cosmologie moderne et conforta ce modèle.
Les supernovæ de ce type sont couramment utilisées comme étalon de distance :
or, il s'est avéré que les plus éloignées d'entre elles étaient moins lumineuses
et situées à une distance plus grande que ce qui était prévu par la théorie. La
seule explication plausible dans le cadre du modèle standard fut que l'Univers
est en expansion
accélérée depuis plusieurs milliards d'années ! Cette observation appuie
donc aujourd'hui l'idée d'une constante cosmologique non nulle et d'une énergie
sombre dominante agissant comme une force répulsive à l'échelle de l'Univers.
Comme nous l'avons vu, un modèle cosmologique se doit d'expliquer
les observations que l'on peut faire aujourd'hui de notre Univers, tout en
proposant un scénario historique plausible et, évidemment, tout en se rattachant
aux connaissances physiques que l'on a du contenu de l'Univers.
Nous allons essayer à présent de voir quelles sont ces
observations et, surtout, quelles sont leurs limite
Les observations astronomiques ont ceci de particulier que les
informations que l'on perçoit des objets que l'on veut étudier sont toujours
relatives au passé de ces derniers: en d'autres termes, la finitude de la
vitesse de la lumière fait que, selon la formule consacrée, plus on regarde
loin, plus on regarde tôt dans le passé. Il est équivalent de dire que les
seules informations sur le passé lointain de l'Univers sont fournies par des
objets spatialement très éloignés de notre position actuelle.
Si l'on a pris conscience des échelles de distances cosmologiques
uniquement à partir des années 1920-1930, une vraie avancée, dans les
observations, a eu lieu dans les années soixante lorsque de nombreux
instruments, équipés de technologies nouvelles, ont permis peu à peu de sonder
l'Univers dans toutes les gammes de fréquence du spectre électromagnétique
allant du domaine radio au rayonnement gamma.
De nos jours, le nombre de données observationnelles est
d'ailleurs tel que les scientifiques ont souvent du mal à analyser et à
interpréter tout ce que leurs instruments ont enregistré. L'avantage est que les
modèles théoriques peuvent plus rapidement qu'auparavant être mis à l'épreuve
des observations et, le cas échéant, être mis en défaut.
Mais quelles sont les
principales observations ?
1 -
L'isotropie - Tout
d'abord, ce qui est frappant est que, quelle que soit la direction dans laquelle
on regarde l'Univers, la distribution spatiale et la nature des objets qu'il
contient semblent être les mêmes. Cette isotropie se retrouve, comme nous
l'avons déjà évoqué, dans le fond diffus cosmologique dont les variations
relatives de température sont inférieures à 10-4 . Ce fait constitue
un argument solide quant à l'hypothèse d'un Univers homogène et isotrope aux
échelles cosmologiques et donc à l'utilisation de la métrique de
Friedmann-Lemaître.
2
– L'abondance relative des
éléments chimiques (voir aussi l'encadré) : la nucléosynthèse primordiale
est la synthèse des éléments chimiques qui a suivi la période inflationnaire.
C'est un des arguments les plus forts appuyant la théorie du Big Bang. Elle
commence entre 1 et 2 secondes après le Big Bang lorsque la température de
l'Univers descend en-dessous du MeV et elle ne devient vraiment efficace qu'à
partir de la troisième seconde. Le deutérium, constitué d'un proton et d'un
neutron se forme très tôt, mais cet isotope de l'hydrogène est également
rapidement détruit après la nucléosynthèse primordiale : c'est pour cette raison
que la détermination de son abondance requiert d'observer des nuages de matière
possédant des redshifts élevés tout en étant sur la même ligne de visée que des
quasars encore plus lointains dont ils absorbent la lumière. Bien que difficile,
ces observations ont conduit à une détermination précise de son abondance
primitive relative qui s'élève à 10-5 (autrement dit, il y a 105
plus d'hydrogène que de deutérium dans l'Univers primordial). Un autre élément,
l'hélium 4 est lui beaucoup plus abondant. Comme sa production a continué tout
au long de l'histoire de l'Univers, essentiellement au sein des étoiles
lorsqu'elles sont dans la séquence principale, son abondance primitive, égale à
environ 25 %, a été déduite d'observations de régions dite HII, c'est-à-dire
constituées principalement par de l'hydrogène ionisé, qui sont situées dans des
galaxies bleues compactes. L'abondance du lithium primitif est quant à elle
déduite d'observations d'étoiles ayant une faible métallicité et situées en
périphérie de notre Galaxie, dans son halo. La raison est la suivante ; on
suppose simplement que leur surface n'est pas polluée par du lithium produit par
d'autres étoiles ayant évoluées en supernovæ. Cependant, les résultats semblent
montrer un désaccord manifeste entre l'abondance mesurée et celle prédite par le
modèle théorique de la nucléosynthèse primordiale suite aux observations du fond
diffus cosmologique. Il n'existe actuellement aucune solution à la différence
observée et cela reste donc un problème inexpliqué dans le modèle standard qui
est désormais connus sous le nom de problème du lithium.
3 -
Les distances et les âges
des objets : pour une étoile relativement proche – par exemple - la
distance peut facilement être évaluée directement par la méthode de la
parallaxe. En revanche, cette méthode ne fonctionne plus dès que les objets sont
situés plus loin, typiquement au-delà de 200 années-lumière : on dispose alors
d'un certain nombre d'étalons qui permettent de déduire la distance de façon
indirecte. On peut citer les étoiles variables céphéides, les supernovae de type
Ia ou les supergéantes rouges les plus brillantes. Ces mesures sont parfois
appuyées par des relations du type distance-luminosité pour des amas globulaires
ou des nébuleuses planétaires ou bien, on utilise des relations du type
Tully-Fisher pour certaines galaxies. Le problème dans cette démarche est que
les objets lointains sont difficilement observables en ce sens que leur lumière,
en traversant le milieu intergalactique, peut-être plus ou moins absorbée, ou
encore déviée par des effets de lentilles gravitationnelles, ce qui fausse
l'estimation de leur distance. Même l'émission intrinsèque de ces objets peut
être anisotrope ce qui signifie que deux objets identiques situés au même
endroit peuvent avoir des luminosités complètement différentes suivant l'angle
sous lequel on les observe, et même, ils peuvent très bien ne pas présenter le
même spectre électromagnétique. Le redshift est également un indicateur de
distance, mais il est difficile de distinguer ce qui est dû à un mouvement
intrinsèque de l'objet observé (redshift cinématique) et ce qui est dû à son
éloignement (redshift cosmologique). Il reste que l'importance de la mesure des
distances est cruciale notamment pour déterminer la constante de Hubble,
c'est-à-dire le taux d'expansion actuel de l'Univers. Cette constante permet
d'estimer la taille de l'Univers observable ainsi que son âge. Elle est donc
tout à fait cruciale dans le modèle cosmologique standard. L'âge de l'Univers
que l'on obtient aujourd'hui (13,8 milliards d'années) fournit ainsi une limite
haute de l'âge des objets que l'on peut voir dans l'Univers. L'observation de
certains objets lointains (ayant des redshifts élevés) a pu confirmer que leur
âge était bien inférieur à celui de l'Univers, même si certains objets ont pu
faire l'objet de controverses comme – par exemple – le quasar APM 08279+5255 ou,
plus récemment, certaines galaxies très lointaines.
4
– L'accélération de
l'expansion de l'Univers : Nous avons vu que l'observation des courbes de
lumière de supernovæ de type Ia dans des galaxies lointaines font d'elles ce que
l'on appelle des chandelles standards. Plus précisément, la corrélation qui
existe entre leur pic de luminosité et la décroissance de leur courbe de lumière
permet de déterminer leur distance. De façon inattendue, cela a permis de
montrer que l'Univers est en expansion accélérée et que cela implique dans le
modèle standard que la constante cosmologique est non nulle et voisine de 0,7.
Même si la nature de cette accélération n'est pas encore claire, il semble
qu'elle concerne les objets jusqu'à des redshifts de l'ordre de 0,33 : autrement
dit, l'expansion de l'Univers s'accélère, mais seulement depuis quelques
milliards d'années. L'hypothèse qui semble le mieux s'adapter aux observations
est celle d'un champ scalaire de nature inconnue ayant une pression effective
négative : ce champ a été appelée énergie sombre ou noire et contient (comme
l'indique la valeur 0,7 de la constante cosmologique) près de 70% (69,2% d'après
les mesures les plus récentes) de l'énergie totale de l'Univers. La
détermination de sa nature est fondamentale aussi bien pour le modèle standard
cosmologique que pour la physique des particules.
5 –
La cinématique de la matière
visible : les galaxies semblent toutes regroupées en amas et superamas
donnant l'impression de vastes murs, mais aussi de grands vides intergalactiques
qui sont des zones immenses presque dépourvues de galaxies. C'est le mouvement
des galaxies à l'intérieur même d'un amas ainsi que le mouvement des étoiles en
périphérie d'une galaxie donnée qui montrent le mieux que les caractéristiques
du champ gravitationnel ne sont pas celles que l'on attendrait si l'on ne
considérait que la matière visible. Ainsi – par exemple – on observe que les
étoiles conservent des vitesses orbitales bien trop élevées lorsque l'on
s'éloigne du centre galactique et même de la partie visible de la galaxie qui
les abrite. Cela ne peut se produire que si la quantité de matière à l'intérieur
de l'orbite de ces étoiles continue de croître lorsque l'on s'éloigne du centre.
C'est de ces observations qu'est née la nécessité d'introduire de la matière
noire entourant chaque galaxie et modifiant, par conséquent, toutes les
interactions gravitationnelles (voir l'encadré). La quantité de matière noire
est loin d'être négligeable puisqu'elle dépasse de loin celle de la matière
visible : en termes d'énergie, et d'après les derniers résultats de la mission
Planck, elle représente près de 26% de l'énergie totale de l'Univers alors que
la proportion de matière ordinaire plafonne juste en-dessous des 5%.
6 –
Le fond diffus cosmologique
: cette émission électromagnétique perçue aujourd'hui dans le domaine des
micro-ondes a été émise lorsque l'Univers devint brusquement transparent
c'est-à-dire lorsque la matière et le rayonnement se sont découplés. Il n'était
alors âgé que de 380000 ans environ et sa température était voisine des 4000 K.
Son spectre, identique à celui d'un corps noir, n'est que le reflet de
l'équilibre entre les photons et la matière qui a précédé son émission.
L'expansion de l'Univers, de plus d'un facteur 1000 depuis cette époque, a fait
qu'il s'est refroidi jusqu'à ce que le rayonnement corresponde à celui d'un
corps noir de seulement 2,75 K. Les très faibles anisotropies que l'on observe
dans son spectre aujourd'hui constituent les traces des faibles inhomogénéités
qui existaient dans l'Univers primordial et qui sont à l'origine des grandes
structures. De même, l'étude de la polarisation du fond diffus cosmologique
donne non seulement des indications précises sur les ondes gravitationnelles
émises dans la période inflationnaire, mais elle permet aussi de déterminer
l'âge du début de la période de réionisation - ou âge d'apparition des premières
générations d'étoiles (population III) constituées uniquement des premiers
éléments légers (hydrogène, hélium et quelques traces de lithium). C'est ainsi
que des observations de WMAP, on a pu déduire que cette période, qui marque
également la fin de la période dite des âges sombres de l'Univers, a commencé
autour du redshift z=17, c'est-à-dire très tôt dans l'histoire de l'Univers.
Notons que c'est ce résultat qui a rendu peu réaliste ou peu probable les
modèles utilisant de la matière noire chaude. Ainsi, l'importance des
informations contenues dans le fond diffus cosmologique est telle que son
observation est cruciale dans la détermination des paramètres cosmologiques
utilisés dans le modèle standard qui permettent de déterminer les différentes
phases conduisant à l'Univers que l'on connaît aujourd'hui.
En
conclusion, le modèle standard cosmologique est un modèle permettant
d'expliquer relativement simplement l'ensemble des observations dont on dispose
actuellement, depuis la dynamique des galaxies jusqu'à la formation des grandes
structures en passant par l'abondance relative des différents éléments et
l'isotropie du fond diffus cosmologique.
Néanmoins, il souffre de nombreuses zones d'ombre qu'il est
absolument nécessaire d'éclaircir : parmi elles, la nature et les propriétés
physiques de ce que l'on a appelé matière noire est un point crucial qu'il faut
étudier, le problème de la constante cosmologique, ou l'introduction d'une
énergie sombre dominant complètement le contenu énergétique de l'Univers, en est
un autre.
Comme nous l'avons vu, il y a également le
problème du lithium
et de son abondance primitive qui ne semble pas correspondre aux observations.
Mais le modèle standard cosmologique souffre également des incertitudes
concernant la période inflationnaire, sa connexion avec la période chaude de
l'Univers et la naissance des grandes structures.
Plus près encore de l'instant même du Big Bang, le problème est
alors celui de la physique dans son ensemble, car il concerne les propriétés de
la matière à des échelles et à des énergies qui vont au-delà des domaines
d'application des deux principales théories physiques que l'on connaît, la
théorie quantique et la théorie de la relativité générale.
Il est alors nécessaire de faire appel à une théorie plus
générale qui engloberait ces deux théories, comme il y a un siècle la théorie de
la gravitation de Newton fût absorbée par celle d'Einstein.
Plusieurs solutions semblent exister qui ont fait l'objet
d'intenses développements théoriques ces dernières décennies : parmi elles, on
peut citer les théories des cordes et des supercordes, et la gravité quantique à
boucles, même s'il reste à définir – par exemple – comment ces théories peuvent
conduire à une phase inflationnaire dans l'histoire de l'Univers.
De plus, les tests expérimentaux permettant de conclure à leur
validité nous font encore défaut et semblent parfois impossible à imaginer !
Enfin, une autre question importante qui surgit concerne les
valeurs des constantes fondamentales que l'on rencontre en physique comme, par
exemple, la constante de structure fine ou la constante gravitationnelle, dont
il a été prouvé qu'une infime variation annihilerait toute possibilité quant à
l'émergence des systèmes physiques complexes comme ceux que l'on rencontre en
chimie et en biologie.
Additif 1
: Petite histoire de la matière noire...
Tout commence en 1933 lorsqu’un astronome suisse du nom de
Fritz Zwicky
(1898-1974) se lance dans l’étude d’un petit groupe de sept galaxies situées
dans l’amas de la constellation de la Chevelure de Bérénice, ou plus simplement,
amas de Coma. Son idée était d’étudier le comportement dynamique des galaxies en
mesurant leurs vitesses et ceci, afin d’en déduire, grâce aux lois de Newton, la
masse totale de l’amas. Une fois cette masse déterminée, il souhaitait la
comparer à celle obtenue en se basant uniquement sur la matière qui était
visible, c’est-à-dire à la quantité de lumière reçue de cet amas. On obtenait en
quelque sorte une masse dite dynamique par la première méthode et une masse dite
lumineuse dans l’autre cas.
Quelle ne fut pas sa surprise lorsqu’il constata que les vitesses
observées étaient très élevées ! Pour éviter que l’amas ne se disloque et que
les galaxies ne se séparent, il était absolument nécessaire de considérer que sa
masse dynamique était énorme, plus de 400 fois la masse lumineuse que l’on
pouvait déduire de l’observation de l’amas !
Bien que ses conclusions étaient numériquement surestimées en
raison de l’utilisation d’une constante de Hubble bien trop élevée, Zwicky
n’avait pas tort pour autant sur la réalité du phénomène et, dans une
publication de 1937, il propose même la recherche de lentilles gravitationnelles
afin de sonder certains amas de galaxies.
Le caractère excentrique de Zwicky ne joua pas en sa faveur et sa
découverte fut accueillie fraîchement par la communauté scientifique de l’époque
qui doutait encore de la stabilité gravitationnelle des amas de galaxies.
Pourtant, en 1936, Sinclair Smith fit lui aussi le même type de
mesures, mais cette fois sur l’amas de la Vierge. Il aboutit aux mêmes
conclusions ! Trois ans plus tard, en 1939, Horace Babcock entreprend, quant à
lui, de mesurer la vitesse de rotation de la galaxie d’Andromède, la plus grande
voisine de la Voie Lactée et trouve une valeur trop élevée et qualifiée d’«
anormale ». L’histoire de ce problème semble alors s’arrêter, mais pendant vingt
ans, la théorie du Big Bang s’affine et la constante de Hubble devient plus
précise.
En 1959, Kahn et Woltjer font part de leurs mesures concernant
notre amas local de galaxies : celles-ci mettent en évidence une masse manquante
pour laquelle aucune explication n’est trouvée. Parallèlement et la même année,
Louise Volders observe que la vitesse de rotation des étoiles au sein de la
galaxie voisine M33 ne diminue pas avec la distance comme le prévoit les lois de
Newton et en supposant que toute la matière est concentrée dans les zones qui
émettent de la lumière.
L’idée de matière noire, ou sombre, commençait à intéresser un
nombre croissant de scientifiques. Citons les travaux de
Vera Rubin sur
les vitesses de rotation dans la galaxie d’Andromède, ou encore ceux de Ostriker
et Peebles qui démontrèrent dès 1973 que les disques galactiques sont instables
en l'absence d'un halo étendu de matière noire.
Qu’en est-il aujourd’hui ? Cette matière noire n’a toujours pas
été directement observée. Néanmoins, elle semblerait représenter plus de 90% de
la masse des galaxies et entourerait chaque galaxie d’un immense halo de forme
sphérique, seule configuration possible pour expliquer la stabilité des
structures visibles.
Récemment, il a même été observé une galaxie, nommée Dragonfly
44, dont la masse, comparable à celle de la Voie Lactée, est composée de 99,99%
de matière noire ! De nombreuses hypothèses ont été formulées quant à la nature
de cette matière noire, mais aucune n’a trouvé de preuves suffisantes. La
première hypothèse serait de considérer que la matière noire est composée de
tous les objets trop peu lumineux pour être observés avec nos instruments à
savoir, les naines brunes, les naines blanches, les étoiles à neutrons et les
trous noirs isolés.
Cette hypothèse semble fragile : en effet, le nombre de ces
objets invisibles devrait être beaucoup trop élevé. D’autres ont même suggéré
d’abandonner l’idée de la matière noire et de considérer plutôt une modification
de la loi de Newton à grande distance, mais sans succès…
La solution se trouve peut-être du côté de la physique des
particules.
Plusieurs indices observationnels récents ont montré que la
matière noire semble interagir très peu (en dehors de l'interaction
gravitationnelle), voire pas du tout, avec la matière baryonique ordinaire
(protons, neutrons).
Elle serait donc de nature différente, c'est-à-dire
non-baryonique. Aussi, il existe de nombreux modèles de matière noire que l'on
qualifiera tantôt de chaude, froide, tiède, floue, répulsive, annihilante,
instable ou encore, en auto-interaction forte...
Parmi ceux-ci, on peut citer deux principales théories : l’une
fait appel à de la matière noire dite chaude, c’est-à-dire à des particules
légères et relativistes (c'est-à-dire dont la vitesse est proche de celle de la
lumière). On pense alors bien évidemment aux neutrinos, particules
insaisissables ou presque, mais ces derniers ne semblent pas conduire à une
solution cosmologique satisfaisante.
L’autre théorie considère de la matière noire dite froide
c’est-à-dire composée de particules plus massives et plus lentes. Les candidats
hypothétiques les plus célèbres composant la matière noire froide sont les
WIMPs, signifiant Weakly Interacting Massive Particles, nom générique donné à
des particules issues des théories supersymétriques, mais aucune détection
directe n’a été effectuée à ce jour !
Ces deux théories se distinguent notamment dans ce qu’elles
impliquent dans l’histoire de l’Univers et, plus particulièrement, dans la
formation des grandes structures comme les amas et les superamas de galaxies peu
de temps après le Big Bang et sa phase inflationnaire.
La matière noire chaude conduit à la formation d’amas de galaxies
par fragmentation de superamas tandis que la matière noire froide favorise
plutôt, dans l’ordre, la formation de galaxies, puis d’amas et enfin de
superamas, et c'est ce dernier scénario que semble confirmer les données
récentes fournies par WMAP.
Il reste que la cosmologie d'aujourd'hui fournit des contraintes
observationnelles remarquables pour le modèle standard des particules, et que la
course pour déterminer la nature de la matière noire se joue également dans les
laboratoires.
Additif
2 : Zoom sur la période chaude du Big Bang
Dans le modèle standard cosmologique, cette période débute à la
fin de l'inflation sans que l'on connaisse vraiment les mécanismes de transition
entre ces deux phases distinctes. La température de l'Univers est alors
supérieure à 100 MeV (soit 1012 K), ce qui implique qu'il est
entièrement dominé, sur le plan énergétique, par des particules relativistes à
l'équilibre comme les électrons, les positrons, les neutrinos et bien sûr, les
photons. Les protons et les neutrons n'ont alors qu'un rôle négligeable.
Lorsqu'au bout de quelques secondes l'Univers s'est suffisamment
refroidi (T<1 MeV soit 1010
K) les premiers noyaux atomiques de deutérium, d'hélium et de lithium se forment
à partir des nucléons (protons et neutrons).
Les neutrinos se découplent tandis les neutrons libres
(instables) se transforment en protons.
Mais la température est encore bien trop haute pour que des
atomes puissent de former : les photons, les électrons et les noyaux atomiques
légers sont donc en équilibre thermodynamique.
Les électrons interagissent fortement avec les photons via des
processus de diffusion Compton ce qui rend l'Univers complètement opaque aux
photons.
Au bout de 380.000 ans - ce qui correspond à une redshift
d'environ 1100 - l'expansion de l'Univers a fait baisser sa température
suffisamment (environ 4000 K) pour que les noyaux atomiques capturent des
électrons, c'est-à-dire pour que des
atomes se
forment.
Les interactions photons-électrons libres disparaissent alors, ce
qui a pour conséquence de rendre l'Univers transparent aux photons.
Ces premiers photons, libérés de toute interaction, ont un
spectre énergétique identique à celui d'un corps noir qui aurait la même
température que l'Univers.
C'est ce qui marque la naissance du fond diffus cosmologique que
l'on observe aujourd'hui et qui est constitué de ces photons que l'expansion de
l'Univers a refroidi au cours des presque 14 milliards d'années qui ont suivi
cette période.
C'est également à ce moment-là que la transition s'opère entre un
Univers dominé par le rayonnement et un Univers dominé par la matière.
Denis Gialis.
LES
EXOPLANÈTES : GLIESE 436b NE TOURNE VRAIMENT PAS ROND !
(02/01/2018)
On se souvient peut être qu’en 2004, c’est l’équipe de Butler et
Marcy qui avait découvert une planète tournant autour de l’étoile Gliese 436
(naine rouge). C’était une petite géante gazeuse (mini Neptune) avec une orbite
elliptique, ce qui était bizarre pour une planète aussi proche de son étoile.
En 2005, on découvre qu’elle est entourée d’un nuage d’Hydrogène,
bref qu’elle semble « s’évaporer », son atmosphère est progressivement
« soufflée » par les puissants rayonnements UV et X de son étoile hôte.
De plus elle est très près de son étoile (4 millions de km,
période 2,6 jours)
Mais les études de cette bizarre planète ont continué grâce à nos
amis de l’Université et de l’Observatoire de Genève, l’UNIGE.
Illustration : vue polaire de Gliese 436b. NASA/ESA.
En effet, une équipe internationale composée de scientifiques
français et suisses, et menée par des chercheurs de UNIGE, ont mis au jour
une orbite polaire
de cette planète. Ce qui est contraire à la normale, généralement les planètes
(issues de la formation d’un disque planétaire) tournent approximativement dans
le plan équatorial de l’étoile et dans le sens de rotation de celle-ci.
Le système de Gliese 436 est totalement irrationnel !
Tout ceci a fait l’objet d’un article dans
la revue Nature
dans la revue
Astronomy
and Astrophysics et d’un
communiqué de presse de l’UNIGE que voici :
Des astronomes de
l’Université de Genève (UNIGE) membres du Pôle National de Recherche PlanetS, en
collaboration avec les universités de Berne, Warwick, Grenoble Alpes et
l’Institut d’astrophysique de Paris, ont braqué le télescope spatial Hubble sur
une exoplanète qui avait déjà été observée perdant son atmosphère. Celle-ci
forme un immense nuage d’hydrogène, donnant à la planète l’aspect d’une comète
géante. Cependant, les précédentes observations, datant de 2015, n’avaient pu
couvrir l’ensemble du nuage, dont la forme avait été prédite par des simulations
numériques. Grâce à de nouvelles observations, les chercheurs viennent enfin de
confirmer leur prédiction.
Les résultats sont à lire
dans la revue Astronomy & Astrophysics.
L’exoplanète GJ 436b, d’une
taille semblable à Neptune (soit environ quatre fois la Terre), révèle une
immense chevelure de gaz lorsqu’on la regarde à travers des lunettes
ultraviolettes. Ce phénomène, découvert en 2015 par des astronomes de
l’Observatoire de la Faculté des sciences de l’UNIGE, serait dû à la proximité
entre la planète et son étoile, dont elle fait le tour en moins de trois jours.
En raison de l’irradiation
intense à laquelle elle est soumise,
la planète perd une
partie de son atmosphère d’hydrogène. Cette atmosphère perdue forme un
énorme nuage de gaz autour de la planète et absorbe le rayonnement ultraviolet
de l’étoile.
C’est pourquoi le nuage
n’est visible qu’avec l’œil sensible aux ultraviolets du télescope spatial
Hubble.
«Nous avons été surpris par
ce phénomène, d’une telle ampleur que nos premières observations n’avaient pu
couvrir l’ensemble du nuage lors de son passage devant l’étoile», révèle David
Ehrenreich, professeur associé à l’UNIGE et responsable du projet européen FOUR
ACES, à l’origine de cette étude. Aussi, l’équipe avait-elle extrapolé les
données collectées à l’aide d’un modèle numérique afin de prédire quelle devait
être la forme exacte du nuage. Le résultat des simulations montrait la planète
entourée d’une chevelure semblable à celle d’une comète, se prolongeant sur des
dizaines de millions de kilomètres.
L’équipe dirigée par
Baptiste Lavie, doctorant PlanetS à l’UNIGE, a pointé à nouveau Hubble sur GJ
436b.
Et les résultats confirment
en tous points les prédictions des chercheurs : «Je me faisais des cheveux
blancs à l’idée d’analyser ces nouvelles observations», indique Baptiste Lavie.
«C’est donc une grande satisfaction de voir que le panache d’hydrogène
s’échappant de la planète est bien là, conforme aux prédictions, car nous
comprenons à présent comment il se forme», souffle-t-il.
En effet, les données
injectés dans le modèle numérique expliquent correctement les observations :
«Nous avons même pris en compte la pression que la lumière de l’étoile exerce
sur les atomes d’hydrogène qui s’échappent de la planète !» précise Vincent
Bourrier, astronome à l’UNIGE, qui a développé le modèle numérique.
La résolution de l’énigme
posée par ce phénomène exceptionnel va maintenant permettre aux chercheurs de
comprendre comment il affecte d’autres exoplanètes, certaines encore plus
irradiées que GJ 436b.
«Nous nous attendons maintenant à de
nouvelles surprises», sourit Baptiste Lavie. »
On espère donc en savoir plus sur le système planétaire éventuel
de Gliese 436.
Cette inclinaison orbitale aussi anormale est peut être le signe
de la présence d’une autre planète massive, style Jupiter, située plus loin.
La chasse continue donc !
Une
vidéo explicative :
POUR ALLER PLUS LOIN :
L’exoplanète qui ne tournait pas
rond, article de l’INSU.
Une exoplanète «chevelue» orbite de façon étrange autour de son étoile,
article du Figaro.
C'est sûr : la planète chevelue existe !
de Sciences et avenir.
Orbital misalignment of
the Neptune-mass exoplanet GJ 436b with the spin of its cool star article de
Nature
Hubble sees atmosphere
being stripped from Neptune-sized exoplanet
BIZARRE : UNE ÉTOILE QUI NE VOULAIT PAS MOURIR !
(02/01/2018)
Il y a des supernovæ qui sont bizarres, comme par exemple
iPTF14hls (acronyme de Intermediate Palomar Transient Factory) ; celle-ci est
déjà inhabituelle car elle est de type II-P (P pour plateau, car sa courbe de
luminosité présente un plateau), les autres
type II, sont à priori de type II-L. Elle a été découverte en 2014, et sa
particularité est que sa
courbe de lumière s’est prolongée sur plus de 600 jours, alors que
normalement en max 2 à 3 mois, il ne reste plus rien.
Les astronomes pensent que cette SN a explosé…une dizaine de fois
depuis plus de 50 ans. On a même trouvé des traces de celle-ci jusqu’‘en 1954,
date à laquelle s’était produite cette explosion.
Illustration : courbe de luminosité sur les deux dernières
années.
D’après Arcavi et al. 2017, Nature. Crédit: LCO/S. Wilkinson.
Il semble donc bien que son étoile refuse absolument de mourir et
de disparaitre.
Une SN de type II laisse généralement une étoile à neutrons ou un
Trou Noir suivant sa masse.
Cela pose un problème aux scientifiques qui n’ont pas trouvé
d’explication satisfaisante pour le moment, même si certains font appel à de
l’antimatière
produite au sein de l’étoile !!
Elle ferait partie d’une toute nouvelle sorte de SN que l’on
appelle SN à production de paires (pulsational pair instability supernova). Elle
deviendrait si chaude en son cœur que l’énergie se convertirait en matière et
antimatière.
C’est du moins la théorie
d’Andy Howell de Las Cumbres (au N de Los Angeles en Californie) que l’on
connait bien.
Dans notre cas, l’étoile aurait au moins 50 masses solaires.
On rappelle qu’une supernova de type II comme son nom ne
l’indique pas correspond à l’effondrement d’UNE étoile très massive (>10 masses
solaires) alors que le type I correspond à DEUX étoiles dont l’une absorbe
l’autre jusqu’à une certaine limite.
Bref une histoire à suivre !
Une vidéo explicative :
POUR ALLER PLUS LOIN :
L'étoile qui ne veut pas mourir ! Article de Sciences et Avenir.
Antimatière : l'étoile qui ne voulait pas mourir de Futura Sciences
Energetic eruptions leading to a
peculiar hydrogen-rich explosion of a massive star, article original de
Nature
Las Cumbres Astronomers Discover a Star That Would Not Die
JUNO :.DES DÉTAILS SUR LA
GRANDE TACHE ROUGE.
(02/01/2018)
En juillet dernier (2017) la sonde Juno a survolé pour la
première fois de près la grande tache rouge de Jupiter.
On devait répondre à certaines questions comme : jusqu’à quelle
profondeur s’étend-elle ? 300km comme on le pense ?
Une telle analyse ne pouvait se faire qu’avec un instrument
dédié, le MWR (Juno's
Microwave Radiometer) le radiomètre en micro-ondes.
Il est capable de percer l’épaisseur des nuages et de faire une
analyse par « tranches » de cet ouragan.
La grande tache rouge est un ovale de couleur orange/rouge de
l’hémisphère Sud de Jupiter, il tourne dans le sens contraire des aiguilles
d’une montre (CCW) et fait approx 16.000km de large. Il a été observé depuis que
les lunettes astronomiques existent (Galilée).
Juno a découvert que cette tache a des racines plus profondes que
100 fois la profondeur des océans terrestres et qu’elle plus chaude à sa base
qu’à son sommet.
Ce sont ces variations de températures qui rendent compte des
violents vents vus à la surface.
Photo : Juno/NASA/JPL/SwRI
Clic sur la photo pour avoir l’animation gif
Depuis que l’on étudie cette tache, il semble qu’elle diminue
progressivement en taille, nous l’avions évoqué
dans ces colonnes.
Juno a aussi détecté une
nouvelle région de
radiations, juste au-dessus de l’atmosphère de Jupiter, près de l’équateur.
Cette zone contient des ions H, O et S très énergétiques se
déplaçant à une vitesse proche de celle de la lumière.
Les scientifiques ont été surpris de trouver une zone de
radiations aussi proche de la planète.
Cette zone a été détectée grâce au JEDI (Jupiter Energetic
Particle Detector Instrument), rien à voir avec Star Wars, c’est un détecteur de
particules énergétiques.
On voit sur cette image les données des 6 canaux du MWR, ces
données ont été collectées pendant l’orbite intitulée périjove 7, c’est pendant
cette orbite que Juno est passé au-dessus de la grande tache rouge.
La couche supérieure est en lumière visible en provenance de la
Junocam. Les autres, plus on pénètre plus la longueur d’onde des micro-ondes est
courte.
Crédit : NASA/JPL-Caltech/SwRI
Une
vidéo explicative :
POUR ALLER PLUS LOIN :
NASA's Juno Probes the Depths of Jupiter's Great Red Spot, article de la
NASA
https://www.jpl.nasa.gov/spaceimages/details.php?id=PIA22178
Jupiter Blues
par le JPL
Les premières images de la Grande Tache rouge par Juno, article de Sciences
et Avenir.
La mission Juno à la NASA.
Le site de la mission
Juno au SwRI. Le mieux !
Dossier de
presse de la mission et du lancement.
Le site de la mission à la NASA.
GALILEO :.ARIANE 5 LANCE 4 NOUVEAUX SATELLITES (19 À
22). (02/01/2018)
Ariane
5 lance quatre nouveaux satellites Galileo
Nouveau lancement Galileo : le système sera bientôt complet,
extrait du communiqué de l’ESA :
L’Europe compte désormais quatre satellites de navigation Galileo
supplémentaires, mis en orbite par une Ariane 5. Il suffit donc d’un seul autre
lancement pour que la constellation Galileo soit complète et puisse fournir une
couverture mondiale.
Le lanceur Ariane 5, exploité par Arianespace dans le cadre d’un
contrat avec l’ESA, a quitté le port spatial de l’Europe à Kourou (Guyane
française) à 18h36 TU (19h36 heure de Paris, 15h36 heure locale), emportant les
satellites Galileo 19 à 22.
Les deux premiers ont été mis en orbite 3 heures et 36 minutes
après le décollage, les deux derniers 20 minutes plus tard. Ils pèsent chacun
715 kg.
C’est le dispositif d’éjection des satellites, placé en haut de
l’étage supérieur d’Ariane 5, qui les a largués sur leur orbite cible, à 22.922
km d’altitude.
Dans les jours qui viennent, ils seront mis à poste sur leur
orbite finale et l’Agence du GNSS européen (GSA) procèdera à une phase d’essais
de 6 mois destinée à vérifier qu’ils sont prêts à rejoindre la constellation
opérationnelle.
Illustration : les 4 satellites n° 19 à 22 montés sous la coiffe d’Ariane.
Crédit : ESA–Pierre Carril, 2017
Cette mission
porte à 22 le
nombre de satellites Galileo en orbite.
Les services initiaux ont débuté il y a près d’un an, le 15
décembre 2016.
« C’est une nouvelle grande réussite à laquelle nous venons
d’assister, avant-dernière étape de l’achèvement de la constellation » constate
Jan Wörner, Directeur général de l’ESA.
« Ce succès est aussi celui de nos partenaires industriels OHB
(DE) et SSTL (GB) pour ce qui est des satellites, de Thales-Alenia-Space (FR,
IT) et d’Airbus Defense and Space (GB, FR) pour le segment sol, ainsi que de
tous leurs sous-traitants de l’Europe entière ; l’Europe dispose en effet
désormais d’un système mondial de navigation par satellite aux performances
remarquables ».
Paul Verhoef, Directeur de la Navigation à l’ESA, ajoute : «
L’ESA est l’agent de conception et d’approvisionnement ainsi que l’ingénieur
système de Galileo pour le compte de la Commission européenne.
C’est l’Agence du GNSS européen (GSA) qui assure, depuis juillet
dernier, la supervision du fonctionnement de ce système devenu réellement
opérationnel ».
« En conséquence, la GSA a pris le contrôle des quatre satellites
dès leur séparation du lanceur, l’ESA conservant un rôle consultatif. Ce
partenariat fructueux se poursuivra lors du prochain lancement Galileo, qui sera
assuré par une Ariane 5 à la mi-2018 ».
« D’ici là, l’ESA conduira également avec la Commission
européenne et la GSA des travaux spécifiques de recherche, de développement et
de conception système en vue de l’approvisionnement de la deuxième génération de
satellites Galileo, et de l’étude d’autres technologies de navigation ».
Le lancement de l’an prochain permettra d’achever la
constellation Galileo qui
comportera en tout 24
satellites et deux unités de secours.
L’année 2017 s’est parfaitement conclue pour Ariane 5, qui améliore son propre
record grâce à ce 82e succès consécutif depuis 2003
Ariane
5 ES lancera encore quatre satellites Galileo en 2018, avant de passer le relais
à Ariane 6.
En
effet, deux Ariane 62, la version à deux boosters de la nouvelle Ariane 6
équipée du moteur ré-allumable Vinci, mettront en orbite quatre nouveaux
satellites entre fin 2020 et mi-2021. Cette décision a fait l’objet d’un
contrat, signé en septembre dernier entre Arianespace et l’ESA, pour le compte
de la Commission Européenne (DG GROW) et de l’Union européenne.
À
propos de Galileo
Galileo est le système civil de navigation par satellite à couverture mondiale
de l’Europe. Il permettra à ses utilisateurs du monde entier de connaître leur
position exacte dans le temps et l’espace de manière très précise et fiable.
Une
fois complet, le système consistera en 24 satellites opérationnels et
l’infrastructure au sol associée pour fournir des services de localisation,
navigation et synchronisation.
Le
programme Galileo appartient à l’UE, qui le finance. La Commission européenne,
en sa qualité de responsable de l’ensemble du programme, assure la gestion et la
supervision de la mise en œuvre de toutes les activités afférentes.
Le
déploiement de Galileo, la conception et le développement de systèmes de
nouvelle génération ainsi que le développement technique de l’infrastructure
sont confiés à l’ESA. Les phases de définition, de développement et de
validation en orbite (IOV) du programme Galileo ont été conduites par l’ESA et
financées conjointement par l’ESA et la Commission européenne.
La GSA
assure la promotion et la sécurité de Galileo. Depuis 2017, elle est également
responsable de l’exploitation de Galileo et de la fourniture des services
correspondants
POUR ALLER PLUS LOIN :
Nouveau lancement Galileo le système sera bientôt complet par l’ESA.
CÉRÈS :.UNE EXPLICATION POUR LES NOMBREUX BRIGHT SPOTS.
(02/01/2018)
Depuis son arrivée en Mars 2015, la sonde Dawn de la NASA a
examiné Cérès sous toutes ses coutures.
Au lieu d’être une planète naine bien sombre et bien calme, on
s’aperçoit de plus en plus de son activité.
On a détecté plus de
300 points brillants
(les bright spots) à sa surface, on en voit une grande partie sur la carte
ci-dessous.
Position de ces bright
spots sur Cérès (on les nomme officiellement de leur nom latin faculae).
Les scientifiques les
ont divisées en 4 catégories (voir plus loin dans le texte)
Crédit:
NASA/JPL-Caltech/UCLA/MPS/DLR/IDA/PSI/Caltech
Ces zones brillantes qui ont tant étonné les scientifiques, sont
en fait la révélation
d’une activité passée (et peut être encore présente) de l’action d’un
océan interne situé sous la surface.
C’est en tout cas ce que viennent d’annoncer des astronomes du
Caltech, et notamment Carol Raymond, une des PI de la mission, lors de la
dernière réunion de l’AGU (American Geographical Union) en décembre dernier.
Ces bright spots (dépôts brillants) seraient répartis en 4
catégories :
·
Le premier groupe comprendrait les zones les plus
réfléchissantes, celles que l’on trouve au fond des cratères (en rouge sur la
carte ci-dessus).
L’exemple typique est le
cratère Occator bien connu (près de 100km de diamètre) qui contient deux
zones brillantes : Cerealia Facula
au centre, c’est le pic central large de 10km, et Vinalia facula sur le côté.
Le matériau constituant ces points brillants est composé de minéraux riches en
sels, probablement mélangés avec de l’eau dans le passé (sorte de saumur).
Cratère Occator : crédit : NASA/JPL-Caltech/UCLA/MPS/DLR/IDA
Occator : Dieu romain du hersage !
Une
autre belle vue.
·
La seconde catégorie, correspond au matériau
brillant que l’on trouve sur
les bords des cratères
et s’épanchant vers le fond de ceux-ci. Ce sont des impacts qui ont exposé ainsi
le matériau brillant situé sous la surface. En vert sur la carte.
·
Le troisième groupe comprend le
matériau éjecté
lors de la formation de cratères. En bleu sur la carte.
·
La dernière catégorie est uniquement consacrée à
un seul phénomène exceptionnel : la
montagne brillante
Ahuna Mons. On peut voir sur cette photo une vue d’ensemble de ce mont avec
les
alentours en perspective. La même en
topographie couleurs. On pense très fortement que ce phénomène provient de
cryovolcanisme formé par l’accumulation de glace sur ses flancs.
Au cours du temps, le matériau brillant s’est mélangé avec la
croute de Cérès pour donner un matériau de couleur grise dans la plupart des
endroits. Cette matière brillante est composée de différents sels provenant de
l’intérieur et transportés par l’activité de la planète vers la surface, donnant
ainsi ces points brillants.
Occator serait un peu exceptionnel, dans le sens que l’on pense
qu’il était dans le passé situé sous un réservoir d’eau salée. Le pic central
aurait pu être recouvert de ce dépôt salé lorsque le liquide a remonté en
surface dû à des émanations de gaz lors de l’arrivée en surface (effet champagne
d’après nos amis US !).
Une autre possibilité est l’impact d’un corps important
(astéroïde ?) qui a fait remonter la matière du sous-sol.
Bref tous ces indices semblent aller tous dans la même
direction : Cérès avait
(et a peut-être) toujours un océan interne d’eau salée (plus de la
saumure que de l’eau de mer !).
Une vidéo de la NASA qui explique tout :
Une autre plus courte et claire aussi :
https://www.youtube.com/watch?v=HnukjzYLljU
POUR ALLER PLUS LOIN :
The formation and evolution of
bright spots on Ceres, article de base correspondant à cette
nouvelle.
Bright Areas on Ceres Suggest
Geologic Activity,
article de la NASA
Dwarf Planet Ceres' Bright Spots Suggest an Ancient Ocean de Space.com
Site de la mission au
JPL.
Site de la mission à la NASA.
ARIANE 6 :.DU NOUVEAU : DES MOTEURS ET DES DÉCISIONS.
(02/01/2018)
Nous avons souvent évoqué la nouvelle
génération d’Ariane, Ariane 6,
dans ces colonnes.
De plus en plus sous pression à cause des nouveaux concurrents
privés américains (comme SpaceX ou Orbital ATK ou …), Arianespace (maintenant
ArianeGroup : Airbus et Safran à 50-50) poursuit le lancement en production de
son nouveau lanceur, Ariane 62 (avec deux boosters) de la série Ariane 6.
Vue d’artiste d’une Ariane 62 (crédit ASL)
On vise un lancement depuis Kourou pour la mi-Juillet 2020.
Mais il faut aussi utiliser les Ariane 5 restantes, aussi en
2020, il n’y aura qu’un lancement Ariane 6 et quatre lancements Ariane 5.
L’année suivante les Ariane 64 devrait être lancées.
On espère obtenir des prix de lancement
diminués de moitié
avec Ariane 6 par rapport à Ariane 5.
La
diminution des coûts viendra aussi dans le futur, du nouveau moteur :
le Prometheus, acronyme pour Precursor Reusable Oxygen METHan cost Effective
Engine, ce qui signifie : moteur démonstrateur réutilisable à Oxygène et
Méthane.
En effet le Méthane va remplacer l’Hydrogène liquide.
ArianeGroup vient de signer un contrat pour ce futur moteur avec
l’ESA, pour une fabrication des deux premiers exemplaires.
Ce moteur devrait être
opérationnel vers 2030
pour les nouvelles versions d’Ariane. Il devra remplacer à terme le moteur
Vulcain2, son coût devrait être 10 fois plus faible
Illustration : crédit : ASL (Airbus Safran Launchers).
L’objectif est d’être en mesure de produire de futurs moteurs à ergols liquides
pour un coût unitaire d’environ 1 million d’euros, soit 10 fois moins que le
coût de production d’un moteur actuel du type Vulcain®2.
La
réussite d’un tel défi technologique repose sur une conception résolument
nouvelle et sur l’utilisation de méthodes et de moyens innovants de conception
et de production.
Au-delà du changement de la filière traditionnelle d’ergols d’Ariane (passage du
couple oxygène et hydrogène liquides au couple oxygène liquide et méthane), le
démonstrateur apportera des évolutions majeures, dont la digitalisation du
contrôle et du diagnostic moteur, ou encore la production par impression 3D,
dans un environnement d’usine connectée. (document Safran)
Premiers essais : 2020.
Cela suffira-t-il à jouer dans la même cour que nos adversaires
US et bientôt Chinois ou Indiens ?
L’avenir nous le dira !
POUR ALLER PLUS LOIN :
ArianeGroup signe avec l’ESA un contrat pour le futur moteur Prometheus
Les Ariane 6
chez ArianeGroup.
Bienvenue sur la chaîne de montage d'Ariane 6, le futur lanceur européen de
l’Usine Nouvelle.
Début de mise en production pour Ariane 6, par la chronique spatiale.
Le Cnes et ArianeGroup préparent le futur d'Ariane 6 par Pif d’Air et
Cosmos.
Pourquoi Ariane 6 reste la meilleure arme face à SpaceX de Challenges. On
peut quand même se poser la question !!!
Ariane 6 :
C’est vraiment parti !: (07/12/2014)
Ariane 6 par l’ESA.
Ariane 6 s'élancera dans 1500 jours, article de Sciences et Avenir.
Le projet de lanceur Ariane 6 a atteint son point de non retour, article du
Figaro.
Ariane 6 sera fabriquée à l'horizontale, article du Figaro.
VU
D'EN HAUT :.TOULOUSE
(02/01/2018)
Le satellite de l’ESA de la série Copernicus, Sentinel-2A, a pris
cette vue (clic sur l’image pour une vue complète HR) de la région de Toulouse.
Région célèbre pour l’aéronautique et maintenant pour l’espace.
C’est à Toulouse que l’on trouve la fameuse Cité de l’Espace que
je vous recommande absolument de voir.
Toulouse est traversée par la Garonne, elle est surnommée, la ville rose, je
pense à cause de la couleur des tuiles de ses toits.
On
remarque l’aéroport de Toulouse Blagnac et de l’autre côté de la Garonne, le
CNES et la Cité de l’Espace.
Copyright contains modified Copernicus Sentinel data (2017), processed by ESA,
CC BY-SA 3.0 IGO
DISPARITION : ALAIN SOUCHIER NOUS A QUITTÉS.
(02/01/2018)
Nous sommes au regret d’annoncer la mort d’Alain Souchier,
fondateur et président de l’association
Planète Mars, le 13 dec 2017 à l’âge de 70ans.
Il se consacrait complètement à son association et donnait des
conférences dans tous les coins de l’Hexagone.
C’était aussi un vrai spécialiste de l’espace, spécialiste de la
propulsion de fusées (expérience à la SNECMA).
Il doit se balader sur Mars maintenant, faisant ainsi aboutir
enfin son rêve….
UN SITE
INTERNET À DÉCOUVRIR :.GALERIE IMAGES DU JOUR DE LA NASA.
(02/01/2018)
(Ce paragraphe est le vôtre si vous avez un site astro à nous
faire connaître, n'hésitez
pas
à nous contacter)
Voici un superbe site d’images astronomiques, le site de la
galerie des images du jour publiées par la NASA.
Visitez-le et mettez-le dans vos favoris.
https://www.nasa.gov/multimedia/imagegallery/iotd.html
https://www.nasa.gov/multimedia/imagegallery/index.html
On peut aussi rechercher une image bien spécifique sur la banque
d’images de la NASA :
Bonne Lecture à tous.
C'est tout pour aujourd'hui!!
Bon ciel à tous!
JEAN PIERRE MARTIN
Abonnez-vous gratuitement aux astronews du site en envoyant votre e-mail.
Astronews précédentes :
ICI
Pour vous désabonner des astronews :
cliquez ICI.