LES ASTRONEWS de planetastronomy.com:
Mise à jour : 10 Février 2008   
 
Conférences et Événements : Calendrier   .............. Rapport et CR
Astronews précédentes : ICI        dossiers à télécharger par ftp : ICI
ARCHIVES DES ASTRONEWS : clic sur le sujet désiré :
Astrophysique/cosmologie ; Spécial Mars ; Terre/Lune ; Système solaire ; Astronautique/conq spatiale ; 3D/divers ; Histoire astro /Instruments ; Observations ; Soleil ; Étoiles/Galaxies ; Livres/Magazines ; Jeunes /Scolaires
 
Sommaire de ce numéro :  
La matière noire et peut-on s'en passer : CR de la conférence de F Combes à la SAF. (10/02/2008)
L'éclipse de Lune : Dans la nuit du 20 au 21 Février 2008, couvrez vous! (10/02/2008)
Cosmomania : Enfin à la Cité des sciences pour 3 mois seulement. (10/02/2008)
Les Beatles dans l'espace : Yé-Yé au Deep Space Network! (10/02/2008)
Columbus : L'Europe en orbite avec son laboratoire spatial. (10/02/2008)
Messenger : La face cachée de Mercure. (10/02/2008)
Venus-Express : Des films éducatifs. (10/02/2008)
Étoiles à neutrons : Des massives avec des quarks. (10/02/2008)
ESO : La naissance d'une étoile. (10/02/2008)
Disque proto-planétaire : Influence d'une planète. (10/02/2008)
Hubble :.NGC 1132 La galaxie monstrueuse. (10/02/2008)
Cassini-Saturne.:.Une grande faille sur Dioné. (10/02/2008)
Cassini-Saturne :.Du rythme sur Saturne! (10/02/2008)
Mars Express :.Olympus Mons en super forme et en 3D! (10/02/2008)
Photos d'amateurs : Marc et son M31! (10/02/2008)
Photos d'amateurs :.Alexandre Cucculelli de Véga monte son observatoire. (10/02/2008)
Livre conseillé.:. La magie du Cosmos par Brian Greene; critique de Jean Holtz (10/02/2008)
Les magazines conseillés : Espace Magazine Février sort le 16 (10/02/2008)
 
 
Merci à notre ami Jean Holtz qui nous propose un travail magistral d'explication de textes du livre de Brian Greene sur la magie du cosmos qui vous est proposé en livre conseillé.
 
 
L'ÉCLIPSE DE LUNE : DANS LA NUIT DU 20 AU 21 FÉVRIER 2008 COUVREZ VOUS  (10/02/2008)
 
Dans la nuit du 20 au 21 Février se produira une éclipse de Lune totale, assez tard dans la nuit, mais c'est l'occasion si la météo le permet d'observer le ciel, il y aura notamment la planète Saturne.
Les courageux pourront aussi rester toute la nuit pour assister à l'éclipse.
 
Nous organisons avec l'Association d'Astronomie Véga une observation dans le parc du château de Plaisir (Yvelines) c'est ouvert à tous et bien entendu gratuit.
Amener vos instruments ou mieux encore paire de jumelles, beaucoup de lunettes et télescopes des membres du club seront à la disposition du public.
Pensez à la petite laine et aux grosses chaussettes aussi car il fera froid.
 
Spectacle idéal aussi pour les enfants et leurs parents, on répondra à toutes les questions.
 
Voici les informations sur l'éclipse elle même fournies gracieusement par la SAF (Société Astronomique de France).
 
 
 
Représentation du déroulement de l'éclipse à intervalles de 10 minutes. (© 2007 D. Crussaire) – SAF La figure embrasse un champ de 115° × 80° et présente des déformations analogues à celles imputables à l'emploi d'un objectif grand-angulaire. Par souci de lisibilité, les vues de la Lune ont fait l'objet d'un zoom d'un facteur 4 environ. La configuration du ciel est celle qui peut être observée depuis Paris, mais qui reste valable pour toute la France métropolitaine, au moment du maximum de l'éclipse (vue pour 3h 26m UT).

Retenez cette date : au cours de la nuit du mercredi 20 au jeudi 21 février 2008 aura lieu un spectacle de toute beauté : une éclipse totale de Lune entièrement visible depuis la France métropolitaine.
Ce phénomène est l'épilogue d'une série de trois éclipses totales de Lune consécutives émaillant une période d'à peine 12 mois qui sera suivie d'une période de 2 ans et 10 mois de disette au terme de laquelle se produira la prochaine occurrence qui ne sera d'ailleurs pas entièrement observable depuis nos contrées.
Les heures sont données en Temps Universel : vous devez ajouter 1h pour avoir l'heure de nos montres.
 
 
Cliquez sur l'image pour avoir un agrandissement. © 2007 D. Crussaire – SAF
 
Marche de la Lune dans les cônes d'ombre et de pénombre de la Terre. Les vues P1, O1, O2, M, O3, O4 et P4 représentent l'aspect de la Lune aux instants des contacts et du maximum de l'éclipse. Les flèches ZP1, ZO1, ZO2, ZM, ZO3, ZO4 et ZP4 indiquent la direction du zénith, à Paris, aux mêmes instants.

Tout comme les éclipses de Soleil, les éclipses de Lune demandent un alignement presque parfait du Soleil, de la Terre et de la Lune. Ceci ne se produit que dans certaines conditions que l'on trouve clairement expliquées dans tous les bons manuels que l'on consultera à la bibliothèque de la Société Astronomique de France ou dont on pourra faire l'acquisition dans les librairies spécialisées.
 
 
 
Qu'est-ce qu'une éclipse de Lune ?
Il se produit une éclipse de Lune lorsque la Lune passe dans la pénombre ou dans l'ombre de la Terre. À la différence des éclipses de Soleil au cours desquelles le Soleil n'est pas assombri mais occulté (masqué) par la Lune, les éclipses de Lune traduisent l'absence d'éclairement de la Lune pour laquelle le Soleil est masqué par la Terre. Pour un observateur situé sur la Lune, il y a alors éclipse de Soleil.
La terminologie est relativement riche : il y a pour la Lune des éclipses totales, des éclipses partielles et des éclipses par la pénombre. Il y a éclipse totale de Lune quand la Lune est entièrement comprise dans l'ombre de la Terre et il y a éclipse partielle de Lune quand une partie seulement de la Lune est située dans l'ombre de la Terre. Enfin, il y a éclipse de Lune par la pénombre quand aucun point de la Lune n'est dans l'ombre de la Terre et que tout ou partie de notre satellite est dans la pénombre de la Terre, donc quand de la Lune on peut observer au mieux une éclipse partielle de Soleil.
 
Quelques remarques plus ou moins évidentes :
Les éclipses de Lune se produisent à la Pleine Lune.
C'est juste après l'entrée dans la pénombre et juste avant la sortie de la pénombre que l'éclairage de la Lune est le plus "efficace" pour un observateur terrestre. La Lune est alors généralement plus brillante que dans toutes les autres conditions (y compris des circonstances apparemment favorables comme celles du 22 décembre 1999) ; pour des explications plus détaillées et rigoureuses, voir la page Pleine Lune du Solstice consacrée au sujet sur ce site.
Les éclipses de Soleil précèdent ou suivent les éclipses de Lune de 14 jours environ. Par exemple, l'éclipse totale de Soleil du 11 août 1999 a été précédée le 28 juillet 1999 d'une éclipse partielle de Lune (invisible en Europe) et l'éclipse totale de Lune du 9 janvier 2001 a été précédée d'une éclipse (partielle) de Soleil le 25 décembre 2000, qui a été visible sur le continent américain.
En général, les éclipses de Lune ont lieu la nuit mais, la réfraction atmosphérique aidant, les observateurs qui se trouvent au moment de la totalité à un endroit où le Soleil est en train de se lever ou de se coucher peuvent voir simultanément la Lune éclipsée et le Soleil. En théorie cela marche, mais on peut penser que l'éclat du ciel masque la Lune éclipsée et qu'on ne peut la voir que si l'éclipse est partielle.
 
Le déroulement du phénomène :
L'éclipse étant liée au mouvement de la Lune autour de la Terre, le déroulement d'une éclipse totale est le suivant :
Entrée de la Lune dans la pénombre (il y a éclipse par la pénombre ; attention, la pénombre étant le passage progressif de l'éclairement total à l'obscurité totale, l'entrée dans la pénombre, bien qu'elle ait un sens géométrique précis, est pratiquement indiscernable à l'œil nu ; une fois que la Lune est entièrement dans la pénombre, il est souvent plus facile de voir que son éclairement n'est pas uniforme en ne la regardant pas en face).
Entrée de la Lune dans l'ombre (il y a éclipse partielle ; la limite de l'ombre est très nette à l'œil nu, elle l'est beaucoup moins dans une paire de jumelles, une lunette ou un télescope).
Début de la totalité (la Lune est entièrement dans l'ombre de la Terre).
Fin de la totalité (l'éclipse redevient partielle).
Sortie de l'ombre (l'éclipse est alors par la pénombre).
Sortie de la pénombre (l'éclipse est finie ; pour les mêmes raisons que pour l'entrée, l'observateur a l'impression que l'éclipse est terminée bien avant la sortie de la pénombre qui est indiscernable).
 
Pourquoi semble-t-il y avoir plus d'éclipses de Lune que d'éclipses de Soleil ?
Pour une personne non avertie, une éclipse de Soleil n'est perceptible que si cet individu se trouve dans la bande de totalité ou tout au moins très près de cette bande qui fait quelques milliers de kilomètres de long sur au mieux 270 kilomètres de large, ce qui est tout petit relativement aux dimensions de la Terre. Une éclipse de Soleil n'est donc remarquée que par une très petite partie de la population tandis qu'une éclipse de Lune est visible de partout où la Lune est levée, c'est à dire la moitié de la surface terrestre. Il est donc logique que les gens qui ont vu une éclipse totale de Lune soient plus nombreux que les gens qui ont vu une éclipse totale de Soleil alors qu'il y a un petit peu plus d'éclipses de Soleil que d'éclipses de Lune.
 
Pourquoi la Lune ne devient-elle pas invisible ?
Contrairement à la Lune, la Terre est pourvue d'une atmosphère qui réfracte les rayons du Soleil, et cette atmosphère est chargée de particules (gouttelettes d'eau, poussières de toutes sortes) qui diffusent cette lumière. C'est ce qui fait que les couchers et levers de Soleil sont sur Terre un spectacle magnifique. Pendant une éclipse totale de Lune, un observateur placé sur la Lune verrait la Terre entourée d'une très fine et très brillante auréole rouge (si on admet que l'atmosphère susceptible de comporter des nuages et des poussières fait 30 km d'épaisseur, cela ne fait guère qu'un peu plus de 2 millièmes du diamètre de la Terre). C'est la lumière de cette auréole qui éclaire la Lune pendant la phase totale de l'éclipse et lui donne cette teinte cuivrée rougeâtre si caractéristique. Cette teinte est assez marquée lorsque l'éclipse de Lune se produit à l'apogée (point de l'orbite le plus éloigné de la Terre), elle est moins marquée et la Lune est très sombre lorsque l'éclipse se produit au périgée (point de l'orbite le plus proche de la Terre). Dans le cas de l'éclipse du 21 février 2008, la Lune sera à mi course entre périgée et apogée ; on peut donc s'attendre à une Lune relativement claire du fait que l'astre sélène pénètrera faiblement dans le cône d'ombre de la Terre, mais ceci reste une supputation et non une certitude.
 
Qu'est-ce que l'échelle de Danjon ?
André Danjon a proposé dans les années 1950 que la luminosité résiduelle et la coloration de la Lune éclipsée puissent dépendre de l'activité solaire. Jean Meeus a pu démontrer récemment qu'en fait il n'en était rien et que la corrélation était fortuite. De fait, la luminosité résiduelle et la coloration de la Lune éclipsée dépendent essentiellement de la grandeur de l'éclipse (plus sombre au centre qu'au bord de l'ombre), de la distance Terre-Lune (plus sombre au périgée qu'à l'apogée) et du degré de transparence de l'atmosphère terrestre. On les estime à l'aide de l'échelle de Danjon :
0 : éclipse très sombre, Lune à peu près invisible, surtout au milieu de la totalité ;
1 : éclipse sombre, grise ou brunâtre ; détails lunaires difficiles à discerner ;
2 : éclipse rouge sombre ou rouille, avec, le plus souvent, une tache très sombre au centre de l'ombre ; zone extérieure assez claire ;
3 : éclipse rouge brique ; ombre souvent bordée d'une zone grise ou jaune assez clair ;
4 : éclipse rouge cuivre ou orangé très clair ; zone extérieure bleuâtre très lumineuse.
 
Circonstances de l'éclipse du 21 février 2008
Les heures sont données en Temps Universel : vous devez ajouter 1h pour avoir l'heure de nos montres.
L'éclipse du 21 février 2008 se déroule en fin de nuit :
Entrée dans la pénombre
  0h 36,5m (le 21)
Entrée dans l'ombre
  1h 43,2m (le 21)
Début de la totalité
  3h 01,1m (le 21)
Maximum de l'éclipse
  3h 26,0m (le 21)
Fin de la totalité
  3h 50,9m (le 21)
Sortie de l'ombre
  5h 08,7m (le 21)
Sortie de la pénombre
  6h 15,6m (le 21)
Pour Paris, le 20 février, le Soleil se couchera à 17h 19m et la Lune se lèvera à 16h 43m ; toujours pour Paris, le 21 février, le Soleil se lèvera à 6h 49m et la Lune se couchera à 6h 54m.
En Europe, l'éclipse se produisant en fin de nuit au voisinage de l'équinoxe, la Lune évoluera dans le secteur sud-ouest à ouest à hauteur décroissante dans le ciel. C'est ainsi qu'à Paris, la hauteur de la Lune au-dessus de l'horizon sera de 46° en O1, de 32° en M et de 16° en O4 (voir figures ci-dessus).
Cette éclipse porte le numéro 4970 dans le Canon d'Oppolzer et appartient dans ce canon à la suite de saros numéro 133.
Cette éclipse porte également le numéro 11974 dans le Canon de l'IMCCE (Patrick Rocher) et appartient dans ce canon à la suite de saros numéro 189.
La grandeur de l'éclipse est de 1,106 (la Lune pénètre peu profondément dans le cône d'ombre de la Terre) et la durée de sa phase totale n'est que de 49,8m.
 
Carte de visibilité de l'éclipse du 21 février 2008 © IMCCE-OP (Institut de Mécanique Céleste et de Calcul des Éphémérides)
L'éclipse est visible de bout en bout dans la zone identifiée par la lettre "V".
 
Liens Internet
http://www.imcce.fr/fr/ephemerides/phenomenes/eclipses/lune/fev2008_1.php sur le site de l'Institut de Mécanique Céleste et de Calcul des Éphémérides
 
 
 
Voilà , bonne éclipse à tous en espérant que la météo soit de la partie.
 
 
chickens_up.gif
 
 
COSMOMANIA : ENFIN À LA CITÉ DES SCIENCES POUR 3 MOIS SEULEMENT. (10/02/2008)
 
Je sais que vous avez apprécié l'exposition Cosmomania de la Cité de l'Espace à Toulouse dont on a parlé dans ces colonnes, aussi, notre ami Serge Gracieux son concepteur la transporte pour 3 mois à la Cité des Sciences et de l'Industrie de Paris.
 
(entrée de l'expo © C Meyer Cité des Sciences).
 
 
 
Message de Serge Gracieux à tous les fanatiques d'espace et de sciences:
 
Cosmomania est maintenant à la Cité des Sciences. Attention, on n'a que 3 mois, du 29Janvier au 25 Mai 2008.
 
Elle a été inaugurée le 30 janvier en présence de 3 ministres – François d’Aubert, Valérie Pécresse et Claudie Haigneré.
Elle bénéficie de 50% de surface en plus donc plus agréable. Il semble qu’elle plaise à tout le monde et que la (petite et provinciale) Cité de l’espace a bien passé son examen – première exposition réalisée en coopération avec la Cité des science et Cap science bordeaux
J’invite donc tous les passionnés à s’y rendre et à y prendre autant de plaisir que nous en avons eu à la réaliser.
(prix d’entré 9 et 7 €)
 
En plus en ce moment ce sont les vacances scolaires, alors parents et grands parents, vous savez ce qu'il vous reste à faire…..
 
 
L'affiche de l'expo.
 
 
Reportage dans une prochaine édition des astronews.
 
 
chickens_up.gif
 
 
LES BEATLES DANS L'ESPACE : YÉ-YÉ AU DEEP SPACE NETWORK! (10/02/2008)
 
 
Pour la première fois, la NASA va transmettre une chanson dans l'espace au travers de son réseau d'antennes, le Deep Space Network ce 4 Février 2008.
 
C'était la chanson des Beatles "Across the Universe", nom prédestiné pour une émission vers l'espace.
Cela en l'honneur du quarantième anniversaire de la création de cette chanson par ce groupe mythique et surtout des 50 ans de la NASA, créée en réaction aux premiers succès soviétiques dans l'espace en 1958. Cette émission se veut aussi comme un hommage pour les 50 ans du premier satellite américain Explorer I et les 45 ans du DSN.
 
Si vous voulez entendre cette chanson, là voici sur You Tube.
 
 
La transmission est dirigée vers l'étoile polaire Polaris située à 431 années lumière de nous, ce sont les aliens qui vont se réjouir dans quelques centaines d'années! D'ailleurs (Sir) Paul Mc Cartney leur envoie tous ses vœux
 
La NASA avait déjà utilisé une musique des Beatles (notamment le célèbrissime Good Day Sunshine) qui avait été transmise à l'ISS en Novembre 2005.
 
 
Ça c'était de la musique!!! Allez! peace and love everybody!
 
 
 
 
chickens_up.gif
 
 
 
COLUMBUS : L'EUROPE EN ORBITE AVEC SON LABORATOIRE SPATIAL. (10/02/2008)
(Photo : NASA)
 
 
Columbus, le laboratoire spatial européen est parti avec les 7 astronautes de la navette Atlantis (vol STS 122) ce 7 Février 2008 à 20H45 (heure de Paris) de Cape Canaveral et à l'heure dite malgré une météo capricieuse, après un retard de deux mois dû à des incidents techniques mineurs des moteurs de la navette.
C'est le 121ème vol de la navette spatiale et pour Atlantis c'est son 29ème vol.
 
Les sept astronautes de l'équipage – dont l'Allemand Hans Schlegel et le Français Léopold Eyharts – auront notamment pour mission, au troisième jour de vol, d'amarrer le laboratoire à la Station spatiale internationale (ISS), qui comptera dès lors une nouvelle zone de travail.
Le samedi 9 février, à 18h23 heure de Paris, la navette spatiale Atlantis s'amarrera à l'ISS. Le lendemain, le bras robotique Canadarm2 de la Station extraira le module Columbus de la soute de la navette et l'arrimera à l'écoutille tribord du module Harmony (Node 2). Deux astronautes, dont Hans Schlegel, effectueront une sortie extravéhiculaire pour aider à cette manœuvre.
 
 
 
Rappelons que le nom de Columbus vient du fait qu'un module similaire aurait dû être lancé en…………..1992 originellement pour le 500ème anniversaire de la découverte de l'Amérique par C Colomb!!!! En fait après bien des vicissitudes le module dans sa conception actuelle aurait dû être lancé en 2004, mais l'accident de Columbia en 2003 a tout bouleversé! Il ne pouvait pas être lancé par une autre fusée, il était prévu pour la soute de la navette, il fallait donc attendre.
 
 
Bref réjouissons nous, mieux vaut tard que jamais.
 
 
 
 
Columbus est fabriqué sous la maîtrise d'œuvre d'EADS Astrium, il permettra d'effectuer des travaux scientifiques en microgravité comme par exemple : étude des mécanismes de croissance de certaines plantes en apesanteur, de mener des expériences de physique des fluides ou de mesurer les effets de longs séjours dans l'espace sur la physiologie des astronautes : ostéoporose, perte de masse musculaire, etc
 
Leopold Eyharts va rester à bord de l'ISS pendant plusieurs semaines afin de mettre ce laboratoire en service; il rentrera à bord d'Endeavour la prochaine visite de navette qui elle amènera le laboratoire japonais Kibo.
 
On voit dans le bas à droite du dessin la position du laboratoire à l'ISS (au Node2 Harmony).
(dessin © BBC Media et ESA)
 
 
Ci joint texte de l'ESA concernant le module Columbus :
 
Deux autres sorties dans l'espace sont prévues pendant qu'Atlantis sera amarrée à l'ISS, notamment une seconde sortie pour Hans Schlegel et un astronaute de la NASA, qui installeront des charges utiles scientifiques externes ainsi que des rampes sur le module Columbus.
 
Un laboratoire de pointe au service de la science en orbite
 
Fer de lance de la recherche, le laboratoire Columbus est la pierre angulaire de la contribution de l'Europe à l'ISS. Une fois amarré à cet avant-poste en orbite, ce module de 7 m de longueur et pesant 12,8 t offrira un environnement dans lequel des astronautes, en bras de chemise, exploiteront des équipements scientifiques et conduiront des expériences en impesanteur couvrant de nombreux domaines : sciences de la vie, physiologie et biologie humaines, physique des fluides, sciences des matériaux, technologie et enseignement. De plus, il disposera également de points d'ancrage externes pour des expériences axées sur les sciences spatiales, l'observation de la Terre, les matériaux et les technologies spatiales de pointe.
 
Avec le lancement et l'amarrage de Columbus, l'ESA deviendra également responsable de l'exploitation et de l'utilisation de l'ISS et sera donc admise à faire voler ses propres astronautes pour des missions de longue durée en leur qualité de membre de l'équipage résident de l'ISS, dans des proportions correspondant à l'investissement consenti par l'Europe pour cette installation internationale.
 
Columbus emporte 2,5 t de charges utiles scientifiques disposées dans cinq bâtis interne accueillant des installations de recherche intégrées ou des installations modulaires multi-utilisateurs comme Biolab, le Laboratoire de physique des fluides, les Modules de physiologie européens, le Bâti à tiroirs européen et le Module de transport européen. Deux autres charges utiles sont embarquées séparément dans la soute de la navette et seront fixées à des plates-formes extérieures de Columbus ; il s'agit de l'Observatoire solaire et de l'Installation européenne d'exposition au milieu spatial pour les recherches technologiques. D'autres charges utiles internes et externes seront ajoutées ultérieurement.
 
Dès son raccordement à l'ISS, le laboratoire spatial européen sera contrôlé et piloté par le Centre de contrôle Columbus de l'ESA, situé dans les locaux du Centre allemand d'opérations spatiales du DLR à Oberpfaffenhofen (Allemagne), qui sera responsable de sa recette et de la coordination des opérations scientifiques à bord. Ce centre de contrôle spécialisé gérera également le réseau de télécommunications au sol, assurant les liaisons avec les centres de contrôle américain et russe ainsi qu'avec d'autres centres de contrôle des opérations en Europe. Un réseau de Centres de soutien et d'exploitation pour les utilisateurs (USOC) a été mis en place en Europe pour faciliter l'interface entre les chercheurs et les charges utiles scientifiques embarquées à bord de Columbus et permettre aux chercheurs de piloter leurs expériences et de recevoir les résultats en temps réel.
 
Des modules européens pour la Station
 
Bien que Columbus soit une contribution majeure de l'ESA à l'ISS, ce n'est ni le premier ni le dernier élément à être lancé. L'ESA a déjà fourni un système de gestion de données pour la composante russe (DMS-R) et plusieurs bâtis d'équipements de recherche sont déjà en service, comme la Boîte à gants pour la recherche en microgravité ou le Congélateur de laboratoire à
-80° C pour l'ISS. Au titre d'un accord de compensation avec la NASA, l'ESA fournira également le module de raccordement à Harmony (élément de jonction 2) qui a été livré par le précédent vol de la navette en octobre.
Début mars, un lanceur Ariane-5 acheminera également le Jules Verne(ATV), premier d'une série de véhicules de transfert automatique qui serviront à la fois à la desserte et au rehaussement d'orbite de la station. D'autres contributions de l'Europe sont prévues dans l'avenir, y compris le bras télémanipulateur européen, l'élément de jonction 3 et la coupole, poste d'observation en forme de dôme.
 
M. Daniel Sacotte, Directeur des programmes Vols habités, Recherche en microgravité et Exploration, explique : « Le lancement de Columbus marque le début d'une ère nouvelle. Il y a longtemps que la communauté européenne des vols habités et des sciences spatiales attend ce moment. La décision de s'intéresser au projet Columbus a été prise en 1985. À cette date, nous envisagions une contribution au projet de station spatiale Freedom de la NASA. Puis, le monde a changé et Freedom a été repensé et est devenu un programme réellement international. Nous avons été à même d'engager le développement à grande échelle de Columbus il y a une douzaine d'années. Aujourd'hui, Columbus est une réalité, un laboratoire dans l'espace beaucoup plus performant que ce que nous avions proposé en 1985 et même que ce que nous avions envisagé en 1995; en effet, nous avons profité des retards d'assemblage de l'ISS pour améliorer nos études de conception et nos équipements. Columbus est aujourd'hui un laboratoire spatial de classe internationale, prêt pour 10 ans d'expériences scientifiques passionnantes. »
 
« Le moment où l'écoutille s'ouvrira et où les astronautes entreront dans Columbus pour le mettre sous tension et effectuer la recette de ses charges utiles scientifiques sera un grand moment pour l'Europe, et je vois ce jour se profiler dans un avenir très proche » a déclaré Jean-Jacques Dordain, Directeur général de l'ESA. « De nombreuses années se sont écoulées depuis le jour où nous avons confié notre laboratoire Spacelab à la navette spatiale.
 Avec Columbus et les ATV, nous sommes passés de l'état de passager à celui de partenaire à part entière. Pour la première fois, une installation européenne habitée sera exploitée en permanence en orbite, sous le contrôle d'un centre européen. Le savoir-faire que nous avons acquis pour arriver à ce stade revêtira une importance exceptionnelle lorsqu'il s'agira de préparer les futurs vols habités, en orbite terrestre et au-delà, avec nos partenaires internationaux. Je veux rendre hommage à toutes les équipes de l'ESA et des contractants industriels en Europe pour ce succès, ainsi qu'à tous les Etats membres de l'Agence spatiale européenne qui, malgré les changements de configuration de l'ISS intervenus au cours des années, auront apporté leur soutien pour que l'ESA devienne un partenaire parfaitement fiable dans cette aventure. Je profite de cette occasion pour remercier la NASA, son administrateur et toutes ses équipes engagées dans cette aventure extraordinaire, d’avoir fait tout son possible afin de maintenir un planning strict pour cette tâche difficile qu’est l’assemblage de la Station spatiale internationale ».
 
La navette Atlantis devrait quitter l'ISS le  16 février et atterrir en Floride deux jours plus tard.
 
Contrairement aux autres membres de l'équipage de la mission STS-122, Léopold Eyharts restera à bord de la station et échangera sa place avec Dan Tani, astronaute de la NASA, en tant que membre du 16ème équipage permanent de l'ISS. Lorsqu'il sera à bord de l'ISS, Léopold Eyharts procédera à la recette de Columbus et se livrera aux premières expériences à bord. Il reviendra sur Terre après un séjour de presque deux mois  avec le prochain vol de la navette (Mission STS-123), dont le lancement est actuellement prévu pour  le 11 mars 2008.
 
En fonction de la planification des vols à destination de l'ISS, Léopold Eyharts pourrait rester à bord de l'ISS lorsque l'ATV Jules Verne arrivera avec sa première cargaison de marchandises, d'ergols et de fluides pour la station. Ce sera de nouveau une grande première pour la présence de l'Europe dans l'espace extra-atmosphérique.
 
 
Aux dernières nouvelles, Atlantis a réussi son accostage avec l'ISS ce samedi 10 Février, juste un petit point noir, il semble que l'astronaute Allemand H Schlegel, soit malade ce qui pourrait perturber le planning des EVA.
 
 
 
Voir la page de la NASA correspondante avec la vidéo du lancement.
 
 
Voici aussi une autre très belle photo du lancement.
 
Site de la mission : http://www.nasa.gov/mission_pages/shuttle/main/index.html
 
 
 
chickens_up.gif
 
 
 
 
MESSENGER : LA FACE CACHÉE DE MERCURE. (10/02/2008)
Credit: NASA/Johns Hopkins University Applied Physics Laboratory/Carnegie Institution of Washington
 
Comme vous le savez, Messenger a passé Mercure récemment et les images stockées à bord commencent à être recueillies sur Terre; plus de 1200 images ont été prises pendant cette assistance gravitationnelle.
 
On s'aperçoit qu'elle est de moins en moins semblable à la Lune et que c'est une planète en elle même.
 
 
Le cratère double, pris le 14 Janvier 2008 par Messenger situé sur la face "inconnue" de Mercure, a un diamètre de 260km. Sur Mercure les cratères doubles commencent à se former quand le diamètre dépasse les 200km.
Le cratère de l'araignée (spider crater) prise aussi le 14 Janvier, il est situé dans le bassin Caloris. Il fait approximativement 40km de diamètre.
 
Voici un détail d'un des plus grands bassins d'impact du système solaire : le bassin Caloris, découvert partiellement en 1974 par Mariner 10 (partie droite de l'image) et photographié cette fois par Messenger le 14 Janvier 2008 (partie gauche de l'image). Les deux sondes n'avaient pas les mêmes conditions d'éclairage comme on le voit sur cette photo composite.
Mariner 10 avait évalué le diamètre de ce bassin comme indiqué par le cercle jaune, en fait il est plus grand que prévu, voir le cercle bleu; près de 1550km de diamètre.
 
 
 
Mais l'événement c'est le vol à travers la magnétosphère de Mercure par la sonde.
 
Une animation QT est proposée pour montrer le passage dans cette magnétosphère, il fait 5MB.
Que voit on?
Le graphique situé dans le bas à droite indique les observations du FIPS (Fast Imaging Plasma Spectrometer) et du EPPS (Energetic Particle and Plasma Spectrometer). La courbe du haut représente la densité du plasma basse énergie et celle du bas, l'intensité des ions lourds.
 
Les endroits où la sonde croise l'onde de choc de la magnétosphère sont indiqués (shock inbound et outbound).
 
 
Le résultat de ce passage derrière Mercure : on remarque l'augmentation de la densité de plasma dû au vent solaire lorsqu'on passe dans l'inde de choc, Mercure possède bien une magnétosphère même si elle est très faible. Ce champ magnétique participe d'ailleurs au resurfaçage de la planète. Pour la première fois on a aussi détecté des ions Na+. Il semble que le magnétisme de Mercure soit complexe et sera étudié plus avant dans les deux prochaines rencontres.
 
 
 
chickens_up.gif
 
 
 
 
VENUS EXPRESS :DES FILMS EDUCATIFS. (10/02/2008)
 
L'ESA publie sur le site de Venus-Express une série de 4 films consacrés à cette planète et à sa chimie particulière.
 
 
 
Plusieurs des scientifiques participants à cette mission nous expliquent l'effet de serre sur Vénus, le sort de la vapeur d'eau, la mission elle même etc.., ces acteurs scientifiques sont : Jean-Loup Bertaux (photo) , Jörn Helbert, Miguel Pérez Ayúcar, Daphne Stam et Colin Wilson, avec la collaboration de Federico Nespoli.
 
Ces films (en anglais) peuvent être visionnés ou téléchargés séparément suivant vos centres d'intérêt :
Ils sont disponibles soit en QT (Quick Time) soit en WM (Windows Media Player). Ils sont tous relativement lourds!
 
 
 
 
Chapter 1: 95 MB
A breath of Venus (QT), A breath of Venus (WM)

Chapter 2: 25MB
A story of Deuterium and Hydrogen (QT), A story of Deuterium and Hydrogen (WM)

Chapter 3: 18MB
A question of temperature (QT), A question of temperature (WM)

Chapter 4: 29MB
A look at operations (QT), A look at operations (WM)

Credits:
End titles and credits (QT), End titles and credits (WM)
 
 
Voilà, bon téléchargement!
 
 
 
 
chickens_up.gif
 
ÉTOILES À NEUTRONS : DES MASSIVES AVEC DES QUARKS. (10/02/2008)
 
L'ESA et le CNRS communiquent cette information sur les étoiles à neutrons.
 
 
Des chercheurs du Centre d'Etude Spatiale des Rayonnements de Toulouse viennent d'observer trois étoiles à neutrons avec le satellite XMM-Newton de l'ESA. Ils en ont déduits que ces étoiles à neutrons pourraient être plus massives que prévues, et que leur cœur pourrait être éventuellement constitué de quarks.

Mieux comprendre la structure interne des étoiles et comparer les modèles avec les observations pour valider ou faire évoluer ces modèles, tel est l'un des enjeux en astrophysique.
 
Parmi ces étoiles, les étoiles à neutrons constituent un des objets posant de nombreux problèmes quant à sa structure interne.
Les étoiles à neutrons sont les restes de l'explosion d'une supernova. Les modèles prévoient l'effondrement de la matière centrale et la constitution d'un objet dense ayant environ une masse solaire et 10 kilomètres de diamètre. A ces densités extrêmes, la physique prévoit que le cœur des étoiles à neutrons pourrait éventuellement contenir au-delà des simples neutrons, des particules exotiques, comme des pions, des kaons, ou même des quarks.

Des chercheurs du CESR de Toulouse (UMR, CNRS, Université Paul Sabatier, Observatoire Midi-Pyrénées), viennent d'analyser le rayonnement X provenant de trois étoiles à neutrons en utilisant le satellite XMM-Newton de l'ESA. Ces trois étoiles à neutrons se situent à l'intérieur de trois amas globulaires (Omega Centauri, M13, NGC 2808) dont on connaît parfaitement la distance. La connaissance de la distance précise de l'objet étudié est indispensable pour contraindre les paramètres macroscopiques.
 
 
Illustration : A gauche étoile à neutrons dont l'intérieur est constitué de neutrons, les quarks étant les éléments constitutifs des neutrons. A droite "étoiles à neutrons" dont l'intérieur est constitué de quarks.
© NASA/CXC/M.Weiss
 
 
L'analyse spectrale du rayonnement X provenant de la surface de l'étoile fournit des indicateurs qui, introduit dans des modèles numériques, permettent de contraindre la masse et le rayon de l'étoile à neutrons.
Il s'avère que les trois étoiles à neutrons observées sont plus petites et plus massives que ce qui était prévu par les modèles classiques. Elles ont des masses pouvant aller jusqu'à 2,4 masses solaires pour des rayons supérieurs à 8 km.
 
 
 
Ces contraintes sont compatibles uniquement avec les modèles les plus récents, prévoyant que le cœur des étoiles à neutrons est composé de neutrons, ou de manière plus inattendue de quarks.

Ces résultats devront être confirmés par de futures observations, mais ils constituent une avancée significative vers la connaissance de ce qu'est la matière à des densités extrêmes : un problème qui intéresse aussi bien les astrophysiciens que les physiciens des particules.

 
 
 
 
chickens_up.gif
 
 
ESO : LA NAISSANCE D'UNE ÉTOILE. (10/02/2008)
(photo ESO)
 
 
L'interféromètre du VLT vient de mettre au jour la structure interne d'un disque d'accrétion d'une étoile nouveau née, qui a seulement un demi million d'années, c'est l'étoile cataloguée MWC 147 (MWC est bien entendu le catalogue du ……..Mont Wilson) située dans la constellation de la Licorne dans l'hémisphère Sud à 2600 années lumière de nous
 
Sa masse est évaluée à 6,6 masses solaires, sa durée de vie donc à 35 millions d'années (plus elles sont massives plus elles brûlent vite leur Hydrogène et moins elles vivent longtemps).
 
(photo de S Guisard montrant la localisation de MWC 147).
 
 
C'est une étoile du type de Herbig Ae/Be, étoile jeune non encore dans la séquence principale du diagramme HR et entouré d'un disque proto planétaire.
 
Les quatre télescopes de 8,2m du VLT ont été nécessaires pour effectuer les mesures d'interférométrie de cette étoile et ceci en Infra Rouge avec les systèmes MIDI et AMBER. En effet l'IR permet de traverser ces nuages de poussières : le proche IR (AMBER) mesure les températures plus chaudes et l'IR moyen (MIDI) les températures plus faibles.
 
 
Le disque a pu être mesuré et sa température aussi en plusieurs endroits comme par exemple quelques milliers de degrés au centre du disque.
 
Le profil de température varie de façon beaucoup plus abrupte que prévue du centre vers la périphérie. La plus grande partie des proches IR provient de la partie centrale proche de l'étoile dans une zone de 1 à 2 UA.
Ce qui est intéressant est que à cette distance là, les grains de poussières ne peuvent pas exister, ils sont détruits (désagrégés) par la puissance des rayonnements de l'étoile.
Les scientifiques ont aussi détecté des IR en provenance de l'intérieur du disque ce qui suggère que ce disque est actif et transporte de la matière de l'extérieur vers les parties internes et donc pour faire grossir l'étoile centrale.
 
 
 
Le modèle mis au point par les auteurs (Stefan Kraus, Thomas Preibisch, Keichii Ohnaka) de ce rapport (Detection of an inner gaseous component in a Herbig Be star accretion disk: Near- and mid-infrared spectro-interferometry and radiative transfer modeling of MWC 147) est basé sur la fait que ce disque s'étend jusqu'à approx. 100UA avec une étoile centrale qui augmente de masse au rythme d'un sept millionième de masse solaire par an, donc très lentement.
 
 
Cette étude prouve la validité d'utilisation du VLTI pour sonder le cœur des étoiles en formation.
 
 
Dans le même genre on pourra lire Recette pour une planète de l'Observatoire de Paris.
 
 
 
chickens_up.gif
 
 
DISQUE PROTO-PLANÉTAIRE : INFLUENCE D'UNE PLANÈTE. (10/02/2008)
 
 
Une équipe internationale, conduite par des astronomes du CRAL, Centre de Recherche Astrophysique de Lyon (UMR, CNRS, Université de Lyon I, École Normale Supérieure de Lyon) vient de réaliser une étude du comportement du gaz et de la poussière dans des disques protoplanétaires.
Ils communiquent à ce sujet sur l'effet d'une planète sur la distribution de poussière dans un disque protoplanétaire
 
Appliquant une série de simulations 3D à un disque protoplanétaire qui possède déjà une planète, ces chercheurs montrent que la taille de la poussière, ou la masse de cette première planète, jouent un rôle déterminant dans la morphologie du disque... voire dans la formation d'une seconde planète ! Ces travaux font l'objet d'une publication dans Astronomy and Astrophysics.

Suite à des fluctuations de densité ou sous l'action de leur environnement (ondes de chocs de supernovae, ondes de densité dans les bras de galaxies), certains nuages moléculaires se contractent gravitationnellement et se fragmentent pour former des cœurs protostellaires.
En se contractant le gaz s'échauffe, jusqu'à pouvoir initier des réactions nucléaires au sein du nuage.
La pression de radiation ainsi générée arrête la contraction gravitationnelle.
Le mélange de gaz et de poussière résiduel entourant la jeune étoile s'effondre sous la forme d'un disque dans le plan équatorial, pour former un disque protoplanétaire.
C'est à partir de ce gaz et de cette poussière que les premiers planétésimaux vont pouvoir se former.
 
 

Sillon creusé par une planète dans la composante de poussières d'un disque protoplanétaire.
© CRAL.
Les particules solides formant cette composante ont des tailles de 1cm, 10cm et 1m, de gauche à droite. Le disque entoure une étoile jeune de même masse que le Soleil et est 100 fois moins massif que celle-ci. La planète a la même masse et la même orbite que Jupiter. En haut : disque vu de dessus. En bas : disque vu par la tranche couleur. Densité de la poussière, en échelle logarithmique.
 
 
 
 
 
Un nouveau programme de simulation de disques protoplanétaires à deux composantes (gaz + poussières) a été développé au CRAL.
Son utilisation a permis de déterminer la distribution spatiale de la poussière en fonction de la taille des grains et de la masse d'une planète déjà formée.
Il s'avère que la distribution de la matière dans le disque, et donc sa morphologie, dépend fortement de la taille des grains de poussière présents dans le disque. Cet éventail de morphologies pose le problème de l'interprétation des futures observations de disques protoplanétaires qui seront réalisées avec ALMA et de la nécessité de tels modèles de simulation numérique 3D.

Ce travail a de plus montré que la présence d'une planète dans un disque protoplanétaire engendre un sillon, dont la formation est plus rapide et plus marquée dans le disque de poussière que dans celui de gaz.
 
Il semble alors que la poussière s'accumule sur le bord extérieur du sillon, ce qui peut accroître la formation d'une seconde planète, en facilitant la croissance des planétésimaux dans cette région de forte densité.
 
 
 
Note(s)
Atacama Large Millimeter Array, est un interféromètre radio formé de 62 antennes sondant l'univers froid (millimétrique et submillimétrique), opérationnel en 2012. Un des buts scientifiques d'ALMA est l'observation directe de systèmes planétaires en formation.
 
 
 
chickens_up.gif
 
 
 
 
 
HUBBLE :.NGC 1132 LA GALAXIE MONSTRUEUSE. (10/02/2008)
 
 
Notre "vieux" télescope spatial, Hubble vient de capturer une nouvelle image de la galaxie NGC 1132 qui peut être considérée certainement comme un fossile cosmique. Elle est le résultat d'un énorme enchevêtrement de galaxies, où la résultante de ces collisions permanentes a crée une galaxie elliptique géante dépassant toutes les autres galaxies.
 
 
Cette galaxie NGC 1132, située à 320 millions d'années lumière de nous, que l'on voit au centre de l'image appartient donc aux géantes elliptiques, on y remarque des petites galaxies naines satellites, probablement les restes des collisions passées.
 
On ne voit sur cette photo que la lumière visible, elle occupe un diamètre de 120.000 années lumière, or cette galaxie est un repère de matière noire qui se trouve dans un halo visible en X par Chandra comme sur cette photo composite HST/Chandra. Et cette matière noire se répand sur une zone d'espace 10 fois plus grande que la partie visible, un peu comme la partie immergée d'un géant iceberg.
 
 
On pense que ce genre de galaxies énormes, seraient le produit final de galaxies cannibales happant tout ce qui passe à proximité.
 
 
 
 
On voit ici NGC 1132 entourée de milliers d'anciens amas globulaires tournant autour d'elle comme des abeilles autour de leur essaim! Ce sont probablement les restes de la digestion des anciennes galaxies avalées par NGC 1132.
Dans l'arrière plan, on voit d'autres galaxies qui sont beaucoup plus loin.
 
La plupart des galaxies (et notamment la notre) résident en groupe, liées par la force de gravitation, notre groupe s'appelle le groupe local. On pense d'ailleurs que notre Voie Lactée est une telle cannibale, et qu'elle aurait déjà digérer quelques copines dans le passé.
 
Les galaxies elliptiques sont d'un aspect lisse et contiennent des centaines de milliers de milliards d'étoiles et sont généralement de couleur jaune, signe de leur grand age. Elles ne contiennent plus de matière formant les étoiles et donc n'en fabriquent plus.
 
 
Nombreuses vidéos disponibles , notamment celle ci de 30MB en mpeg.
 
 
 
 
chickens_up.gif
 
 
 
 
 
CASSINI SATURNE :.UNE GRANDE FAILLE SUR DIONÉ. (10/02/2008)
(photos : NASA/JPL).
 
 
Vue de la face tournée vers Saturne de Dioné (1100km de diamètre) où l'on remarque cette superbe faille dans son hémisphère Sud.
 
 
 
Image prise dans le visible par la NAC de Cassini le 4 Janvier 2008 alors qu'il était à 300.000km de ce gros satellite.
 
 
 
Tout sur Dioné par nos amis de la Planetary Society.
 
 
 
 
 
 
 
 
Comme d'habitude, vous trouverez toutes les dernières images de Cassini au JPL
Les animations et vidéos : http://saturn.jpl.nasa.gov/multimedia/videos/videos.cfm?categoryID=17
 
Les prochains survols : http://saturn.jpl.nasa.gov/home/index.cfm
Tout sur les orbites de Cassini par The Planetary Society; très bon!
 
Voir liste des principaux satellites.
 
 
 
 
chickens_up.gif
 
 
 
 
CASSINI SATURNE :DU RYTHME SUR SATURNE!. (10/02/2008)
(photos : NASA/JPL et NASA/JPL/Space Science Institute).
 
 
L'ordre ou le chaos, on aurait pu croire que le chaos régnait au niveau des anneaux de Saturne, mais que ne fut pas la surprise des scientifiques lors d'une expérience d'occultation d'ondes radio de trouver dans des anneaux de Saturne des groupements "harmonieux" de particules comme des vaguelettes ou des ondes à la surface d'un lac.
 
En principe la distance entre les particules des anneaux varie en fonction de leur vitesse (loi de Kepler), dans ce cas, étrangement la distance entre ces particules (typiquement de 100m) reste la même, même quand leurs vitesses changent, c'est un phénomène tout à fait nouveau qui vient d'être détecté.
 
 
Ce sont les signaux radio envoyés par Cassini vers la Terre qui ont révélés ces structures périodiques. Les raies jaunes correspondent à la structure périodique dans l'anneau A (équivalent à un réseau de diffraction) qui mène au spectrogramme du bas du dessin.
Ces structures ont été émises après passage au travers des anneaux qui se sont comportés comme un réseau de diffraction (sépare les fréquences), les scientifiques à Terre, ont remarqué la périodicité de certains signaux reçus. Des particules étaient bien rangées dans un certain ordre à l'intérieur des anneaux A (les deux diagrammes du centre du dessin) et B (diagramme du bas).
 
 
Une telle régularité dans cet univers chaotique que sont les anneaux de Saturne est vraiment étonnant. Ces particules ont été trouvées dans l'anneau B et dans la partie la plus interne de l'anneau, ce sont des anneaux où les particules sont très concentrées
 
 
 
 
 
Comme d'habitude, vous trouverez toutes les dernières images de Cassini au JPL
Les animations et vidéos : http://saturn.jpl.nasa.gov/multimedia/videos/videos.cfm?categoryID=17
 
Les prochains survols : http://saturn.jpl.nasa.gov/home/index.cfm
Tout sur les orbites de Cassini par The Planetary Society; très bon!
 
Voir liste des principaux satellites.
 
 
 
 
chickens_up.gif
 
 
MARS EXPRESS :.OLYMPUS MONS EN SUPER FORME ET EN 3D! (10/02/2008)
(Photos G Neukum/FUB/ESA)
 
 
Mars va bientôt être disponible en vraie 3D grâce à l'étonnante caméra haute résolution de nos amis Allemands de Berlin, la HRSC à bord de Mars Express.
En effet ceci va être possible à partir de maintenant à l'aide du système DTM (Digital Terrain Model). Ce système va permettre de donner une idée précise de la topographie du terrain ce qui devrait aider à comprendre la géologie, comme le dit le responsable le professeur Gerhard Neukum de la Freie Universität Berlin, le PI de la caméra.
 
Le DTM donne instantanément la pente du terrain, l'altitude etc.. grâce au fait que cette caméra possède plusieurs canaux (9) de visée inclinés, donnant ainsi les informations de relief en un seul passage.
 
Cette banque d'images est basée sur les différentes fauchées (c'est le terme) de la caméra du sol martien. Les images HR ont une résolution de 10m par pixel.
 
 
 
Une des premières régions a être diffusée est la région d'Olympus Mons, le plus grand volcan du système solaire.
 
On voit par exemple ici une mosaïque de ce volcan qui culmine à 26.000m , la surface de cette image est comparable à la surface de la France.
Les couleurs sont en fait un code pour représenter les différentes altitudes, le bleu correspond au niveau 0 et le marron à 25.000m.
 
Cette image a nécessité les informations de 18 orbites de Mars Express.
 
C'est la DLR (Agence spatiale Allemande) qui dirige l'opération de transformation des images et les met en ligne; elles sont disponibles en partie pour le public à cette adresse :
http://hrscview.fu-berlin.de/cgi-bin/ion-p?page=entry.ion
 
Il faut s'habituer à utiliser le navigateur du site, mais il y a de bonnes explications (en anglais of course!).
 
 
 
Les archives de Mars Express/HRSC/DTM sont disponibles soit aux archives ESA (compliqué à utiliser!), soit au PDS de la NASA (là aussi je n'ai pas réussi à m'en sortir), le mieux c'est quand même le site de la DLR pour le grand public.
 
On pourra aussi consulter cet article de Astrobiology sur le Net concernant cette amélioration des données martiennes.
 
 
 
 
 
chickens_up.gif
 
PHOTOS D'AMATEUR : MARC ET SON M-31! (10/02/2008)
 
 
 
Notre ami Marc Jousset de l'Association Véga de Plaisir (Yvelines) nous propose à voir cette fois ci une superbe vue de la galaxie d'Andromède M31, on y distingue aussi parfaitement les galaxies satellites M32 (proche du halo) et M110.(en haut de l'image).
 
Lunette Takahashi FSQ 106 ED f/5 en Décembre 2007.
Caméra : SBIG STL11000M C2 à t° -30°C  
Monture : Astrophysics AP1200 GTO
16x10 min de pose à f/5. Compositage LRGB.
 
Je ne peux malheureusement pas vous la montrer en haute résolution, elle prend trop de place mémoire, alors clic sur l'image pour voir tous les détails assez exceptionnels.
 
 
Pour plus de détails allez voir son site :
http://www.astrosurf.com/jousset
 
 
 
 
 
 
chickens_up.gif
 
 
PHOTOS D'AMATEUR :.ALEXANDRE CUCCULELLI DE VÉGA (10/02/2008)
 
 
Alexandre Cucculelli aussi du club Vega de Plaisir (Yvelines) démarre lui en astro photo, et voici les premières photos de son observatoire personnel, qu'il construit attenant à sa maison.
 
Le futur abris sera construit sur mesure par ses soins d'une dimension intérieure de 3,40 M x 2,40 M et une épaisseur de 28mm
 
Son matériel :
Celestron C9 goto avec un diamètre de 235mm ,pour une focale de 2350m.
Monture équatoriale CG5 et raquette de commande ,avec 40000 objets mémorisés
Pilotage de la monture par ordinateur.
Lunette d'autoguidage SW 80/400
Webcam 1.25" neximage C319 de marque Celestron   APNCanon 350d d'origine!
 
 
 
 
 
 
 
Très ambitieux notre ami Alex a commencé par une mosaïque de Lune qui est une belle réussite; qu'est ce que ce sera quand son observatoire sera construit!
 
 
 
 
 
On vous tient au courant de l'état d'avancement des travaux.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
chickens_up.gif
 
 
LIVRE CONSEILLÉ.:LA MAGIE DU COSMOS DE BRIAN GREENE CRITIQUE DE J HOLTZ. (10/02/2008)
 
Merci à notre ami Jean Holtz qui s'est donné la peine de lire et d'écrire un commentaire très complet sur ce superbe ouvrage de Brian Greene, auteur à succès notamment de l'Univers élégant, dont nous avons déjà parlé dans ces colonnes.
 
 
Brian GREENE, né en 1963, est un des théoriciens de la Théorie des Cordes, il est professeur de mathématiques et de physique à l'Université de Columbia à New York et à l'Université Cornell.
 
Glossaire avant de commencer :
 
Horizon d'un trou noir : Sphère imaginaire entourant un trou noir, délimitant les points de non-retour ; tout ce qui franchit l'horizon se trouve piégé dans le champ gravitationnel du trou noir.
Inflaton : champ dont l'énergie et la pression négative sont responsables de l'expansion inflationnaire.
Longueur de Planck : longueur en deçà de laquelle le conflit entre la Mécanique Quantique et la Relativité Générale se manifeste (10-33 cm).
 
 
Voilà je laisse la parole à Jean en le remerciant encore de cet énorme travail :
 
 
 
REMARQUES DU LECTEUR
 
Par rapport au livre précédent de Brian Greene "L'Univers Elégant", celui-ci prend en compte de façon plus explicite la notion d'entropie et le 2ème principe de la Thermodynamique.
La Théorie des Cordes peut sembler très abstraite ou même ésotérique pour les personnes n'ayant pas de culture scientifique, car il ne s'agit, actuellement, que de concepts mathématiques qui auront certes une valeur prédictive s'ils sont validés par des expériences à venir (LHC ou autres ), mais  qui, actuellement, ne sont qu'une tentative "élégante" d'explication de l'Univers réel.
 
L'objectif de ce livre est de faire le point sur les théories qui permettront de répondre aux questions : "Qu'est ce que l'espace" et "qu'est ce que le temps "; l'auteur développe surtout la théorie des cordes et la théorie "M", sous l'angle scientifique. Les études montrent que c'est dans deux disciplines concernant l'infiniment grand -la cosmologie- et l'infiniment petit - l'étude des particules élémentaires- que les réponses pourraient se trouver.
 
Ce "résumé" apporte surtout des résultats et peu d'explications. Le livre lui donne toutes les explications.
 
 
Dans un premier chapitre l'auteur s'interroge les réalités Classique, Relativiste, Quantique, Cosmologique et Unifiée. Nous sommes passés d'un espace et un temps absolus newtoniens, à l'approche d'Einstein où, ils deviennent un tout unique souple et dynamique.
 
Pour Newton et Maxwell, la position et la vitesse d'un ensemble d'objets à un instant futur, se déduit de celles connus précédemment. Selon la Mécanique Quantique, l'Univers n'est pas gravé dans le présent, c'est un jeu de hasard dont l'aspect probabiliste est fondamental. Un des aspects le plus surprenant est que ce que l'on fait à un endroit peut être relié instantanément à ce qui se passe à un autre endroit, quelle que soit leur distance.
Seule la "réalité cosmologique" indique que le temps a une direction vers le futur, ce qui n'est contenu ni dans la Relativité, ni dans la Mécanique Quantique : les équations de la physique fondamentale sont en contradiction sur ce point avec ce que l'on observe tous les jours.
L'explication pourrait venir du fait qu'à son origine l'Univers était parfaitement ordonné, ce qui impose un sens au temps.
 
La thermodynamique montre que l'Univers évolue globalement vers le désordre : l'entropie augmente.
En appliquant la Théorie de la Relativité à tout l'Univers, les recherches ont conduit à la Théorie du big-bang qui explique un grand nombre d'observations astronomiques.
Cependant, cette théorie ne donne aucune explication sur la forme globale de l'Univers, sur l'homogénéité du rayonnement micro-ondes, sur l'état initial hautement ordonné qui donne le sens d'écoulement du temps.
 
Fin des années 70 et début des années 80 apparaît la Cosmologie Inflationnaire qui, ajoutant après le big-bang une expansion extraordinairement rapide et brève, permet d'expliquer les points précédents.
 
 
Mais aux premiers instants de l'Univers qui sont décrits par la Mécanique Quantique, on ne peut appliquer la Relativité Générale qui, elle, décrit les objets massifs et grands : les équations combinant ces deux théories ne décrivent pas comment l'Univers est né et ne prédisent pas si les conditions de sa naissance étaient bien celles qui explique la flèche du temps. De leur combinaison résulte des probabilités infinies, ce qui n'a aucun sens. Et cette naissance, par sa densité d'énergie et par sa température, est hors de nos possibilités expérimentales.
 
Les physiciens cherchent à accéder à une théorie unifiée.
Les deux relativités d'EINSTEIN unifient l'espace, le temps et la gravitation, mais n'expliquent pas toutes les lois de la nature.
La recherche de cette théorie unifiée est un des enjeux de la physique théorique.
Si la Relativité Générale et la Mécanique Quantique décrivent très bien leurs domaines respectifs, rien n'existe pour décrire deux cas typiques :
·        le centre d'un trou noir (effondrement d'une étoile),
·        le big-bang (naissance de l'Univers).
Après 30 ans de recherche, la Théorie des Supercordes semble une unification possible.
Cette théorie propose que les particules élémentaires de la matière (électrons et quarks) ne soient plus ponctuels mais soient de minuscules filaments d'énergie dont le mode de vibration est caractéristique d'une particule et définit ses propriétés : les différents modes de vibrations d'une corde correspondant aux différentes particules.
 
La Théorie des Supercordes permet d'unifier les quatre forces connues de la nature :
·        la gravitation,
·        la force électromagnétique,
·        la force forte liant les quarks dans les hadrons,
·        la force faible responsable de la radioactivité.
 
Cependant, la Théorie des Supercordes requiert neuf ou dix dimensions d'espace et une dimension temporelle. Cette théorie indique que nous ne percevons qu'une partie de la réalité, trois dimensions d'espace et une de temps.
Les autres dimensions pourraient être trop petites pour être accessibles à notre perception ou trop vastes.
Les conséquences de cette théorie devraient être testées par des accélérateurs de forte énergie tel le LHC du CERN.
La Théorie des Supercordes et sa généralisation, la théorie M devraient permettre d'accéder à l'origine de l'Univers et à comprendre la flèche du temps ; et plus généralement à comprendre la vraie nature de l'espace et du temps.
 
L'auteur fait des rappels
·        sur la signification de l'espace pour NEWTON, LEIBNIZ et MACH : l'espace a-t-il une existence intrinsèque ou n'existe-t-il que par les éléments qu'il contient ?
·        sur les champs électromagnétiques de FARADAY et MAXWELL, et sur la notion d'éther, l'espace relatif et le temps relatif d'EINSTEIN.
 
Selon la Relativité Restreinte, le déplacement dans l'espace et le déplacement dans le temps sont liés et dépendent de l'observateur. Le temps s'écoule plus lentement pour un observateur en mouvement que pour un observateur fixe. La vitesse de la lumière est une vitesse absolue. Pour tout corps, sa vitesse dans le temps et dans l'espace est égale à la vitesse de la lumière : Quand sa vitesse augmente, son temps local s'écoule plus lentement.
Pour la Relativité Restreinte, il n'existe pas d'espace absolu ni de temps absolu, mais un espace-temps absolu. Dans ce référentiel, seul un mouvement uniforme et rectiligne est une droite, tout mouvement accéléré suit une ligne courbe.
Pour expliquer que l'influence de la gravitation est instantanée et donc dépasse la vitesse de la lumière, EINSTEIN mettra 15 ans à mettre au point la Relativité Généralisée et pour expliquer comment la gravitation exerce son influence, à savoir par un champ de force: le champ gravitationnel.
La gravitation et le mouvement accéléré (l'accélération) sont les deux aspects de la même chose : la force gravitationnelle et la force qui crée un mouvement accéléré sont de même nature. Paradoxalement, étant soumis à la gravitation, nous sommes "accélérés". Seul un objet soumis à aucune force (y compris la gravitation) est stationnaire. EINSTEIN comprit que la gravitation était des déformations de l'espace-temps.
Un espace sans gravitation est "plat". La matière et l'énergie le déforment.
La Relativité Généralisée et ses équations permettent de décrire les mouvements dans l'espace avec une meilleure précision que la théorie de la gravitation de NEWTON.
La Relativité Généralisée prend en compte globalement le temps, l'espace, la matière et l'énergie. En pratique, les effets de la relativité ne sont pas appréciables dans la vie courante, et personne ne peut les ressentir.
 
S'il est facile d'admettre que notre vision de l'espace-temps n'est qu'une vision possible et qu'elle peut être légèrement différente de celle d'une autre personne, il est beaucoup plus difficile de se forger une intuition quantique.
Dans deux cas, en particulier, notre intuition n'est pas vérifiée par la Mécanique Quantique : il est en effet impossible de définir simultanément la position et la vitesse d'un objet (équation d'HEISENBERG), un objet peut agir sur un autre objet très éloigné au même instant (l'Univers n'est pas "local"). Ce qui est contraire au principe de localité de la physique classique et a été vérifié expérimentalement (en particulier par Alain ASPECT). Même EINSTEIN ne l'a jamais admis et il avait tort sur ce point.
 
A une particule, la Mécanique Quantique associe une "onde de probabilité", pour expliquer qu'expérimentalement, une particule peut se comporter comme une onde et n'avoir qu'une probabilité de présence et non une position précise. Quelle que soit la position de l'espace, la probabilité d'y trouver une particule donnée, sera très faible mais non nulle. Il s'agit là d'une constatation qui n'a jamais été mise en défaut, même, si son explication fait depuis 80 ans, l'objet de divergences chez les physiciens.
La constatation de la probabilité de présence n'est pas liée à la précision de la mesure, mais intrinsèque à la particule.
Pour ce problème de "localité" un différend opposa EINSTEIN et BOHR.
EINSTEIN pensait qu'il devait exister au-delà de la Mécanique Quantique, une théorie permettant de définir précisément la position de la particule. Pour BOHR, avant que l'on mesure la position de la particule, celle-ci n'a qu'une probabilité de présence et la question de savoir où elle se trouve n'a même pas de sens. C'est la position de BOHR qui a été retenue au congrès SOLVAY de 1927.
Les expériences faites par Alain ASPECT montrent la réalité de l'impossibilité de mesurer avec précision deux propriétés telles que la vitesse et la position d'une particule, ou son spin selon plusieurs axes. L'auteur détaille la réalisation de ces expériences.
 
Les mesures des spins de deux électrons corrélés ne violent pas la Relativité Restreinte,  car lors de ces mesures, il n'y a pas transfert d'information entre les deux électrons. Si ce transfert existait, il se ferait à une vitesse supérieure à celle de la lumière, puisque les changements de spin des deux électrons sont instantanés, mais ce n'est pas le cas.
L'interprétation est que l'observation d'une particule fait "s'effondrer" son onde de probabilité. Mais à ce jour, personne ne comprend comment, ni pourquoi l'onde s'effondre : par quel mécanisme la localisation d'une particule par exemple à Genève au CERN, fait passer à zéro sa probabilité de présence dans tout le reste de l'Univers
La distance dans l'espace n'atténue pas une corrélation quantique. Cependant, cette intrication reste liée au fait que les particules n'aient aucune interaction avec d'autres éléments, ce qui dans le monde macroscopique est rarement le cas et masque donc cette propriété.
En résumé, la Relativité Généralisée et la Mécanique Quantique coexistent …
 
 
 
(photo de B Greene lors du séminaire Einstein Juillet 2005)
 
Les Relativités Restreinte et Généralisée ont bouleversé l'universalité et l'unicité du temps.
De notre expérience, le temps s'écoule et semble pourvu "d'une flèche", d'un sens unique du passé vers le futur.
Les faits se passent à un instant donné, et nous ne les percevons qu'après cet instant en fonction de la distance entre le fait et nous, quelques milliardièmes de seconde pour un fait se passant à quelques mètres, 8 minutes pour un fait se passant sur le soleil, quelques années pour des faits se passant sur des étoiles proches. Pour deux observateurs en mouvement, à un même instant, les éléments perçus ne sont pas les mêmes. Dans la vie courante ce décalage est négligeable, mais il ne l'est plus si les deux observateurs sont très éloignés dans l'Univers.
 
Le mouvement de l'un par rapport à l'autre entraîne un décalage dans le temps de l'instant qui était le même quand ils étaient immobiles.
 
Une question capitale reste ouverte : La science est-elle incapable de saisir l'aspect fondamental du temps ou est-ce l'esprit humain qui impose un aspect du temps qui n'apparaît pas dans les lois de la physique ?
Même si le temps ne s'écoule pas, les évènements sont distribués dans l'espace-temps suivant un ordre intrinsèque : un œuf peut se casser, mais des morceaux d'œuf ne reconstitueront jamais un œuf indemne. Or les lois de la physique de NEWTON à EINSTEIN affichent une symétrie entre le passé et le futur.
Selon les lois de la mécanique, un objet peut suivre la même trajectoire entre A et B, dans les deux sens, en inversant les forces auxquelles il est soumis, sans que l'on puisse savoir si le temps s'écoule de A vers B ou de B vers A.
L'auteur introduit ensuite la notion d'entropie et le 2ème Principe de la thermodynamique : tout système évolue vers un état d'entropie maximum.
Ceci est patent pour un système impliquant un grand nombre de composants, il a, statistiquement, beaucoup plus de chances d'évoluer vers un état désordonné que vers l'état ordonné. C'est ce qui donne empiriquement la flèche du temps et permet de distinguer le passé du futur. L'évolution spontanée vers l'état ordonné n'est pas impossible, mais improbable. Cependant, les lois de la thermodynamique sont déduites de la loi de NEWTON qui stipule qu'un événement peut se passer dans un sens ou dans  un autre. En conséquence, l'entropie devrait également augmenter vers le passé comme elle augmente vers le futur ; ce qui est contraire à notre intuition, mais cela n'a que peu de valeur en Physique. La seule façon de conclure que vers le passé l'entropie diminue, est que nous venions d'un Univers de très basse entropie à son origine (big-bang).
Il convient de remarquer qu'à toute diminution locale de l'entropie, correspond une augmentation encore plus forte de l'entropie globale. Ranger une pièce conduit à diminuer son entropie, mais au prix d'une entropie encore plus élevée, la chaleur dégagée par la personne qui range.
Cette façon d'appréhender l'évolution cosmique partant d'une entropie très basse, s'appuie uniquement sur la Mécanique Classique.
 
En Mécanique Quantique, selon FEYNMAN, le résultat de l'expérience des faits et des interférences doit prendre en compte la somme de toutes les trajectoires possibles.
Dans l'expérience des interférences de la lumière passant par deux fentes, si l'on place un détecteur pour savoir de quel coté passe la particule on perd la figure d'interférences, même si le détecteur est placé après les fentes. Mais si après "marquage" des particules par un détecteur, on fait disparaître ce marquage, la figure d'interférences revient. Le dispositif de marquage modifie l'onde associée à la particule, mais ne la supprime pas. Dans une autre expérience où l'on ajoute après le passage des fentes deux convertisseurs produisant chacun 2 photons d'énergie moitié de celle du photon initial (un photon "signal" et un photon "passif"), l'expérience étant telle qu'il est impossible de savoir de quel convertisseur vient le photon qui va vers l'écran détecteur. Si l'on efface l'information du chemin suivi par les photons "passif", la figure d'interférence revient avec les photons "signal", or ces photons n'ont reçu aucune information nouvelle, puisque c'est sur les photons "passif" que l'information a été effacée.
Ceci s'explique par le fait que la physique quantique (et le monde réel) n'est pas "local", contrairement à la physique classique et à notre perception du monde.
 
Notre monde obéit bien aux lois quantiques, mais pour nos observations habituelles les lois de NEWTON, MAXWELL ou EINSTEIN sont des approximations pour les décrire de façon précise.
 
La Mécanique Classique, l'Électromagnétisme et les Relativités Restreinte et Générale, traitent le passé et le futur de façon symétrique.
En Mécanique Quantique, 1°) l'onde de probabilité ou "fonction d'onde" est associée à une particule et traduit son évolution, 2°) en effectuant la mesure de sa position, la fonction d'onde s'effondre donnant une probabilité zéro, en tout  point de l'espace, sauf 1 au point où la particule est observée.
Cet "effondrement" a été ajouté par SCHRÖDINGER, pour rendre compte des observations expérimentales. Avant une mesure on ne peut dire où se trouve la particule. Ce n'est évidemment pas le cas pour les objets macroscopiques. De ce fait, la Mécanique Quantique introduit une différence entre avant et après la mesure et donc une flèche au temps. Malgré ce système d'effondrement de l'onde, le pouvoir prédictif de la Mécanique Quantique n'a jamais été mis en défaut. Actuellement, il n'existe pas de solution consensuelle sur le problème de la mesure quantique, malgré de nombreuses études. L'auteur indique différentes propositions d'interprétation dont aucune n'a encore pu être validée expérimentalement.
 
Dans la physique classique, les probabilités sont indépendantes, en Mécanique Quantique les différentes probabilités se combinent pour donner le résultat observé.
D'après ZEH (1970), les photons, les molécules d'air, … perturbent la fonction d'onde des objets macroscopiques de la vie courante, c'est à dire perturbent leur cohérence et anéantissent toute possibilité d'interférence quantique. Dans ce cas, les probabilités quantiques deviennent semblables aux probabilités de la vie courante : c'est le phénomène de décohérence.
Si la fonction d'onde d'un électron lui donne 50% de chance d'être en A et 50% de chance d'être en B, l'appareil de mesure indique lui, soit qu'il est en A, soit qu'il est en B et non un mélange des 2 positions. En conséquence, la mesure ne serait qu'un cas particulier de ce phénomène de décohérence.
Mais dans ce cas, cette interprétation ne répond pas à la question, pourquoi une solution "gagne" parmi toutes celles possibles, et la passerelle établie entre la physique quantique et la physique classique est loin d'être suffisamment élaborée.
 
 
La symétrie entre les directions du temps vers le passé et vers le futur impose, soit que l'entropie initiale était très faible (entropie très basse après le big-bang), soit que l'état où nous sommes, est un coup de chance statistique se produisant de temps en temps dans un Univers éternel. La non-symétrie imposerait que l'entropie diminue vers la passé, ce qui dans les deux cas amène à une origine de l'Univers de basse entropie.
 
On appelle "symétrie", l'invariance dans une "transformation", au sens mathématique de ce mot.
Nous venons d'un Univers autrefois très "symétrique".  
Un exemple de "symétrie" est l'invariance dans la translation : le passage d'un lieu à un autre ne change pas les lois de NEWTON, les lois de MAXWELL ou de toute autre théorie physique. Il convient de prendre en compte les différences d'environnement (l'attraction est différente sur Terre et sur la Lune), mais c'est inscrit dans les lois physiques.
La symétrie par rotation est vérifiée dans l'espace,
Le déplacement à vitesse constante est une symétrie (NEWTON)
Le déplacement en accélération est une symétrie (EINSTEIN)
Selon les théories modernes, les symétries (invariances) sont les fondements dont découlent les lois de la nature.
Le temps implique le changement et par suite l'absence d'une certaine "symétrie".
 
L'expansion de l'espace explique la fuite constatée des galaxies selon la loi de HUBBLE (vitesse d'éloignement proportionnelle à la distance Terre-galaxie), sans privilégier une position dans l'espace.
L'homogénéité du rayonnement micro-onde fossile à grande échelle, permet de définir un concept de temps applicable à tout l'Univers.
Pour expliquer les ruptures de symétrie entre les différentes forces, l'auteur prend comme analogie les transitions de phases d'un corps : solide vers liquide, puis vers gazeux.
 
Aux champs de force (gravitation et électromagnétisme) et aux champs de matière (force forte et force faible) s'ajouterait le champ de Higgs apparu lors du refroidissement de l'Univers et qui donnerait leur masse aux différentes particules de matière.
La particule associée à ce champ, le boson de Higgs, n'a pas été découverte à ce jour.
L'auteur donne l'échelle de temps des grandes ruptures de symétrie, selon le modèle standard du big-bang :
grande unification : 10-35 s 
unification électro faible : 10-11 s
formation des noyaux d'atomes : 1 s
formation des galaxies 109 années
aujourd'hui 1010 années.
 
La flèche du temps est le sens de l'augmentation d'entropie depuis le big-bang.
 
Selon la Relativité Générale, la force gravitationnelle ne dépend pas uniquement de la masse des objets mais aussi de l'énergie et de la variation de pression. Si dans certaines régions de l'espace, la variation de pression devient négative et prépondérante, la gravitation n'est plus attractive mais répulsive. C'est en ajoutant à ces équations une constante cosmologique "bien choisie", qu'EINSTEIN a créé un Univers statique. Cette constante n'ayant un effet appréciable qu'à de très grandes distances, à l'échelle du système solaire son effet est négligeable.
 
Le rayonnement micro-ondes du fond cosmologique est le même, quelles que soient les directions, au 1/1000ème de degré près. Une période de faible expansion avec homogénéisation après le big-bang, suivie d'une expansion très forte (inflation d'un facteur de 1030 à 10100 en 10-35 s ) permet d'expliquer ce phénomène.  .
 
 
Pour évaluer l'expansion de l'Univers, il faut connaître la distance et la vitesse d'éloignement d'astres de référence :
Pour estimer la vitesse, on observe le décalage des raies de l'hydrogène ou de l'hélium et pour la distance on mesure la luminosité des supernovae de type Ia (chandelles standards).
Des mesures faites vers 1990 sur des supernovae de type Ia montrent que depuis 7 milliards d'années l'expansion de l'Univers accélère.
 
D'où l'hypothèse : jusqu'à 7 milliards d'années, la matière ordinaire et sombre donne une expansion décélérée, puis la matière se diluant, c'est l'énergie sombre (les 70% manquants) qui conduit à l'accélération constatée. 
En conclusion, la densité critique, résultant du modèle de l'inflation, est confirmée pour les différentes mesures (matière baryonique, matière sombre, énergie sombre).
Elles montrent que l'Univers serait "plat". A la phase d'inflation a succédé une phase d'expansion ralentie, puis une phase d'expansion accélérée.
 
L'inflation permet d'aborder trois problèmes :
·        la formation des galaxies
·        la quantité d'énergie nécessaire pour obtenir l'Univers observé
·        l'origine de la flèche du temps
 
L'interface entre l'expansion inflationnaire et la Mécanique Quantique permet d'expliquer l'apparition d'hétérogénéités primordiales dans l'Univers. En appliquant la Mécanique Quantique aux champs, on ne peut connaître simultanément en un point, sa valeur et son taux de variation.
L'inflation faisant passer du microscopique au macroscopique, les fluctuations quantiques sont devenues des hétérogénéités qui par effet gravitationnaire, se sont accrues jusqu'à donner des galaxies. L'inflation ne s'est pas arrêtée de façon homogène et les galaxies sont l'expression de l'hétérogénéité quantique.
 
 
Les mesures du rayonnement du fond cosmologique qui ont montré des hétérogénéités de l'ordre de 2/10.000 (satellite COBE puis WMAP) sont cohérentes avec les prévisions des modèles théoriques.
Dans un des modèles de l'inflation, la matière est créée à partir d'une "pépite" de 10-26 cm de diamètre et de masse 10 kg, en "pompant" l'énergie de la gravitation.
 
Mais rien n'explique le pourquoi profond de ces faits : l'inflation reste un modèle à valider. Et nous ne pouvons avec les modèles classiques, atteindre les conditions qui étaient celles avant l'inflation. La théorie des "Supercordes" permet d'y accéder et de concilier la Relativité Généralisée et la Mécanique Quantique.
 
L'objectif de l'unification est de décrire les quatre forces fondamentales par une même théorie quantique.
C'est le Principe d'incertitude qui caractérise la Mécanique Quantique. Il implique qu'un champ ne peut être à la fois nul et avoir une variation nulle, ce qui conduit à repenser la notion de vide, si le champ de HIGGS occupe tout l'espace. Ceci a été validé par la découverte de l'effet CASIMIR, qui a été vérifié par des mesures en 1997.
A très petite échelle (longueur de PLANCK),la Relativité Généralisée n'est plus applicable comte tenu des fluctuations quantiques des champs, ce qui rend ces deux théories incompatibles.
Et certains objets, très petits et très massifs, tels les trous noirs, ne peuvent être décrits ; de même que l'origine de l'Univers et par suite l'origine et la vraie nature de l'espace et du temps.
L'Univers à son origine, doit être décrit par la Relativité Généralisée du fait de sa masse et par la Mécanique Quantique du fait de sa taille, or il y a incompatibilité des deux théories.
 
La Théorie des Supercordes est une proposition de leur union.
En 1968, G VENEZIANO découvre, sans comprendre pourquoi, que la "fonction bêta d'EULER" décrit les interactions fortes.
En 1970, L SUSSKIND, H NIELSEN et Y NAMBU montrent que si l'interaction forte entre 2 particules se transmet par un brin élastique très fin, la "fonction bêta d'EULER" décrit mathématiquement cette interaction. Ce brin fut appelé "corde".
Mais à cette époque, la "chromodynamique quantique" permettait une meilleure description.
SCHWARZ et SCHERK montrèrent que la théorie des cordes mettait en évidence une particule de spin 2 qui devait être le véhicule de la force gravitationnelle, le Graviton.
Fin des années 70-début des années 80, SCHWARZ et GREEN montrèrent qu'en faisant un calcul global, les anomalies de la théorie des cordes s'annulaient. Les composants ultimes n'étaient plus des particules sans dimension, mais des cordes unidimensionnelles de longueur de l'ordre de 10-33 cm, dont les modes de vibrations correspondaient à une des particules de matière - quarks, électrons, neutrinos- ou à une des particules des quatre champs –gluons, photon, W& Z et graviton.
De plus, en limitant les longueurs à un minimum correspondant à la longueur d'une corde (longueur de Planck), les amplitudes des fluctuations quantiques sont limitées (relation d'incertitude) et la Théorie des Cordes fait disparaître l'incompatibilité entre la Mécanique Quantique et la Relativité Générale.
 
En divisant l'espace et le temps, on ne peut aller plus loin que la longueur de Planck (10-33 cm) et le temps de Planck, durée du parcours de la longueur de Planck par la lumière (10-43 s). L'espace et le temps ne seraient pas continus, mais auraient une structure discrète. A cette échelle, la notion d'espace et de temps pourraient ne plus avoir aucune signification ou se transformeraient en d'autres concepts.
 
Le modèle standard suppose que les particules sont ponctuelles, il n'explique, ni pourquoi il y a 3 familles de particules, ni pourquoi chaque famille contient les particules dont elle se compose, ni la valeur de la masse et ni celle de la charge des particules. Pour ce modèle, les particules et leurs caractéristiques sont des données d'entrée. Il fait des prédictions d'une grande précision sur les interactions entre ces particules. Mais ce modèle ne répond pas, en particulier, à la question de savoir pourquoi les particules ont les propriétés requises pour que les réactions nucléaires dans les étoiles, aient lieu. Par contre, dans la théorie des cordes, les propriétés des particules sont déterminées par le mode de vibration des cordes.
Le fait que le photon ou le graviton aient une masse nulle tout en ayant une certaine énergie, s'explique par la Mécanique Quantique : une vibration faible peut avoir une énergie négative, du fait du principe d'incertitude, qui compense l'énergie de vibration positive.
Le mode de vibration de la corde détermine aussi le spin et la charge électrique. Les chercheurs ont découvert qu'à chaque particule de spin entier 0, 1, 2, correspondait une particule de spin ½ : c'est la théorie des cordes super-symétrique ou Théorie des "Supercordes" de 1974, ou plus simplement la Théorie des Cordes.
 
Pour que cette théorie soit viable, il doit exister des modes de vibrations qui correspondent aux modes de vibrations des particules du modèle standard et à celui du boson de Higgs. Elle pourrait expliquer "pourquoi l'Univers est tel qu'il est". Or les premiers modes de vibration correspondent à 1019 fois la masse du proton. Le quark t vaut  10-11 fois la masse de Planck et l'électron 10-23 fois celle-ci. Donc les particules de matière valent à peu près "zéro fois la masse de Planck". Parmi les modes non massifs, il existe un mode de spin 2 (graviton), mais beaucoup plus de mode de modes de spin 1 et de spin ½ que de particules du modèle standard.
De plus, la théorie montre que les cordes pour être intéressantes doivent évoluer dans un Univers à 10 dimensions.
Cependant en 1919, T. KALUZA avait montré que l'on pouvait unifier la gravité et l'électromagnétisme en utilisant un espace à 5 dimensions spatio-temporelles. Cependant, dans cet espace à 5 dimensions on ne pouvait inclure l'électron.
En 1926, O. KLEIN proposa que l'Univers ait des dimensions "cachées" de petite taille : par exemple pour un funambule, le câble sur lequel il se déplace a une dimension, mais pour une fourmi ce câble a deux dimensions : sa longueur et sa circonférence..
 
30 ans plus tard, les équations quantiques de la Théorie des Cordes montrèrent qu'elles ne fonctionnaient que dans un espace-temps à 9 dimensions : Soit en chaque point de l'espace ordinaire à 3 dimensions, 6 dimensions de taille suffisamment petites qu'elles échappaient à nos sens et à nos mesures.
Ces 6 dimensions de forme particulière, devraient être des espaces à 6 dimensions de Calabi-Yau, des noms de 2 mathématiciens.
C'est une des équations de la théorie des cordes qui impose que l'espace ait 9 dimensions.
La forme et l'étendue des dimensions supplémentaires ont un rôle primordial sur les résultats des équations et donc sur les caractéristiques des vibrations. Ce sont les calculs faits avec des dimensions uniformes et plates, qui donnaient des valeurs hors de proportion avec les caractéristiques des particules (voir ci-dessus).
Cependant, obtenir la forme et l'étendue des dimensions cachées, nécessite la résolution exacte des équations ce qui est, actuellement, hors de notre portée. Des calculs approchés donnent des résultats proches des caractéristiques des particules de matière et de temps. Ils correspondent à des espaces de Calabi-Yau à "trois trous".
 
Bien que les chercheurs travaillent depuis 30 ans sur la théorie des cordes, il manque un principe fondamental qui résume cette théorie, comme le Principe d'Équivalence en Relativité Générale ou le Principe d'Incertitude en Mécanique Quantique.
Les 5 théories des cordes élaborées depuis 1970, ont été unifiées en 1990 par E. WITTEN qui a montré qu'elles étaient 5 manières mathématiques d'étudier une seule théorie : la Théorie" M".  
 
Les équations de la Théorie des Cordes étaient très difficiles à résoudre et les études avaient porté sur des équations approchées dont les solutions passaient parfois à côté de certains problèmes clés.
Certains problèmes étaient plus faciles à résoudre avec une des versions de la théorie M qu'avec les 4 autres.
WITTEN a montré que l'espace pour la théorie M devait être à 10 dimensions spatiales et non 9, et par suite l'espace-temps devait avoir 11 dimensions.
Un autre aspect primordial est que la Théorie des Cordes pouvait aussi contenir des éléments à plusieurs dimensions appelés "p-branes", par analogie aux membranes à 2 dimensions (2-branes), avec p < 10, tout en conservant les "symétries" nécessaires. Or, les équations approchées n'avaient pas pu mettre en évidence         les "p-branes".
A la limite, la totalité de notre espace pourrait n'être qu'une gigantesque brane, à au moins 3 dimensions.
 
Les cordes ouvertes, selon la Théorie des Cordes, doivent se déplacer sur certains "lieux" qui seraient des         p-branes ayant les bonnes propriétés. Les propriétés des branes seraient pour l'essentiel contenues dans des cordes qui s'attachent à elles.
Si notre Univers est une 3-brane, les photons, d'après leur mode de vibration, sont liés à cette 3-brane ainsi que la force électromagnétique. C'est avec les photons de cette force que nous pouvons sonder l'espace (oeil, rayons X et g). Comme ils sont liés à cette brane, nous ne pouvons donc pas "voir" les autres dimensions même si celles-ci ne sont pas enroulées et ont une étendue spatiale. De même, les particules messagères de la force forte et de la force faible et les particules de matière, sont des cordes ouvertes liées à cette 3-brane.
Cependant, les gravitons proviennent des modes de vibration de cordes fermées qui ne sont pas liées à la 3-brane et peuvent interagir avec les dimensions cachées.
 
La loi de la gravitation en 1/r², est représentative d'un espace à 3 dimensions : dans un espace à 2 dimensions cette loi serait en 1/r, dans un espace à 4 dimensions en 1/r3 : quand on s'éloigne d'un astre la densité des lignes de champ varie respectivement en 1/r, 1/r², 1/r3, selon que l'espace a 2, 3, 4 dimensions. Ainsi dans un espace à 1 dimension, la gravitation est constante, quelle que soit la distance.
La validité de la loi de la gravitation a été vérifiée pour de très grandes distances et jusqu'à 1/10 mm. A des distances inférieures, la modification de cette loi pourrait être l'indice de la présence de dimensions enroulées. Fig13.6.
Un autre modèle serait la présence de deux 3-branes, ayant des éloignements et des rapprochements cycliques de plusieurs millions de milliards d'années sans étape inflationnaire..
Pour ces deux modèles, inflationnaire ou cyclique, les conditions initiales ne sont pas définies dans leur théorie. Actuellement, il n'existe pas d'éléments discriminant permettant de retenir un des deux modèles.
Dans un espace à 1 dimension, à grande distance la gravitation est une constante, mais s'il existe une dimension enroulée, quand 2 corps se rapprochent à des distances inférieures à la dimension enroulée, la gravitation devient celle d'un espace à 2 dimensions.  Fig 13-6 a et b
 
Si nous vivons sur une 3-brane, les dimensions supplémentaires ont moins de 1/10 de mm ou même plus si l'on tient compte de leur courbure.
Si la gravitation s'étendait dans d'autres dimensions, elle pourrait perdre la faiblesse que l'on constate dans nos 3 dimensions, et par suite, la taille des cordes associées (graviton) pourrait être supérieure à la longueur de Planck et atteindre 10-16 cm, au lieu de 10-33 cm. Elles pourraient, dans cette hypothèse être détectées au LHC (du CERN). On pourrait même y détecter des trous noirs miniatures, si la gravitation est très forte à très faible distance. Cependant, l'auteur semble très prudent quant à ces possibilités.
 
Des expériences sont en cours ou prévues pour répondre aux questions :
·        des dimensions supplémentaires
·        sur la composition de la matière noire et de l'énergie noire
·        sur l'origine de la masse des particules, et sur le champ de Higgs
·        sur la validité de la supersymétrie et de la théorie des cordes.
 
Une expérience sur le satellite "Gravity Probe B" permettra  de tester la prévision de la Relativité Générale concernant "l'entraînement des repères". Des études sur le mouvement de la Lune et des satellites artificiels ont déjà apporté des indices imputables à cet effet.
L'interféromètre LIGO et 2 interféromètres aux USA devraient vérifier si les ondes gravitationnelles sont réelles. Ces ondes peuvent être générées par tout corps massif et elles permettraient des études du cosmos sous un angle différent des études actuelles.
Les dimensions supplémentaires peuvent être mises en évidence par des mesures gravitationnelles si ces dimensions sont > 10-18 cm.
La production de mini trous noirs par le LHC, serait aussi une preuve des dimensions cachées car elle montrerait que la gravitation à petite échelle est plus intense que prévue dans l'espace tridimensionnel, car cette production est impossible aux énergies maxima du LHC, si ce n'est pas le cas.
L'Observatoire Pierre Auger, en Argentine, doit permettre de déceler les conséquences de la production de mini trous noirs par les rayons cosmiques les plus énergétiques (107 fois l'énergie des particules produites par le LHC), mais il faudrait que les dimensions cachées atteignent 10-14 mm, pour que les résultats obtenus en une année puissent mettre en évidence ces mini trous noirs.
Des "pertes d'énergie" lors des collisions dans l'accélérateur du Fermilab ou  dans le LHC, pourraient révéler des "fuites" d'énergie vers les dimensions cachées (énergie des gravitons).
L'accélérateur du Fermilab et surtout le LHC devraient produire des bosons de Higgs, si leur masse estimée, de 100 à 1000 fois celle du proton, est bonne. La découverte de cette particule confirmerait la présence du champ de Higgs.
Un autre objectif de ces accélérateurs est la confirmation de la Supersymétrie et des "particules supersymétriques" associées aux particules connues. Ces particules d'après cette théorie auraient des masses voisines de 1000 fois la masse du proton. Leur découverte serait une première étape dans la validation de la Théorie des Cordes.
Dans la théorie incluant les branes, les cordes les moins énergétiques auraient des énergies d'environ 1000 fois la masse du proton.
 
La découverte des petites variations du rayonnement du fond cosmologique, avec le satellite COBE en 1992, puis la confirmation plus précise avec le satellite WMAP, a permis de faire le tri dans les différents modèles cosmologiques proposés. Les résultats des satellites WMAP et Planck devraient permettre de choisir parmi  les modèles "inflationnaires" restant et de vérifier la pertinence du modèle "cyclique".
Le détecteur LIGO pourrait, sous certaines hypothèses théoriques, détecter les conséquences des ondes gravitationnelles créées par l'inflation.
 
Un des succès du modèle cosmologique est la concordance entre ses prévisions et les constatations de l'abondance relative des éléments hydrogène, hélium, deutérium et lithium dans l'Univers observable. Cependant, la matière identifiée correspond à 5% de l'énergie totale de l'Univers. Les particules supersymétriques sont des candidats à être les 25 % de l'énergie correspondant à la matière noire. L'expérience SNAP (Super Novae Acceleration Probe satellite) a pour but de valider les 70 % d'énergie noire et pourrait apporter des précisions sur sa nature et sur la phase actuelle d'expansion de l'Univers. Son lancement est prévu vers 2015.
La compréhension de l'électromagnétisme a permis la conception du télégraphe, de la radio, de la télévision, l'approfondissement de la Mécanique Quantique a permis celle de l'ordinateur, du laser et de tous les gadgets électroniques, la connaissance  des forces nucléaires, celles d'armes mais aussi des centrales nucléaires à fission et peut-être à fusion. Un jour, notre maitrise de l'espace et du temps pourrait ne plus être de la science-fiction.
 
La téléportation consisterait à faire une analyse détaillée des atomes et molécules de l'objet à traiter et de le reconstruire à un autre endroit, soit avec les mêmes atomes et molécules, soit avec d'autres présents à cet endroit.
Deux particules du même type, par exemple deux électrons, ont les mêmes propriétés et sont identiques quand elles sont dans le même état quantique, même en des lieux différents.
Dans un Univers gouverné par la physique "classique", le seul obstacle à la téléportation serait la complexité.
Dans notre Univers quantique, cela semble impossible, car le fait d'analyser l'objet perturbe son état quantique.
Cependant des physiciens ont réussi à contourner le problème.
L'auteur explique comment en 1997, la téléportation d'un endroit L1 en un autre L2 d'une particule (A) a été réalisée avec l'aide de 2 particules intriquées (B), qui était en L1 et (C), qui était en L2 : La théorie quantique permet de savoir comment (A) et (B) sont reliés. (B) et (C) étant intriquées, on sait donc, en L1, comment (A) et (C) sont reliés. En téléphonant cette information en L2, on saura comment y manipuler (C) pour qu'elle ait un état identique à (A), avant la mesure faite sur (A) et (B). Cela revient à la téléportation de (A) en L2.
La mesure directe de l'état quantique de (A) aurait modifié son état, d'où le passage par des particules intriquées. De plus, ici l'état quantique de (A) reste inconnu.
Pour la téléportation d'êtres humains, le problème (philosophique) consiste à savoir si l'individu se réduit à l'état quantique des différentes particules qui le constituent, indépendamment de la complexité pratique !
 
Le voyage dans le temps (vers le futur) est contenu dans la Relativité Restreinte : tout voyage à grande vitesse ralentit l'horloge du voyageur et à son retour, le temps au lieu de départ s'y étant écoulé plus vite, il aura voyagé aussi vers le futur. Les limitations sont actuellement techniques, il faut voyager à des vitesses voisines de la lumière, et physiologiques, pouvoir supporter les accélérations pour atteindre cette vitesse en des durées raisonnables.
 
L'auteur parle des paradoxes liés au voyage vers le passé, et explique pourquoi ce n'en sont pas.
Vouloir changer les évènements du passé, reviendrait à changer des éléments pour lesquels la notion de changement n'a pas de sens, selon la physique classique.
Le débat de savoir si la physique quantique est déterministe ou non, n'est actuellement pas tranché.
Si nous n'avons pas de libre arbitre, il sera impossible de modifier la passé.
Si nous avons notre libre arbitre, les modifications que nous ferons lors d'un voyage dans le passé, se feraient dans un Univers parallèle, un autre chemin quantique possible, et non dans l'Univers dans lequel nous étions lors de notre départ vers le passé.
Ceci explicite seulement le fait, que ne pas pouvoir exclure une possibilité, ne démontre pas qu'elle soit possible.
De nombreux chercheurs, dont Gödel, ont cherché à montrer que la possibilité de remonter dans le temps n'était pas contradictoire avec la Relativité Générale.
Un "trou de ver" est un tunnel hypothétique qui rejoint deux régions de l'espace à travers un tube d'espace nouveau. C'est une singularité de l'espace prévue par la Relativité Générale, il fait partie de la famille des trous noirs.
C'est aussi un raccourci à travers le temps. Actuellement, on n'a pas démontré qu'il était impossible de voyager dans le temps, bien que cela soit très improbable pour l'auteur.
 
Les concepts d'espace et de temps, pourraient ne pas être les ingrédients fondamentaux de l'Univers, de même que les notions de dureté ou de parfum n'ont plus de sens au niveau des atomes et des particules.
Nous percevons un espace et un temps, lisses et sans fluctuations quantiques, comme une image pixélisées a, vu de loin, un aspect continu. Nous ne percevons qu'une "moyenne" sans percevoir le détail de "quelque chose" de fondamental.
L'espace et le temps ne sont pas divisibles à l'infini du fait de l'agitation quantique à la distance et au temps de Planck. A cette échelle, l'espace-temps pourrait être aussi différent que les notes de musique le sont de la symphonie dont elles sont les constituants.
 
La Théorie des Cordes comporte 5 versions et l'on peut passer de l'une à une autre par "traduction"                         (E. WITTEN). Elles sont (mathématiquement) duales : pour une version, une dimension enroulée en Calabi-Yau, avec une énergie donnée pour les cordes, devient pour la version duale, une dimension enroulée en un autre Calabi-Yau, avec une autre énergie pour les cordes. C'est à dire que la notion d'Espace pourrait n'être qu'un phénomène secondaire, chaque version de la théorie décrivant sa version de l'espace-temps. Mais quelle est alors l'entité intrinsèque ?
 
Un trou noir de taille donnée correspond à l'entropie maximum que peut avoir une zone de même taille. Son entropie est proportionnelle à sa "surface" (horizon). Un trou noir ayant la surface d'un carré de côté la longueur de Planck, est la plus petite unité d'entropie. Cette surface est aussi l'entité élémentaire de surface.
Le fait que l'entropie maximum soit proportionnelle à la surface et non au volume du trou noir, montre qu'une théorie qui inclut la gravité est plus simple (à moins de degrés de liberté) qu'une qui ne l'inclut pas. De plus, les phénomènes physiques de l'Univers se dérouleraient sur une surface et ce que nous en percevons serait leurs projections dans l'espace. D'où l'idée que notre Univers pourrait ressembler à un hologramme.
Maldacena en 1997, a étudié un espace-temps à 5 dimensions plus des dimensions enroulées prévues par la théorie des cordes où la physique était équivalente à celle de l'Univers frontière (espace-temps à 4 dimensions plus les dimensions enroulées) : il s'agit d'une application du Principe Holographique incluant la Théorie des Cordes, qui est un indice supplémentaire que l'espace-temps ne serait pas fondamental, car la taille, la forme et le nombre des dimensions changent en passant  d'un espace à l'autre, alors qu'ils sont équivalents. L'espace-temps est changé comme le mot "chapeau" devient "hat" en anglais.
L'auteur pense que le Principe Holographique est appelé à jouer un rôle très important.
 
La proposition que l'espace-temps soit tissé de cordes, nécessite une formulation de la théorie dans laquelle l'espace-temps serait le résultat du comportement collectif des cordes. Ceci reste le principal problème non résolu de cette théorie. La place des branes reste à trouver, à moins de considérer que les cordes et les branes ont un constituant élémentaire, tel que la zéro-brane , brane ponctuelle, mais à laquelle sont liées des cordes qui lui donne leurs propriétés, évitant ainsi, le problème engendré par les particules ponctuelles de la théorie classique.
 
La Gravitation Quantique à Boucles est une théorie concurrente  pour l'unification de la Relativité Générale et de la Mécanique Quantique. Cette théorie part de la Relativité Générale pour y intégrer la Mécanique Quantique, alors que la Théorie des Cordes est partie de la démarche inverse. On s'est aperçu que la Théorie des Cordes élaborée comme théorie quantique de la force nucléaire forte, incluait de fait la gravitation. Les failles d'une théorie se révèlent être les faiblesses de l'autre. La théorie quantique à boucles montre aussi que l'espace-temps est discret. Les deux théories concordent pour traiter l'entropie des trous noirs. Une possibilité est que l'espace-temps inhérent à la Gravitation Quantique à Boucles puisse être intégré à la Théorie des Cordes pour laquelle l'espace-temps doit être ajouté comme toile de fond.
 
De même que les étoiles et les galaxies sont les traces de l'agitation quantique résultant de l'expansion de l'espace, l'Univers porte-t-il les traces de phénomènes ou de propriétés correspondant à une échelle encore plus petite et qui nous resterait à découvrir ?
 
La puissance des accélérateurs de particules, et l'observation et l'interprétation de la structure de l'Univers pourraient apporter une confirmation des théories de l'espace, du temps et de la matière.
 
 
 
Merci encore à Jean Holtz pour ce travail exceptionnel.
 
 
 
chickens_up.gif
 
 
LES MAGAZINES CONSEILLÉS :.ESPACE MAGAZINE FÉVRIER (n°35) SORT LE 16 (10/02/2008)
 
 
Avec le décollage d'Atlantis le 7 février, l'Europe spatiale s'apprête à franchir une étape majeure :
disposer d'un laboratoire scientifique en permanence sur orbite, Columbus !
ESPACE Magazine revient sur l'épopée de ce projet (un quart de siècle) et aborde aussi d'autres thèmes d'actualité tout en revenant sur des pages peu connues de l'histoire de l'astronautique comme le disque de silicone d'Apollo 11 ou l'avion spatial français des années 1960.
 
 
 
 
Au sommaire de ce numéro
 
 
 
 
 
 
- Columbus & ATV
Un dossier complet pour saisir les deux prochaines participations majeures de l'Europe à la Station Spatiale Internationale.
Columbus : son histoire et une interview de l'astronaute Frank De Winne.
ATV : une mission en images et les interviews de Jean-François Clervoy (astronaute) et Jean-Yves Le Gall (PDG d'Arianespace).
 
- Messenger : retour vers Mercure
33 ans après Mariner 10, une sonde revient vers la planète la plus proche du Soleil et les surprises ne manquent pas.
 
- Ares I dans la tourmente
Le futur lanceur de la NASA est vivement critiqué : réel problème technique ou défaut de communication ?
 
- Mars Cruiser One
Une étude européenne pour un rover martien habité.
 
- Le disque oublié d'Apollo 11
Armstrong et Aldrin ont laissé sur la Lune un disque de silicone contenant les messages de dizaines de chefs d'état.
Mais qui s'en souvient ?
 
- VERAS : l'avion spatial français
Retour sur un projet méconnu des années 1960.
 
Et bien d'autres sujets : le Shenlong chinois, les WC spatiaux (partie 2), l'Ariane 5 ES ATV, l'Asie et les satellites, etc. 
 
 
 
 
 
 
chickens_up.gif
 
 
 
C'est tout pour aujourd'hui!!
 
Bon ciel à tous!
 
JEAN PIERRE MARTIN
 
 
Astronews précédentes : ICI