forum astronomie pour amateur et pro
Vous souhaitez réagir à ce message ? Créez un compte en quelques clics ou connectez-vous pour continuer.
forum astronomie pour amateur et pro

Le lieu idéal pour discuter du matériel utilisé en astronomie et nous faire profiter de vos photos astronomiques personelles.
 
AccueilAccueil  RechercherRechercher  Dernières imagesDernières images  S'enregistrerS'enregistrer  Connexion  
Le deal à ne pas rater :
Funko POP! Jumbo One Piece Kaido Dragon Form : où l’acheter ?
Voir le deal

 

 l'univers

Aller en bas 
AuteurMessage
oregon
Invité




l'univers Empty
MessageSujet: l'univers   l'univers EmptyMer 31 Mai à 6:51

Les distances dans la Galaxie

L'un de problèmes auquel les astronomes ont de tout temps été confrontés est celui de l'échelle des distances dans l'Univers : la mesure de la distance des planètes, étoiles, galaxies et objets célestes que nous pouvons observer. Il n'existe hélas pas de méthode unique permettant de mesurer la distance à un corps céleste. Les astronomes sont alors obligés de travailler par étape, en utilisant plusieurs types de méthodes, chacune s'appliquant à un domaine donné, par exemple les étoiles proches ou les galaxies lointaines. Ils doivent construire petit à petit une échelle des distances de l'Univers, en commençant par établir celle des objets les plus proches, du système solaire aux étoiles de la Voie Lactée, puis en s'éloignant peu à peu pour finir par déterminer l'éloignement des galaxies les plus lointaines.

Dans cette échelle des distances, chaque échelon s'appuie sur les précédents. Par exemple, pour déterminer la distance aux étoiles lointaines, il faut d'abord bien connaître celle des étoiles proches. Le problème de ce type de démarche réside dans le fait que si l'une des méthodes est peu précise, toutes les suivantes en pâtissent. En conséquence, la précision des mesures décroît avec la distance : les dimensions du système solaire sont connues avec une très grande précision, mais les distances aux galaxies lointaines souffrent de grandes incertitudes.

Le système solaire

L'échelle des distances commence avec le système solaire, le domaine dans lequel les résultats sont les plus précis. Certains astronomes grecs avaient déjà une idée des distances mises en jeu il y a plus de 2000 ans, mais c'est surtout après le XVIIe siècle que les mesures s'affinèrent. De nos jours, des méthodes très sophistiquées peuvent être utilisées, comme l'étude du mouvements des sondes spatiales qui sillonnent le système solaire, l'utilisation de signaux radars, ou même, dans le cas de la Lune, des mesures à l'aide d'un rayon laser.

Les méthodes géométriques

La deuxième étape consiste à appliquer des méthodes géométriques aux étoiles ou aux amas proches. Nous avons déjà étudié les deux principales méthodes : la parallaxe trigonométrique, qui repose sur l'oscillation apparente des étoiles proches dans le ciel du fait de la révolution de la Terre autour du Soleil, et la méthode du point de convergence, qui exploite le fait que les étoiles d'un amas semblent converger vers un point du ciel. Ces méthodes sont efficaces jusqu'à une distance d'environ 300 années-lumière et ont joué un rôle essentiel. En effet, en ayant pu mesurer à la fois la distance et la luminosité apparente de plusieurs étoiles, les astronomes ont réussit à calculer leur luminosité intrinsèque. En analysant également le type spectral, ils ont été en mesure d'établir le diagramme de Hertzsprung-Russel qui a joué un rôle fondamental dans notre compréhension des étoiles.

La parallaxe spectroscopique

Le diagramme de Hertzsprung-Russel peut également servir à mesurer la distance à des étoiles lointaines. En effet, en observant le spectre d'une étoile, on peut déterminer son type spectral. Avec cette information, il est possible d'estimer, grâce au diagramme, sa luminosité intrinsèque. Enfin, en comparant cette dernière à la luminosité apparente de l'étoile, on calcule facilement sa distance. Cette méthode est appelée parallaxe spectroscopique et permet d'atteindre des distances de 300 000 années-lumière. Elle est très souvent la seule méthode applicable à une étoile lointaine, mais elle présente le défaut d'être peu précise.

La méthode précédente peut être améliorée lorsque l'on a affaire à un amas stellaire. Comme toutes les étoiles se trouvent alors à la même distance de la Terre, leurs luminosités sont toutes affectées de la même façon. Si l'on trace le diagramme de Hertzsprung-Russel de l'amas en utilisant les luminosités apparentes, l'effet de la distance est de décaler globalement toute la séquence principale par rapport au diagramme normal. La mesure du décalage donne alors directement la distance en jeu. Cette méthode est bien plus précise que la précédente car le fait d'utiliser un grand nombre d'étoiles permet de largement réduire les incertitudes.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:52

Les distances au-delà de la Galaxie

Indicateurs primaires

Avec la méthode de la parallaxe spectroscopique appliquée aux amas, il est possible de mesurer la distance des étoiles des Nuages de Magellan, mais pas au-delà. Pour continuer la construction de l'échelle des distances, il faut recourir aux étoiles variables, RR Lyrae ou céphéides. C'est cette méthode, qualifiée de parallaxe photométrique, que Harlow Shapley et Edwin Hubble utilisèrent pour déterminer la taille de la Galaxie et la distance à Andromède.

Ces étoiles variables ont la particularité d'avoir une luminosité intrinsèque facile à estimer. En mesurant leur luminosité apparente, il est alors possible, de calculer leur distance. Avec ce type d'étoiles, qualifiées d'indicateurs primaires, on peut atteindre avec des télescopes terrestres des distances de l'ordre de 10 millions d'années-lumière, ce qui englobe la galaxie d'Andromède et tout le Groupe Local. Le télescope spatial, grâce à sa capacité à voir des détails très fins, a pu de façon plus récente utiliser cette méthode sur des distances 10 fois supérieures.

Indicateurs secondaires

Pour mesurer la distance des galaxies plus lointaines, celles où les céphéides ne sont plus visibles, il faut faire appel à ce que l'on appelle des indicateurs secondaires. Il s'agit de différents types d'objets beaucoup plus brillants que les céphéides et dont nous sommes en mesure d'estimer la luminosité intrinsèque de façon théorique. La procédure est alors la même. A partir de la mesure de la luminosité apparente, il est facile de remonter à la distance.

Parmi les indicateurs secondaires, on peut citer les supernovae de type I, qui présentent toujours la même luminosité intrinsèque lorsqu'elles atteignent leur éclat maximum. On compte aussi les amas globulaires, les étoiles supergéantes bleues et les novae, chacun de ces groupes d'objets possédant une luminosité moyenne bien définie. On peut également ajouter les régions HII, car leur taille maximale dans une galaxie est toujours la même, ce qui permet en mesurant les dimensions apparentes de remonter à la distance. En utilisant ces indicateurs secondaires, il est possible de déterminer des distances jusqu'à une centaine de millions d'années-lumière.

Indicateurs tertiaires

Lorsque même ces objets brillants ne sont plus visibles, on cherche à utiliser les propriétés globales des galaxies, qualifiées d'indicateurs tertiaires. Il existe par exemple une relation, appelée la loi de Tully-Fisher, entre la luminosité intrinsèque d'une galaxie spirale et sa vitesse angulaire de rotation. Or, il est possible de déterminer cette dernière par des observations de l'effet Doppler qui affecte la raie de 21 cm de l'hydrogène atomique. Il est donc possible de déterminer la luminosité intrinsèque totale de la galaxie considérée et d'en déduire, connaissant sa luminosité apparente, la distance.

Une autre relation, la loi de Faber-Jackson, existe pour les galaxies elliptiques et relie leur luminosité totale à l'agitation des étoiles en leur sein. Cette dernière est également mesurable grâce à l'effet Doppler et permet finalement de remonter à la distance. Les divers indicateurs tertiaires permettent en gros d'atteindre des distances de l'ordre de 500 années-lumière.

Il est possible d'aller encore plus loin en faisant l'hypothèse grossière que toutes les galaxies d'un type donné ont la même luminosité totale. On peut alors atteindre plus d'un milliard d'années-lumière, au prix d'une moindre précision.

La loi de Hubble

A des distances aussi énormes, la vitesse des galaxies est entièrement due à l'expansion de l'Univers. La vitesse particulière de chacune est complètement négligeable, ce qui n'était pas le cas pour les plus galaxies proches. Dans ces conditions, les galaxies suivent exactement la loi de Hubble sur la proportionnalité entre vitesse et distance.

Ceci a deux conséquences. D'abord nous pouvons utiliser les observations de ces galaxies lointaines pour estimer la constante de Hubble. Il suffit de prendre un large échantillon de galaxies lointaines, de déterminer leur vitesse à l'aide de l'analyse spectrale, et d'estimer leur distance grâce aux indicateurs tertiaires. On peut alors calculer le rapport vitesse sur distance et estimer la constance de Hubble. Bien sur, la précision ne sera pas très grande puisque le calcul repose sur toute une chaîne de méthodes différentes et est donc affecté par l'accumulation d'incertitudes.

La deuxième conséquence se base sur le principe inverse. Une fois la constante de Hubble déterminée, nous possédons le moyen ultime d'estimer la distance aux galaxies les plus lointaines et aux quasars. Puisque ces objets obéissent à la loi, il suffit d'analyser leur spectre pour calculer leur décalage vers le rouge et leur vitesse. Ce résultat divisé par la constante de Hubble donne alors tout simplement la distance. Cette méthode fonctionne bien pour les objets les plus éloignés, à condition bien sur qu'il soit possible de capturer suffisamment de leur lumière pour être en mesure d'effectuer une analyse spectrale.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:52

La constante de Hubble et l'âge de l'Univers

Premières mesures

La construction d'une échelle des distances de l'Univers à donc permis aux astronomes de s'attaquer à la mesure de la constante de Hubble H0. Les premières estimations vinrent avec la découverte de l'expansion elle-même. Hubble calcula alors une valeur de 500 kilomètres par seconde et par mégaparsec. Cette valeur était très élevée car Hubble ignorait qu'il existait deux types de céphéides de luminosités différentes. En mélangeant les deux types, il commettait une erreur qui surestimait H0. Ceci fut réparé dans les années 1950 par l'Allemand Walter Baade qui divisa la constante par deux.

Un peu plus tard, l'Américaine Allan Sandage, un ancien étudiant de Hubble, mit à jour un autre problème. Certains des objets brillants que Hubble avait pris pour des étoiles lumineuses dans des galaxies lointaines se révélèrent en fait être des amas ou des régions HII. La constante fut a nouveau modifiée pour atteindre une valeur de 75. Après quelques derniers réarrangements, elle se fixa finalement à une valeur légèrement supérieure à 50 kilomètres par seconde et par mégaparsec, dix fois plus petite que l'estimation de Hubble.

Cette faible valeur fut acceptée jusqu'en 1976, lorsqu'un autre astronome américain, Gérard de Vaucouleurs, s'attaqua au problème en utilisant une plus grande variété d'indicateurs de distance. Il arriva à une valeur proche de 100 kilomètres par seconde et par mégaparsec, pratiquement deux fois supérieure à celle de Sandage. Après cette date, deux écoles s'affrontèrent, accumulant observation sur observation sans pour autant que les deux estimations ne se rapprochent.

Les mesures récentes

Grâce à sa capacité à voir des détails très fins, le télescope spatial est en mesure d'observer des céphéides dans des galaxies lointaines où ses confrères terrestres ne peuvent plus distinguer les étoiles. Il est en particulier capable de détecter des céphéides dans les amas de la Vierge et de Fornax, deux amas de galaxies très riches situés à une soixantaine de millions d'années lumière. Jusqu'alors, la distance aux galaxies de ces amas ne pouvait être mesurée qu'indirectement en s'appuyant sur des indicateurs secondaires. Grâce au télescope spatial, il fut possible de se servir d'indicateurs primaires, les céphéides, donc d'obtenir une plus grande précision.

L'un de projets les plus importants du télescope spatial fut donc de déterminer H0. Une équipe internationale fut assemblée qui observa 18 galaxies sur une période de huit ans et découvrit près de 800 céphéides. Cette équipe publia ses résultats en 1999 et annonça sa mesure de la constante : 70 kilomètres par seconde et par mégaparsec, à 10 pour cent près. Deux ans plus tard, la valeur fut encore légèrement affinée pour atteindre 72 kilomètres par seconde et par mégaparsec.
WMAP
Le rayonnement fossile mesuré par le satellite WMAP en 2003. Les zones de différentes couleurs sont des fluctuations infimes de la température du rayonnement dans différentes directions du ciel. Ces fluctuations sont le résultat de variations dans la densité de l'Univers primordial. Une analyse poussée de ces fluctuations a permis de déterminer avec une grande précision la valeur de la constante de Hubble et l'âge de l'Univers. Crédit : NASA/WMAP

La détermination la plus récente et la plus précise de la constante de Hubble repose sur une méthode complètement différente. Le satellite WMAP fut lancé en 2001 pour prendre des mesures très précises du rayonnement fossile, un rayonnement qui emplit l'Univers et date de quelques centaines de milliers d'années après le Big Bang. Ce rayonnement n'est pas complètement uniforme mais varie très légèrement lorsque l'on observe des directions différentes du ciel. Les théoriciens ont montré que ces fluctuations dépendent de plusieurs paramètres, en particulier de la vitesse d'expansion de l'Univers. Les mesures extrêmement précises de WMAP ont donc permis de calculer une nouvelle valeur plus affinée de H0 : 71 kilomètres par seconde et par mégaparsec, à 5 pour cent près.

L'âge de l'Univers

Maintenant que nous connaissons à peu près la valeur de la constante de Hubble, nous pouvons essayer de l'utiliser pour estimer l'âge de l'Univers. Imaginez que vous observiez au loin une voiture qui s'éloigne et que vous soyez capable par un moyen ou un autre de mesurer sa vitesse, disons 60 kilomètres à l'heure, et sa distance, un kilomètre. En supposant que la voiture a roulé à vitesse constante, vous pouvez immédiatement calculer qu'elle roule depuis 1 minute.

Le problème est plus ou moins le même pour une galaxie lointaine. Si nous sommes capables de mesurer à la fois sa distance et sa vitesse, nous pouvons déterminer depuis combien de temps elle s'éloigne de nous, donc l'âge de l'Univers. Il suffit en fait de diviser la distance de la galaxie par sa vitesse de récession. D'après la loi de Hubble, il se trouve que le résultat sera tout simplement égal à l'inverse de H0. Ainsi, par exemple, plus la constante de Hubble est grande, plus l'Univers est jeune.

Notons que le calcul précédent n'est correct que si la vitesse d'expansion est constante. En reprenant l'exemple précédent, si la voiture qui s'éloigne a constamment décéléré, sa vitesse moyenne sur le parcours est plus grande que celle que vous mesurez maintenant. Donc la durée réelle du trajet est plus courte que ce que la vitesse actuelle de la voiture semble indiquer. De même, si l'Univers a accéléré ou décéléré lors de son expansion, les estimations doivent prendre en compte un paramètre de correction.

Finissons donc avec les résultats les plus récents. L'équipe en charge de mesurer la constante de Hubble en utilisant le télescope spatial a estimé l'âge de l'Univers à une valeur comprise entre 13 et 14 milliards d'années. Les observations du satellite WMAP estiment quant à elles la valeur à 13,7 milliards d'années avec une marge d'erreur époustouflante d'un pour cent.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:52

L'âge de l'Univers par ses constituants

Les estimations de l'âge de l'Univers basées sur la constante de Hubble reposent sur des considérations purement cosmologiques et sur l'hypothèse que notre description de l'évolution de l'Univers est correcte. Il convient donc d'essayer de vérifier ces estimations de façon indépendante. La nature fait bien les choses puisque l'expansion n'est pas le seul moyen que nous ayons à notre disposition. En effet, nous pouvons également calculer l'âge de certains constituants de l'Univers, ce qui nous offre une valeur minimale de l'âge de ce dernier.

Plusieurs méthodes différentes

Nous pouvons par exemple considérer les amas d'étoiles. Les astrophysiciens ont à leur disposition un moyen de déterminer l'âge d'un amas avec une précision de l'ordre de 10 pour cent en étudiant la forme de sa séquence principale. Il suffit d'utiliser cette méthode pour essayer de trouver l'âge des plus vieux amas d'étoiles de l'Univers. En faisant l'hypothèse que ces amas se sont formés rapidement après la naissance de l'Univers, ceci nous fournit une nouvelle évaluation de l'âge de ce dernier, indépendante de considérations cosmologiques. Une méthode similaire consiste à observer des étoiles individuellement s'il est possible de déterminer leur âge sans utiliser la technique précédente.

Plutôt que les étoiles, nous pouvons aussi considérer des constituants plus fondamentaux : les noyaux atomiques. Les protons et neutrons qui constituent les noyaux ont une tendance, très faible mais réelle, à se transformer les uns en les autres. Lorsqu'une telle transformation se produit, une restructuration du noyau a lieu et l'identité du noyau change. Le temps caractéristique de ce type de transformation est appelé la période et on le définit comme l'intervalle de temps nécessaire pour que la moitié des noyaux d'un échantillon se soient transformés. Par exemple, pour l'uranium-235, cette période est d'environ un milliard d'années. Ainsi, si vous isolez un échantillon de 1000 noyaux d'uranium-235 à un temps donné, il ne restera que 500 noyaux de ce type après un milliard d'années, 250 après deux milliards, 125 après trois milliards et ainsi de suite.

Le mécanisme précédent peut nous permettre de déterminer l'âge des noyaux les plus anciens. Considérons par exemple l'uranium. Il existe dans la nature deux types principaux de noyaux d'uranium qui se distinguent par un nombre de neutrons légèrement différents. Ainsi, un noyau d'uranium-235 contient 143 neutrons alors qu'un noyau d'uranium-238 en possède 146. Du fait de leur structure légèrement différente, ces deux noyaux ont des périodes différentes : un milliard d'années pour l'uranium-235 et plus de six milliards pour l'uranium-238.

Isolons donc à un temps donné un échantillon contenant des quantités identiques des deux types de noyaux et attendons un milliard d'années. Après cet intervalle, nous nous retrouvons avec deux fois moins de noyaux d'uranium-235, mais avec un nombre de noyaux d'uranium-238 qui n'a guère varié car la période de cet élément est beaucoup plus longue. L'abondance relative des deux noyaux change donc avec le temps, de façon connue, et c'est ainsi que nous pouvons déterminer l'âge des noyaux. En mesurant l'abondance relative actuelle, et en faisant une hypothèse sur l'abondance relative au moment du Big Bang, nous pouvons directement évaluer l'époque à laquelle les noyaux se sont formés. D'où une deuxième estimation indépendante de l'âge de l'Univers.

Les résultats

L'analyse des d'amas globulaires par la technique de la séquence principale a fournit une gamme assez large d'âges possibles, généralement entre 12 et 16 milliards d'années. L'incertitude assez large provient de la méthode employée ainsi que du manque de précision sur la distance exacte des amas observés.

En ce qui concerne l'observation d'étoiles individuelles, les meilleurs résultats proviennent du télescope spatial. En 2002, celui-ci se tourna vers l'amas globulaire M4, le plus proche de la Terre à une distance 5600 années-lumière. Il analysa la lumière de naines blanches extrêmement âgées et permit la détermination de leur âge : entre 12 et 13 milliards d'années.

Les estimations d'âge basées sur les noyaux atomiques sont très imprécises. Les mesures d'abondances de divers noyaux comme l'uranium, le thorium, l'osmium ou le rhénium indiquent un âge compris entre 10 et 17 milliards d'années.

De ces mesures, nous pouvons tirer une conclusion très importante. Toutes les estimations de l'âge de l'Univers, que ce soit d'après les modèles cosmologiques, les amas d'étoiles, les naines blanches ou les noyaux, sont en gros cohérentes entre elles. Aucune méthode ne donne un âge beaucoup plus grand ou petit que les autres, ce qui aurait pu se produire après tout. En tenant compte des incertitudes, aucun des constituants de l'Univers n'a un âge clairement supérieur à celui de l'Univers. Cet accord ne peut que renforcer notre confiance dans la vision actuelle de l'Univers que l'astrophysique nous propose.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:54

Les lentilles gravitationnelles

Une technique relativement récente et qui ne dépend pas de l'échelle des distances nous offre une voie nouvelle et indépendante pour estimer la constante de Hubble et l'âge de l'Univers. Cette méthode s'appuie sur l'une des conséquences de la relativité générale, l'existence des lentilles gravitationnelles.

Les lentilles gravitationnelles

D'après la relativité générale, une distribution de masse, par exemple le Soleil, dévie les rayons lumineux qui passent à proximité. Dans le cas de notre étoile, les effets restent très limités car la masse mise en jeu est relativement faible. Mais les effets peuvent devenir très importants si l'objet qui perturbe la lumière est extrêmement massif, par exemple s'il s'agit d'une galaxie ou d'un amas de galaxies.

Imaginons que, par hasard, une galaxie proche et un quasar lointain se trouvent alignés sur une même ligne de visée, c'est-à-dire exactement dans la même direction du ciel. La lumière qui nous provient du quasar est alors fortement déviée lors de son passage près de la galaxie. Ainsi par exemple, les rayons lumineux qui passent légèrement au-dessus de la galaxie sont déviés vers le bas et donnent lieu à une image du quasar décalée vers le haut. Par contre, les rayons lumineux qui passent sous la galaxie sont déviés vers le haut et donnent naissance à une image du quasar décalée vers le bas. De cette façon, la galaxie proche, en perturbant la propagation de la lumière du quasar, donne naissance à plusieurs images de celui-ci. Le nombre total d'images est déterminé par la forme de la galaxie et la précision de l'alignement.

Notons encore qu'en plus de multiplier les images du quasar, la galaxie va également concentrer la lumière de celui-ci et donc produire des images bien plus brillantes. Un effet qui est loin d'être négligeable lorsque l'on observe des corps très peu lumineux.
B1938+666
Un anneau d'Einstein dans le système B1938+666. L'image du haut a été prise dans l'infrarouge par le télescope spatial. Le point lumineux au centre est la galaxie relativement proche qui provoque l'effet de lentille gravitationnelle. L'anneau tout autour est une image déformée d'une galaxie plus lointaine. L'anneau n'est pas complet car les deux galaxies ne sont pas parfaitement alignées. L'image du bas est le même objet observé dans le domaine radio par le réseau de 6 radiotélescopes MERLIN en Grande-Bretagne. Sur cette image, on aperçoit très bien l'anneau, mais la galaxie proche n'est pas visible car elle n'émet pas dans le domaine radio. Crédit : MERLIN/PPARC/NASA/STScI

L'effet de lentille gravitationnelle fut prévu par Einstein lui-même, mais il fallut attendre 1979 pour que le premier exemple réel soit observé. Cette année-là, les astronomes découvrirent deux quasars très proches dans le ciel. Après analyse, les spectres des deux objets se révélèrent pratiquement identiques depuis les ondes radio jusqu'aux rayons X. Il ne pouvait s'agir que de deux images d'un seul et même quasar, plus tard baptisé Q0956+561. Des observations ultérieures le confirmèrent et montrèrent que la lentille gravitationnelle était dans ce cas constituée par une galaxie elliptique géante quatre fois plus proche de nous que le quasar. Depuis cette époque, des dizaines d'images multiples de quasars ont été découvertes, avec deux, trois ou quatre composantes.

Notons que lorsque l'objet le plus éloigné est ponctuel, c'est une simple multiplication des images qui se produit, comme dans le cas précédent. Mais si l'objet est étendu, par exemple une galaxie lointaine, les images sont en plus déformées et ressemblent à des arcs lumineux. De nombreux cas de ce genre ont été observés, contenant parfois quelques arcs, parfois plusieurs dizaines. En 1995, par exemple, le télescope spatial révéla l'exemple très impressionnant de l'amas de galaxies Abel 2218 qui produit des images multiples de toute une population de galaxies lointaines et donne naissance à plus de 120 arcs lumineux. Parfois, lorsque l'alignement entre les deux objets est parfait, l'image de l'objet lointain peut être modifiée au point de prendre la forme d'un anneau lumineux entourant l'image de l'objet proche. Une dizaine de cas de ce type ont été observés.

La constante de Hubble

L'étude théorique des lentilles gravitationnelles a montré que celles-ci pouvaient se révéler très utiles dans la détermination de la constante de Hubble. En effet, les rayons lumineux qui contournent la lentille par différents côtés suivent des trajectoires qui ne sont pas identiques et n'ont généralement pas la même longueur. Ainsi, le temps mis par la lumière pour nous atteindre diffère selon l'image que nous observons. Pour cette raison, si le quasar subit une brusque variation de luminosité, ses différentes images ne répercutent pas le changement de façon simultanée, mais à des moments bien distincts dans le temps.

C'est la mesure de ce type de décalage qui peut nous conduire à la constante de Hubble. L'analyse du phénomène montre en effet que le délai entre le changement de luminosité des différentes images est inversement proportionnel à H0 et dépend très peu des autres paramètres cosmologiques. S'il était possible de mesurer un tel délai, nous pourrions donc remonter à H0 et obtenir une évaluation indépendante de cette constante.

En pratique, les choses ne sont une fois de plus pas si simples. La première difficulté consiste à mesurer le délai entre les variations de luminosité de chaque image. Ceci est loin d'être aisé car les quasars ne subissent pas toujours de fortes variations de luminosité. De plus, certaines fluctuations d'intensité des images ne sont pas dues au quasar lui-même.

La mesure du délai n'est pas la seule difficulté. En effet, pour remonter à H0, il faut connaître la répartition de la matière dans la galaxie qui fait office de lentille. Dans certains cas, ceci est très compliqué car la galaxie principale est parfois située dans un amas qui contribue au phénomène, et parfois d'autres amas plus éloignés interviennent également.

De nombreuses équipes se sont lancées dans l'utilisation de cette technique. L'une d'entre elles a mesuré la valeur de H0 à partir de l'observation du quasar B0218+357 et a annoncé en 2003 une valeur de 78 kilomètres par seconde et par mégaparsec à 5 pour cent près. Une autre équipe utilisant le quasar B1608+656 a annoncé la même année une valeur de 75 kilomètres par seconde et par mégaparsec à 10 pour cent près.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:54

Relativité générale et cosmologie

La relativité générale et l'Univers

C'est par l'observation du ciel, plutôt que par la théorie, qu'Edwin Hubble découvrit en 1929 que l'Univers était en expansion. Cette découverte ne prit cependant pas complètement la communauté astronomique par surprise. En effet, plusieurs théoriciens avaient montré par leurs équations que l'Univers pouvait très bien être en expansion plutôt que statique.

Très peu de temps après la publication de la relativité générale par Einstein, certains astronomes commencèrent à s'appuyer sur l'outil mathématique qu'elle leur fournissait pour élaborer des modèles théoriques de l'Univers. Einstein lui-même s'attaqua au problème en 1917 et aboutit au premier modèle de l'Univers s'appuyant sur la relativité générale. Ce modèle décrivait un Univers statique et invariable dans le temps, mais uniquement car Einstein avait en fait forcé ses équations à donner un tel résultat.

La même année, l'astronome hollandais Willem de Sitter s'attaqua également au problème. Il mit alors au point un modèle dans lequel, à sa grande surprise, la distance entre deux points de l'espace devait augmentait avec le temps : il venait d'obtenir la premier modèle théorique d'un Univers en expansion. Ce modèle avait néanmoins le défaut d'être trop simpliste car il décrivait un Univers vide dépourvu de matière, et l'impact de cette découverte fut limité.

C'est finalement en 1922 que le mathématicien russe Alexandre Friedmann réussit à développer des modèles réalistes de l'Univers, dans lesquels celui-ci était en expansion. Ce qui n'était à l'époque que théorie allait bientôt être confirmé par les observations d'Edwin Hubble. Notons que les modèles de Friedmann servent encore de référence de nos jours, même si des observations de la fin des années 1990 ont montré qu'ils étaient trop simples pour parfaitement décrire l'Univers.

Trois paramètres pour décrire l'Univers

En développant ses modèles, Alexandre Friedmann montra que l'Univers, considéré d'un point de vue global, pouvait être décrit par trois paramètres. Bien que les équations étaient très complexes, seuls trois paramètres étaient nécessaires pour donner une description complète de l'Univers et déterminer aussi bien sa géométrie que son évolution dans le temps. Depuis lors, l'un des buts majeurs de la cosmologie a été de déterminer ces trois paramètres cruciaux.

Le premier de ces paramètres est la constante de Hubble, notée H0, et qui apparaît dans la loi qui relie la vitesse de récession d'une galaxie à sa distance. Cette constante détermine le rythme de l'expansion. Elle nous permet donc également de calculer le temps qui nous sépare du Big Bang, soit l'âge de l'Univers.

Le deuxième paramètre mesure la décélération de l'expansion sous l'effet de l'attraction gravitationnelle. En effet, les galaxies et amas qui peuplent l'Univers s'attirent les uns les autres sous l'effet de la gravité. L'effet global est une sorte de force interne qui freine l'expansion et tendrait plutôt à provoquer une contraction. Ce deuxième paramètre mesure cet effet et est par conséquent appelé paramètre de décélération et noté q0.

Enfin, le troisième paramètre est la densité moyenne dans l'Univers, notée ρ. Ce paramètre mesure la quantité de matière présente dans un volume donné d'espace. C'est lui qui détermine en grande partie le futur de l'Univers. En effet, même si ce dernier est aujourd'hui en expansion, rien ne nous garantit qu'il le sera éternellement puisque l'interaction gravitationnelle tendrait plutôt à provoquer une contraction. Le problème qui se pose est donc de savoir qui, de l'expansion ou de la gravité, va l'emporter. La réponse dans le modèle de Friedman est fournie directement par ce troisième paramètre.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:55

La courbure de l'Univers

Trois types d'espaces

Dans ses modèles de l'Univers, Alexandre Friedmann s'intéressa en particulier au concept de courbure. Il montra qu'il pouvait exister en théorie trois différents types d'Univers qui se distinguent par leur courbure et par leur évolution dans le temps. Déterminer le type de notre Univers a depuis lors été l'un des buts de la cosmologie

La courbure en question est celle de l'espace. Le concept fut introduit par Einstein dans sa théorie de la relativité. Comme il est très difficile de visualiser la courbure dans un espace à trois dimensions, considérons le cas plus simple d'un espace à deux dimensions, c'est à dire d'une surface.
Différents types de courbure
Illustration des différents types de courbure pour une surface à deux dimensions : de haut en bas, courbure positive d'une sphère, courbure négative d'une selle de cheval, courbure nulle d'un plan. Crédit : WMAP/NASA

La surface la plus simple que l'on puisse concevoir est un plan. Les objets s'y comportent comme nous l'avons appris à l'école. En particulier, les lignes parallèles ne peuvent pas se croiser et ont une séparation constante. De plus, la somme des angles d'un triangle est toujours égale à un angle plat. Cette géométrie dont nous avons l'habitude est qualifiée d'euclidienne, du nom du mathématicien grec qui la développa il y a plus de 2000 ans. De façon générale, tout espace dans lequel les objets se comportent de cette manière est qualifié de plat ou d'euclidien et l'on dit que sa courbure est nulle.

Plus intéressant est le cas de la surface d'une sphère. Prenons par exemple le cas de la surface de notre planète. Sur Terre, les méridiens sont définis comme des lignes qui font le tour de la planète en passant par les deux pôles. Tous les méridiens croisent l'équateur à angle droit. Ils sont donc parallèles entre eux à ce niveau. Malgré cela, par définition, tous les méridiens passent par les pôles et s'y croisent. Ainsi, sur une sphère, les lignes parallèles peuvent se croiser.

Les triangles présentent également des propriétés inhabituelles. Traçons une triangle à la surface de la Terre. Plaçons un sommet au pôle nord et les deux autres sur l'équateur, l'un en Amérique du sud, l'autre en Afrique. Chacun des angles de ce triangle sera pratiquement droit. Leur somme sera donc bien plus grande que l'angle plat du cas euclidien.

Ces deux exemples montrent que la géométrie sur la surface d'une sphère est très différente de la géométrie sur un plan. La différence vient du fait que la surface d'une sphère est affectée d'une courbure non nulle et, pour être plus précis, positive. Tout espace dans lequel les objets se comportent comme précédemment sera qualifié d'espace sphérique.

Considérons enfin une troisième possibilité, celle d'une surface infinie en forme de selle de cheval. Si vous tracez deux lignes parallèles sur une telle surface, vous constaterez qu'elles ne vont ni se croiser, ni conserver une séparation constante. Au contraire, elles vont diverger et s'éloigner indéfiniment l'une de l'autre. De même, si vous mesurez les trois angles d'un triangle, vous vous apercevrez que leur somme est plus petite qu'un angle plat. Ces propriétés sont également liées à la courbure de la surface, mais, dans ce cas, on parlera d'une surface de courbure négative et d'un espace hyperbolique.

La courbure de l'Univers

Dans ses travaux sur la géométrie de l'Univers, Alexandre Friedmann montra qu'il existait trois géométries possibles pour l'Univers qui correspondaient aux trois exemples précédents. Ainsi, il se peut que l'Univers se comporte comme une sphère. Il aurait alors une étendue finie et on le qualifierait d'Univers fermé. Il est également possible que l'Univers soit semblable à une selle de cheval. Il serait alors infini et on le qualifierait d'ouvert. Enfin, la géométrie de l'Univers pourrait être similaire à celle d'un plan. Il serait également infini, mais on parlerait plutôt d'un Univers plat.

La courbure de l'espace en un point donné est directement liée à la quantité de matière qui s'y trouve. D'un point de vue global, il existe en conséquence un lien mathématique entre la courbure de l'Univers et le paramètre de densité ρ. Les travaux d'Alexandre Friedmann ont mis en évidence une valeur particulière de la densité de l'Univers qui définit la limite entre les trois types possibles. Elle est appelée densité critique et notée ρc.

Dans les modèles de Friedmann, si la densité réelle de l'Univers est strictement supérieure à ρc, c'est la gravitation qui l'emportera finalement. L'expansion de l'Univers sera un jour remplacée par une contraction qui finira dans un effondrement apocalyptique appelé le Big Crunch. Du point de vue de la géométrie, ce cas correspond à un Univers fermé. Si la densité réelle est strictement inférieure à ρc, c'est l'expansion qui triomphera et l'Univers continuera à se dilater rapidement pour l'éternité. L'Univers serait dans ce cas ouvert. Enfin, si la densité réelle est exactement égale à la valeur critique, l'expansion continuera indéfiniment, mais elle sera de plus en plus lente avec le temps. L'Univers serait alors plat et sa géométrie euclidienne.

Les modèles de Friedmann ont dominé la pensée cosmologique du XXe siècle et la mesure de la densité réelle de l'Univers a été et reste l'un des grands enjeux de l'observation astronomique. Des observations de la fin des années 1990, en particulier des mesures précises du rayonnement fossile, ont néanmoins montré que ces modèles étaient trop simplistes. Nous y reviendrons, mais notons déjà qu'à l'heure actuelle la densité réelle est estimée à 30 pour cent de la densité critique. Un autre facteur encore mal déterminé, la constante cosmologique ou une énergie sombre, fournit néanmoins les 70 pour cent nécessaires pour rendre l'Univers plat ou légèrement ouvert.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:55

L'accélération de l'expansion et l'énergie sombre

L'expansion accélère

L'année 1998 fut l'une des plus importantes dates dans l'histoire de la cosmologie moderne. Deux équipes annoncèrent que l'expansion de l'Univers ne ralentissait pas comme on le pensait jusqu'alors, mais était en fait en pleine accélération. Les deux équipes étaient arrivées à cette conclusion de manière indépendante, en s'appuyant sur l'observation de supernovae de type Ia.

Ce type de supernova est depuis longtemps utilisées pour mesurer les distances dans l'Univers. Les deux équipes observèrent les plus éloignées à l'époque, une cinquantaine au total, principalement grâce à des télescopes terrestres. Ces supernovae se révélèrent légèrement moins lumineuses et plus éloignées que ce que l'on pouvait déduire de leur décalage vers le rouge en s'appuyant sur la théorie standard d'une expansion en train de ralentir. Une analyse plus poussée des résultats montra que la seule explication possible était que l'expansion accélérait.

Les résultats de 1998 furent confirmés par une observation du télescope spatial en 2001. Celui-ci observa la supernova la plus lointaine connue, à une distance de plus de 10 milliards d'années-lumière et à un décalage vers le rouge de 1,7. Là encore, la supernova se révéla légèrement moins brillante que prévu, ce qui ne pouvait s'expliquer que par une expansion accélérée. L'analyse de ce résultat montra que l'expansion de l'Univers était freinée par la gravité pendant les premiers milliards d'années, mais commença à accélérer à une époque située il y a entre 4 et 8 milliards d'années.
Supernova en 2001
La supernova qui confirma en 2001, grâce au télescope spatial, que l'expansion de l'Univers accélère. L'image du haut montre la région du ciel où la supernova fut détectée (cette image est connue sous le nom de Northern Hubble Deep Field). L'image en bas à gauche est un agrandissement où l'on aperçoit la galaxie elliptique qui contient la supernova. L'image en bas à droite est le résultat d'un traitement numérique. Il s'agit de la différence entre une image prise après l'explosion et une image prise avant l'explosion. Les éléments qui n'ont pas changé entre les deux époques disparaissent ainsi, mais l'augmentation de luminosité due à la supernova est clairement visible. Crédit : A. Riess/STScI/NASA

Plus récemment, en 2003, une nouvelle observation du télescope spatial, cette fois-ci sur un échantillon de 11 supernovae de type Ia, a confirmé les observations précédentes.

L'énergie sombre

L'accélération de l'expansion a été interprétée comme la présence d'une force répulsive à grande échelle, capable de surmonter la force gravitationnelle entre les différents constituants de l'Univers. La nature de cette force reste pour l'instant très mystérieuse et on lui a donné le nom d'énergie sombre.

Notons que l'année 2003 a également apporté des informations sur la composition de l'Univers. Les dernières observations du télescope spatial montrent que l'Univers est composé de 25 pour cent de matière et de 75 pour cent d'énergie sombre. Les observations du rayonnement fossile faites par le satellite WMAP ont donné une réponse encore plus précise : 4 pour cent de matière ordinaire, 23 pour cent de matière exotique et 73 pour cent d'énergie sombre. Les observations de ce satellite ont également montré que l'Univers était plat, du moins dans la limite des incertitudes de mesure.

La constante cosmologique

L'une des explications possibles de la force répulsive qui accélère l'expansion fait appel au concept assez ancien de constante cosmologique. Au début de ce siècle, après avoir mis au point sa théorie de la relativité générale, Albert Einstein l'appliqua à l'étude de l'Univers dans son ensemble. A sa grande surprise, il réalisa que dans leur forme originale les équations de la nouvelle théorie ne permettaient pas à l'Univers d'être statique et invariable dans le temps. Elles ne pouvaient s'accommoder que d'un Univers en expansion ou en contraction.

Or, à cette époque, la vision d'un Univers statique était partagée par toute la communauté astronomique. En conséquence, Einstein, plutôt que d'accepter le nouveau résultat, décida de modifier légèrement les équations de la relativité générale en y introduisant un terme supplémentaire appelé la constante cosmologique et noté Λ. Physiquement, ce terme s'interprétait comme une nouvelle force qui tendait à faire se repousser les corps de l'Univers les uns les autres. Einstein régla la constante de façon à ce que cette force de répulsion contrebalance exactement la gravitation. De cette manière, il obtenait bien un Univers statique, invariable dans le temps.

Bien sûr, une dizaine d'années plus tard, les observations d'Edwin Hubble montrèrent que l'Univers n'était pas statique, mais en expansion, et la constante cosmologique perdit sa raison d'être. Les théoriciens continuèrent néanmoins à étudier la façon dont une possible constante cosmologique non nulle pourrait influencer l'évolution de l'Univers. Ils s'aperçurent alors que ce paramètre supplémentaire pouvait engendrer des comportements très divers.

L'un des cas les plus intéressant était celui d'une constante cosmologique légèrement supérieure à la valeur utilisée par Einstein. Dans ce cas, l'Univers serait né dans un Big Bang suivi d'une expansion ralentie par la gravité. Mais du fait de la constante cosmologique, l'effet de la gravité aurait finalement été surmonté par une force de répulsion à grande échelle, et l'Univers serait entré dans une phase éternelle d'expansion accélérée.

Ce cas de figure correspond assez bien aux observations actuelles et le concept de constante cosmologique est donc revenu sur le devant de la scène, même s'il n'apporte guère de réponse quant à la nature physique de l'énergie sombre. Notons en particulier que les observations de WMAP ont montré que l'énergie sombre s'apparentait plus à une constante cosmologique qu'à certaines autres hypothèses avancées pour expliquer l'énergie sombre.

Remarquons, pour finir, que dans un tel scénario, l'âge réel de notre Univers est plus grand que la valeur déduite de H0. Ceci pourrait lever une contradiction possible entre âge apparent de l'Univers et âge de certains de ses constituants, si ce dernier s'avérait plus grand.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:57

La masse cachée des galaxies

La matière lumineuse

La méthode la plus simple pour déterminer la densité moyenne de l'Univers consisterait à mesurer directement la quantité de matière contenue dans un volume donné de l'Univers. Il suffirait de considérer une région représentative de l'Univers dans son ensemble et d'y compter le nombre de galaxies. En évaluant également le nombre moyen d'étoiles par galaxie et la masse moyenne d'une étoile, nous pourrions obtenir une estimation de la quantité moyenne de matière dans un volume donné. Bien sûr, il faudrait également tenir compte de la masse contenue hors des étoiles, dans le gaz et le milieu interstellaire.

Ce genre d'étude a été mené à bien et a montré qu'en moyenne l'Univers semble avoir une densité de matière équivalente à quelques protons par mètre cube. Cette valeur est très faible par rapport à la densité critique nécessaire pour avoir un Univers plat, à peine 0.4 pour cent de celle-ci. L'Univers semble donc à première vue être très ouvert.

Mais l'Univers nous a une fois de plus réservé une surprise. Les estimations précédentes de la densité ont été faites à partir de la matière visible ou du moins détectable par nos télescopes - on la qualifie parfois de matière lumineuse. Mais dès les années 1930, certaines observations astronomiques ont montré que la matière lumineuse faite d'étoiles, de gaz et de poussières, ne représente en fait qu'une petite fraction de la masse effectivement présente dans l'Univers.

La masse cachée dans les galaxies spirales

La manifestation la plus apparente de la présence d'une masse cachée se produit lorsque l'on étudie la répartition de la matière au sein d'une galaxie spirale. Il existe en effet un moyen relativement simple de connaître la distribution de masse dans une telle galaxie. Il consiste à étudier soigneusement le mouvement des étoiles et du gaz en son sein.

Rappelons que dans le système solaire, les planètes se déplacent en obéissant aux lois de Kepler. Celles-ci énoncent en particulier que la vitesse d'une planète sur son orbite est inversement proportionnelle à sa distance au centre. Il s'agit là d'un résultat classique qui est vrai dans tout système dominé par un corps central massif comme le Soleil. Ce principe peut se généraliser à n'importe quel ensemble, en particulier à une galaxie spirale. La façon dont la vitesse des étoiles et du gaz de la galaxie varie avec la distance au centre - ce que l'on appelle la courbe de rotation - peut nous permettre de déterminer la répartition de la masse à l'intérieur de cette galaxie.

Lorsqu'ils commencèrent à s'intéresser à cette méthode, les astronomes pensaient savoir à quoi s'attendre. La vitesse des étoiles et du gaz devait être faible au centre des galaxies et augmenter avec la distance. En dehors de la galaxie par contre, la courbe de rotation devait s'inverser et la vitesse baisser. En effet, les quelques traces de gaz à l'extérieur peuvent être considérées comme en orbite autour d'un corps central et devraient donc suivre une loi similaire à celle qui régit la vitesse des planètes du système solaire. Les astronomes s'attendaient donc à une chute de la vitesse du gaz avec la distance au centre.

La difficulté majeure résidait dans le fait que la quantité de matière présente en dehors des limites visibles d'une galaxie est très faible. Il s'agit surtout de gaz hydrogène qui s'étend deux ou trois fois plus loin que les limites visibles de la galaxie. Pour pouvoir étudier ce gaz, il fallut avoir recours, comme dans le cas de l'hydrogène interstellaire, à des observations dans les ondes radio à une longueur d'onde de 21 centimètres. Des observations à l'aide de puissants radiotélescopes commencèrent et les premiers résultats furent publiés à la fin des années 1970.

Les résultats prirent les astronomes par surprise. En effet, les courbes de rotation ne chutaient pas à l'extérieur des galaxies mais restaient obstinément plates. La vitesse du gaz restait constante au lieu de diminuer. Ceci impliquait que la matière s'étendait bien plus loin que les limites visibles. Chaque galaxie devait être entourée d'un halo de matière invisible, dont la masse devait être plusieurs fois supérieure à celle de la partie visible.

Ces résultats mettaient en évidence que la majeure partie de la masse des galaxies, donc de la matière remplissant l'Univers, nous était totalement invisible et inconnue. De plus, toute tentative de mesurer la densité de l'Univers à partir de son contenu visible s'avérait vaine.

Notons qu'une conclusion similaire avait déjà été tirée pour la Voie Lactée elle-même. D'autres astronomes avaient en effet observé le mouvement des objets externes les plus proches de notre Galaxie, en particulier les Nuages de Magellan et quelques galaxies naines. A partir de mesures de vitesses et de l'analyse de la force de marée appliquée par notre Galaxie sur ses voisines, il leur fut possible de conclure que la Voie Lactée devait être entourée d'un halo énorme et massif constitué de matière non visible.

Le cas des galaxies elliptiques

Remarquons enfin que les galaxies spirales ne sont pas les seules à être immergées dans un halo invisible. Comme les galaxies elliptiques ne présentent pas de rotation globale, la méthode ci-dessus ne s'applique pas. Il est cependant possible de s'appuyer sur l'agitation des étoiles en leur sein. En effet, dans une galaxie elliptique, les étoiles vont et viennent frénétiquement, ce qui les empêche de succomber à la force gravitationnelle qui les attire vers le centre.

Ce phénomène nous fournit un moyen de déterminer la répartition de masse dans l'ensemble. Par exemple, plus une galaxie elliptique est massive, plus la force de gravité est puissante, donc plus les étoiles doivent bouger vite pour survivre. De façon plus générale, l'étude de l'agitation stellaire en fonction de la distance au centre nous permet de calculer la répartition de matière. Cette méthode a été appliquée à plusieurs galaxies et a montré que la matière était agitée même au-delà de leurs limites visibles, ce qui confirme l'existence d'un halo massif.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:57

La masse cachée intergalactique

Couples et groupes de galaxies

Les mesures de masse cachée par la courbe de rotation ou l'agitation des étoiles concernent le voisinage immédiat des galaxies. La masse et la taille des halos que l'on en déduit ne constituent que des estimations minimales. Pour déterminer ces paramètres plus précisément, il faut encore s'éloigner des galaxies et étudier leur influence au-delà du voisinage immédiat.

Pour cela, on peut par exemple observer un couple de galaxies en orbite l'une autour de l'autre. Ce genre d'étude est très difficile car les mouvements relatifs ne sont pas mesurables, à moins d'observer les galaxies sur des milliards d'années. Il faut pour cette raison avoir recours à des arguments statistiques, ce qui rend les résultats moins fiables. Des observations ont néanmoins été tentées, qui ont montré que la taille d'un halo typique était environ 10 fois celle de la galaxie, et que la masse était également 10 fois supérieure. D'après ce résultat, la densité de matière de l'Univers passe donc à 4 pour cent de la densité critique, mais l'Univers reste encore largement ouvert.

Plutôt que des couples, on peut également considérer des groupes de galaxies. Dans ce cas, on mesure la vitesse, donc l'agitation, des galaxies à l'intérieur du groupe. Ceci permet d'estimer l'intensité de la force de gravité du groupe, donc sa masse. Ces calculs donnent des résultats similaires à ceux obtenus à partir des couples. Ils confirment qu'un halo typique possède un diamètre de l'ordre de 600 000 années-lumière, à comparer avec la taille d'une galaxie comme la nôtre, environ 80 000 années-lumière. Ils confirment également que les halos ont une masse à peu près 10 fois plus grande que la partie visible.

Amas de galaxies

Après les groupes, nous pouvons passer à des ensembles encore plus gigantesques, les amas de galaxies . C'est d'ailleurs en étudiant des amas que l'astronome Fritz Zwicky fut le premier, en 1937, à entrevoir le fait que la masse de l'Univers puisse être dominée par une composante invisible. Comme dans le cas des groupes, on mesure la vitesse donc l'agitation des galaxies à l'intérieur de l'amas, et on en déduit l'intensité de la force de gravité qui retient l'ensemble et donc la masse totale.

Ces observations ont montré que la masse totale d'un amas est bien plus grande que la masse de son contenu visible, mais également plus grande que la masse calculée en tenant compte des halos massifs invisibles. Les nombreux travaux menés sur le sujet montrent qu'en moyenne la masse totale d'un amas est environ trois fois plus grande que la somme des masses de ses constituants, galaxies et halos invisibles inclus, donc à peu près 30 fois plus grande que la masse de ses constituants visibles.

On peut en déduire que la masse cachée est constituée d'au moins deux composantes, l'une qui constitue les énormes halos entourant les galaxies, l'autre qui se trouve disséminée dans l'espace intergalactique à l'intérieur des amas. La matière ordinaire ne représente plus que quelques pour cent du total. Le paramètre de densité est quant à lui revu à la hausse et atteint maintenant une valeur autour de 10 pour cent de la densité critique.

Remarquons encore que ces résultats ont été confirmés par une autre méthode, s'appuyant sur l'effet de lentille gravitationnelle provoqué par certains amas. En effet, la déviation des rayons lumineux par cet effet dépend de la masse de l'amas considéré, mais pas de la nature de cette masse. L'analyse des images nous permet donc de mesurer la masse réelle de l'amas et même sa distribution dans l'ensemble. Cette méthode est relativement nouvelle, mais les résultats confirment le facteur trois entre la masse totale d'un amas et la somme des masses de ses constituants, galaxies et halos inclus.

Résultats récents

Tout récemment, en 2003, l'existence de la masse cachée a été confirmée par le satellite WMAP. Ce dernier avait pour mission de mesures les faibles fluctuations du rayonnement fossile, une relique du Big Bang. L'analyse des résultats a montré que la densité de l'Univers est en fait égale à la densité critique et que l'Univers est donc plat - du moins dans la limite d'incertitude des mesures. La matière ordinaire dont nous avons l'habitude ne contribue que 4 pour cent de cette valeur. Une matière que l'on qualifie d'exotique représente 23 pour cent de la densité et le reste, 73 pour cent, n'est pas composé de matière mais de ce que l'on a baptisé de l'énergie sombre.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 6:58

La matière sombre baryonique

Confrontés au défi majeur que leur pose la matière sombre, les astrophysiciens ont entrepris de découvrir sa nature physique. Deux possibilités se sont alors présentées : celles qui font appel à des astres constitués de matière ordinaire, par exemple les étoiles peu lumineuses, et celles qui reposent sur l'introduction de particules exotiques. Analysons ici les candidats formés de matière ordinaire, ou baryonique, c'est-à-dire de neutrons et de protons.

Les naines rouges

L'une des solutions les plus simples est de recourir aux étoiles les moins brillantes, les naines rouges. Ces étoiles font partie de la séquence principale mais se distinguent par leur faible masse, entre 8 et 80 pour cent de la masse du Soleil. Pour cette raison, leur surface est relativement froide, seulement quelques milliers de degrés, et leur luminosité est donc très faible, entre un dix millième et quelques dixièmes de celle du Soleil. Ces étoiles passent ainsi pratiquement inaperçues, si ce n'est dans notre voisinage immédiat.

C'est en étudiant les naines rouges les plus proches que les astronomes se rendirent compte que ces étoiles peu brillantes sont très nombreuses. Ainsi, dans le voisinage du Soleil, une étoile sur deux est une naine rouge, même si très peu d'entre elles figurent parmi les milliers d'étoiles visibles à l'oeil nu. Les astronomes sont donc tout naturellement amenés à penser que les galaxies pouvaient être dominées en nombre par ces étoiles quasi-invisibles. Leur présence augmenterait la masse totale d'une galaxie sans véritablement affecter sa luminosité globale.

Les naines brunes

Une autre solution consiste à faire appel à des astres encore moins massifs : les naines brunes. On désigne par ce terme les étoiles dont la masse est inférieure à 8 pour cent de celle du Soleil. A cause de cette masse très faible, le noyau de ces étoiles n'est pas suffisamment comprimé et chaud pour que les réactions nucléaires de fusion soient en mesure de se mettre en place. Les naines brunes sont donc en quelque sorte des étoiles ratées, qui n'émettent pas de lumière et sont pratiquement impossibles à observer, même dans le voisinage immédiat du Soleil. Ces propriétés en font clairement des candidates à la masse cachée.

Remarquons que la masse minimale des naines brunes est probablement de plusieurs fois la masse de Jupiter. Ce qui différencie ces étoiles des planètes géantes est leur mode de formation. Comme toutes les étoiles, les naines brunes se forment lors de l'effondrement d'un nuage de gaz, alors que les planètes se forment par accumulation de grains de poussière.

Les planètes

Une autre explication de la masse cachée est la présence possible dans les galaxies d'une quantité insoupçonnée de planètes, en particulier de planètes massives comme Jupiter. Cependant, des corps de cette nature ne peuvent pas fournir une très grande proportion de la masse cachée. Ils sont en effet formés d'éléments plus lourds que l'hydrogène ou l'hélium. Or ces éléments sont rares dans l'Univers, ils ne représentent qu'un noyau atomique pour 100 noyaux d'hydrogène, comme toutes les observations le confirment.

Les résidus d'étoiles

Enfin, on peut faire appel aux trois types de résidus stellaires : naine blanche, étoile à neutrons ou trou noir. La contribution des deux derniers types est cependant limitée. Étoiles à neutrons et trous noirs apparaissent lors de l'explosion d'une supernova qui donne naissance à une grande quantité d'éléments lourds. Comme ces derniers sont rares, le nombre d'explosions ayant eut lieu doit être relativement faible, donc également le nombre de résidus stellaires de ce type.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:00

Détecter la matière sombre baryonique

Depuis les années 1990, les astronomes tentent d'observer directement la masse cachée baryonique et d'estimer la contribution des différents candidats.

Les naines rouges

Jusqu'à récemment, du fait de la turbulence atmosphérique, les télescopes terrestres étaient incapables de confirmer l'importance des naines rouges. Leurs images étaient peu lumineuses et floues et ressemblaient à des galaxies, ce qui ne facilitait pas les choses. Avec l'avènement du télescope spatial Hubble, il devint possible d'observer des naines rouges 100 fois plus faibles qu'auparavant et de les différentier des galaxies. Des observations furent alors menées dans des zones du ciel choisies de manière aléatoire et montrèrent que les naines rouges n'étaient pas aussi abondantes qu'on l'imaginait auparavant. Leur masse totale ne représentait qu'environ 10 pour cent de celle de la Galaxie.

D'autres observations concentrées sur un amas globulaire montrèrent que le nombre de naines rouges de masse supérieure à un cinquième de celle du Soleil était très grand, avec à peu près une centaine de naines rouges pour une étoile de type solaire. Mais ces observations montrèrent également qu'il n'y avait pas de naine rouge de masse inférieure. La masse limite de formation des étoiles n'est donc probablement pas de 8 pour cent de celle du Soleil comme le prévoyaient les modèles théoriques, mais plutôt d'environ 20 pour cent. En tout cas, il ressortait de ces observations que les naines rouges ne formaient qu'une très faible fraction de la masse cachée dans les halos de galaxies, de l'ordre de 6 pour cent.

Les naines brunes

Les naines brunes n'émettent guère de lumière et sont donc pratiquement impossibles à détecter, même dans le voisinage du Soleil. Néanmoins, juste après leur formation, ces étoiles sont soumises à une phase de contraction qui durent quelques centaines de milliers d'années. Pendant cette période, elles libèrent une grande quantité d'énergie gravitationnelle et peuvent donc émettre un rayonnement.
Gliese 229B
La première naine brune découverte en 1994 à l'observatoire du mont Palomar (le petit point lumineux un peu à droite du centre de chaque image). La naine brune, baptisée Gliese 229B, est en orbite autour d'une naine rouge (à gauche) et se trouve à environ 19 années-lumière de la Terre. L'image de gauche provient de l'observatoire du mont Palomar, celle de droite fut prise en 1995 par le télescope spatial. Crédit : S. Kulkarni/Caltech/D. Golimowski/JHU/STScI/NASA

Il va sans dire que les effets de la turbulence atmosphérique empêchent toute observation avec un télescope terrestre classique. C'est ainsi un système d'optique adaptative qui détecta la première naine brune en 1994, une découverte rapidement confirmée par le télescope spatial. Cette naine brune, baptisée Gliese 229B, forme avec une naine rouge un système binaire situé à 19 années-lumière. La masse de la naine brune est entre 20 et 50 fois plus grande que celle de Jupiter et sa luminosité est 100 000 fois plus faible que celle du Soleil. Son atmosphère est quant à elle semblable à celle de Jupiter, avec en particulier une grande abondance de méthane. Cette découverte était très importante car elle montrait que les naines brunes existent réellement. Depuis lors, d'autres naines brunes ont été identifiées mais il est encore trop tôt pour avoir une idée précise de leur nombre total, donc de leur contribution à la masse cachée.

Utiliser les lentilles gravitationnelles

Plutôt que d'étudier directement un type donné de candidat, il est également intéressant d'affiner notre connaissance de la masse cachée par d'éventuels effets indirects. Les années 1990 ont ainsi vu le développement d'une technique destinée à détecter indirectement la matière sombre présente dans le halo de notre Galaxie, ceci quelle que soit sa nature.

Cette méthode repose sur le phénomène de lentille gravitationnelle. Celui-ci se produit lorsque deux étoiles sont alignées sur la même ligne de visée. Comme la relativité générale le montre, l'étoile la plus proche peut alors dévier et concentrer les rayons lumineux de la plus lointaine. Le résultat pour un observateur terrestre est une soudaine et forte augmentation de la luminosité apparente de l'étoile lointaine.

Ce phénomène peut être utilisé pour détecter des objets sombres dans le halo de notre Galaxie. En effet, ces objets ne sont pas fixes mais se déplacent lentement. Si, par pur hasard, l'un d'entre eux passe exactement entre nous et une étoile plus éloignée, l'intensité apparente de cette dernière augmentera fortement pendant la durée du passage. Ainsi, par exemple, si la lumière d'une étoile située dans l'un des Nuages de Magellan voit son éclat apparent augmenter pendant un intervalle de temps, il est possible que cela soit dû au passage d'un objet sombre sur la ligne de visée.

Évidemment, une telle variation de luminosité peut aussi être causée par un phénomène cataclysmique du type nova. Il est cependant possible de différentier les deux cas de figure en observant l'amplification dans deux longueurs d'onde différentes. En effet, les variations de luminosité dues à une lentille gravitationnelle sont indépendantes de la longueur d'onde considérée, alors que les variations dues à un changement au niveau de l'étoile en dépendent.

L'observation d'un effet de lentille gravitationnelle ne fait pas que prouver l'existence d'objets sombres dans le halo. La durée et l'amplitude du phénomène peuvent nous apporter de nombreuses données comme la vitesse, la distance et la masse de l'objet. La principale difficulté réside dans le fait que la probabilité du phénomène est extrêmement faible, de l'ordre d'un événement pour un million d'étoiles observées. Pour avoir une chance raisonnable d'en détecter un, il faut donc observer simultanément un très grand nombre d'étoiles situées hors du halo. Ceci est heureusement possible dans la direction des Nuages de Magellan, très riche en étoiles. Il est également intéressant d'observer la région du bulbe galactique, ce qui permet de détecter des objets sombres dans le disque galactique plutôt que dans le halo.

Les résultats

Les années 1990 virent la mise en route de plusieurs programmes de détection de lentilles gravitationnelles dans la Galaxie. On peut citer en particulier les programmes EROS, qui se concentra sur les étoiles du Grand Nuage de Magellan, OGLE, qui scruta celles du bulbe galactique, et MACHO qui observa les deux régions simultanément. Ces trois programmes détectèrent des centaines d'événements dans la direction du bulbe et une vingtaine dans la direction des Nuages de Magellan.

Les résultats semblent pour l'instant indiquer que les objets peu massifs de moins de 10 pour cent de la masse solaire, naines brunes ou planètes par exemple, ont une contribution relativement faible, entre 10 et 20 pour cent de la masse du halo galactique. Les corps de l'ordre de la moitié de la masse du Soleil, par exemple les naines blanches, pourrait quant à eux compter pour environ 20 à 30 pour cent de la masse cachée dans le halo.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:00

La matière sombre exotique

Les neutrinos

Les candidats formés de matière ordinaire, ou baryonique, ne peuvent pas à eux seuls expliquer toute la masse cachée. Les résultats du satellite WMAP ont confirmé en 2003 ce que l'on soupçonnait déjà auparavant, qu'il existe une matière non baryonique, qualifiée d'exotique, dont la masse est au moins 5 fois plus importante que celle de la matière ordinaire. Les astrophysiciens doivent donc également faire appel à des particules plus exotiques.

Une première possibilité est le neutrino, une particule qui interagit très faiblement avec la matière ordinaire mais que des observatoires sous-terrains ont néanmoins réussi à détecter. Le neutrino fut longtemps considéré comme une particule de masse nulle comme le photon. Cependant, plusieurs expériences semblent montrer qu'il n'en est pas ainsi et qu'une très faible masse n'est pas exclue.

Si tel était le cas, les neutrinos pourraient expliquer en partie la masse cachée exotique. En effet, avec une densité moyenne de 100 particules par centimètre cube, les neutrinos sont très abondants dans l'Univers, bien plus que les protons ou les neutrons. Même si la masse d'une seule particule est très faible, leur grande abondance pourrait bien permettre aux neutrinos d'apporter une contribution majeure à la densité de l'Univers.

Les particules massives à faible interaction

Le neutrino n'est pas le seul candidat exotique. Dans leur quête d'une description définitive des constituants de la matière et de leurs interactions, les physiciens des particules ont développé toute une panoplie de particules hypothétiques, aux noms plus étranges les uns que les autres, photinos, gluinos, sélectrons, sneutrinos et autres. Ces particules sont désignées collectivement sous le nom de particules massives à faible interaction (WIMP en anglais).

Comme le neutrino, ces particules interagissent très faiblement avec la matière ordinaire. Elles sont néanmoins soumises à la force gravitationnelle puisque c'est grâce à cela que l'on a suspecté leur existence. Ces particules sont donc attirées par les galaxies et doivent former de gigantesques halos autour d'elles. Notons néanmoins qu'aucune particule de ce type n'a jamais été détectée et qu'il faut donc rester très prudent avant de tirer des conclusions définitives.

Détecter les neutrinos

Si les objets sombres de nature baryonique sont difficiles à observer, la tache est encore plus ardue lorsqu'il s'agit de détecter le deuxième type possible de matière sombre, formé de particules exotiques.

Le neutrino est une particule dépourvue de charge électrique et de masse très faible. La probabilité de réaction entre un neutrino et une particule ordinaire est extrêmement petite. Le seul moyen d'en capturer un est donc d'augmenter les chances de rencontre en construisant un détecteur contenant une énorme quantité de particules ordinaires.

Ceci fut tenté pour la première fois en 1967 dans une mine d'or, à Homestake dans le Dakota du Sud. Le détecteur consistait en une cuve contenant 400 000 litres d'une substance chlorée. Même si l'immense majorité des neutrinos passait sans problème à travers la cuve, il arrivait que l'un d'eux interagisse avec un noyau de chlore. Celui-ci se transformait alors en un noyau d'argon qui à son tour se désintégrait rapidement. C'est le résultat de cette désintégration qui pouvait être facilement détecté et révéler la capture d'un neutrino.
Sudbury
Le détecteur de l'observatoire de neutrinos de Sudbury au Canada pendant sa construction. Cet observatoire est opérationnel depuis 1999 et a pour but de contribuer à notre compréhension des propriétés fondamentales des neutrinos. Crédit : Ernest Orlando/LBNL/SNO

Depuis cette époque, d'autres détecteurs basés sur le même principe ont été construits. Ces détecteurs sont tous placés dans des zones souterraines pour réduire au maximum l'interférence des rayonnements cosmiques qui risquerait de fausser les résultats. On peut citer en particulier l'expérience Gallex, réalisée dans le tunnel de Gran Sasso en Italie avec 30 tonnes de gallium en solution, le détecteur Super Kamiokande à Kamioka au Japon avec 50 000 tonnes d'eau, et l'observatoire de Sudbury au Canada avec 1000 tonnes d'eau lourde.

Les données de ces détecteurs ne révèlent hélas pas directement la masse des neutrinos et le problème de leur contribution à la densité de l'Univers n'est donc toujours pas résolu. Les expériences semblent quand même indiquer que la masse est trop faible pour que les neutrinos aient un impact significatif sur cette densité.

Détecter les particules massives à faible interaction

Notons pour commencer que les particules massives à faible interaction (WIMP en anglais) sont hypothétiques et n'ont jamais été observées de façon certaine à ce jour. Capturer ces particules n'est pas une mince affaire mais plusieurs projets ont néanmoins vu le jour. On peut citer en particulier le projet CDMS dans une mine de fer du Minnesota et l'expérience DAMA dans le tunnel de Gran Sasso.

Ces projets s'appuient sur le fait que même si l'interaction de ces particules avec la matière ordinaire est très faible, elle existe et il doit être possible de la mettre en évidence. En guise d'exemple, le détecteur de l'expérience CDMS est constitué d'un gros cristal de germanium refroidi à quelques millièmes de kelvin pour faire disparaître toute agitation thermique. A tout instant, du fait du mouvement de la Terre par rapport au halo de matière non baryonique, une multitude de particules massives à faible interaction traversent le détecteur. Il arrive, très rarement, que l'une d'entre elles interagisse avec un noyau de germanium. Elle introduit alors une quantité infime d'énergie dans le détecteur et y crée une très faible ionisation.

En mesurant en permanence la température et la charge électrique du cristal, il est théoriquement possible d'observer le phénomène, donc de détecter les particules exotiques. Le nombre de détections est évidemment très limité, en théorie de l'ordre d'une tous les 10 jours pour un détecteur d'un kilogramme. Notons que les signaux parasites dus à d'autres particules peuvent être détectés en analysant soigneusement la quantité d'énergie déposée et la charge électrique créée.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:01

L'avenir des galaxies et des amas

Prédire l'avenir de l'Univers est un exercice difficile. De nombreux phénomènes totalement inconnus à l'heure actuelle sont susceptibles d'entrer en jeu et de rendre nos prédictions complètement obsolètes. On peut en particulier citer l'énergie sombre, dont la nature est encore inconnue et dont l'effet futur sur l'expansion de l'Univers est impossible à prédire. En conséquence, nous allons simplement tenter de citer quelques phénomènes qui se produiront en nous appuyant sur les connaissances actuelles de la physique.

D'un point de vue global, il existe deux possibilités différentes d'évolution. Soit l'Univers continuera éternellement à être en expansion, soit il finira par se contracter pour finir dans un Big Crunch. Les observations du satellite WMAP semblent indiquer que l'expansion continuera éternellement sous l'effet de l'énergie sombre, même s'il n'est pas exclu que l'effet de cette dernière change au cours du temps. Commençons donc par le cas d'un Univers en expansion éternelle.

Fin de la phase stellaire

Le premier phénomène significatif se produira lorsque le matériau de base des étoiles, le gaz interstellaire, commencera à se faire rare. Lors de la vie d'une étoile, une partie du gaz utilisé est réinjecté dans le milieu interstellaire sous forme de vent stellaire ou lors de la transformation en nébuleuse planétaire ou en supernova. Mais la plus grande partie du gaz finit sous forme de naine blanche, d'étoile à neutrons ou de trou noir. Ainsi, avec chaque étoile qui naît, vit et meurt, une grande quantité de gaz se retrouve emprisonnée dans un résidu compact et ne peut plus participer à la formation de nouvelles étoiles.

Avec le temps, les réserves de gaz d'une galaxie s'épuiseront et la formation d'étoiles se fera de plus en plus rare. En conséquence, le renouvellement des générations ne sera plus assuré et les étoiles mourront les unes après les autres sans être remplacées. D'ici quelques centaines de milliards d'années, même les étoiles les moins massives se seront éteintes et la phase stellaire de l'Univers sera révolue. Les galaxies ne contiendront plus d'astres lumineux, mais uniquement des résidus stellaires, naines blanches, étoiles à neutrons et trous noirs, ainsi que des planètes. L'Univers sera désormais dépourvu de source de lumière visible et apparaîtra noir aux yeux de nos lointains descendants.

L'évaporation des galaxies

La prochaine étape significative de l'évolution de l'Univers est la phase d'évaporation des galaxies, un processus très lent qui va prendre un milliard de milliards d'années. A cause de la démesure des distances interstellaires, la rencontre de deux étoiles est un événement extrêmement rare dans une galaxie si l'on considère une durée de quelques milliards d'années. Mais si l'on attend beaucoup plus longtemps, un très grand nombre de rencontres se produisent, ce qui va avoir un effet déterminant sur l'évolution des galaxies.

Un type de rencontre particulièrement important dans ce contexte est celui qui met en jeu trois astres, une étoile isolée et un couple stellaire. Lors d'une telle rencontre, il arrive que l'étoile isolée perde une grande partie de son énergie au profit des deux autres corps. Les deux membres du couple ont alors suffisamment d'énergie pour s'éloigner l'un de l'autre et se séparer définitivement. Il est même possible que les deux étoiles soient capables d'échapper à la gravité de la galaxie et de quitter définitivement cette dernière. Au contraire, l'étoile isolée, qui a perdu une grande partie de son énergie, ne peut plus résister à la gravité et va rapidement tomber vers le centre de la galaxie.

Ainsi, avec le temps, chaque galaxie perd peu à peu la plus grande partie de ses étoiles. Simultanément, la densité centrale de la galaxie augmente jusqu'à finalement atteindre une valeur critique à partir de laquelle le centre galactique se transforme en un trou noir supermassif. On estime ainsi que d'ici environ un milliard de milliard d'années, chaque galaxie aura perdu 99 pour cent de ses étoiles et se sera transformée en un trou noir d'environ un milliard de masses solaires.

L'évaporation des amas

Le même processus d'évaporation et de transformation en trou noir se produit pour les amas de galaxies, mais sur une période de temps encore plus longue. Du fait des rencontres aléatoires entre galaxies, chaque amas perd peu à peu la plupart de ses membres, tout en voyant sa partie centrale devenir de plus en plus dense. Finalement, le centre de l'amas se transforme en un trou noir pouvant atteindre un millier de milliards de masses solaires.

Cette phase de métamorphose des amas prendra environ 10^27 ans. Une fois celle-ci terminée, l'Univers aura perdu la belle structure que nous lui connaissons, galaxies et amas ne seront plus que des souvenirs. Seuls subsisteront une multitude de trous noirs de toutes masses, avec quelques pincées d'étoiles à neutrons, de naines blanches devenues noires et de planètes.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:01

L'évaporation des trous noirs

Après la période de transformation des galaxies et des amas, le phénomène le plus marquant est l'évaporation des trous noirs. La relativité générale décrit les trous noirs comme des corps auxquels rien ne peut échapper, ni la matière, ni la lumière, ce qui implique que leur masse ne peut qu'augmenter avec le temps. Cependant, dans les années 1970, l'astrophysicien britannique Stephen Hawking montra que cette vision n'est pas totalement exacte. Au contraire, un processus quantique qui met en jeu les particules virtuelles peut très bien faire diminuer la masse d'un trou noir.

L'évaporation

Imaginons qu'un électron virtuel et son antiparticule surgissent du vide et apparaissent à proximité du rayon de Schwartzschild d'un trou noir. Il est tout à fait possible que l'électron plonge très rapidement dans le trou noir et y disparaisse, mais que son antiparticule réussisse à échapper au piège. Dans ce cas, l'antiélectron virtuel, qui aurait rapidement dû s'annihiler avec son compagnon, n'est plus en mesure de la faire. Il va donc errer un certain temps et finir par rencontrer un autre électron virtuel créé dans des circonstances similaires. A ce moment, les deux particules peuvent s'annihilent et donner naissance à des photons.

Le processus précédent conduit, à partir de particules virtuelles nées temporairement d'une fluctuation d'énergie, à des photons bien réels qui possèdent une véritable énergie. Ceci peut à première vue sembler contraire aux lois de la physique car de l'énergie est créée à partir de rien. En fait, Hawking a montré que ce n'est pas le cas. Entre leur création et leur annihilation, les particules virtuelles peuvent entrer dans le monde réel car elles prennent un peu d'énergie gravitationnelle au trou noir. Ainsi, pour ce dernier, le processus se traduit par une légère diminution d'énergie donc de masse, d'où le nom d'évaporation.

La température

L'évaporation d'un trou noir s'accompagne de l'émission de photons, donc d'un rayonnement électromagnétique. Ce dernier, comme dans le cas d'un corps noir, permet de définir la température du trou noir. Par exemple, dans le cas d'un résidu stellaire de quelques masses solaires, elle est d'un dix-millionième de kelvin. Cette température est inversement proportionnelle à la masse du trou noir. Ainsi, pour un objet d'un milliard de masses solaires, elle est d'environ 10^-16 kelvins.

La température a une influence majeure sur l'évaporation. En effet, tout comme un corps chaud n'émet de chaleur que placé dans un milieu plus froid, un trou noir ne peut s'évaporer que lorsque la température du milieu environnant est inférieure. Pour cette raison, aucun trou noir ne s'évapore à l'heure actuelle. Même s'ils étaient complètement isolés dans le vide intergalactique, les trous noirs seraient encore baignés par le rayonnement fossile, à une température d'environ trois kelvins.

Ce n'est donc que dans un futur très lointain, lorsque le rayonnement fossile aura perdu la plus grande partie de son énergie, que l'évaporation pourra se mettre en place. On estime ainsi que les trous noirs résidus stellaires commenceront à s'évaporer dans 10^20 ans, les trous noirs supermassifs dans 10^35 ans et ceux d'un millier de milliards de masses solaires dans 10^40 ans.

L'explosion finale

Bien qu'extrêmement lente, l'évaporation d'un trou noir ne va pas durer éternellement. Avec le temps, la masse diminue, la température augmente, donc également le taux d'évaporation. Lorsque la masse commence à devenir très faible, la température augmente rapidement et l'évaporation atteint une vitesse foudroyante. Finalement, le processus se termine avec une formidable explosion qui marque la disparition du trou noir.

La durée totale du phénomène d'évaporation dépend de la masse du corps considéré. Plus un trou noir est gros, plus sa température et son taux d'évaporation sont faibles, donc plus sa durée de vie est grande. On estime ainsi que les trous noirs résidus d'étoiles disparaîtront d'ici 10^65 ans, les trous noirs supermassifs dans 10^90 ans et les plus massifs dans 10^100 ans.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:02

La disparition de la matière

L'avenir des étoiles à neutrons, naines noires ou autres planètes est plus difficile à prévoir que celui des trous noirs. Il dépend surtout de la durée de vie des particules en jeu, un paramètre qui n'est pas toujours bien connu. En particulier, la question de la stabilité du proton reste largement ouverte. Les théories de grande unification prévoient que le proton est une particule instable qui doit se désintégrer après un temps de l'ordre de 10^31 ans. Mais les expériences menées pour détecter cette désintégration n'ont pour l'instant rien observé.

Cas d'un proton instable

S'il se révèle que le proton n'est pas une particule stable, les événements se dérouleront assez rapidement, si l'on peut dire. Tous les résidus autres que les trous noirs verront peu à peu leurs baryons se désintégrer en donnant naissance à des électrons, des neutrinos et des photons. Après un temps de l'ordre de la durée de vie du proton, tous les baryons se seront désintégrés et tous les résidus auront disparu. L'Univers ne contiendra plus que des trous noirs, des photons, des neutrinos, des électrons et leurs antiparticules.

L'avenir très lointain est encore plus difficile à prédire. Il dépend en particulier du comportement de l'électron, qui est peut être également une particule instable.

Cas d'un proton stable

Si le proton est une particule stable, l'évolution des objets sera beaucoup plus lente et s'étalera sur des durées qui défient l'imagination. Mais même dans ce cas, la matière ne subsistera pas éternellement.

En effet, d'après la mécanique quantique, les particules peuvent parfois se comporter comme des ondes. Ceci leur permet d'accomplir des prouesses normalement interdites par la physique classique. C'est par exemple le cas au centre du Soleil, où la fusion de deux protons n'est possible que grâce au caractère ondulatoire des particules. Ces phénomènes de nature purement quantique sont très peu probables, donc rares. Cependant, si on leur donne suffisamment de temps, ils peuvent avoir une influence déterminante.

La première conséquence de ce type de comportement est la transformation de toute la matière de l'Univers, mis à part les étoiles à neutrons, en fer. En effet, cet élément est le noyau le plus stable de la nature. Pour cette raison, tous les autres noyaux ont pour but ultime de se transformer en fer, les plus gros en se fragmentant, les plus petits en fusionnant. Ce type de transformation n'est pas possible dans des conditions ordinaires de température et de densité. Pourtant, grâce à la mécanique quantique, il arrive qu'un noyau puisse soudain désobéir à la physique classique et spontanément modifier sa structure interne pour se rapprocher du fer.

De tels événements sont d'une extrême rareté, mais, dans un futur lointain, ils joueront un rôle essentiel. Leur conséquence sera une transformation progressive de toute la matière de l'Univers, excepté celle des étoiles à neutrons, en noyaux de fer. Ce processus s'étalera sur une période incroyablement longue estimée à 10^500 ans.

La période suivante verra la matière se transformer en neutrons, puis en trous noirs, pour finalement disparaître. En effet, de temps à autre, et toujours grâce à la mécanique quantique, chaque noyau de fer verra l'un de ses protons interagir avec un électron et se transformer en neutron. Avec le temps, ceci conduira à la métamorphose de tous les noyaux de fer en neutrons.

Simultanément, la mécanique quantique permettra des réarrangements occasionnels dans la structure interne des corps formés de neutrons. Ceci se traduira par une concentration de plus en plus forte qui aboutira finalement à leur transformation en trous noirs. Ces derniers pourront alors s'évaporer rapidement en provoquant la disparition définitive de la matière.

Ainsi, dans un temps inconcevable de l'ordre de 10 à la puissance 10^76 ans, l'essentiel de la matière aura disparu. L'Univers ne sera plus peuplé que de photons et de neutrinos, avec néanmoins quelques agrégats de matière trop petits pour s'effondrer en trous noirs et disparaître.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




l'univers Empty
MessageSujet: Re: l'univers   l'univers EmptyMer 31 Mai à 7:04

Le Big Crunch

Le deuxième cas de figure pour l'avenir de l'Univers est celui d'une expansion qui cesse pour laisser place à une contraction, sous l'effet de la gravité, et finalement à un Big Crunch. Ce cas de figure n'est pas d'actualité car la présence d'énergie sombre provoque pour l'instant une accélération de l'expansion. Mais, la nature de l'énergie sombre étant inconnue, il est tout à fait possible que son action change dans le futur, et ce scénario n'est pas forcément à rejeter.

Le rythme des événements dépend énormément du comportement de l'énergie sombre ainsi que de la valeur exacte de la densité de l'Univers. En guise d'illustration, choisissons un exemple précis, celui d'un Univers où l'énergie sombre n'a pas d'influence sur l'expansion et où la densité de matière est égale à deux fois la densité critique. La relativité générale montre alors que l'expansion continuera pendant environ 50 milliards d'années, mais à un rythme de plus en plus faible. A l'âge de 60 milliards d'années, l'Univers atteindra sa taille maximale, entre deux et trois fois la taille actuelle. Le rayonnement fossile, refroidi par l'expansion, atteindra une température d'environ un Kelvin.

A la fin de cette époque, c'est la contraction qui commencera. L'Univers entrera dans la deuxième phase de son existence, qui durera elle aussi 60 milliards d'années. Cette période sera marquée par une diminution constante de la taille de l'Univers et par une augmentation de la densité et de la température. La plus grande partie de cette phase ne sera guère animée. Les évènements ne commenceront à se précipiter qu'à l'approche du Big Crunch. Ainsi, un milliard d'années avant l'événement final, les amas de galaxies seront tellement proches qu'ils commenceront à fusionner. Les galaxies elles-même commenceront à s'interpénétrer 100 millions d'années avant le Big Crunch. A cette époque, la température moyenne de l'Univers sera de 300 Kelvins, soit 25 degrés Celsius.

Le Big Bang à l'envers

La température de l'Univers continuera à augmenter jusqu'à atteindre 3000 Kelvins, lorsqu'il ne restera que quelques centaines de milliers d'années. La recombinaison et le découplement rayonnement-matière, deux moments forts du Big Bang, se dérouleront alors à l'envers. Les photons deviendront capables de dissocier les atomes, l'Univers deviendra opaque, atomes et molécules disparaîtront.

Après cette époque, la température continuera à augmenter rapidement et les événements s'accéléreront. A 10 millions de Kelvins, la température de l'Univers sera la même qu'au centre du Soleil, ce qui entraînera la dissolution des étoiles. A 10 milliards de Kelvins, les photons seront suffisamment énergétiques pour dissocier les noyaux. A des températures encore supérieures, protons et neutrons se désintégreront en leurs composants, les quarks, puis les forces fondamentales se réunifieront les unes après les autres.

Finalement, la température et la densité atteindront un niveau tel qu'une phase similaire à l'ère de Planck commencera. Ce qui se passera ensuite nous est inaccessible car les théories actuelles sont incapables de décrire le comportement de la matière dans de telles conditions. Il est possible que la température et la densité deviennent infinies et qu'une singularité apparaisse. Il se peut aussi qu'un nouveau Big Bang se produise et donne naissance à un autre Univers. Il n'est d'ailleurs pas exclu que l'Univers actuel ne soit que l'un des cycles d'une succession infinie d'Univers.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
Contenu sponsorisé





l'univers Empty
MessageSujet: Re: l'univers   l'univers Empty

Revenir en haut Aller en bas
 
l'univers
Revenir en haut 
Page 1 sur 1

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
forum astronomie pour amateur et pro :: astronomie :: astronomie amateur-
Sauter vers:  
Ne ratez plus aucun deal !
Abonnez-vous pour recevoir par notification une sélection des meilleurs deals chaque jour.
IgnorerAutoriser