forum astronomie pour amateur et pro
Vous souhaitez réagir à ce message ? Créez un compte en quelques clics ou connectez-vous pour continuer.
forum astronomie pour amateur et pro

Le lieu idéal pour discuter du matériel utilisé en astronomie et nous faire profiter de vos photos astronomiques personelles.
 
AccueilAccueil  RechercherRechercher  Dernières imagesDernières images  S'enregistrerS'enregistrer  Connexion  
Le Deal du moment : -39%
Ordinateur portable ASUS Chromebook Vibe CX34 Flip
Voir le deal
399 €

 

 le big bang

Aller en bas 
AuteurMessage
oregon
Invité




le big bang Empty
MessageSujet: le big bang   le big bang EmptyMer 31 Mai à 6:43

La matière

Plusieurs méthodes indépendantes ont montré que l'Univers n'a pas toujours existé, mais qu'il est en fait apparu il y a une quinzaine de milliards d'années. A cette époque reculée, les propriétés de l'Univers étaient très différentes de ses propriétés actuelles. En effet, comme l'Univers est en expansion, sa densité de matière, c'est-à-dire la quantité de matière contenue dans un volume donné, baisse constamment. De façon similaire, la densité d'énergie moyenne de l'Univers baisse, ce qui se traduit par une diminution de la température. Ainsi, plus on remonte loin dans le temps, plus la densité de l'Univers est grande et plus sa température moyenne est élevée.

En conséquence, les premiers temps sont caractérisés par des densités, des températures et des énergies extraordinaires, des conditions que nous sommes dans l'impossibilité de recréer sur Terre. Notre seul espoir consiste alors à recourir à la physique théorique et à essayer d'extrapoler les lois de la physique ordinaire à ces conditions extrêmes. Pour comprendre les phases primordiales de l'Univers, il nous faut donc commencer par un petit détour rapide du côté de la physique des particules.

Les constituants de la matière

Commençons par la matière. Jusqu'au milieu du siècle dernier, la physique des particules était relativement simple. Les seules particules élémentaires connues étaient l'électron, le proton, le neutron et le neutrino. Mais l'amélioration des moyens de détection permis de mettre en évidence l'existence d'un nombre invraisemblable de particules différentes.

Les progrès théoriques dans les années 1960 amenèrent les physiciens à la conclusion que protons et neutrons étaient en fait des systèmes complexes possédant une structure interne et constitués de particules encore plus élémentaires, qu'ils baptisèrent quarks. Ces travaux montrèrent également qu'il devait exister six types de quarks qui furent appelés down, up, strange, charm, bottom et top.

Dans des conditions ordinaires, les quarks n'existent pas à l'état isolé. On ne les trouve qu'associés en petits groupes. Ils forment alors une particule non élémentaire. Ainsi, trois quarks peuvent se regrouper pour former ce que l'on appelle un baryon. Citons les deux baryons que l'on trouve dans la matière ordinaire : le proton, formé de deux quarks up et d'un down, et le neutron, constitué de deux quarks down et d'un up. L'autre type de combinaison possible est le méson, formé d'un quark et d'un antiquark. De façon générale, tous les ensembles formés de quarks, aussi bien les baryons que les mésons, sont collectivement désignés sous le nom de hadrons.

En plus des quarks, on trouve une deuxième catégorie de particules élémentaires : les leptons. Les deux exemples les plus connus sont l'électron et le neutrino. Les progrès expérimentaux et théoriques ont permis de mettre en évidence quatre autres leptons : deux versions plus massives de l'électron appelées le muon et le tau, ainsi que deux autres types de neutrinos. Ces quatre leptons n'apparaissent que dans des processus très énergétiques, par exemple dans nos accélérateurs de particules. La matière ordinaire ne fait appel qu'à l'électron et au neutrino usuels.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:43

Les forces

Après cette brève description des constituants de la matière, passons à ce qui crée les interactions entre ces constituants : les forces. Tous les phénomènes physiques observables dans la nature peuvent s'expliquer en faisant appel à quatre forces fondamentales, la force de gravitation, la force électromagnétique, la force nucléaire forte et la force nucléaire faible. Mais qu'est-ce qu'une force ?

Une réponse satisfaisante à cette question n'a été apportée que relativement récemment, dans les années 1940. A cette époque apparut une théorie, appelée l'électrodynamique quantique, qui réussit à clarifier le concept de force électromagnétique en s'appuyant sur les acquis de la mécanique quantique. Dans cette théorie, l'interaction électromagnétique n'était plus décrite comme le résultat d'une mystérieuse force, mais s'expliquait simplement comme le résultat d'un échange de photons entre particules. Avec cette nouvelle vision des choses, l'électrodynamique quantique réussit à expliquer des phénomènes jusqu'alors incompréhensibles et se montra supérieure à toute autre explication de l'origine de cette force.

Ce succès ouvrit la voie à la compréhension des autres forces. A la fin des années 1960, il apparut que, tout comme l'interaction électromagnétique, la force nucléaire faible pouvait s'interpréter comme un échange de particules. Mais il ne s'agissait pas dans ce cas d'un photon, mais de trois différents porteurs appelés les bosons vecteurs intermédiaires. Ces trois types de particules, d'abord nés dans l'imagination des chercheurs, furent détectés au début des années 1980 dans les accélérateurs du CERN, ce qui prouvait de façon éclatante la justesse de la nouvelle vision des choses.

La force électrofaible

Mais la réinterprétation du concept de force allait encore plus loin. Elle affirmait que les forces électromagnétique et faible pouvaient être unifiées en une interaction unique, appelée la force électrofaible. Bien qu'apparemment très différentes, les deux interactions doivent posséder une nature profonde identique. Cette dernière ne se révèle que dans des conditions extrêmes. En effet, la théorie montre que si les particules en jeu ont une énergie énorme, correspondant à une température de 10^15 kelvins, les deux interactions sont indiscernables et les trois bosons vecteurs intermédiaires se comportent exactement comme des photons. Par contre, dans des conditions normales, les deux interactions se différencient et les quatre types de porteurs retrouvent des propriétés bien distinctes, comme par exemple leur masse.

La force nucléaire forte

Parallèlement au développement de la théorie électrofaible, d'énormes progrès furent accomplis dans la compréhension de l'interaction forte. Vu le succès de l'électrodynamique quantique, les physiciens utilisèrent les mêmes principes de base pour décrire la force nucléaire forte. Dans la nouvelle théorie, la chromodynamique quantique, l'interaction forte entre quarks s'explique également comme un échange de particules. Dans ce cas, il s'agit des gluons, dont il existe huit différents types. La force ainsi créée a une portée très faible, mais elle est très puissante, ce qui explique que les quarks ne se trouvent jamais à l'état isolé, mais préfèrent se regrouper pour former un hadron.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:43

La grande unification

La théorie électrofaible et la chromodynamique quantique traitent de la matière dans des conditions observables sur Terre. Mais les premiers instants de l'Univers sont marqués par des températures et des densités bien au-delà de ce que nous sommes capables de reproduire. Seules des études purement théoriques peuvent donc nous aider à comprendre comment particules et forces se comportaient à l'époque.

Nous avons vu que lorsque l'énergie des particules en jeu atteint un certain seuil, les interactions électromagnétique et faible se confondent pour n'être plus qu'une : l'interaction électrofaible. De la même façon, si l'on augmente encore l'énergie moyenne des particules, arrive un moment où la force nucléaire forte vient s'unir à l'interaction électrofaible. Ceci se produit lorsque l'énergie atteint un niveau équivalent à une température de l'ordre de 10^28 kelvins.

D'énormes progrès ont été accomplis dans ce domaine depuis les années 1970. Plusieurs théories, dites de grande unification, sont nées et ont essayé de donner une description unifiée de la force électromagnétique et des forces nucléaires faible et forte. Cependant, aucune n'a vraiment pris le dessus sur ses rivales. Ces théories sont en effet très difficiles à départager car il n'existe pas d'accélérateur suffisamment puissant pour tester leurs prédictions. Les meilleurs accélérateurs actuels fournissent une énergie équivalente à 10^15 kelvins, mais, d'après les théories de grande unification, les interactions électrofaible et forte ne se confondent que lorsque la température atteint 10^28 kelvins. On est donc très loin du compte et il ne semble guère possible pour l'instant de déterminer la meilleure théorie.

Un exemple de grande unification

En guise d'exemple, nous pouvons considérer la théorie de grande unification connue sous le nom de SU(5). D'après celle-ci, l'interaction unifiée se fait à travers 24 particules différentes, parmi lesquelles on trouve le photon, les trois bosons vecteurs intermédiaires et les huit gluons. Il doit donc exister, en plus des particules connues, huit nouvelles particules que les théoriciens ont baptisées bosons-X. Ces huit nouveaux porteurs se distinguent des autres par leur capacité à lier quarks et leptons. D'après la théorie, en effet, l'échange d'un boson-X est capable de transformer un quark en un lepton et vice-versa, ce qui n'est possible avec aucune autre interaction.

Comme nous le verrons plus tard, c'est ce potentiel des bosons-X qui est probablement à l'origine de l'asymétrie entre matière et antimatière, et qui a permis à la première de prendre le dessus sur la seconde. La possibilité de transformation des quarks en leptons est également la raison pour laquelle les physiciens pensent que le proton n'est pas éternel. Un proton n'est en effet qu'un amas de trois quarks. Il suffit que l'un de ces quarks se transforme en lepton pour que l'amas se désintègre. La probabilité d'un tel événement est cependant très faible, ce qui explique que la durée de vie du proton est énorme, d'au moins 10^31 ans.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:43

La théorie du Tout

Notre quête d'une vision unifiée des forces fondamentales ne s'arrête pas là. Il reste encore une étape à franchir, celle de l'unification de la gravité avec les trois autres interactions : la théorie du Tout. Cette dernière étape est la plus difficile car elle bute sur un obstacle majeur, l'incompatibilité de la relativité générale et de la mécanique quantique.

Comme nous l'avons vu, la relativité générale traite de la gravitation et de ses effets à grande échelle, alors que la mécanique quantique décrit le comportement des particules à une échelle microscopique. Les deux théories ont donc des domaines d'application très différents, ce qui explique que toute tentative pour les unifier est particulièrement pénible. Dans les années 1970 et 1980 apparurent des théories qui tentaient avec plus ou moins de succès de surmonter ces difficultés. Comme dans le cas de la grande unification, ces théories sont extrêmement difficiles à départager à l'heure actuelle.

La théorie des supercordes

Intéressons-nous alors simplement à celle qui est le plus en vogue de nos jours : la théorie des supercordes. Celle-ci se distingue par sa remise en cause du concept de particule. En effet, dans toutes les théories précédentes, les particules élémentaires étaient considérées comme des points dont la taille était strictement égale à zéro. Dans la nouvelle théorie, les particules élémentaires ne sont plus des entités ponctuelles, mais de minuscules cordes en forme de boucles fermées. La taille de ces cordes est infinitésimale, de l'ordre de 10^-35 mètres. Nos meilleurs moyens d'observation sont bien évidemment incapables de mettre en évidence si cette idée est correcte ou non, mais sur le plan théorique, l'hypothèse des cordes permet de réconcilier les principes de la relativité générale et de la mécanique quantique.

L'une des prédictions de la théorie des supercordes est l'existence de nombreuses particules jamais détectées à ce jour. Comme nous venons de le voir, les particules élémentaires peuvent être classées en deux catégories : les fermions (quarks et leptons) qui constituent la matière, et les bosons (photons, gluons et autres), qui sont responsables des différentes forces. D'après la nouvelle théorie, chaque particule de l'un de ces groupes doit avoir un partenaire dans l'autre, un principe que l'on dénomme supersymétrie. Ainsi, par exemple, le photon et le gluon sont associés à des fermions respectivement appelés le photino et le gluino. De même, les quarks et les électrons ont pour partenaires des bosons appelés les squarks et les sélectrons.

La théorie des supercordes prévoit que toutes ces nouvelles particules sont extrêmement massives, mais elle ne permet pas de déterminer exactement à quel point. Ainsi, il est possible que la prochaine génération d'accélérateurs puisse mettre en évidence certains partenaires supersymétriques, mais il se peut aussi que ces particules soient trop massives pour être un jour détectées dans une expérience sur Terre. Ces mystérieuses particules sont en tout cas d'excellentes candidates pour expliquer en partie la masse sombre de l'Univers.

Les dimensions de l'Univers

Un autre aspect de la théorie des supercordes est la remise en cause du nombre de dimensions de l'Univers. Nous sommes habitués à vivre dans un monde à quatre dimensions : trois pour l'espace et une pour le temps. Par contre, la théorie des supercordes ne donne des résultats satisfaisants que si l'Univers possède en fait dix dimensions, une pour le temps et neuf pour l'espace. Le monde qui nous entoure ne nous révèle donc que quatre de ces dimensions, les six autres étant cachées et indétectables.

Pour comprendre comment l'Univers peut être doté de six dimensions de plus que ce que nous observons, considérons une analogie avec un tuyau d'arrosage. Vu de très loin, un tuyau ressemble simplement à une ligne. Pour définir la position d'un point sur cette ligne, il suffit d'un seul nombre, par exemple la distance à l'une des extrémités. De loin, le tuyau ne possède donc qu'une seule dimension. Par contre, lorsque l'on se rapproche, les détails se font plus précis et la section circulaire apparaît clairement. Pour définir la position d'un point sur la surface, il faut maintenant deux nombres, par exemple une distance et un angle. Vu de près, le tuyau possède clairement deux dimensions.

Le phénomène vient du fait que l'une des dimensions du tuyau est beaucoup plus petite que l'autre. De la même façon, la présence de 10 dimensions dans notre Univers est tout à fait possible, à condition que six soit repliées sur elles-mêmes et n'aient ainsi qu'une étendue microscopique. La taille de ces dimensions peut être aussi minuscule que 10^-36 mètres, ce qui est bien au-delà de la portée ultime de nos expériences les plus précises et explique pourquoi ces dimensions passent inaperçues.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:44

Les particules virtuelles

Pour comprendre les phénomènes qui se sont produits durant le Big Bang, il nous faut encore faire connaissance avec un autre aspect étrange de la mécanique quantique. Nous avons déjà vu que la position et la vitesse d'une particule sont affectées par le principe d'incertitude, qui énonce que ces deux grandeurs ne peuvent être déterminées simultanément avec une précision arbitraire. En fait, le même principe s'applique à l'énergie et au temps. Il n'est pas possible de connaître exactement l'énergie mise en jeu dans un processus quantique et la durée de celui-ci. Là encore, il ne s'agit pas d'un problème technologique, mais d'une propriété intime de la matière.

Ce principe a de grandes conséquences sur toute la physique microscopique. Si l'énergie est soumise à une incertitude, cela signifie qu'elle n'est pas fixée de manière rigoureuse, contrairement à ce que la physique classique énonce. Ainsi, de l'énergie peut apparaître ou disparaître, à condition toutefois que cela se fasse dans un temps bien limité, déterminé par le principe d'incertitude.

Or, d'après la relativité, l'énergie est équivalente à la masse. La mécanique quantique nous apprend donc que de la masse peut apparaître à partir de rien, exister pendant une durée très brève, puis disparaître. On peut par exemple calculer qu'un électron peut surgir du néant, vivre pendant environ 10^-22 seconde, avant d'y retourner.

Notons toutefois que si l'énergie peut souffrir d'incertitude, ce n'est pas le cas de la charge électrique. Ainsi, lorsqu'un électron apparaît à partir du vide, il doit nécessairement être accompagné d'un antiélectron pour que la charge totale de l'ensemble reste constante et nulle.

Un nouveau vide

Les particules qui apparaissent et disparaissent ainsi ont une durée de vie très brève. Elles ne sont donc pas observables et on les qualifie de virtuelles. Leur présence peut néanmoins être détectée par les effets indirects qu'elles induisent sur les particules ordinaires. Ainsi par exemple la possibilité d'avoir un électron isolé dans l'espace n'existe pas. Tout électron est en réalité entouré d'un nuage de particules et d'antiparticules virtuelles qui vont légèrement affecter certaines de ses propriétés. Ce phénomène a été vérifié puisque quelques caractéristiques de l'électron ne se comprennent que si l'on fait appel à l'influence de ce nuage.

Cette possibilité de création et de disparition de matière change profondément notre vision du monde microscopique. La notion de vide en est tout particulièrement affectée. En effet, le principe d'incertitude implique que même le vide le plus absolu est en fait peuplé d'une myriade de particules et d'antiparticules virtuelles. Le vide, au sens où on l'entend d'habitude, c'est-à-dire l'absence de toute matière, n'existe donc pas. Même lors de la naissance de l'univers, lorsque la matière n'existait pas encore, l'univers était agité d'une succession frénétique de créations et de disparitions de particules de tous les types. C'est d'ailleurs grâce à cela que la matière ordinaire pourra faire son apparition.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:44

L'ère de Planck

Notre description de la naissance de l'Univers ne va hélas pas commencer exactement au temps zéro. Plus l'Univers est proche de sa naissance, plus sa température et sa densité sont élevées. Ainsi, lorsque nous nous approchons du temps zéro, les conditions deviennent de plus en plus extrêmes et les lois de la physique doivent être extrapolées dans des domaines jamais explorés sur Terre.

Les physiciens ont développé au cours du siècle dernier des théories d'unification des forces qui permettent de tenter des extrapolations. Cependant, comme nous l'avons vu, il n'y a pas encore de théorie bien établie d'unification de la gravitation avec les autres forces, seulement quelques bribes de réponses, par exemple la théorie des supercordes. Ainsi, il n'est pas envisageable à l'heure actuelle de décrire les tout premiers instants de l'Univers, lorsque la densité et la température étaient telles que la gravitation et les autres forces ne formaient qu'une interaction unique. L'extrapolation de la physique connue montre que ces conditions extrêmes ont régné lorsque l'Univers était âgé de moins de 10^-43 seconde. Toute la période qui précède, baptisée l'ère de Planck, nous est donc inaccessible.
Max Planck
Max Planck : Kiel, 1858 - Göttingen , 1947. Découvreur de l'une des constantes fondamentales de la nature, la constante de Planck, l'un des paramètres qui déterminent la durée de l'ère du même nom.

L'espace-temps

Cela ne nous empêche pas d'avoir quelques idées d'ordre général sur la physique de l'Univers à cette époque. Il est ainsi clair que pendant l'ère de Planck notre conception habituelle de l'espace-temps est complètement dépassée. Puisque la gravité doit maintenant se comporter comme les trois autres forces, elle est elle aussi associée à une particule porteuse de l'interaction, appelée le graviton. L'ère de Planck est ainsi animée d'un incessant va-et-vient de gravitons échangés par les diverses particules virtuelles qui peuplent alors l'Univers.

Cependant, le graviton n'est pas une particule comme les autres. Il est en quelque sorte un concentré de courbure de l'espace-temps. Les successions frénétiques de créations et de disparitions de gravitons se traduisent donc en chaque point par d'importantes fluctuations de la courbure de l'espace-temps. En conséquence, il nous faut rejeter l'image habituelle de l'espace comme tissu élastique bien lisse. Pendant l'ère de Planck, l'espace-temps est plutôt une surface très tourmentée et constamment en changement, une sorte de mousse quantique très agitée, dans laquelle des liens se font et se défont sans arrêt entre des régions très éloignées.

Ajoutons à ce tableau déjà un peu difficile à visualiser le fait qu'à cette époque les six dimensions d'espace supplémentaires requises par la théorie des supercordes ne sont pas cachées. Toutes les dimensions sont développées de la même manière et les particules évoluent dans un espace à neuf dimensions.

L'instant zéro

Qu'en est-il de l'instant zéro lui-même ? Là aussi, plusieurs possibilités existent et la situation est loin d'être claire. Dans la vision habituelle des choses, lorsque l'on se rapproche du temps zéro, l'Univers devient de plus en plus dense et chaud, jusqu'à finalement atteindre un état de singularité où la densité et la température atteignent des valeurs infinies.

Mais d'après une autre théorie, développée par l'Anglais Stephen Hawking et l'Américain James Hartle, une telle singularité n'est pas nécessaire. D'après ces deux théoriciens, lorsque l'on remonte vers l'époque initiale, le temps perd peu à peu le caractère que nous lui connaissons et se transforme en une dimension d'espace. Ainsi, lorsque nous nous rapprochons du temps zéro, la notion de temps elle-même disparaît, ce qui élimine la nécessité d'une singularité initiale - mais n'est guère facile à imaginer.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:45

L'inflation

Au temps 10^-43 seconde, la gravitation, qui était jusque là unifiée aux trois autres interactions, se dissocie. L'Univers est dans un état de vide quantique. La matière ordinaire n'existe pas, mais il y a une formidable agitation due à la succession de créations et de disparitions de particules et d'antiparticules virtuelles. Si ce n'est cette fantastique agitation, rien de particulier ne se passe jusqu'au temps 10^-35 seconde, lorsque sonne l'heure de la dissociation des interactions forte et électrofaible. C'est à ce moment que va commencer une phase cruciale, l'ère inflationnaire, pendant laquelle la taille de l'Univers va être multipliée par un facteur gigantesque.

Le concept de période inflationnaire est relativement récent. Il fut d'abord imaginé au début des années 1980 par l'Américain Alan Guth, puis développé par d'autres astrophysiciens, en particulier le Russe Andrei Linde. L'inflation reste la partie la plus spéculative de notre description du Big Bang et beaucoup d'efforts restent à faire pour qu'elle soit acceptée unanimement. Cela étant dit, cette nouvelle théorie répond de façon satisfaisante à plusieurs problèmes cosmologiques qui n'avaient pas trouvé de solution jusque là et dont nous parlerons plus loin.

Transition de phase

Pour comprendre ce qui se passe, commençons par une analogie. Le comportement de l'Univers lors de l'inflation rappelle celui de l'eau qui se solidifie et se transforme en glace. Les deux formes, l'eau liquide et la glace, ont des propriétés très différentes. Par exemple, sous forme liquide, l'eau n'a pas de structure et prend la forme du récipient qui la contient. Par contre, sous sa forme solide, elle devient un cristal, un arrangement très régulier de molécules dont la forme globale est fixée. Une autre différence apparaît au niveau des symétries : l'eau liquide à des propriétés identiques dans toutes les directions, alors que la glace privilégie les axes selon lesquels la cristallisation s'est produite.

Dans le langage du physicien, l'eau liquide et la glace sont deux phases différentes et la transformation de l'une en l'autre s'appelle une transition de phase. Dans des conditions de refroidissement normales, la cristallisation se produit dès que la température atteint zéro degré Celsius. Elle se produit alors en douceur avec un lent dégagement d'une certaine quantité d'énergie appelée la chaleur latente. Il existe cependant un cas particulier appelé la surfusion, dans lequel les choses se passent différemment. Ainsi, dans un environnement extrêmement stable, une eau très pure peut être refroidie et atteindre une température négative sans pour autant se solidifier. Cette situation est néanmoins très instable et il suffit d'agiter légèrement l'eau pour que la cristallisation s'opère instantanément, avec cette fois-ci une libération très rapide de la chaleur latente.

L'ère inflationnaire

Le phénomène qui se produit lorsque l'Univers est âgé de 10^-35 seconde est similaire. C'est à cette époque que les forces forte et électrofaible, jusque là unifiées, se dissocient. On passe d'une situation symétrique, où les deux forces étaient équivalentes, à une situation asymétrique, où elles sont distinctes. L'Univers subit donc, comme l'eau qui se solidifie, une transition de phase. Celle-ci devrait en principe s'opérer immédiatement, mais ce n'est pas ce qui se passe. L'Univers va d'abord passer par un stade de surfusion. Il va rester pendant une brève période dans une phase symétrique instable, appelée le faux vide, plutôt que d'adopter tout de suite la phase asymétrique stable, le véritable vide.

Le faux vide, un état équivalent à l'eau surfondue, se caractérise essentiellement par une très grande densité d'énergie. Même si l'Univers est complètement vide, il possède alors en tout point une très grande quantité d'énergie, ce qui va avoir un effet crucial sur son évolution. En effet, d'après la relativité générale, cette énergie omniprésente va se traduire par une force de répulsion extrêmement puissante entre tous les points de l'Univers. En conséquence, celui-ci subit une expansion fantastiquement rapide et brutale, à laquelle on a donné le nom d'inflation.

L'inflation dure jusqu'à ce que l'Univers subisse finalement sa transition de phase. Il atteint alors un état stable, tout en libérant une formidable quantité d'énergie. Cela se produit à une époque qui n'est pas encore bien définie, disons vers 10^-30 seconde. Pendant l'ère inflationnaire, la taille de l'Univers a été multipliée par un facteur 10^50, ce qui est énorme comparé au rythme actuel de l'expansion. Ainsi, depuis l'apparition des atomes, vers l'âge de 300 000 ans, la taille de l'Univers n'a été multipliée que par un facteur 1000, et cela en 15 milliards d'années.

Remarquons encore que même si l'inflation se produit à un rythme prodigieux, elle ne transgresse pas la relativité, qui énonce que rien ne se déplace plus vite que la lumière. En effet, c'est l'espace lui-même qui subit l'inflation. La distance entre deux particules augmente à un rythme effréné, mais du fait de l'expansion de l'espace. Si des particules se déplaçaient réellement dans l'espace, leur vitesse devrait être inférieure à celle de la lumière.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:45

La naissance de la matière

La fin de l'ère inflationnaire va être marquée par l'apparition de la matière. Jusque là, l'Univers était vide, au sens quantique du terme, c'est-à-dire qu'il était en fait le siège d'un incessant va-et-vient de particules et d'antiparticules virtuelles qui surgissaient du néant pour y retourner aussitôt. Ce qui manquait à ces particules pour devenir réelles, c'était une source d'énergie.

C'est là que l'inflation intervient. Comme nous l'avons vu, la transition de phase qui clôt cette ère s'accompagne d'une très forte injection d'énergie dans l'Univers. Il s'agit là d'une énergie réelle, que les particules virtuelles vont s'approprier pour entrer dans le monde réel. La fin de l'inflation marque ainsi, à partir du vide, la naissance de la matière que nous connaissons.

L'asymétrie matière-antimatière

Un autre phénomène important qui se produit est l'apparition d'une asymétrie entre matière et antimatière. Comme nous l'avons vu, la période de grande unification est caractérisée par la présence des bosons-X, capables de transformer les leptons en quarks et vice-versa. A la fin de cette période, les interactions forte et électrofaible se dissocient et ces bosons disparaissent peu à peu. La particularité de ce phénomène est qu'il ne respecte pas la symétrie entre matière et antimatière.

En effet, lorsqu'un boson-X se désintègre pour donner naissance à un quark, il ne le fait pas exactement de la même façon qu'un antiboson-X. Ainsi, l'égalité entre le nombre de quarks et d'antiquarks qui existait jusque là est rompue. Après la disparition des bosons-X, on compte dans l'Univers, un milliard et un quarks pour seulement un milliard d'antiquarks. Cette différence se retrouvera ensuite au niveau des protons et des neutrons et permettra à l'Univers tel que nous le connaissons de se développer.

Après l'inflation, l'Univers s'installe dans un rythme d'expansion beaucoup plus lent, similaire à celui que nous observons de nos jours. Rien de spécial ne se produit jusqu'à 10^-12 seconde. A cette époque, la température est de l'ordre de 10^15 kelvins, le seuil en dessous duquel les interactions électromagnétique et faible ne sont plus unifiées. Les deux forces se dissocient et l'Univers connaît une dernière transition de phase. Contrairement à la précédente, celle-ci se passe en douceur, sans effet majeur. A partir de ce moment, l'Univers est régi par les quatre forces que nous observons encore de nos jours.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:45

L'homogénéité et la platitude de l'Univers

L'homogénéité de l'Univers

L'un des grands problèmes de la cosmologie qui a longtemps laissé les astrophysiciens perplexes, et que le scénario de l'inflation a permis de résoudre, est celui de l'homogénéité de l'Univers. Comme nous le verrons plus tard, l'un des arguments en faveur de la théorie du Big Bang est l'existence d'un rayonnement électromagnétique qualifié de fossile qui remplit l'Univers et reste détectable dans toutes les directions du ciel. Ce rayonnement correspond avec une très grande précision à celui d'un corps noir ayant une température de trois kelvins et son intensité est maximale dans les micro-ondes.

En 1989 fut lancé le satellite COBE qui avait pour mission d'étudier le rayonnement fossile et en particulier les variations de son intensité avec la direction dans le ciel. COBE confirma un résultat que d'autres observations depuis la Terre avaient déjà mis en évidence. La température de ce rayonnement était la même dans tout le ciel, avec une variation relative inférieure au cent-millième.

Or les rayonnements provenant de deux régions différentes ne peuvent être identiques que si ces dernières ont été causalement liées à une certaine époque. Si ces régions avaient toujours été indépendantes, leurs températures n'auraient aucune raison d'être similaires. Il y a donc nécessairement eu à un moment donné un échange d'information qui s'est fait au mieux à la vitesse de la lumière.

C'est ce constat qui pose un problème. Les photons provenant de deux régions opposées du ciel ont à peine réussi à atteindre notre petit coin d'Univers. Ils n'ont fait que la moitié du chemin nécessaire à un transfert d'information. Il est donc difficile de trouver deux régions aussi causalement indépendantes. Comment expliquer alors qu'elles ont des propriétés identiques ? De manière plus générale, comment le rayonnement fossile peut-il être aussi isotropique, c'est-à-dire identique dans toutes les directions ?

L'explication par l'inflation

Cette question laissa perplexe la communauté astronomique jusqu'à ce que le scénario de l'inflation vint apporter une explication très simple. En effet, avant l'ère inflationnaire, la taille de l'Univers était à peu près 10^50 fois plus petite que maintenant. La portion de l'Univers que nous pouvons observer de nos jours n'occupait alors qu'une région minuscule, infiniment plus petite qu'un noyau atomique. Cette région, la lumière n'avait aucun problème à la traverser, même si elle n'avait que 10^-30 seconde à sa disposition.

En conséquence, toutes les parties de l'Univers observable aujourd'hui étaient causalement liées avant l'inflation. C'est ainsi que l'information sur la température put être échangée. Par la suite, la taille de l'Univers fut démultipliée par l'inflation, avec comme résultat final un rayonnement homogène dans des régions qui nous semblent aujourd'hui indépendantes.

La platitude de l'Univers

Le deuxième problème résolu par l'inflation est celui de la platitude de l'Univers. La densité de l'Univers est au sens large relativement proche de la valeur critique et sa courbure est pratiquement nulle. L'Univers est donc quasiment plat. La question est de savoir pourquoi. Il n'y a en effet pas de raison pour que l'Univers ne soit pas largement ouvert ou fermé. Sa densité de matière aurait pu être beaucoup plus faible ou plus forte que la valeur critique.

Lorsque l'on entre dans les détails de ce problème, les choses deviennent encore plus déroutantes. En effet, la densité actuelle de l'Univers est liée à sa densité primordiale de façon très sensible. L'expression très sensible n'est d'ailleurs pas assez forte : pour que la densité actuelle soit proche de la valeur critique à 10 pour cent près, il fallait qu'à l'âge d'une seconde, l'Univers soit proche de la densité critique avec une précision relative de 10^-15. Et lorsque l'on remonte plus loin dans le temps, les nombres deviennent incroyables. Ainsi, la précision requise pour le réglage de la densité à la fin de l'ère de Planck était de 10^-60. Si elle n'avait été que de 10^-59, l'Univers serait très différent de celui que nous connaissons.

L'inflation en jeu

L'explication de cette extraordinaire coïncidence resta un mystère jusqu'à l'apparition de la théorie inflationnaire, qui apporta une solution très simple. Imaginez que vous preniez un ballon et que vous puissiez le gonfler jusqu'à lui donner la taille de la Terre. Au départ, le ballon apparaît sphérique et sa courbure est très nette. Mais lorsque la taille de notre ballon devient gigantesque, sa courbure diminue et tend vers zéro, tout comme la Terre nous paraît plate depuis sa surface.

C'est exactement ce qui s'est passé pendant l'inflation. Alors que la taille de l'Univers était multipliée par 10^50, sa courbure était réduite par un facteur du même ordre. Peu importe sa courbure initiale, la valeur actuelle était nécessairement très proche de zéro, et, en conséquence, la densité de l'Univers très proche de la valeur critique.

Remarquons que l'inflation fait ici une prédiction. Si l'Univers est effectivement passé par une telle phase, il doit être quasiment plat et très proche de la densité critique. Or, comme nous l'avons vu, la densité de matière effectivement observée est très loin de cette valeur. L'inflation constitue donc un argument de poids en faveur de l'existence d'une très importante proportion de matière sombre dans l'Univers.

Le concept d'inflation s'avère donc très fructueux. Il présente néanmoins quelques défauts, dont je ne vais présenter que le principal. Nous avons déjà parlé de la constante cosmologique Lambda, qu'Albert Einstein avait introduit dans ses équations pour forcer son modèle d'Univers à être statique. Une étude détaillée montre que la répulsion qui dilate l'Univers lors de l'inflation peut être considérée comme le résultat de la présence d'une constante cosmologique non nulle, 10^125 fois plus grande que celle dont Einstein avait besoin. Or, nous avons également vu que la valeur actuelle de la constante cosmologique est relativement proche de zéro. La question qui se pose est donc la suivante : pourquoi et comment la constante cosmologique a-t-elle subi un changement de valeur aussi prodigieux ? Il n'y a pour l'instant guère de réponse satisfaisante à ce problème.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:46

La naissance de la matière

La fin de l'ère inflationnaire va être marquée par l'apparition de la matière. Jusque là, l'Univers était vide, au sens quantique du terme, c'est-à-dire qu'il était en fait le siège d'un incessant va-et-vient de particules et d'antiparticules virtuelles qui surgissaient du néant pour y retourner aussitôt. Ce qui manquait à ces particules pour devenir réelles, c'était une source d'énergie.

C'est là que l'inflation intervient. Comme nous l'avons vu, la transition de phase qui clôt cette ère s'accompagne d'une très forte injection d'énergie dans l'Univers. Il s'agit là d'une énergie réelle, que les particules virtuelles vont s'approprier pour entrer dans le monde réel. La fin de l'inflation marque ainsi, à partir du vide, la naissance de la matière que nous connaissons.

L'asymétrie matière-antimatière

Un autre phénomène important qui se produit est l'apparition d'une asymétrie entre matière et antimatière. Comme nous l'avons vu, la période de grande unification est caractérisée par la présence des bosons-X, capables de transformer les leptons en quarks et vice-versa. A la fin de cette période, les interactions forte et électrofaible se dissocient et ces bosons disparaissent peu à peu. La particularité de ce phénomène est qu'il ne respecte pas la symétrie entre matière et antimatière.

En effet, lorsqu'un boson-X se désintègre pour donner naissance à un quark, il ne le fait pas exactement de la même façon qu'un antiboson-X. Ainsi, l'égalité entre le nombre de quarks et d'antiquarks qui existait jusque là est rompue. Après la disparition des bosons-X, on compte dans l'Univers, un milliard et un quarks pour seulement un milliard d'antiquarks. Cette différence se retrouvera ensuite au niveau des protons et des neutrons et permettra à l'Univers tel que nous le connaissons de se développer.

Après l'inflation, l'Univers s'installe dans un rythme d'expansion beaucoup plus lent, similaire à celui que nous observons de nos jours. Rien de spécial ne se produit jusqu'à 10^-12 seconde. A cette époque, la température est de l'ordre de 10^15 kelvins, le seuil en dessous duquel les interactions électromagnétique et faible ne sont plus unifiées. Les deux forces se dissocient et l'Univers connaît une dernière transition de phase. Contrairement à la précédente, celle-ci se passe en douceur, sans effet majeur. A partir de ce moment, l'Univers est régi par les quatre forces que nous observons encore de nos jours.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:46

L'ère hadronique

Après la dernière transition de phase, l'expansion continue lentement, accompagnée d'une chute de la température. Lorsque celle-ci atteint 10^13 kelvins, vers un millionième de seconde, une nouvelle étape se produit : le confinement des quarks. Jusqu'alors, ces derniers étaient trop agités pour se soumettre à la force nucléaire forte. Ils pouvaient ainsi vivre leur vie de manière autonome, sans se soucier de leurs congénères. Mais, à 10^13 kelvins, l'agitation thermique des particules est suffisamment faible pour que la force nucléaire forte prenne le contrôle.

Ainsi, lorsque l'Univers est âgé d'un millionième de seconde, l'interaction forte oblige les quarks à s'associer entre eux et à former des ensembles complexes. Apparaissent alors les deux types de hadrons dont nous avons parlés : les mésons, formés d'un quark et d'un antiquark, mais surtout les baryons, association de trois quarks. On note en particulier la naissance des deux baryons les plus connus, le proton et le neutron. A partir de ce moment, la force nucléaire forte est toute puissante. Les quarks perdent leur liberté et se retrouvent emprisonnés dans des hadrons.

L'ère hadronique

La période qui commence alors et qui va durer jusqu'à un âge d'un dix millième de seconde est appelée l'ère hadronique. Celle-ci est dominée par des réactions qui transforment hadrons en photons et inversement. A une température de 10^13 kelvins, l'équivalence entre masse et énergie est en jeu de manière permanente. Par exemple, lorsqu'un proton et un antiproton se rencontrent, les deux particules se détruisent mutuellement et disparaissent. Leur masse est convertie en énergie sous la forme de deux photons dont l'énergie totale correspond à la masse du couple proton-antiproton. La réaction inverse se produit également. Deux photons qui se rencontrent peuvent ainsi disparaître en donnant naissance à une paire baryon-antibaryon.

L'ère hadronique est ainsi dominée par l'incessante production de paires neutron-antineutron ou proton-antiproton et par l'annihilation de celles-ci. Ces réactions de production et d'annihilation ne vont cependant pas durer. En effet, l'énergie moyenne des photons à une époque donnée est déterminée par la température de l'Univers. A 10^13 kelvins, l'énergie d'un photon est à peu près équivalente à la masse d'un proton ou d'un neutron. De cette façon, les photons sont suffisamment énergétiques pour être en mesure de donner naissance à ces particules et les réactions précédentes sont possibles dans les deux sens. Mais, du fait de l'expansion, la température du rayonnement va baisser. En conséquence, l'énergie moyenne des photons décroît et finit par passer sous le seuil nécessaire à la création d'un couple de baryons.

La réaction inverse, par contre, n'est pas affectée puisqu'elle ne nécessite pas d'énergie. Ainsi, la production de paires se fait de plus en plus rare, alors que les annihilations continuent toujours à un rythme effréné. Puisque les réactions qui détruisent les baryons se poursuivent, alors que celles qui en créent stoppent, le nombre de particules chute fortement. La baisse de la température conduit ainsi à une quasi-disparition des protons et des neutrons.

La fin de l'ère hadronique ne marque cependant pas la disparition complète des baryons. En effet, nous avons vu que lorsque les quarks naissent après l'inflation, les processus physiques mis en jeu ne sont pas totalement symétriques du point de vue de la matière et de l'antimatière. Cette asymétrie se retrouve au niveau des baryons. Ainsi, après le confinement des quarks, il y a pour un milliard d'antineutrons un milliard et un neutrons. La particule en trop ne trouve pas de partenaire pour s'annihiler et survit donc au brasier. Lorsque l'ère hadronique s'achève, à un dix millième de seconde, les antiprotons et antineutrons ont complètement disparu, mais un milliardième des protons et neutrons originaux ont survécu. L'antimatière a perdu sa première bataille contre la matière.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:46

L'ère leptonique

A un dix millième de seconde commence l'ère leptonique. L'Univers est alors dominé par les réactions de production et d'annihilation de paires de leptons. En effet, l'électron a par exemple une masse 2000 fois plus faible qu'un proton et les photons ont donc besoin de 2000 fois moins d'énergie pour créer un électron qu'un proton.

Le découplement des neutrinos

Le premier événement important de l'ère leptonique est le découplement des neutrinos, qui se produit lorsque la température atteint les 10 milliards de kelvins, à quelques dixièmes de seconde. Auparavant, les neutrinos étaient constamment en interaction avec le reste des particules par le biais de la force nucléaire faible. Mais cette dernière à une portée relativement limitée et ne s'applique que lorsque les particules sont suffisamment proches. Or, du fait de l'expansion, la densité de matière de l'Univers baisse peu à peu, alors que la distance moyenne entre particules augmente.

Ainsi arrive un point où cette séparation moyenne est trop grande pour l'interaction faible. Les neutrinos perdent alors le seul lien qui les reliait au reste de la matière. Ils vont dorénavant être insensibles à l'action des autres particules et se comporter comme si celles-ci n'existaient pas. On dit que les neutrinos se découplent de la matière. Ces neutrinos primordiaux, puisqu'ils n'interagissent plus, sont toujours encore présents dans l'Univers.

L'annihilation des électrons et des antiélectrons

Le deuxième événement important de l'ère leptonique est l'annihilation des électrons et des antiélectrons, qui se produit lorsque l'Univers est âgé d'environ une seconde. Nous avons vu comment, à la fin de l'ère hadronique, la température était tombée sous le seuil nécessaire à la création de paires proton-antiproton ou neutron-antineutron. De la même façon, il arrive un moment, vers un milliard de kelvins, où la température passe sous le seuil de la création de paires électron-antiélectron.

Les incessantes créations et annihilations de paires, qui maintenaient l'équilibre, se voient alors remplacées par des réactions qui ne se font plus que dans un seul sens, celui de la disparition des électrons et des antiélectrons. La grande majorité de ces particules se détruit mutuellement à la fin de l'ère leptonique. Cependant, la légère asymétrie matière-antimatière qui avait permis à quelques baryons de survivre est encore au travail, agissant de manière similaire et dans les mêmes proportions. Elle provoque la disparition totale des antiélectrons et permet la survie d'une faible proportion d'électrons. La fin de l'ère leptonique voit l'effacement total de l'antimatière. L'Univers ne contient plus dorénavant que de la matière ordinaire, formée de protons, de neutrons et d'électrons.

La quasi-disparition des électrons a une conséquence très importante sur l'équilibre des neutrons et des protons, liée à la différence entre ces particules en ce qui concerne leur capacité à se désintégrer. Le proton peut être considéré comme stable puisque sa durée de vie, bien que n'étant pas exactement connue, est en tout cas supérieure à 10^30 ans. Le neutron, par contre, n'est pas stable. Isolé, il se désintègre avec un temps caractéristique d'une quinzaine de minutes, en donnant naissance à un proton, un électron et un antineutrino.

Ainsi, en partant d'un mélange de protons et de neutrons dans des proportions identiques, la tendance va être à une diminution du nombre de neutrons et à une augmentation de la population de protons. Pendant l'ère leptonique, cependant, les électrons, qui sont encore très nombreux, interviennent pour réguler le nombre de baryons. Ils le font par l'intermédiaire de l'interaction faible qui peut, lors de la collision d'un électron et d'un proton, provoquer la transformation de ce dernier en un neutron. Cette réaction, qui agit dans le sens opposé à la désintégration du neutron, établit un équilibre et permet aux deux types de baryons de rester dans des proportions semblables.

Mais avec la disparition des électrons, protons et neutrons se retrouvent isolés. La réaction ci-dessus ne peut plus se produire et maintenir l'équilibre. Petit à petit, les neutrons vont se transformer en protons et la proportion relative des deux types de particules va graduellement changer. Alors que pendant l'ère leptonique, il y avait autant de neutrons que de protons, la matière va dorénavant être dominée par les protons.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:47

La nucléosynthèse primordiale

Avec la disparition des électrons et de leurs antiparticules, commence l'ère du rayonnement. L'Univers est maintenant dominé par les photons. La température, toujours en baisse, atteint le milliard de kelvins lorsque l'Univers est âgé d'une centaine de secondes. C'est à ce moment que se produit l'une des étapes les plus importantes, la nucléosynthèse primordiale, la formation de noyaux à partir des protons et neutrons qui étaient jusque là libres.

Sous l'effet de la force nucléaire forte, protons et neutrons ont tendance à vouloir s'associer pour former des noyaux atomiques simples comme le deutérium, l'association d'un proton et d'un neutron. Mais tant que les photons sont suffisamment énergétiques pour casser les liaisons ainsi créées, ces regroupements ne sont pas stables. L'Univers voit ainsi une succession de créations et de dissociations de noyaux simples. Mais, lorsque la température de l'Univers descend sous le milliard de kelvins, les photons deviennent trop peu énergétiques pour casser la liaison interne des noyaux qui se forment. A partir de ce moment, les fusions successives donnent naissance à des structures de plus en plus complexes : deutérium, hélium-3, avec deux protons et un neutron, et hélium-4, avec deux protons et deux neutrons.

La complexification n'ira cependant pas plus loin. En effet, d'éventuelles collisions entre les noyaux les plus légers peuvent en produire de plus lourds, contenant entre 5 et 8 constituants. Mais tous les noyaux susceptibles d'être ainsi créés sont instables et se désintègrent rapidement. L'instabilité de ces éléments stoppe ainsi le processus de complexification des noyaux et empêche en particulier la création d'éléments plus lourds comme le carbone ou l'oxygène.

Il faut ajouter à ce problème le fait que, puisque l'Univers est en expansion rapide, les conditions qui rendent la nucléosynthèse possible ne sont réunies que pendant un temps très court. Ainsi, la production de noyaux s'arrête aux éléments les plus légers, l'hélium-4 et quelques traces de deutérium, d'hélium-3 et de lithium-7. Il faudra attendre l'arrivée des premières étoiles pour voir des éléments plus complexes faire leur apparition.

La composition de l'Univers

Les deux éléments principaux à la fin de la nucléosynthèse primordiale sont donc l'hydrogène - les protons - et l'hélium-4. Leur abondance relative est directement liée à la proportion de neutrons et de protons juste avant cette période. Or, nous avons vu précédemment que cette proportion changeait rapidement en faveur des protons du fait de l'instabilité des neutrons. Ainsi, lorsque la nucléosynthèse commence, il n'y a plus que deux neutrons pour environ 14 protons. Si vous voulez former un noyau d'hélium, il faut deux protons et deux neutrons, ce qui vous laisse 12 protons. En conséquence, la nucléosynthèse primordiale conduit à une proportion de l'ordre d'un noyau d'hélium pour 12 protons. Si l'on considère plutôt la masse de ces éléments, l'Univers se retrouve composé de 25 pour cent d'hélium et 75 pour cent d'hydrogène, puisqu'un noyau d'hélium est quatre fois plus lourd qu'un proton ou un neutron.

Cette proportion de 25 pour cent est le résultat de calculs théoriques s'appuyant sur la physique nucléaire et sur la physique des particules. Encore faut-il comparer cette valeur à la proportion réelle, celle que les observations astronomiques peuvent nous indiquer. De nombreuses mesures du rapport hélium sur hydrogène ont ainsi été tentées, par exemple dans des galaxies très anciennes ou des amas globulaires de notre Galaxie. Elles donnent toutes des résultats cohérents avec le rapport de masse de un à trois prévu par la théorie. Ainsi, les mesures d'abondance dans l'Univers sont en parfait accord avec la description théorique de la nucléosynthèse primordiale dans le cadre de la théorie du Big Bang. Cela constitue un succès éclatant pour cette théorie et l'un des principaux arguments en sa faveur.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:47

Recombinaison et rayonnement fossile

La recombinaison

La prochaine grande étape se produit lorsque l'Univers est âgé de 380 000 ans et que sa température est tombée à 3000 kelvins. Avant cette époque, protons et électrons sont libres et les atomes ne peuvent pas exister. Si, par hasard, un proton et un électron se rencontrent et s'associent pour former un atome, leur liaison est immédiatement détruite par un photon énergétique. Pour cette même raison, les photons, qui sont rapidement absorbés par ces atomes éphémères, ont une durée de vie très courte. Ils n'ont donc guère le temps de se déplacer, ce que l'on exprime en disant que l'Univers leur est opaque.

Le changement se produit lorsque la température de l'Univers atteint les 3000 degrés. L'énergie moyenne des photons passe alors sous le seuil de la liaison électron-proton. Le rayonnement perd ainsi sa capacité à dissocier les couples qui se forment. Les rencontres au hasard entre noyaux et électrons vont dorénavant donner naissance à des composés stables : les premiers atomes d'hydrogène ou d'hélium. Cette époque est connue sous le nom de recombinaison.

En même temps, les photons sont maintenant trop peu énergétiques pour être absorbés par des atomes. La lumière n'a plus d'obstacle et les photons peuvent désormais se propager sans entrave. L'Univers devient transparent et le rayonnement se découple de la matière.

Le rayonnement fossile

Ce découplement a laissé une trace qui est encore observable de nos jours. En effet, comme il ne peut être absorbé, ce rayonnement qualifié de fossile emplit toujours encore l'Univers. Cependant, sa température a changé. En effet, depuis l'époque de la recombinaison, la taille de l'Univers a été multipliée par un facteur 1000. La température du rayonnement fossile a donc été divisée par ce même facteur. Comme elle était d'environ 3000 kelvins à l'époque, l'Univers actuel doit être baigné d'un rayonnement à environ trois kelvins. D'après la loi de Wien, son maximum se trouve par conséquent à une longueur d'onde de l'ordre du millimètre, dans la partie supérieure du spectre radio connue sous le nom de domaine des micro-ondes.
Antenne des laboratoires Bell
L'antenne des laboratoires Bell à Holmdel où Arno Penzias et Robert Wilson découvrirent le rayonnement fossile en 1965. Crédit : Bell Labs

La confirmation de l'existence de ce rayonnement fossile vint dans les années 1960. Deux astrophysiciens américains, Robert Dicke et James Peebles s'attaquèrent sérieusement au problème de la naissance de l'Univers et prédirent que l'Univers devait être baigné par un rayonnement fossile dont le maximum d'intensité se trouvait dans le domaine des micro-ondes. Pour confirmer cette prédiction, Dicke et ses collaborateurs se lancèrent dans la construction d'une antenne destinée à détecter le rayonnement fossile.

Ils furent cependant devancés par accident par deux ingénieurs américains, Arno Penzias et Robert Wilson. Ces derniers avaient conçu une antenne micro-ondes destinée à recevoir les signaux de Telstar, le premier satellite de communication. Lors de leurs premiers essais, en mai 1965, ils se rendirent compte qu'ils captaient un signal imprévu, qui présentait la particularité d'être identique dans toutes les directions. Pensant qu'il s'agissait d'un simple bruit dû aux circuits électroniques ou à l'antenne, ils vérifièrent tout l'appareillage et nettoyèrent même les déjections d'oiseaux, mais sans succès.

L'explication leur vint finalement lorsqu'ils entendirent parler des travaux de Dicke et de Peebles : leur antenne ne captait pas un bruit parasite, mais le rayonnement fossile à trois kelvins. Cette découverte constituait un succès éclatant pour la théorie du Big Bang et valut à Penzias et Wilson le prix Nobel de physique. Elle fut rapidement confirmée par l'antenne de Dicke, fin 1965, puis par toute une série d'instruments, depuis des antennes terrestres jusqu'à des capteurs installés dans des ballons ou des fusées.

Finalement, en 1989, fut lancé le satellite COBE qui avait pour mission d'étudier le rayonnement fossile avec une résolution inégalée. Cet instrument spatial fournit un spectre qui correspondait avec une incroyable précision à celui d'un corps noir de température 2,73 kelvins. Après cette observation, l'origine du rayonnement fossile ne faisait plus guère de doute. Cette lumière micro-onde constituait bien une preuve que l'Univers était passé par une phase extrêmement dense et chaude.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:47

Les fluctuations de densité

L'époque de la recombinaison marque la fin de l'ère du rayonnement et le début de l'ère de la matière. L'évolution de l'Univers n'est cependant pas terminée. En effet, lors du découplement entre rayonnement et matière, l'Univers est très homogène, les densités de matière et d'énergie sont plus ou moins les mêmes partout. Or, de nos jours, les télescopes nous révèlent que l'Univers est très structuré : la matière se regroupe dans des galaxies, celles-ci s'assemblent pour former des amas, eux-mêmes agencés en superamas. Le problème se pose donc de savoir comment, à partir d'un Univers homogène, toutes ces structures ont pu apparaître. Cette question est loin d'être résolue et constitue l'un des grands axes de recherche de l'astrophysique moderne.
COBE
Le rayonnement fossile vu par le satellite COBE en 1992 (après correction du mouvement du système solaire et des émissions de la Galaxie). La température moyenne du rayonnement est de 2,73 degrés Kelvins. Les zones bleues et rouges sont des fluctuations infimes (de l'ordre du cent millième) de cette température dans différentes directions du ciel. Ces fluctuations sont le résultat de faibles variations dans la densité de l'Univers primordial, qui ont plus tard donné naissance à la structure à grande échelle que nous observons aujourd'hui. Le rayonnement fossile a été mesuré avec encore plus de précision par le satellite WMAP en 2003. Crédit : NASA/LAMBDA

Le problème de la formation des structures de l'Univers connut une avancée majeure en 1992 grâce aux observations du satellite COBE (qui furent confirmées en 2003 par le satellite WMAP). La mission de ce satellite était d'étudier le rayonnement fossile, en particulier la façon dont son intensité variait selon la direction dans le ciel.

COBE mit d'abord en évidence que le rayonnement fossile était d'une très grande isotropie, c'est-à-dire que son intensité était la même dans toutes les directions du ciel, un phénomène que le scénario inflationnaire pouvait très bien expliquer. Cependant, une analyse plus poussée des résultats montra que le rayonnement n'était pas strictement homogène, mais présentait des fluctuations très faibles, de l'ordre de 1 pour 100 000. Ces fluctuations montraient que la température du rayonnement fossile n'était pas rigoureusement la même dans toutes les directions du ciel, mais variait très légèrement autour de la valeur moyenne de 2,73 kelvins.

Fluctuations de température, donc de densité

Les variations de température dans le rayonnement fossile fournissaient la preuve que lors du découplement entre rayonnement et matière il existait déjà des inhomogénéités dans la répartition de matière de l'Univers. En effet, lorsqu'un rayon lumineux s'éloigne d'une forte concentration de masse, il perd une légère fraction de son énergie et se trouve donc décalé vers le rouge. C'est par le biais de ce phénomène que les inhomogénéités dans la distribution de matière ont provoqué des fluctuations de température du rayonnement fossile. Les photons qui proviennent des régions où la densité de matière était légèrement supérieure à la moyenne ont perdu plus d'énergie que la moyenne. Le rayonnement paraît ainsi un peu plus froid qu'en moyenne. Au contraire, la lumière des régions moins denses a été moins affectée que la moyenne et sa température semble donc légèrement plus élevée.

La plupart des astrophysiciens pensent que ces fluctuations de densité primordiales sont à l'origine des structures de l'Univers actuel. En effet, pour accomplir son travail, la gravité a besoin d'un point de départ. Dans un Univers parfaitement homogène, aucune structure n'apparaîtrait car la gravité ne saurait pas par où commencer. Ce sont les fluctuations de densité primordiale qui jouent le rôle de guide. Grâce à elles, des régions apparaissent où la concentration de matière est légèrement supérieure à la moyenne. Le tour est alors joué et il suffit de laisser la gravitation agir. Les zones à haute densité vont commencer à attirer de plus en plus de matière, alors que les autres vont en perdre. Avec le temps, la différence de densité entre régions riches et pauvres en matière va s'accentuer. On aboutit finalement à un Univers comme le nôtre, dans lequel la masse est concentrée dans des galaxies, des amas et des superamas, le reste étant presque vide.

Origine des fluctuations

La question qui se pose maintenant est de savoir quelle est l'origine de ces fluctuations. Une fois de plus, la solution va nous être apportée par l'inflation. Comme nous l'avons vu, cette dernière est due à la présence dans l'Univers d'une formidable quantité d'énergie. Mais comme nous l'apprend la mécanique quantique, l'énergie est soumise au principe d'incertitude et connaît en conséquence des fluctuations. L'énergie présente dans l'Univers lors de l'ère inflationnaire était donc elle-même soumise à des fluctuations microscopiques d'origine quantique.

L'effet principal de l'inflation a été de multiplier la dimension de l'Univers par un facteur gigantesque. Les fluctuations d'énergie, d'abord microscopiques, ont donc elles aussi été démultipliées en taille. En conséquence, à la fin de l'ère inflationnaire, ces fluctuations ont atteint une échelle gigantesque. Lorsque l'énergie est finalement libérée et donne naissance à la matière, les fluctuations d'énergie conduisent à de légères variations de la densité de matière. Ainsi naissent les inhomogénéités primordiales qui conduiront aux structures actuelles de l'Univers.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:48

Formation des structures de l'Univers

Les fluctuations de densité qui apparurent pendant l'ère inflationnaire pouvaient en théorie être de deux types différents. Il pouvait d'abord s'agir de fluctuations qualifiées d'isothermes si le rayonnement et la matière étaient complètement indépendants l'un de l'autre. Dans ce cas, la densité de matière pouvait varier sans que la distribution du rayonnement ne soit affectée. Il pouvait également s'agir de fluctuations qualifiées d'adiabatiques si le rayonnement et la matière étaient intimement liés. Dans ce cas, les zones de grande concentration de matière devaient correspondre à des régions de plus forte densité de rayonnement et vice-versa.

Deux comportements différents possibles

Ces deux types de fluctuations ont un comportement très différent lors de la formation de structures. Dans le cas de fluctuations adiabatiques, le rayonnement et la matière sont intimement liés. Lorsque la gravité cherche à concentrer la matière, elle est également obligée de comprimer le rayonnement. Or ce dernier est moins docile et essaye de résister. Il y réussit lorsque l'intensité de la gravité n'est pas suffisamment élevée, donc lorsque la taille des fluctuations de densité n'est pas trop grande. Mais si le rayonnement échappe à l'emprise de la gravité, la matière y réussit également puisqu'elle est intimement liée. Ainsi, les fluctuations adiabatiques de petite taille ne participent pas à l'élaboration de structures, et seules importent les fluctuations de grande dimension.

La situation est différente dans le cas de fluctuations isothermes car la matière est alors indépendante du rayonnement. Ce dernier n'a donc aucun effet sur l'action de la gravité et les fluctuations de toutes tailles peuvent conduire à des structures.

La formation des structures de l'Univers dépend ainsi fortement du type de fluctuations en jeu. Si celles-ci sont isothermes, les petites fluctuations ont une grande importance. Ce sont elles qui se condensent en premier. Ainsi, des structures relativement petites d'environ un million de masses solaires apparaissent. Certaines restent isolées et deviennent des galaxies naines. Mais la plupart s'agglomèrent pour former des galaxies plus massives comme la nôtre. Ensuite, sous l'influence de la force de gravitation, les galaxies s'associent pour former des amas, qui eux-mêmes se regroupent en superamas.

Dans le cas des fluctuations adiabatiques, la situation est différente. Les petites fluctuations de densité disparaissent avant d'avoir pu se condenser et seules les grandes entrent en jeu. Ce sont d'énormes structures qui apparaissent, avec une masse de l'ordre de 10 millions de milliards de masses solaires. Ces ensembles s'aplatissent rapidement sous l'effet de la gravité. Naissent ainsi des structures très minces, appelées crêpes, qui sont à l'origine des superamas. Par la suite, chaque crêpe connaît une série de fragmentations, qui vont d'abord conduire à des ensembles de 10 000 milliards de masses solaires, les amas de galaxies, puis à des objets encore plus petits, les galaxies elles-mêmes. L'évolution se fait donc dans le sens inverse, les grandes structures apparaissent en premier et se fragmentent pour en produire de plus petites.

Matière sombre et évolution

La question qui se pose donc est la suivante : les fluctuations primordiales étaient-elles isothermes ou adiabatiques ? Si l'Univers était exclusivement formé de matière ordinaire, la réponse serait simple : les fluctuations seraient adiabatiques et les grandes structures auraient vu le jour en premier. Mais en réalité la densité de matière de l'Univers est dominée par de la matière sombre, en particulier une fraction exotique ou non baryonique très importante. La réponse à la question précédente est donc intimement liée à la nature de la masse cachée.

Les physiciens ont développé toute une panoplie de particules pour expliquer la matière exotique. En ce qui concerne la formation des structures de l'Univers, les propriétés déterminantes de ces particules sont leur masse et leur vitesse lors du découplement d'avec la matière baryonique. Si les particules sont peu massives et cette vitesse comparable à celle de la lumière, on parlera de matière sombre chaude. C'est par exemple le cas des neutrinos. Dans le cas contraire, si les particules sont massives et leur vitesse négligeable devant celle de la lumière, il s'agit de matière sombre froide.

La distinction entre matière sombre chaude et froide est cruciale car elle détermine l'avenir des fluctuations nées pendant l'inflation. En effet, si les particules ont une vitesse comparable à celle de la lumière, elles vont résister à la gravité comme le rayonnement. Par conséquent, les fluctuations trop petites vont disparaître et la formation des structures de l'Univers commencera par les superamas. Par contre, si les particules ont une vitesse négligeable, elles sont incapables de résister à la gravité. Les petites fluctuations survivent et ce sont donc des petits ensembles d'un million de masses solaires qui se forment en premier.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:48

Observation du rayonnement fossile

De nombreuses simulations théoriques ou numériques ont été élaborées pour établir comment galaxies, amas et superamas se sont formés. Jusqu'à récemment, aucune des deux possibilités n'avait vraiment pris le pas sur sa concurrente. Le défaut du scénario avec matière sombre froide était de conduire à une structure à grande échelle différente de celle que nous observons. Le scénario avec matière sombre chaude avait quant à lui du mal à expliquer le faible niveau de fluctuation dans le rayonnement fossile et rencontrait des difficultés dans la formation des plus petites structures. La solution générale consistait alors à considérer un mélange des deux composants. La part de matière sombre froide servirait à activer la formation des galaxies et la portion de matière sombre chaude donnerait naissance à une structure à grande échelle cohérente avec les observations.

Les résultats du satellite WMAP

Les résultats les plus fiables sont arrivés en 2003 grâce à WMAP. Ce satellite fut lancé en 2001 pour mesurer le rayonnement fossile avec une sensitivité et une précision angulaire inégalées. Les premiers résultats, publiés en février 2003, révolutionnèrent la cosmologie, en particulier nos connaissances sur l'évolution de l'Univers et l'énergie sombre. En ce qui concerne plus particulièrement la formation des galaxies, WMAP apporta deux informations cruciales. D'abord sur la composition de l'Univers : 4 pour cent de matière baryonique et 23 pour cent de matière non baryonique froide, le reste étant constitué d'énergie sombre. Ensuite sur l'époque d'apparition des premières étoiles de l'Univers : 200 millions d'années après le Big Bang (500 millions d'années plus tôt que les estimations antérieures).
WMAP
Une vue détaillée des fluctuations de température mesurées par le satellite WMAP en 2003. Ces fluctuations de l'ordre du millionième sont des indicateurs des variations de la densité de l'Univers qui ont donné naissance aux structures que nous observons actuellement. Crédit : WMAP/NASA

Des deux types possibles, il semble donc que c'est la matière sombre froide qui domine largement. La formation des structures de l'Univers a donc probablement commencé par des petites galaxies qui se sont peu à peu agglomérées pour former des galaxies plus massives, puis des amas et des superamas. En particulier, le fait que les premières étoiles se soient formées en un temps aussi court que 200 millions d'années favorise clairement cette hypothèse. En effet, dans un Univers dominé par de la matière sombre chaude, la gravitation aurait eu beaucoup plus de mal à provoquer la condensation du gaz et les premières étoiles seraient apparues beaucoup plus tard.

Remarquons, pour finir, que d'autres tentatives ont été menées pour expliquer les structures de l'Univers. Certains astrophysiciens pensent que les cordes cosmiques, possibles reliques de l'inflation, sont à l'origine de la structure en filaments de l'Univers. D'autres avancent que les grands vides de la structure à grande échelle sont dus aux premières explosions de supernovae. La majorité des astrophysiciens penche néanmoins pour l'explication par amplification des fluctuations de densité nées lors de l'inflation.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:48

La dualité onde-particule

Avant de présenter un autre aspect plutôt mystérieux de la physique, le paradoxe EPR, il nous faut revenir sur l'un des aspects fondamentaux de la mécanique quantique : la dualité onde-particule.

La lumière est bien connue pour présenter deux aspects complémentaires selon la façon dont on l'étudie. La lumière est à la fois un phénomène ondulatoire, d'où par exemple le concept de longueur d'onde, et un phénomène corpusculaire, comme en témoigne l'existence des photons. Mais d'après la mécanique quantique, cette complémentarité des deux aspects ne concerne pas que la lumière, elle s'applique également aux particules.

L'aspect ondulatoire

Les électrons, par exemple, sont généralement présentés comme de minuscules petites billes qui tournent autour d'un noyau. Pourtant, ils peuvent selon les circonstances se comporter comme des ondes. Ainsi, lorsqu'ils sont projetés sur un cristal, les électrons donnent lieu à un phénomène de diffraction. Il s'agit là d'un processus purement ondulatoire qui prouve que les électrons ne peuvent pas simplement être considérés comme des billes. En fait, comme la lumière, la matière doit être décrite en utilisant simultanément les concepts d'onde et de particule, ce que l'on résume par le terme de dualité onde-particule.

Cette dualité change complètement notre vision du monde microscopique. Contrairement à une particule au sens classique du terme, une onde n'est pas localisée dans l'espace, elle n'a pas de position précise. Ainsi, dès que nous cessons de l'observer, un électron développe son aspect ondulatoire et ne possède plus de position précise. Il nous est alors impossible de prédire avec certitude où la particule se trouvera la prochaine fois que nous l'observerons. Elle pourra apparaître plus ou moins n'importe où et le fera complètement au hasard. Le déterminisme qui dominait la physique classique disparaît totalement en mécanique quantique.

Cela ne veut pas dire que nous sommes complètement démunis. En fait, il nous reste encore la possibilité de donner une description statistique de la position de l'électron. Il est en effet possible de calculer la probabilité que l'électron possède de se trouver à une position donnée. L'onde associée à la particule n'est pas réelle comme les ondes sonores ou les vagues, il s'agit plutôt d'une onde porteuse d'information sur la probabilité de trouver l'électron en un endroit donné. Ainsi, la particule a une forte probabilité de se trouver dans les zones de grande amplitude de l'onde, mais très peu de chances d'apparaître en des points où cette amplitude est faible.

Le déterminisme de la mécanique classique est donc remplacé par une description statistique. Il n'est plus envisageable de prédire avec exactitude la position d'une particule, mais il nous reste néanmoins la possibilité de décrire cette position en terme de probabilité.

La fusion

Une preuve astrophysique du fait que les particules se comportent comme des ondes nous est apportée par le Soleil. L'énergie de notre étoile provient des réactions de fusion qui se déroulent en son sein. Mais la fusion de deux protons est un processus très difficile. Les protons ont tous la même charge électrique et une très vive force de répulsion s'applique qui les empêche de se rapprocher. Il se trouve que l'énergie des protons au centre du Soleil est théoriquement insuffisante pour surmonter cet obstacle et la fusion devrait donc être impossible.

Cependant, d'après la mécanique quantique, la position d'une particule n'est pas déterminée exactement. Même si deux protons ne peuvent théoriquement pas se toucher du fait de leur répulsion électrique, le flou sur leur position leur permet de le faire. Ceci arrive très rarement car la probabilité est très faible et la fusion de deux protons est donc un phénomène peu fréquent. Néanmoins, comme le Soleil contient une énorme quantité de protons, les réactions nucléaires se font en grande quantité et lui permettent de briller.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:49

Le paradoxe EPR

La dualité onde-particule n'est pas un problème en soi. Elle met simplement en évidence le fait que les particules élémentaires ne se comportent pas comme les objets de la vie quotidienne et que nos concepts familiers sont inadéquats pour décrire le monde microscopique. Des difficultés plus sérieuses se posent lorsqu'on considère certaines des conséquences de l'indéterminisme. C'est en particulier le cas du paradoxe EPR, basé sur une expérience proposée en 1935 par Albert Einstein, Boris Podolsky et Nathan Rosen, dans le but de mettre en évidence des contradictions supposées de la mécanique quantique.

Le paradoxe

L'expérience est la suivante. Imaginons un laboratoire tapissé de détecteur de photons. Au milieu de la pièce, plaçons un atome stimulé de façon telle qu'il émette simultanément deux photons après un certain laps de temps. Pour des raisons de symétrie, ces deux photons doivent se déplacer dans des directions exactement opposées. C'est bien ce que l'on observe : lorsque l'un détecteur indique la capture d'un photon, le détecteur placé du coté opposé fait de même.

Jusqu'ici, pas de problème. Mais analysons la situation du point de vue de la mécanique quantique. Selon cette dernière, les photons n'ont pas de direction particulière avant d'être détectés, tout comme un électron n'a pas de position précise. Ainsi, toutes les directions ont une probabilité d'émission identique, du moins tant que nous n'observons pas les particules. Ce n'est que lorsque nos détecteurs capturent l'un des photons que le choix d'une direction se produit.

C'est là le problème. Le premier photon ne se voit affecté d'une direction particulière qu'au moment où nous le capturons. Et de même pour le deuxième photon. Pourtant, lorsqu'elles sont détectées, les deux particules se trouvent dans des directions exactement opposées. Comment les deux photons peuvent-ils apparaître simultanément aux extrémités opposées de la pièce s'ils n'ont pas échangé d'information au départ ?

Remarquons que la taille du laboratoire est sans importance. Si nous plaçons nos détecteurs aux quatre coins du Groupe Local, le résultat sera identique. Les deux photons, même séparés par des millions d'années-lumière, seront détectés au même moment dans des directions exactement opposées, bien qu'ils ne savaient pas où ils allaient avant d'être observés.

Pour Einstein et ses deux confrères, un tel paradoxe montrait que la mécanique quantique n'était pas une description satisfaisante de la réalité. La situation resta confuse jusqu'en 1982, lorsque le physicien français Alain Aspect montra que la mécanique quantique avait bel et bien raison.

Alain Aspect réalisa une expérience similaire à la précédente et fut en mesure de prouver que les photons se comportaient exactement comme la mécanique quantique le prédisait. Ils n'échangeaient aucune information au départ et n'apprenaient leur direction qu'au moment de la capture. Ce qui ne les empêchait pas d'apparaître finalement dans des directions exactement opposées. La situation était donc véritablement paradoxale, elle n'était pas liée à une faille de la mécanique quantique.

La non-séparabilité

Pour essayer d'expliquer le paradoxe EPR, il nous faut remettre en cause la vision classique du monde microscopique. En effet, la situation pose problème car nous considérons les deux photons comme des entités distinctes possédant des propriétés locales. Par contre, le paradoxe n'en est plus un si nous considérons que les deux particules forment un système avec des propriétés globales non localisées dans l'un ou l'autre des photons.

Dans cette interprétation, les deux photons, même séparés par des millions d'années-lumière, sont en contact permanent. Ils n'ont pas besoin d'échanger d'information à l'aide d'un moyen classique limité par la vitesse de la lumière. Lorsque l'un est détecté, l'autre le sait de façon instantanée. Les deux particules peuvent donc apparaître dans des directions opposées sans s'être consultées au préalable. Le paradoxe EPR nous oblige ainsi à introduire un nouveau concept, celui de non-séparabilité. Les particules ne peuvent pas toujours être décrites comme des entités totalement indépendantes, mais doivent parfois être considérées comme de simples éléments d'un tout.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:49

Le réglage des constantes fondamentales

Lorsque les astrophysiciens étudient le Big Bang et la formation des structures de l'Univers, de façon théorique ou à l'aide de simulations numériques, ils doivent analyser l'influence de différents paramètres comme par exemple la proportion de matière sombre. De manière plus générale, il leur est possible d'étudier l'influence de différents facteurs dans l'évolution de l'Univers. Ils peuvent ainsi altérer des constantes fondamentales, par exemple la constante de gravitation, ou bien changer des conditions initiales comme la densité moyenne de matière. Ceci leur permet d'analyser comment l'Univers se serait développé si ces paramètres avaient été différents.

Ce genre d'étude comparative a conduit à une conclusion extrêmement surprenante. La plupart des univers virtuels ainsi créés en faisant varier constantes fondamentales et conditions initiales sont incapables d'aboutir à la vie, du moins à une forme de vie similaire à la nôtre. Seuls les univers ayant des paramètres très proches des valeurs réelles permettent à la vie de se développer.

Les quatre forces

Nous pouvons illustrer ceci en passant en revue la façon dont quelques processus astrophysiques seraient altérés si l'intensité des quatre forces fondamentales était différente.

Si la force de gravitation était plus puissante, elle serait capable d'accumuler plus de gaz lors la formation stellaire et seules des étoiles massives se formeraient. Or, ces dernières ont une durée de vie beaucoup plus courte que notre Soleil. La vie n'aurait donc pas à sa disposition les milliards d'années qui lui ont été nécessaires pour se développer sur Terre. Au contraire, si la force de gravitation était plus faible, seules des étoiles peu massives se formeraient. Il n'y aurait pas d'explosion de supernova et aucun élément plus lourd que l'hydrogène ou l'hélium n'apparaîtrait. Or, une vie uniquement fondée sur ces deux éléments est très difficile à imaginer.

Si l'interaction électromagnétique était plus forte, les liens entre noyaux et électrons à l'intérieur des atomes seraient plus solides et plus difficiles à défaire. Or, c'est en partageant certains de leurs électrons que les atomes créent des liaisons chimiques et s'organisent en molécules. Si cela devenait trop difficile, toute chimie serait impossible, ce qui empêcherait la vie de se développer. Si l'interaction électromagnétique était plus faible, les liens entre électrons et noyaux seraient moins solides. Ceci rendrait les atomes très fragiles et empêcherait probablement la chimie de la vie.

Si l'interaction nucléaire forte était plus puissante, protons et neutrons seraient beaucoup plus disposés à s'associer. Ils formeraient systématiquement des éléments lourds. Il n'y aurait par exemple pas d'hydrogène, donc pas d'eau, ce qui défavoriserait sérieusement la chimie de la vie. Si cette interaction était moins intense, protons et neutrons seraient moins enclins à s'assembler. Il n'y aurait pas d'élément plus lourd que l'hydrogène, donc pas de vie.

Enfin, dans le cas de l'interaction nucléaire faible, le problème se poserait principalement après le Big Bang, à l'époque où une partie des neutrons se désintègrent en protons, juste avant la nucléosynthèse primordiale. Si l'interaction faible était plus puissante, plus de neutrons seraient transformés en protons et il y aurait par conséquent moins d'hélium dans l'Univers. Ceci empêcherait plus tard la formation de certains éléments lourds nécessaires à la vie. Au contraire, si l'interaction était plus faible, les neutrons ne se désintégreraient pas et la nucléosynthèse primordiale conduirait à un Univers rempli d'hélium. L'hydrogène, ingrédient indispensable à la vie, serait absent.

La vie, but de l'Univers ?

La liste ne s'arrête pas là et d'autres coïncidences troublantes peuvent être mises en évidence. Elles montrent toutes qu'un Univers avec des constantes fondamentales ou des conditions initiales différentes du nôtre n'aurait pas aboutit à la vie telle que nous la connaissons.

Ce résultat constitue une grande surprise. Tout au long de l'histoire de l'astronomie, l'homme a peu à peu perdu sa place centrale dans l'Univers. Ni sa planète, ni son étoile, ni sa galaxie n'avait une importance particulière. Mais il semble soudain que l'Univers a exactement les propriétés requises pour que l'homme - ou plus généralement la vie - puisse apparaître.

Que faut-il penser de cette étonnante conclusion ? Certains auteurs voient dans ces coïncidences troublantes la preuve que la vie était le but ultime de l'Univers. Pour eux, ce dernier possède les propriétés nécessaires à l'apparition de la vie car telle est sa raison d'être, une hypothèse qui porte le nom de principe anthropique.

Le principe anthropique a pour défaut de ne rien expliquer et de conduire à des interprétations plus religieuses que scientifiques. Une autre explication, sans doute plus rationnelle, est fournie par la théorie des univers parallèles. Cette théorie, née à la fin des années 1950 fut introduite pour essayer d'expliquer un autre casse-tête de la physique, l'expérience du chat de Schrödinger.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:49

Le chat de Schrödinger

L'expérience du chat de Schrödinger fut imaginée en 1935 par l'un des pères fondateurs de la mécanique quantique, Erwin Schrödinger, afin mettre en évidence des lacunes supposées de cette description du monde.

En mécanique quantique, le monde microscopique est décrit en terme de probabilités et le déterminisme classique n'existe plus. On ne peut plus parler de la position d'une particule, mais seulement de sa probabilité de se trouver en un endroit donné. Ce concept est plutôt étrange, en tout cas très éloigné de notre expérience de la vie quotidienne. Mais comme la mécanique quantique a passé avec succès tous les tests expérimentaux inventés à ce jour, nous sommes bien obligés de l'accepter comme description de la réalité. Cependant, s'il est possible d'admettre que le monde microscopique est régi par les lois quantiques, cela devient plus difficile lorsque l'on parle de la vie de tous les jours.
Erwin Schrödinger
Erwin Schrödinger : Vienne, 1887 - Vienne, 1961. L'un des pères fondateurs de la mécanique quantique.

Une expérience de pensée

L'expérience du chat de Schrödinger a justement été imaginée pour faire surgir l'indéterminisme microscopique dans le monde macroscopique de notre vie quotidienne. L'idée de Schrödinger consiste à placer un chat dans une boite fermée. Cette boite est pourvu d'un système destiné à tuer le chat (il s'agit évidemment d'une expérience de pensée.). Ce système est constitué d'un flacon de poison, d'une petite quantité de matière radioactive et d'un compteur Geiger. Lorsque la première désintégration d'un noyau radioactif se produit, le compteur Geiger réagit en déclenchant un mécanisme qui casse le flacon et libère le poison mortel. Ainsi, la désintégration d'un noyau radioactif, un processus microscopique, se traduit par la mort du chat, un événement macroscopique.

La désintégration d'un noyau radioactif est un processus purement quantique qui se décrit en termes de probabilités. Il est impossible de prévoir quel noyau se transformera en premier ou bien quand la première désintégration se produira. La seule chose que nous puissions calculer est la probabilité qu'un certain nombre de noyaux se soient désintégrés après un temps donné. Nous pouvons en particulier choisir une substance radioactive adéquate de telle façon qu'après cinq minutes, il y ait 50 pour cent de chances qu'un noyau se soit désintégré et 50 pour cent de chances que rien ne se soit produit.

Fermons donc la boite et patientons pendant cinq minutes. Puisque la désintégration radioactive s'exprime en termes de probabilités, le sort du chat ne peut être décrit qu'en termes similaires. Après cinq minutes, il y a donc 50 pour cent de chances que le chat soit mort et 50 pour cent de chances qu'il soit vivant.

Dans l'interprétation traditionnelle de la mécanique quantique, le chat n'est alors ni mort, ni vivant. Il se trouve dans une superposition de ces deux états. Ce n'est que lorsque nous ouvrons finalement la boite que l'un des deux états possibles devient la réalité. Le chat est alors soit vivant, soit mort.

L'interprétation traditionnelle de la mécanique quantique pose donc un problème. Il est possible d'imaginer qu'une particule se trouve dans une superposition d'états, chacun affecté d'une certaine probabilité. Cela devient en revanche très difficile lorsque l'on considère un objet macroscopique comme le chat en question. L'idée d'un animal ni mort, ni vivant, mais dans une superposition de ces états est plutôt difficile à accepter. C'est à ce problème que la théorie des univers parallèles vient apporter une solution élégante.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
oregon
Invité




le big bang Empty
MessageSujet: Re: le big bang   le big bang EmptyMer 31 Mai à 6:50

Les univers parallèles

La théorie des univers parallèles ou multiples fut introduite par le physicien américain Hugh Everett en 1957. Il s'agit d'une sorte de réinterprétation de la mécanique quantique qui essaye d'éliminer des problèmes conceptuels comme celui posé par l'expérience du chat de Schrödinger.

D'après cette théorie, le chat de Schrödinger ne se trouve pas dans une superposition d'états. Il y a en fait deux chats, l'un vivant, l'autre mort, qui font partie de deux univers différents. Ceci est possible car, lorsque nous lui imposons le choix entre un chat mort et un chat vivant, l'Univers se divise en deux. Naissent alors deux univers parallèles qui sont absolument identiques, si ce n'est que l'un contient un chat vivant et l'autre un chat mort. Dans chacun de ces univers, le chat est dans un état bien défini et le concept un peu absurde d'un animal ni mort ni vivant n'est plus nécessaire.

Finalement, lorsque nous ouvrons la boite et observons son contenu, nous sélectionnons l'un des deux Univers qui devient alors notre monde réel. A ce moment, les deux univers parallèles se découplent et deviennent totalement indépendants l'un de l'autre. Si nous découvrons que le chat est mort, nous pouvons nous rassurer en imaginant qu'il existe un univers parallèle où le chat est vivant.

Le paradoxe EPR

La théorie des univers parallèles propose une interprétation élégante du paradoxe EPR qui ne fait pas appel au mystérieux concept de non-séparabilité. Lorsque les deux photons sont émis par l'atome, l'Univers est soumis à un choix quant à leurs directions. Il va donc se diviser en une multitude d'univers parallèles. Dans chacun de ces Univers, les photons ont des directions bien définies et celles-ci sont opposées pour des raisons de symétrie.

Plus tard, lorsque nous capturons l'un des deux photons, nous sélectionnons l'un de ces univers multiples. Or, dans l'univers ainsi choisi, la trajectoire de l'autre photon est déjà déterminée à l'avance. Il sera donc détecté dans la direction opposée au premier, sans pour autant avoir besoin d'échanger une quelconque information.

Le choix des constantes fondamentales

La notion d'univers parallèle permet de réinterpréter le problème de la sélection des constantes fondamentales. Au moment de sa naissance, l'Univers est confronté à de nombreux choix. Il doit par exemple décider de la valeur de la constante de gravitation ou de la masse de l'électron. D'après la théorie de Hugh Everett, l'Univers de divise lors de chacun de ces choix. Naissent ainsi une multitude d'univers parallèles caractérisés chacun par un ensemble donné de constantes fondamentales.

La grande majorité de ces univers est incapable de donner naissance à la vie. Certains sont dotés d'une force de gravitation trop intense ou d'une interaction électromagnétique trop faible et ainsi de suite. Néanmoins, une petite fraction de ces univers se révèle apte au développement de la vie. C'est en particulier le cas du nôtre. En adoptant ce point de vue, le réglage des constantes fondamentales n'a plus rien de miraculeux. La vie n'est pas née car notre Univers unique était réglé de façon magique. Elle est apparue car nous sommes dans l'un des rares univers parallèles capables de lui donner naissance.

La décohérence

Bien que la théorie des univers parallèles soit assez captivante, seule une minorité de la communauté scientifique la défendrait de nos jours. Des expériences de mécanique quantique en laboratoire, pendant la deuxième moitié des années 1990, ont en effet démontré l'existence d'un phénomène capable d'expliquer l'énigme du chat de Schrödinger sans faire appel à une explication aussi exotique.

Un système physique, même microscopique, n'est jamais isolé mais toujours en contact avec son environnement extérieur. Les interactions avec cet environnement, par exemple sous forme de friction, perturbent l'état de superposition quantique initial du système et le font peu à peu évoluer vers un état classique. Ce phénomène, appelé la décohérence, fut d'abord discuté sur le plan théorique dans les années 1970, avant d'être finalement observé en laboratoire dans les années 1990. Il se produit d'autant plus vite que le système est grand, et, pour des objets macroscopiques tels les chats, la décohérence serait effectivement instantanée.

Le phénomène de décohérence apporte une réponse au problème posé en 1935 par Schrödinger. Nous n'observerons jamais un chat dans une superposition d'états, car son environnement l'aura immédiatement fait glisser vers un état classique, soit mort, soit vivant. La théorie des univers parallèles perd du même coup sa principale raison d'être.

© Texte Olivier Esslinger 2003-2006
Revenir en haut Aller en bas
Contenu sponsorisé





le big bang Empty
MessageSujet: Re: le big bang   le big bang Empty

Revenir en haut Aller en bas
 
le big bang
Revenir en haut 
Page 1 sur 1
 Sujets similaires
-

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
forum astronomie pour amateur et pro :: astronomie :: astronomie amateur-
Sauter vers:  
Ne ratez plus aucun deal !
Abonnez-vous pour recevoir par notification une sélection des meilleurs deals chaque jour.
IgnorerAutoriser