Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Regard sur l'univers de la physique et l'Astrophysique... Lun 28 Mar 2011 - 13:59
Des nouvelles de la chasse aux trous noirs au LHC avec Aurélien Barrau
La détection de minitrous noirs au LHC, qui donnerait du poids à l'hypothèse de l'existence de dimensions spatiales supplémentaires, est pour le moment négative. L'un des grands spécialistes français de ces questions, Aurélien Barrau, commente pour Futura-Sciences les résultats négatifs trouvés par le détecteur CMS du LHC.
L’idée que l’espace-temps posséderait plus de trois dimensions spatiales a été proposée par Théodore Kaluza en 1919. Il s’agissait d’une tentative pour unifier la gravitation et l’interaction électromagnétique en un corpus d’équations homogènes dérivées de la courbure d’un espace-temps à cinq dimensions. Après avoir rejeté cette idée, Einstein finit tout de même par explorer les conséquences de cette théorie ainsi que des variations de la même idée à plusieurs reprises dans ses propres tentatives d’unification des lois de la physique.
Surtout, il attira l’attention de la communauté des chercheurs sur cette voie de recherche. Pauli l’explora mais c’est Oscar Klein qui donna une version plus complète de la théorie de Kaluza en introduisant l’idée d’une compactification circulaire de la dimension spatiale supplémentaire de Kaluza, pendant les années 1930. On lira à ce sujet l’article du prix Nobel David Gross.
La renaissance des théories de Kaluza-Klein Les théories de types Kaluza-Klein furent délaissées après la seconde guerre mondiale, sans être complètement oubliées, comme en témoignent les cours donnés par Bryce DeWitt en 1963 à l’école des Houches. Une généralisation avec plusieurs dimensions spatiales supplémentaires capable de rendre compte des forces nucléaires y était présentée comme simple exercice pour étudiant doué.
C’est surtout avec la prise de conscience que la théorie des cordes pouvait être tout à la fois une théorie quantique de la gravitation et une théorie unifiée de toutes les forces et de toutes les particules de matière que les théories de Kaluza-Klein sont revenues sur le devant de la scène vers le milieu des années 1970. Ce grand retour a été stimulé par la découverte d’autres généralisations de la théorie d’Einstein: la supersymétrie et la supergravité. La théorie des cordes, devenue la théorie des supercordes, apparut alors comme l’unique moyen de traiter quantiquement de façon cohérente d’une théorie de Kaluza-Klein, en général elle aussi supersymétrique.
La seconde révolution des supercordes dans les années 1995 s’accompagna de la découverte de l’accélération de l’expansion de l’univers en 1998. Cette dernière contraignit les chercheurs à introduire la notion d’énergie noire, laquelle se comprendrait bien dans le cadre de la théorie des supercordes avec des dimensions spatiales supplémentaires et de véritables univers parallèles formant un multivers.
La gravitation quantique au LHC ? Au même moment, deux groupes de chercheurs, Nima Arkani-Ahmed, Gia Dvali, Savas Dimopoulos (ADD) d’un côté et Lisa Randall et Raman Sundrum de l’autre, découvrirent que des dimensions spatiales supplémentaires, pas forcément dans le cadre de la théorie des supercordes, autorisaient une unification des forces et des manifestations de la physique de la gravitation quantique à des échelles d’énergies accessibles au LHC.
Au début des années 2000, la notion de multivers se développa rapidement et plusieurs chercheurs prirent au sérieux la possibilité de créer des minitrous noirs au LHC en raison de l’existence de dimensions spatiales supplémentaires. Ces trous noirs seraient alors une fenêtre incomparable sur la physique de la gravitation quantique, qu’elle soit décrite par la théorie des cordes ou une théorie concurrente, à savoir la fameuse gravitation quantique à boucles d’Ashtekar, Smolin et Rovelli, ou Loop Quantum Gravity (LQG) en anglais. Produire ces minitrous noirs pourrait permettre de donner plus de poids à l'hypothèse de l'existence d'un multivers.
L’un des chercheurs français qui explorent toutes ces questions n’est pas inconnu des lecteurs de Futura-Sciences. Il s’agit d’Aurélien Barrau. Ces questions, profondes, sont en connexion avec la cosmologie primordiale. Inévitablement, des interrogations philosophiques surgissent et c’est bien pourquoi un colloque réunissant philosophes, physiciens et cosmologistes (parmi lesquels se trouvaient Philippe Brax, Jean-Pierre Luminet et Etienne Klein) s’est tenu à Lyon en octobre 2009 (on trouvera les comptes rendus de ce colloque dans un ouvrage publié par Dunod: Forme et origine de l'Univers - Regards philosophiques sur la cosmologie).
Récemment, dans une discussion informelle en compagnie du cosmologiste Jean-Philippe Uzan, du philosophe Max Kistler et de l’historien Patrick Gyger, Aurélien Barrau est revenu dans un ouvrage passionnant et très accessible sur la question d’un multivers. En le lisant, on pourra d’ailleurs prendre la mesure du changement de paradigme qui se prépare peut-être si l’on devait découvrir des minitrous noirs, ou d’autres signatures de gravitation quantique. Il s’agit de: Multivers - Mondes possibles de l'astrophysique, de la philosophie et de l'imaginaire.
Aurélien Barrau avait bien voulu répondre à nos questions sur les probabilités de productions de minitrous noirs dans les collisions de protons au LHC. Or, tout récemment, les physiciens de la collaboration CMS (l’un des détecteurs de particules géants équipant le LHC) ont publié un article faisant état des premières recherches de production de minitrous noirs.
Pour le moment, aucun n’a été détecté.
Nous avons demandé à Aurélien Barrau ce qu’il fallait en penser. Voici ses réflexions:
Aurélien Barrau: Je me réjouis de ce premier article publié par la collaboration CMS (l'un des détecteurs majeurs installés auprès du LHC) sur la recherche de microtrous noirs. Ce sur quoi nous avons travaillé de manière purement théorique devient un peu réalité. Même s'il ne s'agit, pour le moment, que de limites d'exclusion et, hélas, pas de découverte.
Il faut d'ailleurs être clair: nous sommes tous (enfin je le crois) persuadés que la production de microtrous noirs au LHC est extrêmement improbable.
Mais, même si elle correspond effectivement à des modèles très spécifiques et spéculatifs (il faut non seulement disposer de dimensions supplémentaires mais il faut, de plus, que ces dimensions soient assez grandes !), il serait tellement merveilleux de disposer des objets les plus fascinants de l'univers au cœur des détecteurs les plus sophistiqués jamais construits par l'Homme, que le jeu en vaut la chandelle.
En l'état, et compte tenu de l'absence de signal favorable, l'étude menée par la collaboration CMS n'est clairement pas exhaustive. Ils ont essentiellement choisi un modèle – le plus simple – et en ont tiré les conséquences. Étant donnée la zoologie importante des modèles multidimensionnels, je pense que c'est une démarche sage. Il n'est d'ailleurs pas même nécessaire de disposer de dimensions supplémentaires pour que l'échelle de Planck soit suffisamment basse pour conduire à la production de trous noirs au LHC. Il y a quelques années, Dvali (l'un des trois auteurs du fameux modèle ADD à grandes dimensions supplémentaires) a montré qu'un grand (à dire vrai, très grand !) nombre de particules supplémentaires pouvait suffire à cela.
Une masse de Planck de l'ordre de quelques TeV ? Il me semble donc tout à fait raisonnable, en l'absence de signature expérimentale favorable, de placer les limites dans le cadre du modèle le plus simple et le plus étudié: les grandes dimensions supplémentaires de type ADD. Dans celui-ci, l'échelle de Planck peut prendre n'importe quelle valeur entre ce qui est attendu à quatre dimensions (1019 GeV) et environ 1 TeV. Ça ne dépend que du nombre de dimensions supplémentaires et de leur taille.
Il n'y a, en effet, pas de raison fondamentale pour que l'échelle de Planck soit accessible au LHC. Mais il y a une raison heuristique: si elle n'était pas abaissée jusqu'à des grandeurs voisines de l'échelle électrofaible, le problème de la hiérarchie qui est au cœur des motivations de ce modèle ne serait pas résolu. En effet, le fait que la constante de Newton soit à ce point plus petite que les autres constantes de couplage (ou que l'échelle de Planck soit à ce point plus grande que les autres, ce qui revient au même) conduit à une situation très inconfortable du point de vue théorique.
Il est vrai que dans les modèles de type Randall-Sundrum où il existe une dimension supplémentaire « déformée » (warped), les choses ne vont pas tout à fait de la même manière. Mais il me semble raisonnable de ne pas s'aventurer sur ces terres tant qu'aucun signal d'évaporation de trou noir n'est observé.
Il faut aussi reconnaître que l'étude n'apporte pas de nouveauté flagrante par rapport aux précédentes limites. À mon sens, moins qu'une question de luminosité, c'est l'augmentation de l'énergie dans le centre de masse qui permettra de vraiment faire progresser les choses.
Une signature expérimentale très claire La production de trous noirs est un processus non perturbatif. Si ça se produit, cela sera facile à voir ! Presque comme le nez au milieu de la figure.
Les événements auront une symétrie presque sphérique et les particules seront produites « démocratiquement », au prorata de leur nombre de degrés de liberté internes. L'essentiel est donc d'augmenter l'énergie pour sonder des valeurs de l'échelle de Planck non encore accessibles. Même si c'est peu probable, une telle découverte n'est pas impossible.
Il s'agit d'ailleurs d'une illustration amusante de la fameuse correspondance infrarouge/ultraviolet donc on parle beaucoup, souvent sans vraiment la comprendre au niveau intuitif. Imaginons que l'on dispose de collisions avec une énergie dans le centre de masse supérieure à l'énergie de Planck. Au fur et à mesure que l'on augmente l'énergie, les trous noirs produits auront une température de plus en plus... basse !
En effet, la température d'un trou noir est inversement proportionnelle à sa masse. Cela peut se comprendre: plus la masse est petite, plus la gravitation à la surface d'un trou noir est élevée (car on est plus près du centre) et donc plus la température est élevée. Les plus hautes énergies – transplanckiennes – conduisent donc aux plus basses températures. La raison profonde de cela est que la masse de Planck (1019 GeV à 4D) est une sorte de limite « haute » pour la physique des particules (les objets connus interagissant par QED ou QCD ont tous des masses beaucoup plus petites) tandis qu'elle est une limite basse (1019 GeV = un centième de milligramme) pour la gravitation (les objets connus interagissant gravitationnellement ont tous des masses beaucoup plus grandes).
Je pense que l'étude menée par CMS est surtout intéressante parce qu'elle signifie que les expérimentateurs du LHC sont intéressés par cette question et parce qu'elle permet de préparer les outils d'analyse dans le cas de signaux éventuellement positifs lors de l'augmentation de l'énergie dans le centre de masse du LHC.
Bien que l'évaporation des trous noirs soit, suivant la description de Hawking, un processus semi-classique (effet quantique dans un espace-temps courbe non quantifié), il est évident que l'observation de la fin de vie des trous noirs ouvrirait une porte sur la gravitation quantique.
La cosmologie: la fenêtre la plus prometteuse pour la gravitation quantique Je pense néanmoins qu'aujourd'hui la voie la plus prometteuse pour tenter de chercher des traces de gravité quantique est la cosmologie.
Les modèles de « string gas cosmology » et le modèle « pré-Big Bang » de Veneziano avaient déjà produit quelques prédictions intéressantes dans le cadre de la théorie des cordes. Plus récemment, c'est la gravitation quantique à boucles qui a connu des avancées importantes dans ce sens. Inventée par Smolin et Rovelli, la gravitation quantique à boucles est une tentative de quantification canonique des équations d'Einstein qui essaie de n'utiliser que de la physique « connue » (relativité générale et mécanique quantique).
Bien que le formalisme soit loin d'être achevé, il a conduit à des résultats très convaincants. Son application à la cosmologie est spectaculaire car la singularité primordiale du Big Bang disparaît naturellement. C'est, au contraire, un grand rebond qui apparaît avec un autre univers en amont du nôtre. Cette voie a été explorée par Martin Bojowald.
Deux résultats importants sont associés à cette découverte:
l'inflation, qui est souvent ajoutée « à la main » dans le modèle cosmologique, apparaît maintenant de façon parfaitement naturelle et presque inévitable ! La cosmologie quantique à boucles prédit l'inflation !
il est possible (mais pas assuré) que le modèle soit testable dans un futur raisonnable. Le spectre des fluctuations cosmologiques (en particulier pour ce qui est de sa composante polarisée) pourrait en effet être sensiblement modifié par cette nouvelle histoire cosmologique.
Que ce soit aux accélérateurs de particules ou par l'étude du fond diffus cosmologique, des situations où mécanique quantique et gravitation forte sont simultanément à l'œuvre peuvent maintenant être traquées. Il n'est pas exclu que la physique à l'échelle de Planck, réputée intestable, entre enfin dans le champ de la science expérimentale.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Lun 28 Mar 2011 - 14:15
Le LHC est reparti à la chasse au boson de Higgs
Les collisions entre faisceaux de protons ont repris depuis quelques jours au LHC. L’objectif principal est de vérifier la dernière prédiction principale du modèle standard des interactions électrofaibles, le boson de Higgs-Englert-Brout, censé être à l’origine des masses des bosons W et Z.
Parcourez notre dossier le LHC, une clé pour le futur >>
L’année 1983 a été une date importante dans notre recherche de nouvelles clés pour comprendre l’évolution de l’univers Du Big Bang au Vivant. En utilisant le technique de refroidissement stochastique mise au point par le prix Nobel de physique Simon van der Meer, qui vient tout juste de nous quitter, les chercheurs du Cern faisaient la découverte des fameux bosons Z et W prédits par la théorie électrofaible de Glashow-Salam-Weinberg.
Ces particules massives sont l’équivalent des photons des forces électromagnétiques, mais contrairement à eux, ils ne peuvent pas voyager sur des distances infinies dans l’univers. Ils interviennent dans les réactions entre quarks et leptons faisant intervenir la force nucléaire faible à l’origine de la radioactivité bêta et de la nucléosynthèse de certains éléments.
Une particule manquante Presque toutes les prédictions de la théorie électrofaible ont été vérifiées, parfois avec une grande précision notamment dans les collisions d’électrons et de positrons effectuées grâce au prédécesseur du LHC, le LEP.
Il reste cependant un élément clé de la théorie électrofaible qui n’a toujours pas été vérifié. Il s’agit du mécanisme dotant les bosons W et Z d’une masse. Celui-ci fait intervenir un nouveau boson, proposé presque simultanément il y a presque cinquante ans par Peter Higgs, François Englert et Robert Brout.
Des variantes du mécanisme de brisure de la symétrie électrofaible à l’origine des masses des bosons W et Z, mais aussi des autres particules connues, ont été proposées. On peut dire que le but principal du LHC est d’élucider ce mécanisme de brisure, qu’il soit conforme en tout point au modèle de Higgs-Englert-Brout ou qu’il fasse aussi intervenir de la supersymétrie ou une autre physique plus spéculative.
Dans ce but, des collisions de protons capables de produire le boson de Higgs-Englert-Brout se déroulent à nouveau au LHC depuis le depuis le 13 mars 2011. Les collisions à 7 TeV sont scrutées pour y chercher le mythique boson ainsi que des traces d’une nouvelle physique, peut-être à l’origine de la matière noire et de l’énergie noire.
N’oubliez pas qu’il est possible de suivre l'activité du LHC en direct.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Lun 28 Mar 2011 - 14:16
Des bosons de Higgs voyageront-ils dans le passé au LHC ?
Pour peu que nous vivions dans une classe très particulière d’univers branaire, les collisions de protons au LHC pourraient montrer un phénomène digne de la science-fiction. Deux chercheurs affirment que les détecteurs Atlas et CMS pourraient voir l’influence de bosons de Higgs... remontant dans le temps.
L’idée est complètement folle mais probablement suffisamment pour pouvoir être exacte, pour reprendre une expression bien connue de Niels Bohr. Deux physiciens théoriciens, travaillant dans le domaine des hautes énergies à l’Université Vanderbilt, viennent de publier un article sur arXiv suggérant que des voyages dans le temps sont possibles pour certaines particules élémentaires à l’occasion des collisions de protons au LHC. Thomas Weiler et Chui Man Ho mobilisent plusieurs modèles théoriques apparus depuis une quinzaine d’années pour arriver à cette conclusion stupéfiante.
Au cœur de leurs spéculations, on trouve des modèles de Kaluza-Klein, c'est-à-dire des géométries de l’espace-temps, dans lesquelles le nombre de dimensions spatiales est supérieur à trois. S’y ajoutent des éléments de la théorie des cordes que l’on retrouve à la racine de la mythique théorie M à onze dimensions (dix d’espace et une de temps).
Normalement, les conséquences de ces théories ne sont directement testables qu’avec un accélérateur de particules du diamètre de la Voie lactée. Mais depuis les travaux de Arkani-Hamed, Dvali et Dimopoulos (ADD) en 1998 et Randall-Sundrum (RS) en 1999, on sait que cela n’est pas nécessairement le cas. Cela autoriserait par exemple la création de minitrous noirs.
Dans le cadre de ces théories, notre univers pourrait être l’analogue d’une membrane flottant dans l’espace ou avec des dimensions spatiales supplémentaires compactifiées. Dans ce dernier cas, en tout point de l’espace en trois dimensions, il existerait au moins une dimension spatiale supplémentaire orthogonale aux précédentes, mais qui, au lieu de s’étendre à l’infini, se bouclerait sur elle-même.
Des photons massifs L’une des conséquences de cette dimension spatiale compactifiée serait que les ondes associées aux particules par la mécanique quantique, auraient une composante s’étendant dans cette région d’espace et susceptible d’y former des résonances, à l’instar d’un instrument de musique ou l’équivalent des modes d’oscillation d’une corde élastique fixée à ses deux extrémités.
Ces états de mouvement étant des états d’énergies liées à des nombres entiers, on pourrait doter toutes les particules du modèle standard, comme les électrons, les quarks et les photons, d’un spectre de masses de plus en plus lourdes. Dans des collisions suffisamment fortes, ces modes d’oscillations seraient donc excités et un électron ou un quark apparaîtraient plus lourds. On parle alors de tour de masses de Kaluza-Klein.
Que ces dimensions supplémentaires soient compactifiées (ADD) ou infinies (RS), on pourrait penser que rien n’empêcherait les particules du modèle standard, y compris la lumière des étoiles ou les atomes de notre corps, de quitter notre univers membranaire. Ce serait en contradiction avec notre expérience de la vie de tous les jours ou celles en laboratoires de physique des particules depuis des dizaines d’années.
Il existe cependant, dans le cadre de la théorie M, des mécanismes qui peuvent confiner les particules du modèle standard sur notre membrane, à l’exception cependant des gravitons, les photons du champ de gravitation. Il se pourrait aussi que des états massifs du fameux boson de Higgs soient en mesure de quitter notre membrane.
C'est là que des conclusions surprenantes apparaissent...
Depuis une dizaine d’années, les chercheurs ont étudié les conséquences d’une cosmologie branaire à la Randall-Sundrum (RS) et dès le début, quelque chose de très curieux est apparu: la possibilité de voyager plus vite que la lumière pour certains signaux.
Il y a d’abord un point que le lecteur doit avoir bien présent à l’esprit avant de continuer. La lumière et sa vitesse ne jouent aucun rôle central en physique. Il se trouve que parce que les expériences d’optiques sont les plus précises à mettre en œuvre, il a été possible de découvrir qu’il existait une vitesse maximale pour la transmission d’un signal causal dans l’univers. Mais cette vitesse maximale, qui se retrouve dans la vitesse de propagation de la lumière, est en réalité un effet de l’existence de l’espace-temps et comme tel, doit s’appliquer à tous les phénomènes de la physique dans l’espace-temps. C’est en ce sens que les ondes gravitationnelles se déplaçant dans la structure élastique de l’espace-temps doivent se déplacer à la vitesse de la lumière.
Des voyages plus rapides que la lumière ? Or, dans le cadre des modèles de type RS, la vitesse des photons, gluons et bosons W et Z médiateurs des forces du modèle standard dans notre membrane à quatre dimensions, peut être plus faible que celle des gravitons. Il existe alors, comme les chercheurs l’ont découvert au début des années 2000, de véritables courts-circuits entre deux événements de l’espace-temps dans notre membrane et l’un peut influencer l’autre plus vite que la lumière par l’intermédiaire d’ondes gravitationnelles voyageant dans l’espace-temps hors de notre univers.
Toujours du point de vue de notre membrane, cela conduirait à des violations de la causalité et même à l’équivalent de voyage dans le temps. En soi, ce n’est pas complètement nouveau en relativité générale. On connaissait par exemple la fameuse solution cosmologique de Gödel avec un univers en rotation qui autorisait l’apparition de ce qu’on appelle des boucles temporelles (on parle aussi de trajectoire d’univers fermée du genre temps, ou Closed Timelike Curve en anglais). Typiquement, cela conduit au fameux paradoxe du grand-père mais cela a aussi été proposé comme alternative à l’inflation pour expliquer certaines énigmes en cosmologie en relation avec le rayonnement fossile et son uniformité paradoxale. Ainsi, des régions de l’univers primitif auraient pu communiquer entre elles et se refroidir à la même température malgré le fait que la lumière n’aurait pas eu le temps de les connecter au début de la naissance de l’univers observable.
D’après les calculs de Thomas Weiler et Chui Man Ho, dans un univers de type RS mais avec une dimension spatiale compactifiée selon un cercle comme dans ADD, certains états massifs du boson de Higgs, produit par des collisions entre protons au LHC, peuvent emprunter des trajectoires en spirales le long de ce cercle et remonter dans le temps !
Il en découlerait que certains événements bien particuliers avec des particules élémentaires se produiraient dans les détecteurs Atlas et CMS avant que des collisions ne s’y produisent !
Il existe bien sûr de multiples problèmes qui découlent de ces calculs et les deux chercheurs ne les esquivent pas. Bien que limitée en première approximation au monde des particules élémentaires, la possibilité d’envoyer ainsi des messages dans le passé fait ressurgir le paradoxe du grand-père, bien connu lorsque l’on considère des voyages dans le temps. Surtout, il y a une règle sacro-sainte en mécanique quantique qui est celle de l’unitarité. En gros, lorsque l’on additionne les probabilités concernant un processus physique, on doit toujours trouver 1. Mais si l’on considère des voyages dans le temps, cela peut devenir très problématique. Cependant, des processus non unitaires ont souvent été proposés dans des alternatives à la mécanique quantique standard.
On l’a vu, les calculs des chercheurs reposent sur bien des hypothèses physiques. Il s’agit de belles spéculations mais il n’est pas évident du tout qu’elles survivront aux expériences en cours. Mais cela montre à quel point nous sommes peut-être à la veille de profondes révolutions dans notre vision de la structure du cosmos et des processus nous ayant conduit Du Big Bang au Vivant.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 29 Mar 2011 - 15:07
Quand la dilatation relativiste booste les simulations numériques
Les accélérateurs de particules du futur pourraient ne mesurer que quelques centaines de mètres si l’on sait utiliser correctement la propagation d’ondes de plasma induites par laser. Un groupe de chercheurs vient de réussir à les simuler sur ordinateur en réduisant drastiquement le temps de calcul grâce à une astuce élégante: étudier le phénomène dans un référentiel se déplaçant à une vitesse proche de celle de la lumière.
À la base de tous les grands accélérateurs de particules, on trouve des champs électriques augmentant lentement mais sûrement la vitesse des protons, électrons ou ions utilisés pour effectuer des collisions. Le cas le plus simple est celui où l’on fait passer un électron dans une région où règne une différence de potentiel entre deux plaques électriquement chargées. Plus la différence de potentiel est grande, plus la vitesse atteinte par les particules est élevée. Cette différence est donnée en gros par le produit de l’intensité du champ électrique entre les plaques par la distance qui les séparent. On comprend donc que pour accélérer des électrons presque à la vitesse de la lumière, il faut soit les faire voyager sur une longue distance avec un champ électrique faible, soit sur une courte distance avec un champ électrique fort.
Dans le premier cas, on peut placer en série des cavités avec deux plaques électriquement chargées sur une longue distance. C’est le cas de l’accélérateur linéaire de Stanford, le fameux Slac où s'est illustré le prix Nobel Burton Richter. Mais on peut aussi, et c’est ce qui avait été fait avec les premiers cyclotrons et ensuite avec le collisionneur LEP, s'arranger pour faire tourner en cercle un paquet de particules chargées pour les faire passer à plusieurs reprises dans la même région où règne une différence de potentiel.
Mais quand la trajectoire est courbe, les particules chargées se mettent à rayonner d’autant plus fortement, et donc à perdre de l’énergie et de la vitesse, que la courbure de la trajectoire est élevée.
Les contraintes de l'accélération des particules chargées La puissance rayonnée par une particule sur une trajectoire incurvée dépend aussi de l’inverse de la puissance quatrième de la masse de la particule accélérée. La masse d’un proton étant presque 2.000 fois supérieure à celle d’un électron, on comprend pourquoi il vaut mieux utiliser tout à la fois un accélérateur de protons circulaire d’un grand diamètre qu’un petit accélérateur circulaire d’électrons pour faire des expériences à hautes énergies. C’est d’ailleurs ce que l’on fait au LHC pour atteindre des énergies de 7 TeV lors des collisions.
Il y a un autre problème dont il faut tenir compte dans la course aux hautes énergies. Si l’on fait entrer en collision un faisceau de particules avec une cible fixe, seule une petite partie de leur énergie peut se transformer en de nouvelles particules. Il vaut donc mieux, et de très loin, faire entrer en collision deux faisceaux de particules. Là aussi cela explique pourquoi le LHC est un collisionneur à deux faisceaux de protons.
Toutefois, pour étudier la physique des hautes énergies, il ne suffit pas de monter à des énergies de plus en plus hautes. Il faut que le signal des nouvelles particules dans les détecteurs ne soit pas trop brouillé par le déluge des particules déjà connues. Malheureusement, cela n’est pas particulièrement le cas avec des hadrons.
Des mesures fines ne pourront donc être réalisées qu’avec un accélérateur utilisant des électrons à hautes énergies. De ce qui précède on comprend que si l'on veut étudier avec précision des particules dont les masses sont de l’ordre de 1 TeV, il faudra impérativement utiliser des collisionneurs de faisceaux d’électrons et de positrons accélérés par des cavités disposées linéairement. Tout le problème est de construire ces cavités et de réduire au maximum les contraintes technologiques et financières en trouvant le moyen de créer des champs électriques les plus intenses possibles.
Il y a environ trente ans, John Dawson et Toshiki Tajima ont eu l’idée d’utiliser pour cela des ondes électromagnétiques dans des plasmas induites par des impulsions lasers. Pour comprendre de quoi il retourne, on peut prendre l’image d’un puissant hors-bord créant une vague emportant au passage un surfeur dont la vitesse augmente alors. Le passage de l’impulsion laser dans un plasma va induire des différences de potentiel électrostatique telles qu’il est en théorie possible d’obtenir des électrons avec des énergies de 10 GeV en les accélérant sur une distance de l’ordre du mètre.
En théorie, une série de cavités accélératrices de ce type disposée sur une distance d’une centaine de mètres devrait permettre d’obtenir des faisceaux à des énergies de l’ordre d’un TeV, c'est-à-dire 1.000 GeV. Pour mémoire l’accélérateur linéaire de Stanford, avec ces 3,2 kilomètres de long, ne permet d’atteindre que des énergies de l’ordre de 50 GeV. Le collisionneur qui le prolonge permet ensuite d’atteindre des énergies de l’ordre de 90 GeV dans les collisions.
Depuis plusieurs années, des chercheurs du U.S. Department of Energy’s Lawrence Berkeley National Laboratory travaillent précisément à la réalisation d’un tel accélérateur linéaire avec le Berkeley Lab Laser Accelerator (Bella).
Einstein à la rescousse Malheureusement, sa conception nécessite de réaliser des simulations en 3D extrêmement gourmandes en temps de calcul. Surtout, les chercheurs étaient confrontés à des problèmes d’instabilités numériques (à ne pas confondre avec les instabilités des systèmes dynamiques chaotiques). En effet, tout comme pour le cas des calculs de la masse du proton et d’autres hadrons à l’ordinateur, il faut discrétiser en temps et en espace les équations aux dérivées partielles décrivant le plasma couplé aux impulsions lasers. On réalise donc des calculs utilisant un petit intervalle de temps pour les pas de calculs et sur une sorte de réseau spatial cristallin avec une distance donnée entre les points du réseau. Ce qui soulève une grosse difficulté. Pour augmenter la précision des calculs, il faut en effet considérer des intervalles de temps et d’espace de plus en plus petits. Or, ce faisant, les calculs résultant peuvent se mettre à diverger fortement par rapport à leur véritable valeur. C'est en gros ce qu'on entend par instabilité numérique.
La parade a été trouvée par Jean-Luc Vay et ses collègues. Il suffit de se placer dans un référentiel se déplaçant presque à la vitesse de la lumière dans le cadre de calculs effectués par un superordinateur. Numériquement parlant, les effets de la relativité restreinte d’Einstein se manifestent pour un observateur se déplaçant à une vitesse proche de celle des impulsions lasers dans le plasma. La dilatation du temps ralentit les processus d’oscillations dans le plasma tandis que celle de Fitzgerald-Lorentz contracte les distances spatiales.
Dans un tel référentiel, il n’est donc plus nécessaire d’utiliser des intervalles d’espace et de temps de très faibles valeurs pour obtenir la précision demandée. Surtout, des simulations de processus de longues durées et se déroulant sur de grandes distances dans le référentiel au repos, et donc demandant un grand nombre de pas de calcul, se réduisent à des durées et des distances courtes. Il suffit de transformer les résultats obtenus dans le référentiel allant presque à la vitesse de la lumière dans celui du laboratoire pour obtenir la simulation de Bella demandée.
De cette manière les chercheurs ont réalisé en quelques heures seulement des calculs qui défiaient les superordinateurs il y a seulement deux ans, réduisant les temps de calculs par un facteur de l’ordre de plusieurs dizaines de milliers. Mieux encore, on obtient ainsi un résultat en 3D, alors qu'une simulation à une dimension demandait auparavant 5.000 heures calculs.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 29 Mar 2011 - 15:10
Record de masse pour de l'antimatière: des noyaux d'antihélium 4
Les physiciens du Relativistic Heavy Ion Collider (RHIC), au Brookhaven National Laboratory, viennent d’annoncer le plus lourd noyau d’antimatière jamais créé par l’Homme: des noyaux d’antihélium 4 avec deux neutrons et deux protons.
L’antimatière a d’abord été découverte théoriquement à partir de considérations relevant presque des mathématiques pures par Paul Dirac en 1928. Mais ce n’est qu’en 1932 que Carl Anderson fit effectivement l’observation du positron, l’antiparticule associée à l’électron. La seconde étape fut la découverte de l’antiproton par Emilio Segrè, Clyde Wiegand, Edward Lofgren, Owen Chamberlain, et Thomas Ypsilantis en 1955 suivie de celle de l’antineutron l’année suivante par William Wenzell, Bruce Cork, Glenn Lambertson et Oreste Piccioni.
On savait donc depuis cette époque qu’il devrait pouvoir exister dans l’univers observable de véritables noyaux et même des atomes d’antimatière. La question qui se posait alors naturellement était celle de l’existence possible d’antiétoiles et même d’antigalaxies dans l’univers observable. Malheureusement, si de tels objets existaient, ils devraient donner lieu à de gigantesques réactions d’annihilations avec les particules de matière, générant un intense rayonnement gamma.
Rien de semblable n’émergea des campagnes d’observations dans les années 1960 et 1970. On connaît bien sûr de nos jours les sursauts gamma mais ces observations ne peuvent s’interpréter comme la trace de l’existence d’antiétoiles. Or, dans le cadre du modèle standard de la cosmologie, celui-du Big Bang, il devrait exister autant d’antimatière que de matière dans l’univers. Ce n’est pas le cas et cette absence d'antimatière est l’une des énigmes les plus troublantes de la cosmologie et de la physique moderne.
On sait cependant fabriquer des antinoyaux et l’on était même arrivé à synthétiser de l'antihélium 3. Les chercheurs de la collaboration Star viennent de publier un article sur Arxiv dans lequel ils annoncent avoir observé plus lourd encore, un noyau d’anti-hélium 4. Pour cela, ils ont fait entrer en collision des ions lourds avec le Relativistic Heavy Ion Collider (RHIC) du Brookhaven National Laboratory.
Un sous-produit du plasma quark-gluon Ce faisant, ils ont produit un plasma de quarks-gluons dans lequel les quarks se sont rapidement reconfigurés pour donner des états liés, c'est-à-dire des hadrons comme les pions, les protons des neutrons et leurs antiparticules. Ces particules se sont alors attirées en raison des forces nucléaires fortes pour former des antinoyaux et c’est ainsi que 18 noyaux d’antihélium ont été observés. Le taux de production de ces antinoyaux d’hélium étant très faible et conforme aux prédictions théoriques, il en résulte qu’il n’est pas possible de produire de grandes quantités de ces antinoyaux dans les processus astrophysiques habituels. Le milieu interstellaire dans la Voie lactée ne devrait donc pas contenir de l’antihélium détectable sous forme de rayon cosmique.
Le détecteur AMS, le Hubble des rayons cosmiques, ne devrait pas tarder à rejoindre l’ISS. Si cet instrument devait détecter des noyaux d’antihélium, il faudrait en conclure qu’il existe bel bien dans un environnement proche du Soleil ou de la Voie lactée, des antiétoiles.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 29 Mar 2011 - 15:11
Des boîtes quantiques construites à l'aide de fullerènes C60
Boîtes quantiques et graphène sont deux stars des nanosciences. Un groupe de chercheurs vient de trouver comment les combiner, à l’aide de la fameuse molécule en ballon de football de Sir Harry Kroto, afin de former des structures prometteuses pour la nanoélectronique de demain.
D’une façon indirecte, les feuillets de carbone dont l’épaisseur n’est que d’un atome et que l’on connaît aujourd’hui sous le nom de graphène ont déjà fait parlé d’eux en 1985. C’est en effet à cette date que le journal Nature a publié un modèle moléculaire hypothétique de la molécule de C60. Chaque carbone y était à un sommet d'un icosahèdre tronqué contenant douze faces pentagonales et vingt faces hexagonales. Comme un ballon de football contient le même nombre de pentagones et d'hexagones, le modèle proposé lui ressemblait et la célébrité de cette molécule fut immédiate. On la connaît aussi sous le nom de buckminsterfullerène, en hommage à l'architecte Buckminster Fuller (1895-1983) qui a inventé le dôme géodésique, une structure à la fois légère et solide, capable de couvrir un maximum d'espace sans supports internes. La structure de la molécule C60 lui ressemblant elle aussi beaucoup.
Or, ce fullerène, qui a été synthétisé pour la première fois par Harry Kroto, professeur d'astrophysique de l'Université de Sussex (UK) et les professeurs Richard Smalley et Robert Curl de la Rice University (USA), peut être vu comme un feuillet de graphène que l’on aurait découpé puis cousu pour former une molécule de C60. Inversement, de telles molécules, issues de travaux ayant pour but une meilleure compréhension de la nature des poussières carbonées interstellaires, devaient pouvoir être utilisées pour obtenir des fragments de graphène.
Le graphène lui-même est très prometteur pour des transistors du futur, à la base d’une nanoélectronique encore à naître. Cependant, le graphène lui-même est initialement un très bon conducteur. Or, pour faire des nanotransistors, ceux-ci doivent utiliser des matériaux semi-conducteurs. On travaille donc sur le moyen de former de tels matériaux à partir du graphène.
Du buckminsterfullerène sur du ruthénium Jusqu'à présent, les chercheurs avaient seulement été capables de réaliser des transistors à partir de rubans de graphène avec divers inconvénients, notamment celui d’être encore de trop grande taille. Kian Ping Loh et ses collègues de l'Université de Singapour explorent une technique bien plus prometteuse qui leur a permis de réaliser des boîtes quantiques en graphène de tailles inférieures à 10 nanomètres à l'aide des molécules de fullerène C60 en tant que précurseurs.
Loh et ses collègues ont généré ces boîtes quantiques en décomposant du buckminsterfullerène à des températures élevées sur une surface métallique de ruthénium. Le métal agit comme un catalyseur et force les molécules de C60 à se décomposer en amas de carbone. Les chercheurs ont ensuite utilisé la microscopie à effet tunnel pour observer comment les amas de carbone diffusent sur la surface métallique et comment ils s’agrègent pour former des boîtes quantiques.
Ils ont compris qu’ils pouvaient contrôler la densité des amas de carbone et leur agrégation pour obtenir des structures hexagonales de tailles voulues. Surtout, les boîtes quantiques en graphène qu’ils ont obtenues se sont trouvées avoir un gap en énergie, caractéristique des semi-conducteurs, inversement proportionnel à la taille de ces boîtes. Ils avaient donc bien réussi à obtenir une nouvelle voie de synthèse pour la création de nanocomposants électroniques basés sur le graphène.
Leur travaux sont exposés dans une publication récente de Nature Nanotechnology.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 30 Mar 2011 - 19:01
Buzz Aldrin aux commandes du LHC
Le 1er mars 2011, Buzz Aldrin était en visite au Cern. L'astronaute qui se trouvait avec Neil Armstrong dans le module lunaire Eagle de la mission Apollo 11 a eu la surprise de se voir confier les commandes du LHC.
Le LHC est reparti à la chasse au boson de Higgs au début du mois de mars. Mais avant cela, il a reçu la visite d'un invité exceptionnel: le deuxième hommes ayant marché sur la Lune en 1969, Buzz Aldrin.
Dans le centre de contrôle du Cern, le fameux CCC, Aldrin a été reçu par Mike Lamont, chef du groupe Opérations du département Faisceaux. Edwin Eugene Aldrin, prénommé Buzz depuis son enfance, a alors eu le privilège de déclencher le système d’arrêt des faisceaux de protons utilisés pour faire des collisions à 7 TeV dans les détecteurs Atlas, LHCb et CMS. Ses impressions sur le Cern et les recherches effectuées avec le LHC ont été recueillies dans une courte interview.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Jeu 7 Avr 2011 - 18:18
Record du monde d'intrication quantique: 14 qubits !
Un groupe de physiciens de l’Université d’Innsbruck vient de battre un nouveau record dans le domaine de l’information quantique en réussissant à intriquer 14 atomes de calcium dans un piège à ions. Cette performance est un pas de plus en direction d’un mythique ordinateur quantique capable de battre les superordinateurs classiques.
Ce sont Albert Einstein et surtout Erwin Schrödinger qui ont les premiers compris que les équations de la mécanique quantique contenaient le mystérieux phénomène de l’intrication. Il se manifeste dans le cas du paradoxe EPR et dans celui du fameux chat de Schrödinger. Le premier a été observé par le physicien Alain Aspect et la résolution au moins partielle du second a été apportée théoriquement par Wojciech Zurek et observée expérimentalement par Serge Haroche.
L’intrication quantique pourrait permettre de fabriquer des ordinateurs capables de résoudre plus rapidement certains problèmes qui demandent aujourd’hui encore l’aide de supercalculateurs. Plus généralement, comme l’a montré Richard Feynman, un ordinateur quantique permettrait de simuler exactement certains systèmes physiques quantiques. Pour cela, il faut disposer non pas de bits mais bien de qubits d’informations.
À la recherche de calculs avec N qubits Dans le cas du paradoxe EPR avec deux électrons intriqués dans un état quantique, on dispose de 2 qubits. Le cas d’un état quantique avec N qubits a été considéré par trois chercheurs parmi lesquels on trouve le célèbre Anton Zeilinger. On parle dans ce cas d’un état de Greenberger-Horne-Zeilinger (GHZ). Le nombre d’états portés par N qubits est égal à 2N. Ainsi, 10 qubits permettent de stocker et de calculer sur 1.024 états correspondant à 10 registres contenant les nombres 0 ou 1. L’avantage d’un ordinateur quantique sur un ordinateur classique est que le principe fondamental de la mécanique quantique, celui de la superposition des états, permet d’effectuer des sortes de calculs en parallèle avec les qubits.
On sait déjà faire des calculs avec des qubits, donc on dispose déjà d’ordinateurs quantiques. Sauf que ces derniers sont bien incapables d’égaler les performances d’une simple calculatrice des années 1970. Pour battre un supercalculateur comme le Jaguar, il faudrait disposer d’un état de GHZ avec un N important. On est encore très loin de pouvoir le faire et c’est même peut-être impossible à cause du mécanisme de décohérence découvert par Zurek.
Un outil pour la biologie et la cosmologie quantique ? Toujours est-il que la performance réalisée par Rainer Blatt et ses collègues de l’Université d’Innsbruck est intéressante dans ce contexte. Blatt s’est déjà fait connaître dans le domaine de la mécanique quantique avec ses travaux sur le théorème de Kochen-Speker (KS).
Dans le cas présent, les chercheurs ont d’abord piégé et intriqué des atomes de calcium avec un piège à ions de Paul et des impulsions laser. Plus précisément, ils ont employé la technique d’intrication d’ions de Mølmer-Sørensen. Ils sont parvenus à intriquer 14 ions de calcium, obtenant 14 qubits intriqués, ce qui constitue un record mondial.
De cette manière, les physiciens affirment avoir créé un élément de base pour un simulateur quantique utilisable pour explorer des systèmes physiques très variés. Ils citent ceux probablement mis en œuvre par les oiseaux pour s'orienter dans le champ magnétique terrestre ainsi que les champs quantiques en espace-temps courbes en cosmologie (effet Gibbons-Hawking et cosmologie inflationnaire).
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 9 Avr 2011 - 1:22
MEG verra-t-elle des signes de la supersymétrie ?
Dans quelques mois, les chercheurs de la collaboration MEG effectuant des expériences à l’aide du faisceau de muons de l’Institut Paul Scherrer (PSI) devraient publier les derniers résultats de leurs travaux. On pourrait avoir une bonne surprise, la confirmation que nous vivons bel et bien dans un supermonde.
La supersymétrie ne s'est pas encore montrée au LHC. Pour le moment son absence n’est pas critique et nombreux sont les chercheurs qui pensent qu’il existe bel et bien des partenaires à chaque particule du modèle standard, en raison d’une profonde symétrie sous-jacente à la géométrie de l’espace-temps. De plus, les particules lourdes prévues par cette théorie sont de bons candidats pour expliquer la nature de la matière noire.
Il est possible que les chercheurs de la collaboration MEG (pour Muon, Electron, Gamma, appelée encore Muegamma) coiffent sur le poteau leurs collègues du Cern. En effet, dans le cadre du modèle standard, les leptons que sont les électrons, les muons et les tauons ne peuvent se transformer l’un dans l’autre.
C’est du moins ce que l’on croyait jusqu’à ce que l’on découvre le phénomène d’oscillations entre les neutrinos qui leur sont associés...
Ce phénomène n’était pas contenu dans les équations du modèle standard mais il y trouve une place naturelle si l’on admet que les neutrinos ont une masse. Nous savons aujourd’hui que c’est bien le cas.
Une nouvelle vision du monde ? Or, ces oscillations entre neutrinos autorisent alors une conversion de l’électron en son cousin 207 fois plus lourd, le muon, ou inversement, une désintégration d’un muon en un électron accompagné d’un photon gamma.
Le taux de désintégration est ridiculement faible, tellement faible qu’il devrait même être inobservable… sauf si le modèle standard n’est qu’une approximation à basses énergies d’une théorie supersymétrique, notamment une théorie de grande unification supersymétrique. Observer cette désintégration, c’est le but des expériences de la collaboration MEG utilisant la source de muons du PSI.
Quelques candidats avaient bien été trouvés mais rien de certain ne pouvait être affirmé. On attend donc avec impatience si la publication annoncée va changer notre vision du monde ou non.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 9 Avr 2011 - 1:23
Le Tevatron a-t-il vu le boson Z' de la théorie des cordes ??
La nouvelle agite la blogosphère de la physique des hautes énergies, et pas seulement. Les physiciens travaillant avec le détecteur CDF du Tevatron annoncent avoir observé une possible signature d’une particule inconnue. Il ne s’agit pas encore d’une découverte. Certains pensent qu’il pourrait s’agir du mythique boson Z'.
La prudence est de mise avec l’annonce faite tout récemment par les physiciens des particules élémentaires travaillant au Fermilab avec le détecteur CDF du Tevatron. Les chercheurs annoncent qu’une étrange anomalie semble bel et bien se manifester dans les résultats des collisions effectuées à 1,96 TeV avec des faisceaux de protons et d’antiprotons.
Dans le jargon technique des physiciens, on n’en est pas encore à un excès de 5 sigma au-dessus des résultats prédits par le modèle standard, ce qui serait une véritable découverte. Il s’agit d’une observation à 3,2 sigma, c'est-à-dire juste au-dessus du seuil où l’on peut commencer à penser sérieusement qu’il ne s’agit pas d’une fluctuation statistique dans l’expérience, sans véritable signification. Mais le signal pourrait être réel, d’où l’excitation qui commence à s’emparer de la communauté des physiciens.
Vers une découverte extraordinaire ? S'il s’agit d’une nouvelle particule, une chose au moins est claire, ce ne peut pas être le boson de Higgs. Par contre, certains laissent entendre qu’il pourrait bien s’agir d’une particule dont on a déjà entendu parler sur Futura-Sciences, le boson Z'.
Si les détecteurs du LHC faisaient rapidement de cette anomalie une découverte et identifiaient bien un boson Z', il s'agirait d'un résultat extraordinaire. En effet, beaucoup de modèles de GUT et surtout la théorie des supercordes, contiennent naturellement un boson Z' à basses énergies. Pour en savoir plus, on peut consulter les blogs phares sur la physique des hautes énergies:
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 13 Avr 2011 - 15:35
Une nouvelle clé pour la fusion thermonucléaire sans neutrons ?
Un groupe de physiciens américains a revisité une réaction de fusion entre deux noyaux, découverte dans les années 1930 par le prix Nobel de physique Rutherford. Surprise ! Contrairement à ce que l’on pensait depuis des années, elle produit deux noyaux d’hélium énergétiques. Sans émission de neutrons, cette réaction pourrait être un jour une alternative à celle utilisée par Iter.
On célèbre cette année le centenaire du prix Nobel de chimie de Marie Curie ainsi que l'Année Internationale de la Chimie (AIC). On peut considérer que les réactions de fusion et de fission font partie de ce qu’on appelle la chimie nucléaire. Paradoxalement, alors que la fission nucléaire n’a nécessité que quelques années pour être maîtrisée, les réactions de fusion nucléaire ont été découvertes avant celles de la fission et ne sont toujours pas maîtrisées. On espère bien sûr y parvenir avec le projet Iter mais de nombreux problèmes restent encore à résoudre. Ainsi, même si la fusion qui se déroulera dans le tokamak d’Iter sera bien plus propre que dans le cas d’un réacteur nucléaire, il y aura tout de même un intense flux de neutrons. Difficile à contrôler, ce flux produira tout de même une certaine quantité de matériaux radioactifs.
L’idéal serait d’utiliser une réaction de fusion non seulement efficace pour produire de l’énergie (toutes ne le sont pas) mais également sans production de neutrons ou plus exactement, produisant un flux peu important de neutrons. De telles réactions sont connues et on parle à leur sujet de réactions de fusion thermonucléaires aneutroniques.
Une réaction découverte il y a presque quatre-vingts ans Malheureusement, il faut pour cela atteindre des températures de plusieurs milliards de degrés, bien plus élevées que ce que l’on fera avec Iter. De plus, les problèmes de confinement magnétique du plasma généré sont plus importants. Toujours est-il que les recherches continuent et que les physiciens étudient particulièrement la réaction de fusion du bore avec l’hydrogène.
Cette réaction a une longue histoire puisqu’elle a été découverte par Rutherford et Mark Laurence Elwin Oliphant en 1933. Une controverse s’en était suivie sur les caractéristiques des trois noyaux d’hélium émis par la fusion du noyau de bore avec un proton, donnant un noyau instable. Le modèle finalement adopté au cours des années 1980 décrivait l’émission d’une particule alpha énergétique et deux autres noyaux d’hélium à plus basses énergies.
Or, selon un groupe de physiciens nucléaires du Triangle Universities Nuclear Laboratory (TUNL) de l’Université de Duke aux États-Unis, ce modèle est faux !
Les simulations théoriques et les nouvelles expériences qu’ils ont conduites ne laisseraient plus de doutes. Ce serait en fait deux particules alpha énergétiques qui sont produites par la réaction de fusion.
Toujours selon eux, ces noyaux d’hélium pourraient permettre de produire directement et efficacement de l’électricité dans un type de réacteur adéquat. Le site de l'Université de Duke renvoie d’ailleurs aux idées exposées sur le site de la Focus Fusion Society. Ce renvoi laisse particulièrement perplexe étant donné qu’il s’agit visiblement d’une organisation liée étroitement à Eric Lerner, un spécialiste autoproclamé de la physique des plasmas, bien connu pour son opposition irrationnelle à la cosmologie standard.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 15 Avr 2011 - 18:24
La supraconductivité a 100 ans depuis le 8 avril 2011 !
Le 8 avril 1911, on découvre l'un des plus extraordinaires phénomènes physiques, manifestation à notre échelle de la physique quantique: la supraconductivité.
Il y a presque un siècle, le Hollandais Heike Kamerlingh Onnes, grand spécialiste de la cryogénie, produisait de l’hélium liquide pour la première fois. L’expérience acquise pour réaliser cette découverte lui sera profitable car quelques années plus tard, en 1911 plus précisément, il se lança dans l'investigation des propriétés électriques de métaux monoatomiques à très basses températures, comme le mercure, l’étain et plomb.
Or, la théorie cinétique des gaz de Boltzmann et celle des électrons de Hendrik Lorentz, basée sur elle, aboutissent à une prédiction curieuse. En effet, le célèbre Lord Kelvin en déduisit qu'au sein d'un conducteur, les électrons devraient être à l'arrêt complet au zéro absolu. Si tel était le cas, cela signifierait que la résistivité électrique devrait tendre vers l’infini au fur et à mesure que l’on s’approche de la température de 0 kelvin (K).
Onnes et d’autres physiciens n’y croient pas et pensent même plutôt le contraire. La résistivité doit décroître progressivement jusqu'à zéro. Augustus Matthiessen avait en effet montré dans les années 1860 que la résistivité augmente généralement avec la température dans les métaux.
« Door meten, tot weten »… Par l’expérience, la connaissance ! C’est la devise que Kamerlingh Onnes va mettre en pratique le 8 avril 1911 lorsqu'il mesure avec son assistant Gilles Holst la résistance électrique du mercure refroidi par de l’hélium liquide. Ce jour-là, ils découvrent la supraconductivité en observant qu'à 4,2 kelvins la résistivité du mercure est nulle.
Le phénomène va passionner des générations entières de chercheurs et des théoriciens de premier calibre s’attaqueront à sa compréhension comme Lev Landau et Pierre Gilles de Gennes. Ce n’est que grâce à la mécanique quantique, avec la fameuse théorie BCS, que l’on comprendra enfin les événements se déroulant dans les supraconducteurs dits conventionnels.
La supraconductivité sort du laboratoire Devant les propriétés remarquables des supraconducteurs (permettre de transporter de l’énergie électrique sans perte ou de générer de puissants champs magnétiques par exemple), on se mit à rêver d’une technologie nouvelle, utilisable dans la vie de tous les jours.
Il faudrait pour cela que la supraconductivité puisse être obtenue non pas avec des matériaux refroidis à quelques kelvins mais à température ambiante ou presque. L’espoir d’obtenir rapidement cette technologie grandit en 1986 avec la découverte des supraconducteurs à hautes températures critiques par Georg Bednorz et Alex Müller. On cherche alors à comprendre les matériaux, tels les cuprates, dans lesquels une phase supraconductrice apparaît à « seulement » quelques dizaines de kelvins. Récemment, des travaux utilisant théorie des cordes ont peut-être permis d’y voir un peu plus clair.
De nos jours, les supraconducteurs sont présents dans de nombreux domaines. On peut citer l’électronique, l’imagerie médicale, les aimants du LHC, les Squids, des capteurs magnétiques ultrasensibles et l’on spécule même sûr les propriétés supraconductrices du vide ou d’éventuelles cordes cosmiques.
Un nouveau site grand public très complet montre tous les aspects et l’histoire de la supraconductivité depuis sa découverte par Onnes. Embarquez-vous pour un voyage fascinant dans le monde de la supraconductivité !
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 20 Avr 2011 - 0:57
Les sculptures de ferrofluide
Nous vous proposons ce weekend un bonus tout à fait particulier, fait de fluide et de métal, de science et de technique. Entre expérience et recherche artistique, ce liquide est par bien des aspects hypnotique. Certains l'avaient peut être deviné, c'est de ferrofluide qu'il s'agit.
Relisez notre actu bientôt des télescopes à miroir liquide en ferrofluides
Les ferrofluides sont des suspensions colloïdales de particules ferromagnétiques d'une taille de l'ordre de 10 nanomètres, qui réagissent à un champ magnétique extérieur et se hérissent de pointes. Ils sont composés de nanoparticules de magnétite ou d'hématite, et comprennent souvent des ions Fer II (Fe2+) ou Fer III (Fe3+).
Les Morpho Towers de Sachiko Kodama et Yasushi Miyajima Les deux spirales de la vidéo sont en fait une installation qui consiste en deux sculptures de ferrofluide qui bougent au rythme de la musique. Les deux tours reposent sur un récipient rempli de ferrofluide.
Quand la musique commence, le champ magnétique autour de la tour est amplifié et c'est alors que naissent des pointes de ferrofluide. Elles tremblent et se dressent autour de l'axe de la spirale de fer.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 26 Avr 2011 - 16:01
Atomes et miroir pour une expérience de pensée quantique d'Einstein
Dans l’espoir de réfuter l’interprétation de Copenhague de la théorie quantique et les inégalités de Heisenberg, Einstein avait introduit une expérience de pensée dont une variante vient d’être réalisée aujourd’hui avec un faisceau d’atomes d’argon excités par laser passant devant un miroir. Les observations montrent qu’un atome peut alors simultanément s’approcher et s’éloigner du miroir en accord avec le principe de superposition des états quantiques.
Albert Einstein est l’un des pères fondateurs de la théorie quantique et il a longtemps été le plus lucide sur la nécessité de prendre au sérieux pour toute la physique l’existence de quanta d’énergie, introduite par Planck pour expliquer le rayonnement du corps noir. Einstein comprend le premier qu’il ne peut s’agir d’une simple restriction des échanges d’énergies entre matière et rayonnement et que l’on se trouve contraint d’admettre que la lumière elle-même possède un aspect corpusculaire. Il est aussi le premier à introduire le calcul des probabilités en physique quantique, au niveau des processus d’émission spontanée et stimulée d’un atome. Cette découverte est au cœur même des lasers.
Toutefois, à partir de 1927, il s’oppose de plus en plus aux tenants de l’interprétation orthodoxe de la mécanique quantique et va proposer d’ingénieuses expériences de pensée, comme celle de sa fameuse boîte à photons ou encore celle du paradoxe EPR. L’une de ces expériences consistait à essayer de mesurer simultanément avec précision la position et la quantité de mouvement d’un photon. Mesure réalisée avec un dispositif à double fente capable de déterminer par quelle fente un photon était passé, tout en mesurant un changement d’impulsion du photon avec le recul du dispositif à double fente. De prime abord, un tel dispositif semblait permettre de violer les inégalités de Heisenberg interdisant une mesure ou plus précisément l’attribution simultanée d’une valeur précise pour la position et l’impulsion d’une particule quantique (qu’elle soit un photon, un électron ou un atome). Mais comme le dispositif avec fente doit lui-même être décrit par la physique quantique, on doit aussi lui appliquer les inégalités de Heisenberg.
Au final, l’interprétation de Copenhague de la mécanique quantique construite par Niels Bohr se trouve confirmée et il n'y a pas moyen de violer les inégalités de Heisenberg.
Une variante de cette expérience de pensée, déjà réalisée avec d’autres systèmes quantiques, vient aujourd’hui d’être concrétisée par un groupe de chercheurs allemands et autrichiens.
Une émission de photon séparatrice d'une onde de matière Les chercheurs ont commencé par produire un faisceau d’atomes d’argon passant très près de la surface d’un miroir. À ce moment là, un laser excite un électron dans un de ces atomes. Un processus d’émission spontanée fait redescendre l’électron sur un niveau d’énergie plus bas et un photon est émis. Dans certains cas le photon est émis en direction du miroir pour se réfléchir selon une direction identique à celle d’une émission directe du photon en direction d’un observateur. Comme à chaque fois l’atome subit un recul d’une quantité de mouvements donnée, il en résulte que l’atome lui-même se trouve dans une superposition d’états de mouvements.
Dans un cas il s’approche du miroir, dans l’autre il s’en éloigne. La situation est alors analogue à celle d’un photon passant simultanément par les deux fentes du dispositif introduit par Einstein dans son expérience de pensée.
Il y a cependant une importante différence.
Normalement, l’émission d’un photon par un atome empruntant deux chemins simultanément dans le cas d’une expérience avec des ondes de matière passant par une double fente correspond à mesurer par quel chemin l’atome est passé. Il y a alors destruction de la superposition des états. C’est en fait l’inverse qui se passe ici, l’existence d’une émission produit une superposition d’état lorsque le faisceau d’atome est proche du miroir.
On peut démontrer l’existence de cette superposition en faisant subir une expérience d’interférence aux ondes de matière en état de superpositions des deux états de mouvement. On produit alors des franges d’interférence qui disparaissent lorsque le faisceau d’atomes d’argon passe suffisamment loin du miroir. Tous les détails de l’expérience réalisée se trouvent dans un article de Nature donné en lien ci-dessous.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 29 Avr 2011 - 13:35
L'expérience Xenon 100 n'a pas vu de Wimps
Nombreux étaient ceux qui attendaient la publication des résultats de dernières recherches avec l’expérience Xenon 100. Elle concerne en effet la détection directe sur Terre des particules de matière noire pouvant être des Wimps. Les résultats sont malheureusement négatifs et contraignent même l’existence des particules supersymétriques.
On possède des preuves indirectes très sérieuses de l’existence de la matière noire. Mais les théoriciens des astroparticules et de la cosmologie ne dormiront vraiment tranquilles que lorsque l’on aura détecté directement sur Terre ces particules. Il y a deux façons de le faire. Soit en les produisant à l’aide de collisions en accélérateur, comme actuellement au LHC, soit en les détectant à l’aide d’expériences enterrées pour les protéger du bruit de fond des rayons cosmiques ordinaires.
Il existe de multiples candidats possibles au titre de particule de matière noire et il n’est pas exclu que cette dernière soit constituée d’un mélange de plusieurs particules différentes issues des extensions du modèle standard. Pour la supersymétrie, on parle souvent du neutralino mais aussi de gravitino, le partenaire supersymétrique du graviton. Un autre candidat souvent proposé est l’hypothétique axion. Généralement aussi, on parle d’une grande classe de particules possibles rassemblées sous la dénomination de Wimps (pour Weakly Interacting Massive ParticleS).
Des particules difficiles à détecter Ces particules sont nécessairement neutres et insensibles aux forces électromagnétiques, sans quoi elles pourraient émettre de la lumière et ne seraient donc pas « noires ». Elles ne doivent pas non plus subir d’interactions nucléaires fortes avec la matière, puisqu'elles ont jusqu’à maintenant échappé à toute détection en accélérateur ou dans le rayonnement cosmique. Toutefois, elles peuvent être sensibles à des forces au moins aussi peu intenses que les forces nucléaires faibles, voire à ces forces elles-mêmes. On peut ainsi penser qu’elles peuvent interagir avec la matière normale en échangeant des bosons Z ou des bosons de Higgs.
En tout état de cause, l’interaction est si faible que la détection d’une Wimp représente un véritable challenge. Ainsi, face à ce faible signal, il faut réduire drastiquement le bruit de fond, en l'occurrence le flux de particules ordinaires issu du rayonnement cosmique ou encore des neutrons qui passeraient par là, pour s'assurer de ne pas les confondre avec une Wimp. Par ailleurs, le flux et la probabilité d’interaction d’une Wimp avec la matière étant faibles, plus le détecteur est massif, plus la probabilité d’observer une collision, un événement dans le jargon des physiciens, est importante.
Cent jours sous 1,4 kilomètre de roches C’est pourquoi les physiciens de la collaboration Xenon, basant leurs expériences (comme le nom l’indique) sur du xénon liquide, ont prévu plusieurs détecteurs contenant de plus en plus de ce liquide. Xenon 100 utilise ainsi environ 62 kilos de xénon et le dispositif se trouve dans un laboratoire souterrain du Gran Sasso.
Pendant presque cent jours, de janvier à juin 2010, le détecteur a patiemment enregistré les événements sous forme d’émissions de photons et d’électrons, pouvant, pour certains d’entre eux, être associés à des collisions de Wimps avec de la matière normale. Si quelques candidats ont effectivement été vus, ils sont parfaitement compatibles avec des fluctuations statistiques.
Aucune preuve de l’existence de particule de matière noire n’a donc été apportée mais seulement de nouvelles contraintes sur les théories pouvant en expliquer la nature. Les physiciens prévoient d’augmenter la quantité de xénon liquide pour la porter à plusieurs tonnes dans les années à venir.
Ce début d'année 2011 est donc plutôt décevant car il n'a toujours pas révélé de trace d'une nouvelle physique, par exemple des minitrous noirs ou des signes de la supersymétrie au LHC. Espérons que le Tevatron a effectivement commencé à voir des boson Z'...
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 30 Avr 2011 - 15:54
Un record de luminosité pour la sonoluminescence ?
Un groupe de physiciens américains a annoncé avoir obtenu des flashs de lumière, dans une expérience de sonoluminescence, cent fois plus brillants que ceux observés jusqu’à présent. Toujours mal comprise, la sonoluminescence pourrait peut-être un jour servir à faire de la fusion froide.
Le phénomène, bien que très curieux, apparaît de prime abord comme banal. Lorsque certaines bulles de gaz apparaissent dans un liquide et commencent à grossir sous l’effet d’une onde acoustique se propageant dans ce liquide, il arrive un moment où elles implosent en émettant un flash de lumière. La première fois que ce phénomène de sonoluminescence a été observé et décrit scientifiquement, ce fut en 1934 à l’occasion d’expériences sur le sonar effectuées par H. Frenzel et H. Schultes à l’Université de Cologne.
Initialement, plusieurs bulles étaient ainsi produites, rendant difficile l’investigation des processus en cours. Ce n’est qu’en 1989 que Felipe Gaitan et Lawrence Crum purent obtenir le même phénomène avec une seule bulle. L’intérêt de la communauté scientifique pour la sonoluminescence s’est accru lorsque l’on s’est rendu compte qu’aucune explication satisfaisante de ce phénomène n’existait, mais surtout, que l’émission de lumière était peut-être causée par des processus très exotiques. Ainsi, certains ont suggéré que des températures de l’ordre de plusieurs millions de degrés étaient atteintes localement, entraînant des processus de fusion. D’autres spéculèrent même sur des liens avec l'effet Casimir, l’énergie du vide et même la physique des trous noirs.
Plus chaud que la surface du Soleil De fait, en 2005, David Flannigan et Kenneth Suslick, de l'University of Illinois at Urbana Champaign, en réussissant à créer une unique bulle d'argon dans une solution d'acide sulfurique soumise à l'action d’ondes sonores de fréquences supérieures à 18.000 cycles par seconde, ont obtenu et mesuré le spectre du flash de lumière. Selon leurs mesures, la température locale dans la bulle lors de son implosion atteignait les 15.000 kelvins, soit plusieurs fois la température à la surface du Soleil. Comme des atomes d'argon et d'oxygène ionisés hautement énergétiques ont aussi été détectés au cours de l'expérience, il fallait en conclure qu’un plasma s’était bel et bien formé.
D’autres chercheurs annoncèrent aussi avoir mesuré dans des expériences analogues l’émission de neutrons, ce qui prouverait donc que de la fusion froide est possible avec la sonoluminescence. Mais aucune de ces observations n’a été confirmée.
L’un des physiciens qui cherchent à percer les mystères de la sonoluminescence n’est autre que Seth Putterman, qui s’était déjà fait connaître il y a quelque temps en découvrant que des rubans d’adhésif pouvaient émettre des rayons X. Avec ses collègues de l’Université de Californie à Los Angeles, il serait parvenu à créer des flashs de lumière au cours d’expériences de sonoluminescence dont la puissance serait de 100 watts, soit cent fois plus que lors du précédent record réalisé en 2004 par Alan Walton et ses collègues de l’Université de Cambridge. Dans les expériences, une bulle de xénon de 1 millimètre de diamètre flottant dans de l’acide phosphorique implose brutalement sous l’effet d’une onde de choc. Accompagnant le flash de lumière, une température de 10.200 kelvins aurait été atteinte.
Les détails des expériences devraient bientôt être disponibles avec une publication dans Physical Review E.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 7 Mai 2011 - 14:15
Une nouvelle voie pour réaliser le mythique laser gamma
Un physicien russe vient de proposer une nouvelle voie à explorer pour parvenir un jour à générer un laser gamma à partir de transitions dans un noyau atomique. Selon lui, on pourrait déjà obtenir un effet laser dans le domaine optique à l’aide de noyaux de thorium.
C’est Paul Villard, un chimiste et physicien français, qui a découvert un curieux rayonnement en 1900, tandis qu’il étudiait le radium, récemment découvert et isolé par Marie Curie et son mari. Mais c’est en 1903 que l’on commença à en parler sous le terme de rayon gamma, sous la plume d'Ernest Rutherford. Le prix Nobel de physique avait lui-même déjà introduit les noms de rayons alpha et bêta en 1899 pour certaines formes de radioactivité.
On ne commença vraiment à comprendre l’origine des rayons gamma que dans les années 1930, à la suite des progrès de la physique nucléaire, basée sur la découverte de la mécanique quantique. Tout comme l’émission de la lumière dans le domaine des ultraviolets et des rayons X, il s’agissait de transitions entre différents niveaux d’énergies quantifiés. Mais au lieu de se produire dans les couches électroniques entourant le noyau d’un atome, elles se produisaient dans le noyau lui-même. Pour le comprendre et le modéliser, il avait fallu pour cela transposer le modèle en couches pour les électrons aux protons et neutrons des noyaux. Le premier à le faire fut le grand physicien ukrainien Dmitri Ivanenko à qui l’on doit des travaux importants aussi bien en physique nucléaire qu’en relativité générale.
Or, s’il existe des niveaux d’énergies quantiques dans un noyau pour les protons, il doit être possible de réaliser avec ces noyaux de l’émission stimulée, tout comme pour les atomes. Ce qui veut dire qu’il devrait être possible de faire un laser gamma, encore appelé un graser.
Un laser révolutionnaire mais toujours mythique Les militaires s’intéressent depuis longtemps à la réalisation d'un graser, qui reste pour le moment mythique. Mais il y aurait aussi de nombreuses applications dans le domaine de la physique fondamentale, et probablement aussi en ingénierie, si l’on disposait un jour d’un laser à rayons gamma. On pourrait ainsi fabriquer des horloges nucléaires plus précises que des horloges atomiques et peut-être découvrir ainsi que certaines constantes fondamentales varient très lentement dans le temps, comme l’autorise la théorie des cordes.
Malheureusement, personne n’a jusqu’ici trouvé le moyen de contourner les obstacles à l’obtention d’un graser de laboratoire.
Le physicien russe Eugene Tkalya propose, lui, dans un article disponible sur Arxiv et publié par Physical Review Letters, d’essayer d’obtenir d’abord un laser dans le domaine optique avec des noyaux. Selon ses calculs théoriques, il suffirait de substituer à certains atomes de calcium présent dans du LiCaAlF6 des atomes de thorium pour obtenir un matériau pouvant être le siège d’un effet laser.
Les problèmes de l'inversion de population et du recul des noyaux Il existerait alors en effet dans les noyaux de thorium associés aux autres éléments dans cette configuration, deux niveaux d’énergies similaires à ceux des électrons dans un atome. Des transitions atomiques dans le domaine presque optique et non plus gamma peuvent donc s’y produire. Mais le plus important est que les photons qui seraient émis le seraient à des fréquences ne leur permettant que très peu d’interagir avec les électrons des couches atomiques. Cependant pour obtenir un effet laser, il faut réaliser une inversion de population, c'est-à-dire forcer un grand nombre de nucléons sur l’état d’énergie le plus bas de ces deux niveaux à se trouver sur celui qui est le plus haut. Alors seulement une émission stimulée sous l’effet d’une radiation électromagnétique pourrait produire un effet laser.
D’après Tkalya, en utilisant d’abord un champ magnétique intense, ou un très fort gradient de champ électrique, puis des impulsions lasers dans l’ultraviolet, une telle inversion de population peut théoriquement être réalisée. Le premier obstacle à l’obtention d’un laser avec un noyau serait donc ainsi levé.
Le second obstacle, celui de l’émission cohérente de la lumière laser, pourrait quant à lui être levé en utilisant l’effet découvert par Rudolf Mössbauer et pour lequel il a reçu le prix Nobel. En effet, en émettant un photon gamma, un noyau subit un recul, traduisant une modification de la fréquence du photon gamma mesurée par un observateur au repos par rapport à un autre noyau. Cela peut rendre impossible l’émission stimulée d’un autre photon de même fréquence par un autre noyau. Toutefois, dans un réseau cristallin, les liaisons sont telles que c’est non plus à un seul noyau mais à tout le réseau que le transfert d’impulsion lié à l’émission du premier photon se fait.
En pratique, le recul des noyaux est infime et l’on pourrait donc bien obtenir un effet laser...
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 7 Mai 2011 - 14:17
Des atomes jumeaux pour des expériences EPR ?
Trois chercheurs ont réussi à produire efficacement des paires d’atomes jumeaux à partir d'un quasi-condensat de Bose-Einstein. Ces paires devraient être aux ondes de matières atomiques ce que sont les paires de photons jumeaux dans les expériences d’intrications. On devrait donc pouvoir réaliser avec eux le type d’expérience proposé par Einstein, Podolsky et Rosen (EPR) en 1935.
Le phénomène de l’intrication quantique est troublant mais il est bien réel comme l’ont montré en 1982 Alain Aspect et ses collègues. Il s’agissait initialement de tester la validité de l’interprétation dite orthodoxe de la mécanique quantique mais de nos jours, l’intrication est intensément étudiée à cause des ses implications pour la cryptographie, la téléportation et l’information quantique. En général, les expériences faites pour tester le phénomène de l’intrication quantique reposent sur la mesure de la polarisation de paires de photons jumeaux, ou sur le spin de paires d’électrons jumeaux. Mais en 1935, lorsqu’Einstein, Podolsky et Rosen (EPR) ont publié leur célèbre article pour tenter de démontrer que la théorie quantique devait être incomplète, il en était tout autrement.
Pour comprendre l'expérience de pensée proposée par ces trois chercheurs, il faut savoir qu’en mécanique quantique, deux grandeurs physiques, comme la quantité de mouvements et la position d’une particule, sont décrites par un objet mathématique appelé opérateur. Il s’agit de grandeurs mathématiques qui obéissent à une algèbre inhabituelle pour des nombres ordinaires, leur produit ne commute pas toujours. On peut se les représenter sous forme d'une matrice, un tableau de nombres.
Un défi aux inégalités de Heisenberg position-impulsion Cette non commutativité impose alors que lorsque l’on considère un objet avec des grandeurs physiques associées sous forme d’opérateurs, il n’est pas possible de mesurer simultanément ces grandeurs. Pire, la théorie dénie même l’existence simultanée de ces deux grandeurs.
Ainsi, avec un quanta de matière ou de lumière, on ne peut non seulement pas connaître la position et la quantité de mouvements de cette particule avec une précisions infinie, mais la position et la quantité de mouvements ne sont pas des caractéristiques possédées simultanément par la particule. Cet interdit est bien exprimé par les fameuses inégalités de Heisenberg.
Ce comportement étrange indique en réalité que dans le monde quantique il n’existe pas vraiment de particule au sens classique du terme, qui pourrait ressembler à une boule de billard. Il existe un objet, un quanta de matière ou de lumière, qui, selon la situation expérimentale, peut être décrit en partie avec des images de position et de quantité de mouvements mais sous réserve que ces images n’existent pas simultanément.
Pour des gens comme Einstein et Schrödinger, une telle situation ne reflétait qu’une impuissance momentanée de la théorie quantique à fournir une image claire et précise de ce qu’il fallait entendre par un quanta de lumière ou de matière dans l’espace et le temps. C'est pour le prouver qu'Einstein, Podolski et Rosen proposèrent un moyen de violer les inégalités de Heisenberg.
Pour cela, ils ont considéré une particule au repos décrite par une fonction d’onde psi, la fameuse fonction donnant l’amplitude de probabilité de trouver un système physique dans un état donné, par exemple de position, d’énergie, de spin, etc.
La particule se désintègre en donnant deux autres particules, par exemple un électron et un positron se déplaçant presque à la vitesse de la lumière. La conservation de la quantité de mouvements fait que positron et électron partiront dans des directions opposées et avec des quantités de mouvements identiques en valeur absolue.
Mesurons précisément la quantité de mouvements d’une des particules (par l'exemple la noire sur les deux schémas). On connaît à priori instantanément la valeur de l’autre (rouge). Réalisons simultanément une mesure de la position sur la deuxième particule. On devrait pouvoir aussi connaître sa position avec la précision désirée.
Il semble donc que l’on ait violé les inégalités de Heisenberg, à moins d’imaginer un signal envoyé par le premier électron vers l’autre pour brouiller toute mesure de sa position. Mais si l’on considère la mesure de la quantité de mouvements du premier électron six mois après son émission, pour respecter la théorie quantique, il faut que le signal rejoigne instantanément le second électron à une année-lumière de là. On obtient donc une contradiction avec la relativité restreinte, indiquant un problème dans la théorie quantique et donc la nécessité de la modifier.
C’est du moins ce que Einstein pensait mais Niels Bohr n’a pas tardé à contrer cet argument en répliquant qu’il n’était pas possible de parler de phénomènes physiques ni d’objets possédant telle ou telle propriété, indépendamment de la situation expérimentale dans le formalisme de la théorie quantique.
Ainsi, dans l’exemple précédent, électron et positron sont en fait intriqués et ne sont pas décrits par deux fonctions d’ondes indépendantes avant toute mesure. Il n'existe qu’une seule fonction globale, un seul objet, et on ne peut pas parler de deux objets séparés dans l’espace et dans le temps.
L’ensemble réagit d’un bloc lors d’une mesure, quelles que soient les distances, et exhibe une non localité. Cette dernière propriété est malgré tout en accord avec la relativité restreinte car le flou quantique interdit de pouvoir prédire le résultat des deux mesures. On ne peut pas s’en servir pour transmettre de l’information.
Une source pratique d'atomes jumeaux Dans un article publié dans Nature, un groupe de trois chercheurs (allemand, autrichien et français) vient de montrer qu'il était possible d'obtenir des particules qui devraient être intriquées et qui ne seraient pas des photons ou des paires électron-positron mais des objets plus gros, des atomes !
On devrait pouvoir réaliser sur eux des mesures de position et d'impulsion, comme l'avaient proposé par Einstein, Podolski et Rosen en 1935. On peut aussi imaginer des expériences faisant intervenir des états de spins de ces atomes, comme pour les paires des photons jumeaux. De fait, l'expérience réalisée par les chercheurs de la Technischen Universität (TU) Wien (l'Université de Technologie de Vienne) est l'analogue avec les ondes de matière de la génération non-linéaire de paires de photons intriqués bien connue dans les expériences modernes sur l'intrication.
Selon les propres mots des chercheurs, ils ont obtenu des faisceaux d’atomes jumeaux à partir de quasi-condensats de Bose-Einstein (CBE). Plus précisément, ils sont partis d’un gaz d’atomes de rubidium neutres qu’ils ont piégé et refroidi en dessous du millionième de kelvin, jusqu’à obtenir une condensation de Bose sur un dispositif similaire à une puce électronique.
Cette « puce atomique » permet de manipuler les atomes du condensat de BE avec une très grande précision. En particulier, on peut transférer des quanta d’énergie vibrationnelle un à un au CBE. On peut donc exciter les niveaux d’énergie du CBE de telle sorte qu’il se retrouve juste au-dessus de son état fondamental. Les calculs montrent alors qu’il n’a pas d’autre choix que de se désexciter en émettant justement deux atomes corrélés avec des impulsions opposées. Ces atomes devraient bel et bien former un seul système quantique et on devrait pouvoir démontrer expérimentalement qu’un effet EPR se manifeste si l’on cherche à mesurer simultanément la position et l’impulsion de l’un d’entre eux, ou deux valeurs de spin portés par la structure hyperfine des électrons des deux atomes formant un état intriqué par exemple.
Reste à voir ce que ces expériences vont donner une fois qu’on les aura réalisées…
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Lun 9 Mai 2011 - 0:50
Des faisceaux de neutrons ultrafroids pour tester la gravitation
Plusieurs théories physiques modifiant la théorie de la gravitation d'Einstein changent la loi d'attraction de Newton à petites distances. En utilisant un flux de neutrons ultrafroids de l'Institut Laue-Langevin (ILL), des physiciens vont peut-être pouvoir observer cette modification.
En 1959, le grand cosmologiste et physicien théoricien Yakov Zeldovitch a prédit que des neutrons ultrafroids devraient être facilement réfléchis par des surfaces métalliques. L’expérience a été réalisée en 1969 à Dubna. Depuis lors, on sait faire de véritables miroirs à neutrons pour diverses expériences de physique. L’une d’elles consiste à observer les niveaux d’énergie qui apparaissent parmi des neutrons en chute libre, mais rebondissant telle une balle sur un miroir à neutrons.
Pour décrire ces niveaux, il faut appliquer la fameuse équation de Schrödinger à un flux de neutrons ultrafroids injectés entre deux miroirs. En plus de l’état de mouvement horizontal des neutrons, il apparaît l’analogue des états d’énergie d’un neutron piégé dans la cuvette de potentiel d’un noyau. Tout comme dans le modèle en couches des noyaux introduit en physique pour la première fois par Dmitri Ivanenko, il peut se produire des transitions entre les différents niveaux d’énergie, similaires à celles de l’atome d’hydrogène de Bohr.
Or, les neutrons n’ayant pas de charge, présentant une polarisabilité 10-19 fois plus faible qu’un atome et un moment magnétique mille fois plus faible, ils sont particulièrement peu sensibles à des forces électriques de type Van der Waals ou Casimir qui se manifestent à petites distances. Cela en fait donc des outils de choix pour tester des modifications de la loi de la gravitation à petite échelle.
Il se trouve que des expériences de ce genre ont été remises au goût du jour depuis une bonne dizaine d’années car, dans le cadre de certaines extensions du modèle standard, particulièrement dans le cadre de la théorie des supercordes, on peut s’attendre à observer de telles modifications.
De la spectroscopie de résonance gravitationnelle Bien sûr, avec un flux de neutrons ultrafroids en chute libre, la composante principale de la gravitation est celle de la Terre, mais à petites distances des parois constituées des miroirs à neutrons, une attraction supplémentaire générée par la matière des parois est bel et bien présente. En théorie, de très légères modifications des états d’énergie des neutrons rebondissant entre les deux miroirs, du fait d’une modification de la loi de la gravitation, sont peut-être observables. Pour cela, il faut développer un dispositif capable de mesurer ces états d’énergie.
C’est ce que font depuis quelques années des physiciens de l’Université technologique de Vienne, qui ont publié récemment dans Nature un article faisant état de la réalisation d’un tel dispositif utilisant le flux de neutrons ultrafroids disponible à l'Institut Laue-Langevin (ILL) de Grenoble. En faisant vibrer l’un des miroirs à des fréquences particulières, les chercheurs sont capables de transférer les neutrons sur des états d'énergie plus élevés et donc de faire de la spectroscopie de résonance gravitationnelle.
Dans un avenir proche on saura peut-être si des théories basées sur l’existence de dimensions spatiales supplémentaires, comme la version dite ADD des théories de Kaluza-Klein ou des supercordes (la même qui autorise la création éventuelle de minitrous noirs au LHC), sont correctes.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 10 Mai 2011 - 23:03
Relativité générale: Gravity Probe B confirme l'effet Lense-Thirring
Lancé en 2004, le satellite Gravity Probe B avait pour mission de tester deux prédictions de la théorie relativiste de la gravitation d’Albert Einstein. Des difficultés imprévues concernant l’analyse des données ont finalement pu être surmontées. L’effet d’entraînement des référentiels est bel est bien présent et conforme aux calculs de Josef Lense et Hans Thirring.
Consultez notre dossier complet sur la relativité générale >>
C’est en 1916 qu’Albert Einstein a mis un point final à sa fameuse théorie de la relativité générale. Bardée d’équations tensorielles avec des forêts d’indices et faisant usage de la géométrie des espaces courbes à n dimensions, la théorie semblait formidable pour beaucoup. La légende raconte qu’Arthur Eddington, le célèbre astrophysicien ayant apporté la première preuve de la théorie de la relativité générale, se serait vu ainsi apostropher par un de ses collègues: « Eddington, vous devez être l’un des trois hommes sur Terre à comprendre la théorie d’Einstein. » Devant le silence de Sir Arthur, celui-ci ajouta: « Ne soyez pas modeste Eddington », et l’astrophysicien de répliquer: « Au contraire ! Je cherche qui peut bien être ce troisième homme ! ».
Certainement, la phrase attribuée à Sir Arthur n’était pas du tout le reflet de la réalité car dès 1916, plusieurs physiciens, astronomes et mathématiciens ont commencé à publier des travaux importants sur le sujet. Il y eut d’abord Karl Schwarzschild, qui découvre la même année sa célèbre solution contenant en germe la théorie des trous noirs, ainsi que l'astronome hollandais Willem De Sitter qui prédit ce que l’on appelle aujourd’hui l’effet Einstein-De Sitter. Quelques années plus tard, Josef Lense et Hans Thirring découvrent que la rotation d’un objet génère un effet particulier sur l’espace-temps environnant.
De même que le principe d’équivalence implique qu’il n’est pas possible de savoir localement si l’on est au repos dans un champ de gravitation ou dans un référentiel accéléré (par exemple à l’intérieur d’une fusée), on ne devrait pas, d’une certaine façon, pouvoir faire de différence entre l’accélération que l’on subit sur un disque en rotation et celle générée par un corps en rotation sur des objets dans un référentiel au repos autour de ce corps. Il en résulte qu’un gyroscope en orbite autour de la Terre en rotation subira des modifications de la direction de son axe initialement pointé vers une étoile, comme s'il était dans un référentiel en rotation.
Des sphères de niobium supraconductrices en orbite L’effet est minime, presque inobservable, mais il constitue une prédiction intéressante de la théorie de la relativité générale, effet qui peut même être différent selon les théories métriques de la gravitation concurrentes proposées à la place de celle d’Einstein. C’est pourquoi une mission spatiale a été lancée en 2004 pour faire l’expérience: Gravity Probe B (GPB).
En 2007, les chercheurs annonçaient avoir observé l’effet Einstein-De Sitter avec GPB, mais l’objectif principal, la détection de l’effet Lense-Thirring, s’est révélé beaucoup plus difficile que prévu à cause de problèmes sur l’instrument de mesure lui-même. La Nasa vient cependant d’annoncer, ce 4 mai, que l’obstacle a finalement été surmonté et que l'effet Lense-Thirring, dit encore effet d'entraînement des référentiels (en anglais frame-dragging precession), est bien là, qui plus est conforme aux prédictions de la théorie d’Einstein. Le bilan des mesures, qui devrait bientôt être publié, a été donné.
Les observations montrent (aux erreurs de précision près) une modification de l'orientation de l'axe d'un gyroscope de -6,601 818 3 mas/an par effet Einstein-De Sitter et de -37,272 mas/an (milliseconde d'arc par an) par effet Lense-Thirring alors que relativité générale prévoyait une modification de -6,6061 mas/an et -39,2 mas/an respectivement (rappelons qu'une milliseconde d'arc vaut 4,848 10-9 radian).
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Jeu 12 Mai 2011 - 0:00
Mille secondes, record de confinement pour l'antihydrogène !
Pourquoi la matière domine-t-elle l’antimatière dans l’univers observable ? Pour tenter de le savoir, les physiciens du Cern piègent et refroidissent depuis un an des atomes d’antihydrogène. Ils viennent d’établir un nouveau record avec un temps de confinement de 1.000 secondes avant que ces antiatomes ne se désintègrent au contact des particules de matière normale.
Lorsque l’on cherche à construire une théorie à la fois quantique et relativiste des particules de matière présentes dans l’univers, on est mathématiquement conduit à la découverte de l’antimatière comme le physicien Paul Dirac l’a constaté il y a presque quatre-vingts ans. Ainsi, à chaque particule de matière, comme un électron ou un quark, doit correspondre une antiparticule qui ne diffère que par sa charge électrique du point de vue de ses caractéristiques physiques. C’est toutefois ce que l’on croit mais cela conduit à se poser la question de savoir pourquoi on rencontre très majoritairement des particules de matière dans le cosmos observable et très peu de particules de d'antimatière. L’énigme est d’autant plus troublante que selon les théories dont on dispose actuellement, autant de matière que d’antimatière aurait dû être créée à la naissance de l’univers observable.
Il existe donc probablement de subtiles différences entre les réactions productrices de matière et d’antimatière, peut-être parce que particules et antiparticules ne sont pas elles-mêmes identiques à la charge près. Pour le savoir, il faut par exemple conduire des expériences avec des atomes d'antihydrogène et vérifier s'ils possèdent les mêmes caractéristiques que les atomes d'’hydrogène. Mais il faut déjà pouvoir les produire en quantités importantes et surtout pouvoir les piéger magnétiquement pour les isoler suffisamment longtemps des protons et électrons de la matière normale, qui les détruisent au moindre contact. C’est ce que font les membres de l’expérience Alpha (Antihydrogen Laser Physics Apparatus) depuis un certain temps au Cern.
Ils viennent de publier sur Arxiv deux articles faisant l’état des progrès accomplis. Par rapport aux résultats annoncés il y a un an, ils sont spectaculaires. On est ainsi passé de 38 atomes d’antihydrogène piégés pendant à peine un dixième de seconde à 309 antiatomes piégés pendant 1.000 secondes. Reste à pouvoir les refroidir suffisamment pour tester une symétrie fondamentale de la physique liée à la relativité restreinte et que devraient vérifier atomes et antiatomes, la symétrie CPT.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Dim 15 Mai 2011 - 16:07
La plus petite horloge atomique commercialisée ne pèse que 35 grammes
De la taille d’une boîte d’allumettes, l’horloge atomique de la société Symmetricom est le plus petit modèle commercialisé du monde. Issue des travaux de chercheurs du National Institute of Standards and Technology (NIST) de Boulder, cette horloge peut servir pour des brouilleurs militaires ou diverses applications en géophysique.
En 1945, le prix Nobel de physique Isidor Rabi a émis l’hypothèse que l’on pouvait réaliser des horloges atomiques grâce au phénomène de résonnance magnétique. C’est finalement en 1949, et en utilisant un autre phénomène, celui de l’émission stimulée d’Albert Einstein, que l’on a construit la première horloge atomique. Il s’agissait d’une horloge basée sur un maser à ammoniac, qui restait cependant moins précise que les horloges à quartz de l’époque. Toutefois, la faisabilité du concept ayant été démontrée, une horloge atomique surpassant en précision les horloges à quartz fut rapidement construite en 1955 par Louis Essen.
Les horloges atomiques de l’époque étaient plutôt encombrantes et pas du tout portables. Mais au fil des années, la nécessité de disposer d’horloges plus petites se fit plus pressante. De nos jours, de tels systèmes équipent les satellites du GPS. En 2004, les chercheurs du National Institute of Standards and Technology (NIST) à Boulder au Colorado ont annoncé avoir mis au point une microhorloge atomique.
À peine plus de mille euros... On apprend maintenant que la société Symmetricom a repris le concept, initialement limité à des applications militaires comme le brouillage des détonateurs radiocommandés équipant des bombes ou des mines, pour en faire un produit commercialisé dans le domaine public. De la taille d’une boîte d’allumettes, pesant environ 35 grammes et ne consommant que 115 milliwatts, le dispositif est appelé Chip-Scale Atomic Clocks (CSAC) et une vidéo présente déjà ce produit qui ne coûte que 1.500 dollars.
La CSAC est toujours un bon outil portable pour des soldats sur le champ de bataille, permettant de brouiller des bombes dont les détonateurs sont activables à distance, par exemple avec un téléphone portable. Mais elle peut aussi être employée dans des endroits où le signal GPS est inutilisable comme lors de plongées à grandes profondeurs, dans des mines et pour exploiter avec précision des signaux sismiques dans le cadre de la prospection géophysique. Dépensant seulement 10 à 20% de l’énergie nécessaire aux horloges habituelles utilisées pour ce genre de recherches, la CSAC est cent fois plus précise.
Ce n’est pas la première fois que l’on observe un effet Doppler dans le spectre des molécules mais c’est la première fois que l’on met en évidence la partie liée à la rotation de la molécule sur elle-même.
C’est le 25 mai 1842, à l'Académie royale des sciences de Bohème, que Christian Doppler a présenté un mémoire ayant pour titre Sur la lumière colorée des étoiles doubles et d'autres étoiles du ciel. Le physicien autrichien y expliquait l’influence de la vitesse d’un objet sur la fréquence de la lumière qu’il émettait pour un observateur au repos. Bien que contenant plusieurs erreurs, l’article avançait une idée que l’expérience vérifiera et qui se révèlera d’une grande importance pour le développement de l’astrophysique et aujourd’hui la détection des exoplanètes.
Toutefois, ce n’est qu’en 1845 que le chimiste et météorologue hollandais Buys Ballot démontra expérimentalement ce qui est connu aujourd’hui sous le nom d’effet Doppler, mais avec le son. L’effet avec des ondes lumineuses fut quant à lui redécouvert expérimentalement par Hyppolyte Fizeau et c’est pourquoi on parle plus volontiers de l’effet Doppler en échographie et de l’effet Doppler-Fizeau en astrophysique.
Effet Doppler et rotations Bien que l’effet Doppler-Fizeau soit très employé pour mesurer la vitesse des corps célestes, il se manifeste aussi à l’échelle des atomes et des molécules. Ainsi l’agitation thermique dans un gaz provoque un élargissement spectral des raies des atomes ou des molécules du gaz. Mais il s’agit à proprement parler d’un effet Doppler-Fizeau de translation. En théorie, le fait qu’un atome ou une molécule puissent être considérés comme des objets tournant sur eux-mêmes, sous réserve des restrictions aux images classiques imposées par la mécanique quantique dans le monde des atomes, doit donner naissance à un effet Doppler rotationnel.
Jusqu’aux travaux de Thomas Darrah, un professeur de chimie de l’Université de l’Oregon, effectués avec des collègues et dont les résultats viennent d’être publiés, on n’avait pas observé d’effet Doppler rotationnel dans le monde des molécules. Mais comme ils l’expliquent dans l’article de la Physical Review Letters, Experimental observation of rotational Doppler broadening in a molecular system, c’est maintenant chose faite grâce à la spectrométrie photoélectronique.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 21 Mai 2011 - 13:52
Un aérogel en diamant seulement 40 fois plus dense que l'air
On connaissait des aérogels en carbone depuis le début des années 1990 mais c’est tout récemment que des chercheurs du Lawrence Livermore National Laboratory ont trouvé le moyen de les transformer en aérogel de diamant. Seulement quarante fois plus dense que l’air, ce matériau pourrait avoir des applications en optique.
Le grand public n’a probablement connu l'existence des aérogels que grâce à la mission Stardust. Pourtant, ces matériaux, semblables à un gel où le composant liquide est remplacé par du gaz et qui possède d’extraordinaires capacités d’isolant thermique, sont connus depuis 1931. On doit cette première au chimiste Samuel S. Kistler. Il s’agissait initialement d’aérogels de silice mais, au cours des années, d’autres aérogels, d'alumine, d'oxyde de chrome(III) ou d'oxyde d'étain sont apparus. Aujourd’hui, on s’intéresse à des aérogels de carbone.
Les chercheurs du Lawrence Livermore National Laboratory viennent de s’en servir pour créer un matériau à priori improbable: un aérogel en diamant dont la densité est très faible, seulement quarante fois celle de l’air. Pour l’obtenir, ils ont utilisé une cellule à enclume de diamants.
Un bon matériau pour l'optique Leur dispositif tient dans la paume d’une main et comporte deux diamants entre lesquels on place en sandwich un échantillon de taille millimétrique que l’on veut comprimer à des pressions extrêmes, par exemple de l’ordre de 3 millions d’atmosphères. Transparents, les diamants peuvent laisser passer des faisceaux lasers et c’est ainsi que l’on explore les conditions pouvant régner au centre de la Terre ou au cœur des planètes géantes comme Jupiter.
Dans le cas présent, les physiciens ont d’abord fait infuser du néon à travers les pores d’un échantillon d’aérogel de carbone et l’ont ensuite comprimé à plus de 200.000 atmosphères et chauffé à plus de 1.000°C. L’aérogel de diamant obtenu pourrait servir à recouvrir des lentilles dans des dispositifs optiques, comme des microscopes ou certains télescopes. En réduisant la quantité de lumière réfléchie, cela permettrait d’améliorer la qualité de ces instruments.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 15 Juil 2011 - 22:36
Le Tevatron annoncera-t-il la découverte du boson Z' ?
Il y a deux mois, la collaboration CDF travaillant avec le détecteur du même nom qui équipe le Tevatron annonçait qu’une curieuse anomalie pointait son nez dans les données concernant les collisions de protons et d’antiprotons. L’écart aux prédictions du modèle standard serait aujourd’hui passé de 3,2 sigma à 4,1 sigma, ce qui est presque suffisant pour affirmer qu’une nouvelle particule a été découverte.
La rumeur commence à se répandre dans la blogosphère. Si l’on en croit un séminaire donné tout récemment en France lors des célèbres Rencontres de Blois, l’anomalie trouvée dans le signal enregistré par le détecteur de particules CDF du Tevatron, et signalée officiellement par la publication d’un article sur Arxiv il y a deux mois, serait en train de devenir une véritable découverte. Il faut encore rester très prudent, car on ne sait toujours pas ce qu’a vu l’autre détecteur équipant le collisionneur de protons et d’antiprotons du Fermilab, le détecteur DO.
En tout état de cause, la collecte de nouvelles données et l’analyse plus approfondie de celles déjà enregistrées avec CDF ont fait passer l’écart entre les prédictions du modèle standard et les observations de 3,2 sigma à 4,1 sigma. Selon les chercheurs, il devient donc beaucoup plus difficile de croire qu’il s’agit d’une simple fluctuation statistique dans le détecteur ou les collisions étudiées, qui disparaîtra lorsque la quantité de données enregistrées aura augmenté. Ils semblent également confiants au sujet du bruit de fond, c'est-à-dire l’ensemble des particules et des réactions produites selon des processus découlant des équations du modèle standard. Il a été modélisé, et une fois soustrait du signal enregistré par CDF, le désaccord entre prédiction et observation s'est révélé proche des 5 sigma qui permettent d'affirmer la découverte d'une nouvelle particule.
Si DO annonçait une découverte similaire et si les détecteurs Atlas et CMS du LHC confirmaient la réalité des observations du Tevatron à 5 sigma au moins, il faudrait alors en conclure qu’il existe bel et bien dans la nature une particule dont la masse est de l’ordre de 144 GeV.
Diverses explications possibles au-delà du modèle standard Il ne peut s’agir du boson de Higgs mais cela pourrait bien être une particule présente dans certaines théories de technicouleur. Ces dernières font intervenir une force ressemblant à l'interaction nucléaire forte mais se manifestant à des énergies plus élevées que celles intervenant dans les expériences habituelles avec des baryons. Postulées pour décrire le boson de Higgs, elles sont aussi utilisées pour expliquer la matière noire.
L’hypothèse la plus intéressante est qu’il s’agirait d’un boson Z', une particule que l’on trouve entre autres dans la théorie des supercordes. Certains théoriciens ont d’ailleurs déjà interprété ce signal dans le cadre de la théorie des D-branes avec une énergie de l’ordre du TeV. S’ils ont raison, il faudrait alors probablement s’attendre à la création de minitrous noirs au LHC. Les prochains mois seront peut-être passionnants…