Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Dim 6 Nov 2011 - 18:46
Du carbone amorphe aussi résistant que du diamant
Des chercheurs du laboratoire de géophysique de l’Institut Carnegie ont découvert une nouvelle forme de carbone. Bien qu’obtenue à partir du carbone vitreux, il s’agit d’une forme allotrope amorphe mais possédant des propriétés mécaniques comparables au diamant.
Le diamant est un exemple de ce qu'on appelle l'allotropie. Bien que composés tout les deux d'atomes de carbones, deux morceaux presque purs de diamant et de graphite n'ont pas les mêmes propriétés. On obtient normalement le diamant à partir de carbone soumis à de hautes pressions mais on sait aussi l'obtenir avec de la tequila ou le mettre sous la forme d'un aérogel.
Le carbone vitreux, lui, a été découvert dans les années 1950. Bien que possédant des propriétés analogues à celles du verre, il ne s’agit pas vraiment d’une forme de carbone amorphe. Très résistant, il ne l’est pourtant pas autant que le diamant mais tout de même bien plus que le graphite. On l’emploi depuis des années car il possède une excellente résistance à une vaste gamme d'environnements chimiques agressifs. On peut donc l’utiliser à la place de métaux précieux pour les équipements de laboratoires, par exemple pour des électrodes.
Du carbone vitreux au carbone allotrope amorphe Les physiciens du solide du laboratoire de géophysique de l’Institut Carnegie ont soumis du carbone vitreux à des pressions supérieures à 400.000 atmosphères. Le produit obtenu, bien qu’amorphe, contrairement au carbone vitreux, s’est révélé avoir des propriétés de résistance mécanique comparables à celle du diamant.
Ainsi, comprimé sous une pression de 600.000 atmosphères dans une direction, la nouvelle forme allotrope du carbone en supporte une de 1,3 million d’atmosphère dans une autre direction. Seul le diamant était jusqu’ici connu pour être capable d’une telle performance. Si cette propriété persistait selon d’autres directions, le nouveau carbone serait préférable au diamant dans certaines applications. Il n’est pas capable, en effet, d’atteindre les mêmes performances de façon isotrope.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 9 Nov 2011 - 16:26
Des nanocomposants électroniques se reconfigurent à volonté !
Imaginez des ordinateurs capables de reconfigurer une partie de leurs circuits électroniques pour devenir plus performants. Cela arrivera peut-être dans un avenir proche grâce aux matériaux basés sur des nanoparticules, découverts par des chercheurs de la Northwestern University.
Les circuits électroniques des ordinateurs ne sont pas forcément bien adaptés aux calculs que l’on se propose de mener avec. On a ainsi conçu des puces électroniques spécialement pour effectuer certaines simulations numériques ou pour le traitement de certains problèmes. Récemment, IBM a révélé un modèle de puce cognitive par exemple.
Des ordinateurs qui seraient capables de modifier une partie de leurs circuits à volonté seraient certainement utiles. Les tenants de la singularité technologique salueraient sans aucun doute des ordinateurs intelligents et conscients capables d’évoluer en s’auto-améliorant au niveau de leurs circuits et découvrir comment atteindre des plans encore plus élevés de conscience et d’intelligence.
Des nanoparticules d'or Une équipe de chercheurs de la Northwestern University vient de publier un article dans Nature Nanotechnology dans lequel ils annoncent avoir précisément mis au point de nouveaux matériaux à base de silicium et de polymère que l’on peut modifier à volonté. Le résultat, un seul composant électronique pouvant être reconfiguré en transistor, diode ou autre composant électronique sur demande et de façon réversible.
Il s’agit d’une illustration du pouvoir de la nanotechnologie. Des nanoparticules, qui peuvent être différentes, de 5 nanomètres de diamètre, recouvertes d’un matériau contenant des charges positives, constituent un bloc en 3D. Le tout est plongé dans une « mer » d’atomes négativement chargés balançant exactement les charges positives des nanoparticules.
Des courants et des impulsions électriques adéquates peuvent alors modifier la répartition de ces atomes négatifs pour obtenir le composant électronique désiré.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 9 Nov 2011 - 16:34
Une Tour Eiffel supraconductrice en lévitation
Une Tour Eiffel lévite devant la vraie grâce à des supraconducteurs à haute température critique. On peut le constater lors des après-midi des deux derniers weekends du mois d’Octobre 2011 en allant à l’exposition du CNRS « Entrée en matière ». Profitez-en, l’entrée est gratuite !
Il y a cent ans, le physicien Kamerling Onnes découvrait une nouvelle transition de phase de la matière. Refroidie à quelques kelvins au-dessus du zéro absolu avec de l’hélium liquide, du mercure devenait supraconducteur. Aujourd’hui, on sait faire des supraconducteurs à des températures plus élevées. Mais il faut malheureusement encore se servir d’azote liquide pour provoquer le phénomène. On rêve de trouver de nouveaux matériaux qui seraient supraconducteurs à température ambiante. Notre vie quotidienne en serait transformée, comme le montrent les vidéos de l’exposition SupraDesign. En attendant, on célèbre donc la découverte de la supraconductivité de multiples manières.
Du 22 octobre au 2 novembre, se déroule le grand festival de la supraconductivité à la Cité des Sciences avec des interventions de chercheurs mais aussi des animations pour enfants.
Après SupradeSign et le Magsurf, Julien Bobroff et ses collègues vous invitent maintenant les samedis après-midi et dimanches après-midi, de 13h30 à 18h30, à venir assister à une spectaculaire expérience de Tour Eiffel en lévitation sur un supraconducteur refroidi à l’azote liquide. C’est une coproduction CNRS-Universite Paris 11, conçue par Alexandre Echasseria un élève de l'ENSCI, bénéficiant des conseils de Julien Bobroff et Frédéric Bouquet (LPS, Orsay).
Pour voir la Tour Eiffel en lévitation, il faut vous rendre dans une grande structure installée au-dessus des jardins du Trocadéro à Paris, face à la Tour Eiffel. Elle abrite l’exposition « Entrée en matière ».
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 18 Nov 2011 - 21:48
Norman Ramsey, à l'origine des horloges atomiques, nous a quittés
Les horloges atomiques du GPS de Galileo et l’imagerie par résonance magnétique nucléaire se sont développées grâce à ses travaux qui lui ont valu le Prix Nobel de Physique. Norman Ramsey vient de décéder à l’âge de 96 ans.
Leon Lederman a reçu son Prix Nobel pour ses travaux ayant conduit à l’identification des neutrinos muoniques. Ce sont des neutrinos similaires qui ont peut-être dépassé la vitesse de la lumière pendant l’expérience Opera. La mesure de la vitesse de ces neutrinos s’est faite avec des horloges atomiques. De son collègue, le Prix Nobel de Physique Norman Ramsey qui vient de décéder à l’âge de 96 ans, Lederman vient de déclarer: « Si vous faites une liste des plus brillants physiciens du XXe siècle, il sera parmi les meilleurs. »
Norman Ramsey avait commencé par faire des études de mathématiques et il a d’ailleurs écrit une introduction rapide au calcul différentiel et intégral. Mais son centre d’intérêt scientifique se déplaça rapidement vers la physique atomique alors naissante et le jeune homme qui était né en 1915 dans l’État de Washington traversa l’Atlantique pour aller côtoyer vers le milieu des années 1930 Rutherford et Dirac à Cambridge. Il reviendra aux États-Unis pour passer une thèse avec le futur Prix Nobel Isidor Rabi, lequel travaillait alors sur l’influence des champs magnétiques sur les faisceaux moléculaires et les renseignements que l’on pouvait en tirer sur les moments magnétiques des noyaux les constituant.
Ramsey perfectionna certains travaux de Rabi en créant ce que l’on appelle aujourd'hui la méthode de Ramsey mais dont il parle lui comme la méthode des champs alternatifs séparés. Au final il jeta des bases sur lesquelles s’élèveront les horloges atomiques et l’imagerie par résonnance magnétique nucléaire.
Ses travaux se révéleront importants en particulier pour le développement des horloges atomiques à césium sur lesquelles repose la définition de la seconde et du Temps Atomique International (TAI), c'est-à-dire l'étalon de temps et l'échelle de temps de référence utilisés partout dans le monde. La seconde a ainsi été définie en 1967 lors de la 13e Conférence générale des poids et mesures comme étant la durée de 9.192.631.770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133.
Des masers à hydrogène pour Voyager et le GPS Norman Ramsey lui-même, en compagnie de son étudiant de l’époque Daniel Kleppner, construira en 1960 la première horloge atomique basée sur un maser à hydrogène. Ce type d’horloge a été utilisé pour faire des tests précis de la Relativité générale, en particulier avec l’expérience Gravity Probe A, celle qui a précédé la sonde Gravity Probe B. Sans ces horloges qui ont servi à déterminer précisément leurs positions avec des radiotélescopes, les sondes des missions Voyager n’auraient pas pu effectuer leur navigation dans le Système solaire et permettre d’explorer les planètes ardentes d’André Brahic.
Les horloges avec maser à hydrogène nous concernent plus directement puisque ce sont elles qui équipent les satellites du programme Galileo. Quand nous utiliserons le GPS européen, il faudra donc avoir une pensée pour Norman Ramsey...
Du côté de la physique fondamentale, on pourrait bien avoir des surprises car là encore, l’horloge de Ramsey va être employée par le Cnes pour créer l’ensemble d’horloges atomiques spatiales le plus précis du monde (une erreur d’environ 1s tous les 300 millions d’années).
ACES (Atomic Clock Ensemble in Space), composé donc d’un maser à hydrogène et de Pharao, horloge spatiale de nouvelle génération à atomes de césium refroidis par laser, ne devrait pas tarder à rejoindre l’ISS. Avec ACES, les physiciens entendent bien vérifier si la constante de structure fine, une constante fondamentale, ne varie pas lentement dans le temps.
On mesure donc à quel point le Prix Nobel de Physique attribué à Norman Ramsey en 1989 était pleinement justifié.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 25 Nov 2011 - 1:53
On a créé de la lumière à partir du vide
Une équipe internationale de chercheurs vient de prouver que l’effet Casimir dynamique est bien une réalité, en transformant des paires de photons virtuels du vide en véritables grains de lumière. Le physicien Paul Davies a montré que ce phénomène a des liens avec le rayonnement Hawking et l’effet Unruh.
Les équations de la mécanique quantique prédisent que le vide ne l’est pas vraiment mais qu’il est continuellement agité par des paires de particules violant temporairement la loi de la conservation de l’énergie en se matérialisant brièvement avant de replonger dans le néant. Ces particules ne peuvent être observées directement mais leur présence est bien réelle comme l’ont montré, par exemple, les expériences avec l’effet Casimir.
Dans le cas de l’effet Casimir dit statique, on constate qu’entre deux miroirs séparés par une très courte distance, il apparaît une force d’attraction résultant de la modification de l’état des fluctuations quantiques du champ électromagnétique présent partout dans l’Univers, même en l’absence de charges électriques. Ce ne sont cependant que des photons virtuels qui rendent compte de ce fascinant phénomène laissant rêver, un jour, d’une possible exploitation de l'énergie du vide quantique.
En 1970, le physicien Gerald Moore était toutefois arrivé à une autre surprenante conclusion. Le mouvement accéléré d’un miroir, par exemple lorsqu’il effectue des oscillations à hautes fréquences, peut faire passer les photons virtuels directement inobservables du vide quantique à l’état de particules réelles. Concrètement, cela signifie qu’il suffirait de faire vibrer un miroir dans le vide pour éclairer une pièce.
Ce phénomène décrit pour la première fois par les équations de Moore sera appelé effet Casimir dynamique par Julian Schwinger, le Prix Nobel de Physique auteur de la première démonstration du théorème CPT.
L’effet Casimir serait resté anecdotique si l’effet Unruh et l’effet Hawking n’avaient pas été découverts, là aussi théoriquement seulement, au début des années 1970. Dans le premier cas, un observateur en mouvement uniformément accéléré par rapport à un référentiel au repos devrait voir un bain de particules ayant les caractéristiques d’un rayonnement de corps noir, d’autant plus chaud que son accélération est forte, alors que pour un observateur au repos, il n’existe rien de tel. De même, en partie à cause du principe d’équivalence de la relativité générale, un observateur proche de l’horizon d’un trou noir et subissant l’accélération de la gravité devrait voir un rayonnement du même type. Dans les deux cas, il se produit une création de particules réelles à partir des paires de particules virtuelles du vide quantique.
Or, ces deux phénomènes ont été reliés à l’effet Casimir dynamique par le physicien Paul Davies, bien connu de nos jours pour ses ouvrages de vulgarisation et ses implications dans des recherches sur la biologie quantique et l’exobiologie. Il a ainsi cosigné l’article polémique faisant état de bactéries utilisant peut-être l’arsenic à la place du phosphore.
Un miroir qui vibre à 1/4 de la vitesse de la lumière L’effet Hawking conduisant à l’évaporation des trous noirs n’a malheureusement pas été observé, pas même au LHC, mais il semblerait qu’on puisse en créer un analogue, par exemple dans une fibre optique. On comprend donc que la publication dans Nature et sur arXiv d’un article annonçant que l’on a bel et bien observé pour la première fois l’effet Casimir dynamique soit une bonne nouvelle car elle donne un peu plus de crédit aux calculs concernant les rayonnements Hawking et Unruh.
Mais pourquoi a-t-il fallu attendre presque quarante ans avant que l’on puisse observer cet effet Casimir dynamique ? Tout simplement parce qu’il faut que les mouvements du miroir s’effectuent à une fraction notable de la vitesse de la lumière ! Pour contourner cet obstacle, les physiciens ont fait appel à la supraconductivité.
Ils ont couplé un SQUID (Superconducting QUantum Interference Devices) avec une ligne constituant un guide d’onde microscopique. Le circuit supraconducteur se trouvant à une extrémité de cette ligne de transmission, il se trouve que modifier l’état du SQUID, donc ce qu’on appelle les conditions aux limites pour une telle ligne, équivaut à avoir un miroir en mouvement à un quart de la vitesse de la lumière à cette extrémité.
Le signal micro-onde qui se forme à l’autre extrémité de la ligne en modifiant l’état du SQUID plusieurs milliards de fois par seconde apparaît alors conforme à ce que l’on attendrait d’un vrai miroir vibrant dans le vide selon l’effet Casimir dynamique. Il semble donc que l’on ait bel et bien créé de la lumière à partir du vide…
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Lun 5 Déc 2011 - 17:24
Les cristaux en 3D sous l'oeil de la ptychographie
Des chercheurs ont réussi à adapter la ptychographie, après trois ans de travail, à l'imagerie des cristaux. Grâce à cette technique, il est désormais possible de voir les matériaux cristallins en 3D et en haute résolution, sans détruire l'échantillon. De quoi relever plusieurs grands défis technologiques et scientifiques !
Une équipe européenne menée par des chercheurs de l'Institut Fresnel - CNRS/Universités Aix-Marseille 1 et 3/école centrale de Marseille - et de l'ESRF (European Synchrotron Radiation Facility) à Grenoble vient de mettre au point une nouvelle technique permettant de voir la structure nanométrique, jusque-là inaccessible, des matériaux cristallins. Grâce à un faisceau microscopique de rayons X, cette technologie révèle en 3D et en haute résolution des plages très étendues de l'échantillon analysé. De quoi révolutionner la recherche dans diverses disciplines où l'on étudie des structures cristallines complexes, comme les sciences du vivant ou la microélectronique. Cette méthode fait l'objet d'une publication dans la revue Nature Communications du mardi 29 novembre.
Jusqu'ici, il existait deux techniques pour analyser de près les matériaux cristallins contenant des imperfections, avec chacune leurs limites. D'un côté, la diffraction des rayons X classique - technique qui mesure l'intensité d'un faisceau de rayons X dévié par l'échantillon, qui permet d'acquérir en 2D et sans abîmer l'échantillon des informations sur les défauts de régularité dans l'échantillon, mais avec une résolution limitée, de l'ordre du micromètre (10-6m). Et de l'autre côté, la Microscopie Electronique en Transmission (MET) dotée d'une bien meilleure résolution (10-10m) et fournissant une vraie image du cristal, mais destructive.
La ptychographie adaptée à l'imagerie des cristaux La technique développée par Virginie Chamard, chercheur CNRS à l'Institut Fresnel et ses collègues, surmonte les limitations de ces deux méthodes en cumulant leurs avantages. Elle produit des images 3D à haute résolution - de quelques dizaines de nanomètres (10-9m), sans détruire l'échantillon, et apporte autant d'informations que la diffraction classique des rayons X. De plus, elle permet d'analyser des régions très étendues, potentiellement infinies.
Concrètement, cette nouvelle technique consiste à focaliser sur l'échantillon à analyser un faisceau de rayons X microscopique, produit par un synchrotron. Dans ces travaux, les chercheurs ont utilisé le synchrotron européen (ESRF) de Grenoble. Pendant que le faisceau balaie l'échantillon, un détecteur capte l'intensité des rayons X diffractés par l'échantillon et permet, ainsi, d'acquérir une série de clichés de diffraction. Ceux-ci sont ensuite traités par un algorithme, qui produit une image 3D de l'ensemble de l'échantillon avec des détails plus petits que la largeur du faisceau.
Les bases de cette technique dite ptychographie qualifiée de microscopie à transmission sans lentille ont été imaginées en 1969 par le physicien allemand Walter Hoppe. Celui-ci y songea dans un autre but, améliorer la résolution du microscope électronique. Virginie Chamard et son équipe ont dû les adapter à l'imagerie des cristaux. Un travail qui a nécessité trois ans.
Mettre au point un tel procédé était crucial pour relever plusieurs grands défis tant scientifiques que technologiques, comme comprendre la croissance des coquillages, contrôler les propriétés optiques des semi-conducteurs ou améliorer les performances électriques des métaux, les coquillages, les semi-conducteurs et les métaux en effet étant des matériaux cristallins complexes.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Lun 5 Déc 2011 - 18:40
On a fabriqué la mousse de l'extrême de Weaire-Phelan
Simple concept mathématique, issu de vieilles questions sur le caractère optimal des formes et des mouvements dans la nature, la mousse de Weaire-Phelan a finalement été fabriquée en laboratoire. Elle constitue une partition extrêmale de l’espace en bulles de volumes et surfaces appropriés.
La physique des bulles fascine certains chercheurs depuis des siècles et elle a même fait l’objet d’expériences à bord de l’ISS. Il se trouve que depuis le XIXe siècle elle est en connexion avec une branche des mathématiques créée par Euler et Lagrange, le calcul variationnel. Avec ce dernier, on peut explorer de façon générale des questions d’optimisation pour des systèmes physiques.
Par exemple, quelle est la trajectoire permettant de se rendre d’un point à un autre en un temps minimal étant donné la vitesse d’un mouvement, ou quelles formes doit prendre à l’équilibre un objet élastique soumis à des contraintes mécaniques ?
C'est dans le cadre de ces questions que le mathématicien et physicien belge Joseph Plateau a conduit au XIXe siècle des expériences minutieuses avec des films de savon, s'appuyant sur des cadres en fil. À partir de ses observations, il a déterminé un ensemble de règles qui régissent l'équilibre des films de savon et des mousses. Voici les trois principales:
<> trois films de savon se rencontrent selon un angle de 120° <> les films forment une surface courbe triangulaire nommée bord de Plateau <> quatre bords de Plateau se rencontrent selon un angle de 109,6° pour former un sommet
Ces règles permettent d’explorer divers cas de ce qu’on appelle le problème de Plateau, qui consiste à montrer, un bord étant donné, l'existence d'une surface minimale s'appuyant sur ce bord - il fut en réalité posé une première fois par Joseph-Louis Lagrange en 1760. On le trouve associé à des travaux menés par une autre grande figure de la physique du XIXe siècle, Lord Kelvin.
Une mousse de bulles d'éther Le chercheur s’interrogeait sur des modèles purement mécaniques du champ électromagnétique de Maxwell-Faraday ainsi que sur la possibilité que les différents atomes de matière soient des configurations du milieu élastique et fluide supposé être à la base de ce champ, l’éther.
On sait aujourd’hui que l’éther n’existe pas, ou plutôt, pour reprendre les propos d’Einstein, qu’il n’est pas un milieu matériel doué de mouvements identiques à ceux des fluides et des cristaux. Mais ceci, avant la découverte par Einstein de la théorie de la Relativité restreinte, Kelvin ne pouvait pas le savoir.
Ses réflexions l’ont donc conduit à chercher quelle devrait être la forme des bulles remplissant uniformément l'espace et constituant une sorte de mousse d’éther, minimisant la surface totale des bulles pour un volume donné. C’est un problème équivalant à une question d’équilibre d’un milieu élastique, minimisant son énergie, comme c’est toujours le cas pour ces questions. Incidemment, de nos jours, cette question n’est pas sans rapport avec les spéculations de John Wheeler sur la structure en écume de l’espace-temps en gravitation quantique.
Kelvin trouva une réponse à son problème sous la forme d’un octaèdre régulier tronqué en ses sommets de sorte qu’apparaissent 8 faces hexagonales régulières - issues des 8 triangles équilatéraux de l’octaèdre, et 6 faces carrées - les bases des petites pyramides qui ont été enlevées. En fait, Kelvin conjecturait qu’il s’agissait de la bonne solution, sans pouvoir le démontrer. Des dizaines d’années plus tard, les mathématiciens étaient en général d’avis qu’il n’y avait pas d’autre solution au problème de Kelvin. Ils avaient tort...
La structure de Weaire-Phelan En 1994, Denis Weaire et Robert Phelan, du Trinity College de Dublin, annonçaient avoir obtenu une partition de l’espace avec des bulles possédant une surface totale plus faible que dans le cas de la solution de Kelvin. En fait, la structure répondant à la demande de Kelvin existe naturellement et était bien connue des chimistes. On la trouve chez les clathrates, des composés chimiques constitués par un complexe d'inclusion formé d'une ou plusieurs « molécules-hôtes » qui emprisonnent une autre molécule dans une sorte de cage moléculaire.
Le plus connu est l'hydrate de méthane, la fameuse glace qui s'enflamme, que l’on trouve au fond des océans et qui constitue un puissant gaz à effet de serre.
Curieusement, jamais personne n’était parvenu à créer une vraie mousse de bulles concrétisant la structure de Weaire-Phelan. Ruggero Gabbrielli, un physicien de l’Université de Trente, était en visite à Dublin pour travailler avec ses collègues Denis Weaire et Robert Phelan, lorsqu’il s’est avisé que les échecs rencontrés étaient probablement dus à une forme inadéquate du container utilisé pour tenter d’obtenir la mousse recherchée. En compagnie de Kenneth Brakke, à l’origine du programme d’ordinateur qui avait servi à découvrir la structure de Weaire-Phelan, Gabbrielli a déterminé la forme du container nécessaire à l’expérience.
Les physiciens ont effectivement vu la mousse de bulles de Weaire-Phelan se former. L’article exposant leurs travaux sera disponible sous peu dans le même journal où Kelvin avait publié en 1887 la première solution à son problème, Philosophical Magazine Letters.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 7 Déc 2011 - 15:41
Des diamants intriqués à température ambiante
Un groupe de physiciens vient de montrer qu’il est possible de produire des états intriqués avec deux diamants macroscopiques… à température ambiante ! Voila de quoi doper le moral de ceux qui pensent que malgré l’obstacle de la décohérence, un ordinateur quantique performant est réalisable et existe peut-être déjà, le cerveau humain.
Le concept d'ordinateur quantique, introduit il y a plusieurs décennies par Richard Feynman et d’autres chercheurs, continue de faire rêver. Il permettrait de briser les limites des ordinateurs classiques pour certains types de calculs. On sait faire de tels ordinateurs capables de manipuler non plus des bits mais bien des qubits d’informations. Leur fonctionnement repose sur le principe fondateur de la physique quantique, celui de la superposition des amplitudes de probabilités pour un état quantique, plus précisément, sur la notion d’intrication quantique.
Malheureusement, pour le moment, ces ordinateurs sont aisément battus par une calculatrice de poche. Pour vraiment inquiéter des superordinateurs comme le K japonais, il faudrait disposer d’un grand nombre de qubits.
Le problème est que cela implique que la taille d'un tel ordinateur, du moins la partie effectuant les calculs, s'approche des échelles macroscopiques. Or, comme le paradoxe du chat de Schrödinger le montre bien, c’est alors que le monde quantique laisse la place au monde classique à cause du phénomène de la décohérence.
Pour les ordinateurs quantiques existants, il faut déjà les refroidir à très basses températures pour les protéger du bruit thermique capable de détruire la fragile superposition des états et l’intrication quantique. Plus généralement, il faut isoler le plus possible un tel système de son environnement. L'obstacle est immense et il est bien possible que l'on soit en présence d'une voie sans issue.
C’est pourquoi la majorité des chercheurs ne suivent pas Roger Penrose lorsque celui-ci propose que la conscience dans le cerveau humain repose sur des processus quantiques analogues à ceux des ordinateurs quantiques. Le cerveau humain serait trop chaud pour cela. Il y a pourtant eu quelques résultats qui, s'ils devaient résister à l’épreuve du temps, indiquent que de la cohérence quantique existe à température ambiante en biologie.
Dans ce contexte, l’article publié dans Science par des chercheurs britanniques et leurs collègues est intéressant car, selon eux, ils sont parvenus à intriquer deux objets macroscopiques à température ambiante. Il s’agit de deux diamants de taille millimétrique séparés par 15cm.
Cela fait un moment que l’on utilise le diamant dans des recherches sur l’information quantique. Ses caractéristiques laissaient penser qu'il était un matériau de choix pour contenir des qubits protégés de la décohérence et donc pour fabriquer des ordinateurs quantiques.
Dans l’expérience réalisée par les physiciens, on commence par séparer une impulsion laser en deux parties dont chacune est envoyée en direction des deux diamants dont la taille est d’environ 3mm. En raison du séparateur de faisceaux, chaque photon de l’impulsion laser se retrouve dans un état de superposition quantique correspondant à deux localisations possibles dans l’espace, le diamant de gauche ou celui de droite.
Des quanta de son intriqués Dans les diamants eux-mêmes, un photon peut donner naissance à un phonon, c'est-à-dire un quanta d’énergie sonore des modes de vibrations du réseau cristallin. Le résultat est que les deux diamants se retrouvent en état d’intrication quantique.
Pour le prouver, on envoie une seconde impulsion lumineuse à travers les diamants. Si l’un des photons absorbe un phonon, son énergie s’en trouve augmentée et sa couleur se trouverait donc décalée vers le bleu si elle était rouge. Ses photons émergeant des deux diamants forment deux faisceaux qui sont à nouveau combinés en un seul, lequel sera encore séparé par un autre diviseur de faisceau.
Si les photons sont bien dans un état d’intrication, on peut montrer qu’ils n’émergeront du dernier séparateur que dans une seule branche du système optique. Dans le cas contraire, ils auront une égale probabilité de se trouver dans l’une des branches.
L’expérience a bien confirmé l’intrication des photons, et donc apparemment des diamants. Ce qui est remarquable c’est que l'expérience se déroule à température ambiante. Les diamants ont donc bien joué leur rôle de milieu isolant, protecteur de la décohérence. Reste à savoir jusqu’à quel point on peut de cette manière obtenir un grand nombre de qubits utilisables pour des calculs quantiques. Il est bien trop tôt pour en déduire que l’obstacle à la création d’un superordinateur quantique a été levé.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 7 Déc 2011 - 15:52
Rumeurs d'observations du boson de Higgs au LHC !
Le 13 décembre 2011 se tiendra au Cern un séminaire où seront présentés les derniers résultats de la chasse au boson de Higgs activement menée au LHC. Si l’on sait déjà officiellement qu’il n’en sortira rien de définitif concernant l’existence ou la non-existence du célèbre boson, les rumeurs font état d’observations de cette particule devenue célèbre, à la fois par Atlas et CMS.
Stephen Hawking va-t-il perdre son pari ? C’est bien possible et nous le saurons probablement d’ici moins d’un an puisque le LHC va continuer à chasser le boson de Higgs-Brout-Englert pendant l’année 2012. En effet, les rumeurs circulant aujourd'hui dans la blogosphère des physiciens, colportée notamment par Tommaso Dorigo, font état de signaux que l’on peut interpréter comme les produits de désintégration du fameux boson. La « signifiance » de ces observations est de 3,5 sigma et 2,5 sigma, respectivement dans Atlas et CMS, les deux détecteurs géants du LHC.
En physique, un signal au-dessus d’un bruit de fond supérieur à 3 sigma est suffisant pour que l’on puisse parler d’observation mais pas encore de découverte. Il ne sera donc pas possible de crier victoire. Il est cependant remarquable que ce Higgs pointe le bout de son nez dans deux détecteurs différents et que les mesures conduisent à des masses similaires, à savoir environ 125 GeV. Dans ces conditions, il devient difficile mais pas impossible, d'expliquer ces résultats par les seules fluctuations statistiques ou par un biais systématique dans la fabrication d’un détecteur.
Une preuve de la théorie M ? Si la découverte devait finalement être validée, qu'en conclure ? Une masse de 125 GeV pourrait impliquer que la nature emploie effectivement la supersymétrie pour unifier les particules de matière et d’interactions. Selon certains en effet, une telle valeur est celle que l'on doit attendre dans le cadre de certaines formulations de la théorie des supercordes, plus précisément la théorie M.
Il est trop tôt pour s’emballer mais, tout de même, croisons les doigts pour que les années à venir révèlent que nous vivons bien dans un supermonde avec des dimensions spatiales supplémentaires. En tout état de cause, si le Higgs existe, Robert Brout est parti trop tôt...
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 14 Déc 2011 - 1:01
La tension monte au Cern !
Suspens autour du Higgs - le 13 décembre 2011, en début d’après-midi, un séminaire du Cern sera retransmis sur la Toile. On est certain que la découverte de la fameuse particule... ne sera pas révélée. Mais il sera probablement question d’indices de son existence dans deux détecteurs du LHC. Avant cette annonce, révisons un peu ce sujet pour mieux comprendre ce qui se dira demain au Cern.
En cherchant à construire des équations décrivant des champs de forces entre particules de matière et respectant les lois de la mécanique quantique et de la théorie de la Relativité, on a la surprise de constater que la forme générale de ces équations est très contrainte. Il faut que ces équations ressemblent à celles de l’électromagnétisme avec l’équivalent des photons. On voit aussi apparaître des sortes de généralisations de la charge électrique.
Avec ces équations, on s’aperçoit rapidement que si nous pouvons voir la lumière des plus lointaines régions de l’Univers observable, en particulier celle des quasars et du rayonnement fossile, c’est parce que la masse du photon est nulle, ou tellement faible que nous n’avons toujours pas été capables de la mesurer.
Le Higgs, la solution à un problème des divergences infinies du Modèle Standard Si nous ne sentons pas à notre échelle les « photons nucléaires forts » que sont les pions de Yukawa liant les protons et les neutrons dans les noyaux, ou les « photons nucléaires faibles » que sont les bosons W et bosons Z qui interviennent dans la radioactivité et la physique des neutrinos, c’est parce qu’ils sont massifs et ne transmettent donc que des forces à courtes portées.
Malheureusement, si l’on essaie de construire l’analogue des équations de Maxwell pour ces « photons nucléaires faibles », ce qu’on appelle des équations de Yang-Mills, le fait qu’ils doivent être massifs conduit à des problèmes mathématiques caractérisés par l’apparition de quantités infinies en théorie quantique des champs relativistes.
On peut se débarrasser de ces problèmes en introduisant un nouveau champ dont les quanta d’énergie sont, tout comme les photons, des bosons. Ce champ qui donne une masse aux photons nucléaires est décrit par ce qu’on appelle le mécanisme de Higgs. Son « photon » associé est donc le boson de Higgs et, au passage, rappelons qu'il n'a rien à voir, ni de près ni de loin avec 'la Force de Star Wars', comme certains le prétendent dans les médias actuellement...
Indirectement, cette particule apparaît dans plusieurs des calculs décrivant les interactions entre quarks et leptons dans le cadre du Modèle Standard des particules (MS), c'est-à-dire la chromodynamique quantique et la théorie électrofaible de Glashow-Weinberg-Salam. Le champ de Higgs joue également un rôle dans la détermination des masses des quarks et des leptons, c'est-à-dire, cette fois, les particules de matière du Modèle Standard.
Un mécanisme général pour doter les particules de masse D'une façon ou d'une autre, il doit effectivement exister quelque chose qui ressemble au mécanisme de Higgs donnant une masse aux particules du Modèle Standard. En effet, sa présence a déjà été plus ou moins testée indirectement avec le succès des calculs décrivant des réactions dans les collisions du LEP (Large Electron Positron) et du Tevatron. Le boson de Higgs lui-même doit être massif, mais l’un des problèmes du Modèle Standard est que nous ignorons la valeur de sa masse et la façon dont il influence précisément les diverses réactions entre particules.
Plusieurs paramètres libres du modèle standard - 19 pour être précis - proviennent, pour le moment, des expériences seules. C'est le cas notamment de la masse des électrons et des quarks. Si le Higgs existe bien, il devrait être possible de mieux comprendre (mais pas complètement) pourquoi ces paramètres ont ces valeurs. Avant la découverte des protons, électrons et noyaux, on ne savait pas d’où provenaient les masses et la diversité des éléments ni les énergies des réactions chimiques. Cette ignorance pointait vers une physique plus fondamentale. Pour la même raison, on peut penser qu'une théorie plus vaste se cache derrière les impressionnants succès du Modèle Standard.
De plus, bien que l’on ait rassemblé les forces électromagnétiques et nucléaires faibles en un seul système d’équations grâce au boson de Higgs, il reste à faire la même chose avec les forces nucléaires fortes et finalement la gravitation. Tout naturellement, on s’attend à ce que d’autres bosons de Higgs interviennent dans ces équations de Grande Unification (GUT et supergravité notamment).
Plusieurs bosons de Higgs possibles et plusieurs fenêtres d'observation Si on cherche à plonger le Modèle Standard dans une théorie plus vaste, comme la supersymétrie, la masse de son boson de Higgs et la façon dont elle influence les réactions entre les particules peuvent être mieux comprises. Dans certains cas, cela nécessite de changer un peu ce à quoi on doit s’attendre dans le cadre du Modèle Standard.
La morale de tout cela est qu’il peut exister plusieurs bosons de Higgs et que la plus simple description du mécanisme expliquant les masses du MS à l'aide d'un boson de Higgs standard, n’est peut-être pas la voie que la nature a choisie. Mais surtout, la découverte du Higgs peut ouvrir la porte à une compréhension plus profonde de la physique, à la racine de tout ce qui existe, des particules de nos neurones à la naissance même de l'Univers.
Plusieurs réactions entre particules peuvent produire un boson de Higgs et celui-ci peut se désintégrer en plusieurs autres particules. Comme il est de règle en mécanique quantique, elles sont gouvernées par des lois de probabilités. En fonction de l’énergie des particules entrant en collisions et de la masse du Higgs, ses taux de production et de désintégrations selon divers « canaux », comme disent les physiciens des particules, sont différents (voir le schéma ci-dessous). Il a donc fallu réfléchir aux stratégies les plus efficaces pour produire et détecter le boson de Higgs.
On en a ainsi déduit que les réactions les plus efficaces pour produire le boson de Higgs sont les collisions de protons ou d’antiprotons. Malheureusement, dans ce cas, plusieurs autres réactions se produisent, générant un bruit de fond noyant la délicate musique des désintégrations du boson de Higgs. Toutefois, si l’on prend une analogie issue des transmissions de radio, il existe des bandes de fréquence où le bruit de fond est plus faible et où la musique du Higgs se fait plus forte. Selon sa masse, la bande où le chercher le plus efficacement ne sera donc pas la même.
La fenêtre des photons gamma et des bosons Z On a joué à ce jeu au LEP au début des années 1990 à partir de collisions entre électrons et positrons. Le Tevatron a pris la suite en collisionnant des protons et des antiprotons. C'est maintenant au tour du LHC, où CMS et Atlas étudient les particules issues des collisions de protons. Lentement mais inexorablement, les bandes où chercher des signaux du boson de Higgs standard se sont réduites.
Si l’on devait prendre une analogie issue de l’astronomie, le boson de Higgs serait une étoile dont on ne connaîtrait pas très bien la courbe donnant l’intensité du rayonnement en fonction de la longueur d’onde. Même si la forme générale de la courbe est connue et que la physique de l’étoile l’est aussi dans les grandes lignes, on ne sait pas très bien si l’astre est le plus brillant dans l’ultraviolet ou l’infrarouge.
De plus, pour l’identifier, il faut disposer d’une bonne photographie, c'est-à-dire enregistrer le maximum de photons avec la meilleure résolution et donc faire une pose la plus longue possible. En physique des particules, cela revient à « augmenter la statistique », c'est-à-dire enregistrer un nombre suffisamment élevé d’événements avec un grand nombre de collisions.
<> si le boson de Higgs standard existe, il doit avoir une masse comprise entre 115GeV et 140GeV <> les canaux de désintégrations où il est le plus facilement mis en évidence sont ceux où il produit deux photons gamma, deux bosons W ou encore deux bosons Z qui se désintègrent à leur tour en leptons, comme l'électron, le muon ou le neutrino, et bien sûr leur antiparticules
Pour être sûr qu'une découverte a vraiment été faite, il faut que le signal obtenu soit très différent de simples fluctuations statistiques. On peut faire l'analogie avec les formes qu'on se plaît à voir dans les nuages. Aucune cause particulière autre que le hasard n'est alors à l'œuvre mais si on découvrait un nuage portant tous les détails d’une fresque de Raphael, on ne pourrait plus croire à un phénomène aléatoire. Pour éliminer le risque d'enregistrer un faux signal à cause d'une erreur de construction ou de conception d'un appareil, ce que les scientifiques appellent un biais systématique, on utilise deux instruments de mesure différents. Ce qui explique en partie pourquoi Atlas et CMS ont été construits. Voir deux signaux similaires dans deux détecteurs est donc bien plus convaincant, même en l'absence d'une statistique suffisante, pour confirmer une découverte.
Tout ceci explique l'importance du séminaire du 13 décembre 2011 au Cern, qui devrait annoncer non pas la découverte de la musique du boson de Higgs mais d'une mélodie faible noyée dans un brouhaha, dans la même bande de fréquence par deux « postes de radio » différents, à savoir Atlas et CMS. Un séminaire donc attendu impatiemment par toute la communauté de la physique des hautes énergies.
Pour suivre la retransmission du Cern, rendez-vous sur la page dédiée.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Jeu 15 Déc 2011 - 16:47
Le mystère du boson de Higgs pourrait être levé en 2012 !
Comme prévu, le séminaire du Cern présentant hier les derniers résultats de la chasse au boson de Higgs au LHC n'a pas annoncé sa découverte... ni son inexistence. Les observations d’Atlas et de CMS sont toutefois troublantes, rendant probable la découverte de la particule mythique avant la fin de l’année 2012. Mais la prudence doit rester de mise. Futura-Sciences a suivi pour vous en direct cette conférence. En voici le décryptage.
Il y a quelques années, les Prix Nobel de Physique faisaient part de leurs attentes concernant les découvertes possibles du LHC dans le domaine des particules élémentaires. Pour le moment, aucun de ces espoirs n’a été réalisé. Pourtant, il semble bien que le tant attendu boson de Higgs pointe le bout de son nez dans les deux détecteurs géants du Cern, à savoir Atlas et CMS. La particule mythique commencerait en effet à trahir sa présence sous forme de photons gamma.
Il ne s’agit encore que d’un petit nombre d’événements pouvant effectivement s’interpréter comme le résultat de la désintégration du boson de Higgs. Il est donc trop tôt pour parler d’une découverte. Mais tout de même…
Les membres de la collaboration Atlas n’ont pas encore analysé toutes les données enregistrées par leur détecteur. Mais il est troublant de constater que des signes de la présence du boson de Higgs sont obtenus dans trois canaux de désintégration différents:
<> le canal à deux photons gamma <> le canal à deux bosons Z <> le canal à deux bosons W - rappelons que ces bosons, W et Z, se désintègrent ensuite en 4 leptons, dont certains sont des neutrinos
Dans ces trois canaux, la masse trouvée est presque la même, c'est-à-dire de l’ordre de 126GeV, comme expliqué dans notre précédent article sur le boson de Higgs. La statistique obtenue est cependant encore insuffisante pour clamer une découverte car, au mieux, le signal est de à 3,6 sigma. Rappelons qu’il faudrait 5 sigma pour être certain de ne pas être en présence d’une simple fluctuation statistique, qui correspondrait à un hasard, comme lorsqu'un nuage ressemble à une forme bien connue.
Ce qui est certain, c’est que les mesures d’Atlas restreignent encore plus la bande de masse dans laquelle le boson de Higgs standard peut exister. Il existe des théories avec des boson de Higgs non standards. En terme technique, une masse en dehors de l’intervalle 115,5GeV-131GeV est exclue à 95%. On peut donc dire que selon Atlas, la masse du Higgs se trouve probablement entre 116GeV et 130GeV.
En tout état de cause, cela suffit pour exclure définitivement le signal observé juste avant la fermeture du LEP (Large Electron Positron ou Collisionneur Electron/Positron) et qui pouvait être interprété comme la présence du boson de Higgs. Ceux qui ont pris à l’époque la décision de ne pas continuer les recherches avec le LEP pour laisser la place au chantier du LHC peuvent maintenant écarter toutes les critiques.
Les observations réalisées avec le CMS sont moins concluantes qu’avec Atlas. Mais les membres de la collaboration CMS ont, eux, pu analyser l’ensemble des données qu’ils ont enregistrées. Si des raffinements dans les analyses sont encore possibles, il est déjà remarquable qu’un faible signal du boson de Higgs est détecté dans les mêmes canaux qu’Atlas mais aussi dans d’autres.
La masse du Higgs estimée est un peu plus légère, environ 124GeV, et la bande de masse encore permise par les observations pour le boson de Higgs est ici de 115GeV à 127GeV. Répétons-le encore une fois, il n’y a toujours pas assez de statistique pour clamer avoir démontré ou exclu l’existence du boson de Higgs standard.
C’est d’autant plus vrai que l’on n'a pas encore fait la combinaison des mesures des deux appareils. Mais voir des signes de l’existence d’un boson de Higgs dans deux détecteurs de conceptions différentes, avec presque la même masse et dans plusieurs canaux différents, semble écarter la coïncidence. C’est un peu comme si plusieurs télescopes, en infrarouge, en ultraviolet et dans le visible, voyaient tous une tache, plutôt floue, mais de la même taille et au même endroit du ciel.
Quelles conclusions pour le boson de Higgs ?
En résumé:
<> des signes de l’existence du boson de Higgs, presque identiques, sont vus dans deux détecteurs différents mais on ne peut exclure qu'il s'agisse de simples fluctuations statistiques à la manière d'un nuage prenant temporairement une forme connue <> la masse du boson de Higgs serait de 125GeV environ <> la masse du boson de Higgs standard ne doit pas se trouver en dehors de l’intervalle 115,5GeV à 127GeV <> le LEP n’avait pas observé le Higgs
On peut spéculer sur les interprétations de ces nouvelles données dans le cadre d'une physique au-delà du Modèle Standard. Nous aurons l’occasion d’y revenir prochainement... En tout état de cause, la collecte de données va se poursuivre et on devrait déjà en savoir plus en mars 2012. Sans pouvoir l’affirmer avec certitude, il semble de plus en plus probable que nous aurons une réponse définitive quant à l’existence ou non du boson de Higgs standard avant la fin de l’année 2012.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 20 Déc 2011 - 1:28
Mille milliards d'images par seconde pour voir la lumière en plein vol
Ce n’est pas la première fois que l’on arrive à photographier des impulsions lumineuses ultracourtes mais la caméra mise au point par des chercheurs du MIT bat les records. Elle peut filmer des impulsions laser en vol en prenant mille milliards d’images par seconde.
L’imagerie rapide a une longue histoire derrière elle puisqu’on peut la faire naître plus ou moins au cours des années 1940 aux États-Unis. À l’époque, la mise au point de la bombe atomique dans le cadre du projet Manhattan stimule le développement des caméras à miroir rotatif. Dans les années 1950 les premières Caméras à Balayage de Fente (CBF ou Streak Camera en anglais) voient le jour et elles permettent déjà d’atteindre des résolutions temporelles de quelques dizaines de picosecondes.
Ce type de caméra est donc employé depuis longtemps et on peut citer comme domaine d’utilisation les mesures de l’extrême sur des plasmas chauds. On rencontre notamment ces plasmas dans les recherches sur la fusion contrôlée par confinement inertiel, c'est-à-dire à l’aide du laser.
La propagation d’impulsion laser dans des milieux non linéaires fait donc l’objet d’études depuis longtemps et ce n’est pas la première fois que l’on obtient des images d’impulsions lumineuses prises en plein vol. Toutefois, l’un des chercheurs du MIT Media Lab, Andreas Velten, parle en ces termes de la CBF que lui et ses collègues viennent de développer. « Il n’y a rien dans l’univers capable de prendre des images aussi rapidement que cette caméra. »
Quatre cent quatre-vingts images prises en une nanoseconde Rappelons que le MIT est l’une des plus célèbres Universités de la planète et pas seulement parce que Walter Lewin y enseigne. Plusieurs Prix Nobel, dont Richard Feynman, en sont sortis et même si les propos du chercheurs sont quelque peu exagérés, ils donnent la mesure de la performance atteinte. Des impulsions laser femtosecondes peuvent en effet être imagées à la vitesse d’environ mille milliards d’images à la seconde avec la CBF équipée de capteur CCD de mise au point.
La CBF construite par les chercheurs ne permet pas de prendre des photographies normales directement. Elle ne peut suivre la propagation des photons d’une impulsion lumineuse produite avec un laser 'saphir/titane' que selon une seule dimension. Il faut alors répéter l’opération en décalant les images prises sur une ligne adjacente pour traiter ensuite, à l’ordinateur, l’ensemble des photos prises pour reconstituer une image en deux dimensions, comme l’explique le chercheur sur la première vidéo.
La propagation de l’impulsion laser dans l’eau contenue dans une bouteille que l’on voit dans la seconde vidéo est donc en réalité la résultante d’un grand nombre d’impulsions identiques enregistrées par cette CBF qui fonctionne quarante milliards de fois plus vite qu’une caméra de télévision. Ce genre de caméra devrait avoir des applications pour l'imagerie médicale, la chimie et la physique des matériaux.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Dim 25 Déc 2011 - 23:59
L'Horloge du Long Maintenant donnera l'heure pendant 10.000 ans
Alors que certains se préparent à la fin de la Terre en 2012, les scientifiques voient évidemment beaucoup plus loin et travaillent même depuis des années sur un projet pharaonique. Une horloge géante qui donnera l’heure et la position des planètes pendant dix mille ans. Juste avant de changer d’année, un petit rappel sur ce projet déjà médiatisé de L'Horloge du Long Maintenant.
Daniel Hillis n’est pas un inconnu. Cet informaticien était un grand ami de Richard Feynman et il avait même recruté le Prix Nobel de Physique dans son entreprise fondée au début des années 1980, Thinking Machines Corporation. Avec elle, il s’est fait un nom en devenant l’un des pionniers des superordinateurs fonctionnant en parallèle, et non de façon séquentielle. En 1992, la cinquième version de sa Connection Machine, CM-5, était considérée comme l’ordinateur le plus rapide du monde.
L’ambition de Hillis était, à terme, de permettre de créer un ordinateur capable de passer le test du Turing. Pour lui, l’une des caractéristiques essentielles du cerveau humain est sa capacité de fonctionner en parallèle. La construction d’une première Connection Machine était donc une étape pour réaliser un but qu’il a exprimé à peu près en ces termes. « J'aimerais trouver un moyen pour permettre à la conscience de transcender les limites physiques du corps humain. La construction d'une machine capable de penser est vraiment une recherche d'une sorte d'immortalité terrestre. Quelque chose de beaucoup plus intelligent que nous peut exister. Faire une telle machine à penser, c'est ma façon de tendre vers ce but. »
Après avoir réussi à construire l’ordinateur le plus rapide du monde, Hillis est maintenant préoccupé depuis des années par la réalisation de ce qui pourrait être considéré comme... le plus lent ! En l’occurrence, une sorte de calculateur mécanique capable à la fois de donner l’heure et d’être une horloge astronomique. C'est-à-dire un planétaire pour l’humanité pendant... dix mille ans !
Cela fait maintenant des années que l’on parle de cette horloge qui fait partie des projets de la Long Now Foundation (LNF). Baptisée L’Horloge du Long Maintenant, les principes de son fonctionnement viennent d’être exposés dans un article d’arXiv.
Des ordinateurs digitaux mécaniques monumentaux et mondiaux Les membres de la LNF veulent marquer les esprits et tenter de contrebalancer la tendance générale de l’humanité à penser toujours plus vite et à vivre dans l’instant en prenant des décisions à court terme. Des prototypes de L’Horloge du Long Maintenant ont déjà été construits en réduction et une première réalisation à grand échelle est en court au sein d’une montagne à la frontière des États du Texas et du Nouveau-Mexique. Une Horloge du Long Maintenant ne doit pas simplement traverser les millénaires comme les pyramides égyptiennes, elle doit frapper les esprits et s’inscrire durablement dans la civilisation et la conscience des gens dans leur vie. Si ce premier prototype en place réussit, des réalisations de grandes tailles et sur plusieurs continents devraient s’en suivre.
Pour l’un des membres de la LNF, dans tous les cas, indépendamment de la réussite complète du projet. « Cet objet physique sert de point de départ pour une réflexion plus générale. Nous voulons inciter les gens à prendre conscience que leurs décisions d’aujourd’hui, même insignifiantes en apparence, ont un rôle important dans le monde de demain. Réfléchir à long terme ajoute une dimension au quotidien. » Inutile de dire que la construction d’une horloge mécanique capable de fonctionner de façon autonome pendant dix mille ans, sans pannes et en restant précise, n’est pas une mince affaire. La technologie à employer ne peut être celle des horloges atomiques de Norman Ramsey. Elle se rapproche plutôt de celle de l’ordinateur mécanique de Babbage.
Une horloge qui peut se corriger même au bout de 100 ans sans Soleil Des matériaux particulièrement résistants au temps sont nécessaires, comme du titane, du quartz, du saphir et des céramiques. L’énergie devrait provenir de l’exploitation de la différence de température entre l’intérieur de la montagne, où se trouve l’horloge, et l’extérieur. La période du pendule en titane est de dix secondes mais elle n’est pas stable pendant la journée. Bien que l’horloge fonctionne comme un oscillateur mécanique couplé à un ordinateur digital, lui aussi mécanique, qui calcule un temps solaire à partir d’une équation de temps ainsi que la position de la Lune et de plusieurs planètes, l’ensemble doit rester synchronisé avec le vrai temps solaire pendant dix mille ans. Pour cela, un capteur utilise les rayons solaires au zénith tombant dans un puits. En l’absence de ces rayons pendant une longue période, que ce soit à cause du temps ou d’une éruption volcanique, l’horloge continue à fonctionner en attendant de pouvoir se recaler sur le Soleil.
Et les concepteurs de l’horloge voient très loin car de cette façon, si l’horloge n’a pas dérivé de plus de 12h, elle peut retrouver le temps exact même en n’ayant pas vu la lumière du Soleil pendant… cent ans ! Elle peut même tenir compte de légères modifications de la rotation de la Terre, par exemple en cas d’accumulation de glace aux Pôles ou de redistribution des masses, ce qui changerait le moment d’inertie de la Terre et donc sa rotation. L’Horloge du Long Maintenant affichera avec son planétaire la position et la phase de la Lune, l'Année Tropique, le Jour Sidéral, les orbites des planètes visibles, et la 'précession' de l'axe de la Terre.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 28 Déc 2011 - 0:58
Les rayons X révèlent un secret de la magnétite
Composée d'oxyde de fer, la magnétite est probablement le premier matériau magnétique découvert par l’humanité. Une énigme persistait depuis 70 ans, pourquoi donc ce conducteur d'électricité devient-il isolant à basse température ? Preuve par les X de l'ESRF...
Le magnétisme de la matière fascine l’humanité depuis des millénaires et plus encore depuis la découverte de la supraconductivité. On le trouve à toutes les échelles, des moments magnétiques des antiprotons à la Terre elle-même. Rappelons que contrairement à ce que certains prétendent, et bien qu’il soit exact que le champ magnétique de la Terre s’inverse périodiquement, il n’existe aucun signe d’une prochaine inversion magnétique des Pôles pour 2012. Et même si c’était le cas, ce ne serait pas la fin de la civilisation !
C’est précisément dans le monde de la géologie que l’humanité a fait connaissance avec le magnétisme. Selon la tradition rapportée par Aristote, c’est Thalès qui, le premier, aurait étudié ce phénomène en rapport avec la pierre de magnésie, un aimant naturel utilisé dès la Haute Antiquité - Magnésie est une cité grecque, aujourd'hui située à l'Ouest de la Turquie.
Les Chinois utiliseront une roche similaire pour en faire des boussoles. Là encore, il s’agissait d’une magnétite, c'est-à-dire une roche majoritairement composée d’un oxyde de fer. Tout naturellement, la magnétite a longtemps servi de laboratoire pour explorer le magnétisme de la matière. Toutefois, un de ses secrets faisait de la résistance depuis 70 ans. Pourquoi devient-elle un isolant lorsqu’elle est fortement refroidie ?
Une transition de phase sous l'œil des rayons X Le phénomène avait été découvert en 1939 par le physicien hollandais Evert Verwey. En dessous de -150°C environ, la conductivité électrique de la magnétite chutait tellement qu’il fallait la considérer comme un isolant. La raison de cette transition de phase restait mal comprise et l’objet de plusieurs polémiques. L’énigme semble maintenant résolue si l’on en croit la publication dans Nature du bilan de travaux de recherches réalisés depuis plus d’une décennie. Il a d’abord fallu obtenir un cristal de magnétite microscopique presque parfait, dont la taille est de l’ordre de la moitié du diamètre d’un cheveu.
Selon les chercheurs, c'était l’obstacle principal à résoudre. L’échantillon a ensuite été bombardé par un faisceau de rayons X disponible sur l’une des lignes de lumière de l’European Synchrotron Radiation Facility (ESRF) à Grenoble. Les données obtenues par diffraction ont permis de comprendre comment les électrons de conduction se retrouvent piégés par des groupes de 3 atomes de fer lorsque se produit la transition de Verwey. Un subtil réarrangement de la structure des atomes de fer et d’oxygène de la magnétite intervient alors. Voilà l'énigme résolue. La connaissance nouvellement acquise aura sans nul doute un rôle dans la mise au point de nouveaux matériaux magnétiques, par exemple pour l’électronique et la réalisation de mémoires.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mer 28 Déc 2011 - 21:26
Le LHC observe un nouvel état du bottomium
Ni le boson de Higgs et encore moins la matière noire n’ont encore été observés dans les détecteurs du LHC. Les membres d’Atlas viennent tout de même de démontrer qu’une particule prédite depuis longtemps par le Modèle Standard (MS) existait bel et bien. Le méson chi b, alias bottomium.
Georges Charpak n’est malheureusement plus là pour voir que les derniers avatars de sa chambre multifils, à savoir les détecteurs Atlas et CMS, fonctionnement parfaitement bien et offrent aux physiciens des hautes énergies de belles découvertes. Elles étaient jusqu’à maintenant négatives, c'est-à-dire que l’on excluait l’existence de certaines particules prédites par des théories au-delà du Modèle Standard. Ainsi, aucun boson Z' ni minitrou noir en train de s’évaporer n’a encore été découvert avec le LHC et l’espoir de les observer dans Atlas et CMS, même lorsque la luminosité et l’énergie des collisions seront devenues plus importantes après 2013, est devenu bien mince. Un autre Prix Nobel de Physique, Leon Lederman, doit lui probablement se réjouir de la découverte faite par les membres de la collaboration Atlas et aujourd’hui publiée sur arXiv.
Un laboratoire pour étudier les forces nucléaires fortes Le physicien avait en effet découvert avec ses collègues en 1977 l'existence d'un certain quark, appelé depuis quark b, pour bottom ou beauty. Ce que Lederman avait même observé était un exemple de quarkonium, c'est-à-dire, par analogie avec le positronium formé d’un état lié d’un électron et son antiparticule, le positron, un état lié d’un quark et de son antiquark. En l’occurrence, le nouveau méson était un représentant du bottomium.
Un peu comme pour un atome d’hydrogène, les quarks d'un bottomium peuvent être vus comme tournant l’un autour de l’autre avec différents niveaux d’énergie et de moment cinétique. Tout se passe comme si on avait différentes particules d’une même famille avec différentes masses et spins. Ce que les physiciens d’Atlas ont observé est un de ces états du bottomium, prédit depuis longtemps, le méson chi b. Son moment cinétique est nul et il possède d’autres caractéristiques dont on pourra prendre connaissance dans l’article que lui consacre Tommaso Dorigo. On peut l'utiliser pour mieux comprendre les forces nucléaires de la QCD (Quantum ChromoDynamics) entre quarks.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 6 Jan 2012 - 1:39
Le 21 décembre 2012…la fin du monde ?… Vérifiez vous-mêmes
Sagittarius A*, alias Sgr A*, c’est le trou noir supermassif caché au centre de la Voie Lactée. Selon certains, le Soleil et la Terre seront exactement alignés avec lui le 21 décembre 2012. Cet événement, soi-disant prévu par les Mayas, devrait causer la fin du monde. Pour les scientifiques, le solstice d’hiver de ce 21 décembre sera juste la fin de l’automne. Calculatrice en main, chacun peut vérifier...
Personne ne peut démontrer que vous ne passerez jamais sans dommages à travers un mur en fonçant dessus avec une voiture à 100km/h, qu’un verre qui vient de se briser en tombant d’une table ne va pas spontanément se reformer avec son contenu ou que l’Univers observable va continuer à exister dans les 42 minutes après la lecture de cet article. De fait, la science nous enseigne que ces événements ne sont pas impossibles mais juste extrêmement improbables.
L’effet tunnel quantique permet théoriquement à une voiture de traverser un mur comme si de rien n’était. Les lois de la mécanique des atomes étant réversibles dans le temps, il existe bel et bien des solutions des équations de mouvement de ces atomes qui correspondent à la reformation du verre brisé. Enfin, la nature de l’énergie noire pourrait être telle que la structure du vide quantique soit instable et change du tout au tout en quelques minutes, en provoquant, par exemple, une brutale expansion de l’Univers observable pulvérisant la matière jusqu’aux noyaux. Le scénario du Big Rip pourrait ainsi arriver dans quelques instants seulement. On ne peut donc pas démontrer que rien de fondamentalement surprenant et inattendu n’arrivera le 21 décembre 2012. Mais pas plus que nous nous attendons à passer à travers les murs, à rajeunir spontanément ou que le Soleil ne se lève pas demain, nous n’avons pas de raisons scientifiques de penser que quelque chose de particulier, lié au calendrier Maya, va se produire cette année.
Depuis un moment déjà, la Nasa a mis en ligne une vidéo et des commentaires de David Morrison, l’ancien directeur du Nasa Lunar Science Institute et l’actuel directeur du Carl Sagan Center for Study of Life du Seti Institute, pour démystifier une fin du monde en décembre 2012 annoncée par le calendrier Maya. Dans ses commentaires, Morrison réfutait par exemple point par point en 2009 toutes les affirmations au sujet de la soi-disant planète Nibiru qui menacerait la Terre. Si une telle planète existait, il serait impossible de la cacher à moins d’enfermer tous les astronomes amateurs.
La loi de la conservation du moment cinétique interdit le changement du sens de la rotation de la Terre en l’absence d’une force extérieure considérable. S’il est vrai que la rotation de la Terre joue un rôle dans la production de son champ magnétique via l’effet dynamo, son inversion se produit de façon chaotique depuis longtemps et sans que le sens de rotation des Pôles ne change, comme le confirme, par exemple, l’expérience VKS.
De plus, comme le rappelait Morrison, même si une inversion des Pôles magnétiques se produisait - et rien ne laisse penser qu’elle va se produire dans les siècles à venir, les archives géologiques nous prouvent que rien de catastrophique n’est arrivé directement en relation avec ces inversions. Peut-être ont-elles joué un rôle dans la disparition de l'Homme de Néandertal. Mais si c'était vrai, force est de conclure que nous lui avons survécu.
Décembre 2012, un alignement galactique approximatif Parmi les folles hypothèses des événements cataclysmiques du 21 décembre 2012, la plus récurrente, probablement, est celle de l’alignement du couple Soleil-Terre avec le trou noir central de la Voie Lactée dont on sait qu’il va bientôt avaler un nuage de gaz. On prétend aussi que le Soleil, qui effectue des sortes d’oscillations de part et d’autre du plan galactique pendant qu’il tourne autour du centre de la Galaxie, va précisément couper le plan galactique à cette date. Il faut savoir que la localisation précise du centre de la Galaxie n’est pas clairement définie, sauf par convention. Tout au plus peut-on parler d’une région centrale. De plus, chaque année, le Soleil et la Terre se retrouvent plus ou moins alignés avec cette région centrale. Toujours est-il que, si l'on utilise le repère galactique tel qu'il a été défini en 1958 par l'Union Astronomique Internationale, alors on constate que la direction du centre de la Galaxie se trouve 5° sous le plan de l'écliptique.
Ceci exclut donc toute coïncidence entre la direction apparente du Soleil lequel est toujours dans l'écliptique par définition, avec la direction du centre galactique, comme il est expliqué dans un article de l'Institut de Mécanique Céleste et de Calcul des Ephémérides (IMCCE). Si tant est que l’on puisse définir un plan galactique précis, il apparaît aussi que le Soleil l’a traversé il y a quelques millions d’années selon Morrison.
Une attraction au moins 100 milliards de fois plus faible que celle du Soleil Malgré ces évidences, poussons un cran plus loin le scénario apocalyptique. Imaginons que le Soleil et la Terre puissent se retrouver dans une position particulière en 2012, telle que le champ de gravitation et les forces de marée du trou noir central affectent l'environnement terrestre. Il est à la portée de tout un chacun de vérifier par lui-même que cette hypothèse est objectivement absurde...
- La plus faible valeur de la distance séparant le Soleil de Sagittarius A* a été estimée à 25.000 al. Une année-lumière vaut environ 9.400 milliards de km. On peut dont dire que la distance RTNT séparant le trou noir central de la Terre est certainement plus grande que 2x1017km. La masse de ce trou noir est estimée à 4x106 fois celle du Soleil. La distance RTS de la Terre au Soleil est elle de 1,5x108km.
- La force de gravitation varie en 1/R2, celle de marée en 1/R3 et il est suffisant d’appliquer la théorie de la gravitation de Newton pour comparer les forces gravitationnelles du Soleil et du trou noir central sur la Terre.
- C’est la force en 1/R2 qui est dominante et pour deux corps de masse M et m, elle est donnée par (GMm)/R2 où G est la constante de la gravitation de Newton.
- Le quotient Q de la force d’attraction trou noir-Terre sur Soleil-Terre vaut donc:
L’attraction du trou noir central sur la Terre est donc au maximum 100 milliards de fois plus petite que celle du Soleil. Compte tenu des approximations que l’on a faites, elle doit être encore plus faible. Le trou noir du Sagittaire n'a donc pas à nous faire peur...
Par Laurent Sacco, Futura-Sciences, le 5 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 7 Jan 2012 - 0:47
Le bouclier d'invisibilité spatiotemporel
C’est un buzz difficilement compréhensible qui s’est développé autour d’une intéressante expérience de physique publiée dans le journal Nature. Présentée comme système d'invisibilité temporelle, la performance serait probablement restée... invisible si la célèbre Defense Advanced Research Project Agency n’avait participé au financement. Au mieux, la découverte ne devrait concerner que les réseaux de communication par fibre optique.
L’espoir de disposer dans un avenir proche de la "cape d’Harry Potter", ou bien plus sérieusement du dispositif d’invisibilité de "Ghost in the shell", est devenu particulièrement vif il y a environ 6 ans lorsque que l’on a annoncé l'obtention d'une certaine invisibilité grâce à des métamatériaux. L'exploit n’était alors possible qu’avec des micro-ondes mais on s’est progressivement rapproché du domaine visible. Force est de constater qu’en 2012, on n’y est toujours pas vraiment arrivé... Il faudra peut-être attendre la réalisation de la mythique singularité technologique à l’horizon 2030-2040 pour voir émerger de véritables dispositifs comme ceux que l’on voit dans le célèbre manga de Masamune Shirow. D’ailleurs, dans son adaptation en dessin animé, les aventures du major Motoko Kusanagi se passent effectivement dans les années 2030.
Aujourd’hui, on parle beaucoup d’un article récemment publié dans Nature. Les titres font rêver, « Dispositif d’invisibilité temporelle et même Camouflage spatiotemporel. » De plus, ce qui ajoute un zeste de sensationnalisme, les auteurs de l’article ont réalisé leurs recherches grâce à des financements de la DARPA, la célèbre organisation chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire aux États-Unis.
Pourtant, il ne s’agit que de la mise en application concrète d’un article publié l’année dernière dans Journal of Optics et qui, bien que médiatisé, n’avait pas fait l’objet d’un tel engouement. L’idée derrière ce dispositif de camouflage spatiotemporel est facile à comprendre à l'aide du diagramme d’espace-temps ci-dessus. En abscisse, l’axe des x représente l’espace et en ordonnée, l’axe des y représente une date multipliée par la vitesse de la lumière dans le vide. Des rayons lumineux se déplaçant à vitesse constante de la gauche vers la droite sont représentés par des droites de pente constante, proportionnelle à la vitesse de la lumière dans le milieu. Dans un milieu où elle varie, la pente changera, les plus faibles vitesses rapprochant la ligne de l’horizontale.
Au final, comme le montre le schéma, de tels rayons lumineux dans un milieu approprié peuvent contourner une région de l’espace-temps - le disque rouge - de sorte qu’un événement de courte durée aura été complètement caché dans le domaine optique où se trouvent les rayons lumineux pour des observateurs.
Un dispositif d’invisibilité surtout temporel et non spatial Il ne s’agit donc clairement pas d’un dispositif d’invisibilité comme on en rêve. Pour une "cape à la Harry Potter", ou la combinaison de camouflage thermo-optique de Motoko Kusanagi, on aurait sur le diagramme d’espace-temps un camouflage spatial qui se traduirait, non pas par un disque mais par une longue bande rouge légèrement inclinée par endroits. On peut donc qualifier ce dispositif de système d'invisibilité temporelle.
En pratique, cela revient à couper une fraction de seconde une caméra de surveillance en laissant donc un trou dans l’enregistrement. D’ailleurs, dans l’expérience réalisée par les chercheurs avec un dispositif basé sur une fibre optique, la durée pendant laquelle des événements sont camouflés (l’équivalent du disque rouge) n’est que de l’ordre de la picoseconde, c'est-à-dire un millième de milliardième de seconde. On peut certes imaginer augmenter cet intervalle de temps mais clairement, il s'agira toujours d'un événement de l'espace-temps de courte durée. En fait, comme les chercheurs le reconnaissent, leur travaux devraient surtout concerner la transmission et le traitement optique des données.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Dim 8 Jan 2012 - 1:18
L'extraordinaire histoire des quasi-cristaux extraterrestres de Russie
Une récente publication dans Proceedings of the National Academy of Sciences sur des quasi-cristaux cache une histoire digne de Jules Verne. Grâce aux informations livrées par un agent secret, l’un des pères de la théorie de l’inflation, Paul Steinhardt, est en effet parti au fin fond de l’Extrême-Orient russe pour retrouver l’origine d’une météorite contenant des quasi-cristaux naturels.
Il y a encore 50 ans, si l'on avait interrogé des cristallographes sur l’existence de solides ayant un spectre de diffraction discret (discontinu), tous auraient affirmé que cette possibilité ne pouvait s'envisager qu’avec des cristaux. La périodicité rigoureuse des réseaux cristallins étant perçue comme une condition essentielle. Pourtant, on a fini par découvrir l’existence des quasi-cristaux, que l'on sait fabriquer en laboratoire sans avoir jamais connu, durant des décennies, d'exemple dans le monde naturel.
Fasciné par ces quasi-cristaux, le physicien théoricien Paul Steinhardt a entrepris d’en trouver dans le monde minéral. Steinhardt est un cosmologiste bien connu pour ses travaux sur l'inflation et comme l’un des pères de la cosmologie ekpyrotique. Steinhardt a logiquement commencé par compulser des banques de données concernant des figures de diffraction associées à des échantillons de roches… en vain. Toutefois, à l’automne 2008, le minéralogiste Luca Bindi du Muséum d’Histoire Naturelle de Florence, a contacté le physicien pour lui faire part de sa découverte d’un quasi-cristal de 100 micromètres, trouvé dans un fragment de roche acheté en 1990 à un collectionneur d’Amsterdam. Il s’en est suivi la publication dans Science d’un article annonçant qu’il existait bel et bien dans la nature des quasi-cristaux naturels.
Mais Steinhardt pensait que la découverte était encore plus surprenante que beaucoup ne l’imaginaient. Pour lui, la roche, venue d’on ne sait où dans les montagnes Koryak en Russie, était probablement une météorite. Il s’est donc lancé dans deux aventures. Celle de prouver que les quasi-cristaux naturels trouvés étaient bel et bien d’origine extraterrestre et celle de déterminer exactement où la roche le contenant avait été récoltée.
Une chondrite de 4,5 milliards d'années La veuve du collectionneur ayant fourni l’échantillon a autorisé les chercheurs à consulter les notes de son mari décédé. Notes qui les ont conduits à une transaction effectuée en Roumanie, pour remonter ensuite jusqu’à Valery Kryachko en passant par un ancien agent secret russe qui avait aidé au passage à l’Ouest de l'échantillon. Kryachko avait trouvé la roche en 1979 dans le district autonome de Tchoukotka, une région de l'Extrême-Orient russe.
Luca Bindi et Paul Steinhardt sont dans les montagnes Koryaks en compagnie de Valery Kryachko. Si l'on ne sait pas encore ce qu'ils y ont découvert, une récente publication de Pnas fait cependant état des dernières analyses concernant l'échantillon contenant les quasi-cristaux déjà trouvés en 2008. Joignant leur force avec, en autres, l'expert en météorite Glenn MacPherson, les chercheurs pensent avoir montré que l'échantillon faisait effectivement partie d'une météorite vieille de 4,5 milliards d'années. Les isotopes d’oxygène ont parlé dans le cadre des méthodes de la cosmochimie et ils indiquent que l’échantillon retrouvé devait faire partie d’une chondrite aussi ancienne que le Système solaire.
Le résultat est particulièrement étonnant car les conditions de l’obtention des quasi-cristaux en laboratoire sont délicates. Mais visiblement, et bien que les chercheurs ne comprennent pas comment, des processus astrophysiques existent qui sont capables de les synthétiser.
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 10 Jan 2012 - 1:36
On fait léviter des mouches pour étudier les effets de l'impesanteur
Comment vivraient des animaux installés dans des biosphères en réduction sur Mars ou la Lune ? Pour le savoir, des chercheurs de l’Université de Nottingham font léviter des mouches grâce à un aimant supraconducteur.
Avant d'obtenir le Prix Nobel de Physique pour ses travaux sur le graphène, Andre Geim s’était vu attribuer le Prix Ig-Nobel pour avoir réussi à faire léviter des grenouilles dans un champ magnétique. Les chercheurs de la Nottingham's Schools of Physics and Astronomy and Biology ne seront probablement pas ainsi récompensés mais ils ont travaillé dans la même direction en utilisant un aimant supraconducteur et un champ magnétique pour faire léviter des mouches. Placés dans un champ environ trente-cinq mille fois plus intense que celui de la Terre, ces diptères peuvent être suspendus en l'air ou soumis à une force effective inférieure à la pesanteur terrestre.
Cette lévitation magnétique repose sur le diamagnétisme, phénomène souvent associé au comportement de certains matériaux lorsqu'ils sont soumis à un champ magnétique. Ils génèrent alors un autre champ magnétique opposé et tout peut se passer comme si l'on avait deux aimants se repoussant.
Des leçons pour coloniser l'espace Les chercheurs tentent d'étudier sur le long terme le comportement de ces insectes qu’ils considèrent comme des modèles pour mieux comprendre les effets d'une pesanteur nulle ou faible sur d’autres organismes vivants. Ce genre d’expérience est moins coûteux que d’envoyer des animaux dans l’espace à bord de l’ISS et permet d’avoir une idée des événements se déroulant avec des animaux formant une biosphère en réduction pour la colonisation de Mars ou de la Lune.
Il est évident qu'un champ magnétique n’est pas un champ de gravitation et pour séparer les effets propres à l’un et pas à l’autre, les chercheurs observent des mouches situées au centre du solénoïde supraconducteur et d'autres situées au bord. Le champ magnétique est plus intense au centre mais l’effet de lévitation magnétique y est absent. Pour le moment, on constate des effets similaires à ce qui a déjà été observé dans des vols spatiaux. En l’occurrence, les mouches se mettent à marcher plus vite...
* Effect of magnetically simulated zero-gravity and enhanced gravity on the walk of the common fruitfly
Par Laurent Sacco, Futura-Sciences, le 9 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Mar 10 Jan 2012 - 1:41
Stephen Hawking vient de fêter ses 70 ans !
Il aurait dû décéder il y a plus de 40 ans. Malgré sa maladie de Charcot, Stephen Hawking est toujours là et vient de fêter ses 70 ans ce dimanche. Le maître de la théorie des trous noirs n’a cependant pas pu assister au colloque en son honneur organisé par l’Université de Cambridge.
On ne présente plus Stephen Hawking mais rappelons-nous tout de même que personne n’aurait pu imaginer que le jeune étudiant en thèse, à qui on venait de diagnostiquer une Sclérose Latérale Amyotrophique (SLA ou maladie de Charcot) peu après ses 21 ans en 1963, serait encore vivant au début du XXIe siècle.
Stephen Hawking a non seulement déjoué les prédictions des médecins mais il est devenu une légende vivante, entrant dans l’histoire par ses travaux sur la théorie des trous noirs et la cosmologie quantique. On lui doit bien sûr les célèbres théorèmes de singularités ainsi que la théorie de l’évaporation des trous noirs.
Ses travaux sur les trous de ver, que RadioAstron découvrira peut-être au centre de certaines galaxies, l’ont conduit à parier que l’on ne découvrira pas le boson de Higgs au LHC. On aimerait bien cependant qu’apparaissent dans Atlas et CMS des traces de minitrous noirs en train de s’évaporer. Mais cela semble maintenant très improbable...
Inflation et rayonnement fossile Il vient donc de fêter ce 8 janvier 2012 ses 70 ans, bien que trop affaibli pour assister lui-même aux conférences en son honneur. Ces dernières années, il s'était éloigné de Cambridge pour intégrer à temps partiel un Institut privé canadien, le fameux Perimeter Institute for Theoretical Physics, notamment parce que, par la limite d’âge, il devait laisser sa place de Lucasian Chair of Mathematics. C’est actuellement Michael Green qui l’occupe.
Comme on le sait, le monde ne finira pas en décembre 2012. Souhaitons à Stephen Hawking d'être toujours là en 2013 lorsque seront publiés les résultats des analyses des mesures du rayonnement fossile faites par Planck. Peut-être y trouvera-t-on des traces de l'inflation et de certaines prédictions qu'il a réalisées dans ce domaine avec sa célèbre proposition d'un univers sans frontière. Et pourquoi pas d'autres surprises avec AMS...
Par Laurent Sacco, Futura-Sciences, le 9 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 13 Jan 2012 - 1:44
Décidément étonnant, le graphène peut devenir magnétique
Le graphène, ses propriétés et ses applications potentielles sont parmi les sujets de recherche les plus activement explorés en ce début de XXIe siècle. Et les découvertes se succèdent, la dernière est que le graphène peut devenir paramagnétique, ce qui ouvre des perspectives en spintronique.
La découverte au LHC des secrets de la matière noire et de l’énergie noire, en liaison avec la supersymétrie et des dimensions spatiales supplémentaires, s’étant révélée plus problématique que prévu, d’autres directions de recherches fascinantes vont probablement avoir encore plus d'écho dans les décennies à venir. L’une d’entre elles est la nanotechnologie avec ses implications pour la médecine, la bio-informatique et une nouvelle électronique. L’un des matériaux les plus prometteurs pour une révolution nanotechnologique est incontestablement le graphène. L’académie suédoise ne s’y est d’ailleurs pas trompée en attribuant le Prix Nobel de Physique 2010 à ses découvreurs.
Du graphène paramagnétique L’un d'eux, Andre Geim, vient de publier dans le journal Nature Physics un article dont une première version était déjà disponible sur arXiv depuis un certain temps. Avec des collègues, le chercheur a montré que le graphène, initialement constitué d’une couche monoatomique de carbone désormais bien connue, peut devenir un matériau magnétique. Pour cela, les physiciens du solide ont créé des sites vacants en enlevant des atomes de carbone dans le réseau ou ont remplacé une petite partie de ces atomes de carbone par du fluor. Le dosage est important car un nombre trop important de défauts de ce genre dans un feuillet de graphène compromettrait sa stabilité dans le premier cas et ne le doterait pas de propriétés paramagnétiques dans le second.
Le matériau obtenu n'est que faiblement magnétique. Il ne se fixerait pas à une plaque de fer, par exemple. Mais selon Geim, il pourrait avoir d’intéressantes applications dans le domaine de la spintronique.
* How to Detect the Chandler and the Annual Wobble of the Earth with a Large Ring Laser Gyroscope
Par Laurent Sacco, Futura-Sciences, le 12 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Ven 20 Jan 2012 - 20:20
IBM réalise une mémoire magnétique avec 12 atomes
Si les puces continuent encore de suivre la loi de Moore, la taille des mémoires magnétiques continue elle aussi de diminuer. Des chercheurs d’IBM annoncent avoir stocké un Bit d’information avec seulement douze atomes. De quoi espérer dans un avenir proche des mémoires au moins cent fois plus petites.
IBM est toujours à la conquête du nanomonde. Ses chercheurs le prouvent en réussissant à stocker un Bit d’information avec seulement douze atomes de fer formant deux colonnes de six atomes chacune. L’ensemble constitue un rectangle dont les côtés mesurent 4nm et 16nm (nanomètres). C’est encore avec un microscope à effet tunnel que ces atomes ont été assemblés pour former la plus petite unité de mémoire magnétique connue à ce jour. On sait que grâce aux travaux du Prix Nobel de Physique Albert Fert, les mémoires magnétiques ont pu être considérablement miniaturisées. Mais elles nécessitent encore pas loin d’un million d’atomes pour stocker un seul bit d’information.
Comme les chercheurs l’expliquent dans un article récent paru dans le journal Science, c’est grâce à l’antiferromagnétisme qu’il est devenu possible de faire encore chuter la taille d’une mémoire magnétique. Ce n’est cependant pas la première fois que ce phénomène, prédit théoriquement en 1936 par un autre Prix Nobel de Physique français, Louis Néel, est utilisé pour faire des mémoires magnétiques.
Dans un matériau ferromagnétique, les moments magnétiques des atomes peuvent s’aligner spontanément dans une même direction du fait des interactions qu’ils exercent les uns sur les autres. On peut alors voir ces atomes comme des ensembles de petites boussoles dont les aiguilles aimantées sont parallèles partout dans le matériau. Dans le cas de l’antiferromagnétisme, les moments magnétiques s’alignent mais alternativement dans des directions opposées. C’est cette configuration qui permet de réduire la taille d’une mémoire magnétique car, jusqu’à présent, les interactions entre atomes produisant le ferromagnétisme rendaient la miniaturisation difficile.
Une mémoire magnétique à la frontière des mondes quantique et classique Les chercheurs d’IBM ont donc montré qu’il était possible de stocker un Bit d’information avec six atomes de carbone sur deux rangées formant un ordre antiferromagnétique et de faire basculer les moments magnétiques avec une simple impulsion électrique à l’aide de la pointe d’un microscope à effet tunnel. Chaque bit d’information est ici, comme il se doit, équivalent à un 0 ou un 1 classique. De cette manière, ils ont même pu écrire le mot « think » (penser en anglais) en binaire. En théorie, cela devrait permettre de diminuer encore au moins d’un facteur cent la taille des mémoires magnétiques actuelles.
Sauf que pour réaliser leur prouesse, les chercheurs ont dû travailler pas très loin du zéro absolu, en l’occurrence à 5K. Il faudrait pouvoir faire la même chose à température ambiante, ou pour le moins avec de l’azote liquide, pour qu’une véritable révolution technologique soit possible. Mais les chercheurs ont de l’espoir. Pour eux, des groupes de deux cents atomes devraient être stables à température ambiante et toujours exhiber la possibilité de stocker de l’information grâce à l’antiferromagnétisme. Ils ont aussi une autre perspective. Avec ces douze atomes, ils sont à la frontière entre le monde classique et le monde quantique. D’autres surprises, peut-être en rapport avec des ordinateurs quantiques, pourraient les attendre.
* Bistability in Atomic-Scale Antiferromagnets
Par Laurent Sacco, Futura-Sciences, le 20 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Jeu 2 Fév 2012 - 1:33
On doit modifier les inégalités de Heisenberg !
Est-ce un retour aux sources ? Les fameuses inégalités de Heisenberg sont dues à des caractéristiques intrinsèques du monde quantique et ne sont pas des relations d’incertitudes liées à des perturbations incontrôlables d’un instrument de mesure, comme leur découvreur l’avait même plus ou moins cru pendant un temps. Toutefois, de nouvelles expériences montrent qu'il faudrait effectivement, parfois, considérer des relations de ce type plutôt que les désormais classiques inégalités de Heisenberg.
Il est généralement admis que ce n’est qu'à l’occasion du congrès Solvay de 1927 qu’une interprétation cohérente des équations et des principes de la mécanique quantique a été constituée. Mais une étude attentive des communications de ce congrès montre que bien des désaccords et des divergences existaient entre les physiciens de cette époque sur le contenu physique de la théorie quantique. On disposait déjà à ce moment-là de l’interprétation probabiliste de la fonction d’onde d’un système physique, donnée par Max Born, et des fameuses inégalités de Heisenberg. Mais rétrospectivement, il nous semble aujourd’hui que même pour le jeune Werner Heisenberg, le sens de ces inégalités n’était pas encore bien compris. Plus généralement, on peut même dire que le flou qui régnait encore dans les esprits de l’époque persiste dans plusieurs des présentations élémentaires de la physique quantique données aux étudiants des premières années universitaires. Cela se traduit en général par des contresens générateurs de difficultés supplémentaires dans l’apprentissage de la physique quantique.
Les inégalités de Heisenberg en sont un bon exemple. Il arrive souvent que l’étudiant débutant, trompé par la dénomination de « relations d’incertitudes » encore parfois utilisée pour désigner ces inégalités, pensent qu’il existe bel et bien une position et une vitesse pour une particule quantique mais que les lois de la physique nous interdisent de connaître, avec une précision infinie, simultanément ces deux grandeurs. Mais il n’en est rien... Ces inégalités traduisent deux choses.
Un substratum physique hors espace et hors temps La première est que si l’on persiste à penser les phénomènes quantiques avec des images de particules et d’ondes classiques dans l’espace et le temps, car on est bien contraint d’utiliser des instruments de mesure macroscopiques obéissant aux lois de la physique classique, alors il existe des limites au-delà desquelles ces images ne sont plus pertinentes pour décrire un objet quantique. En d’autres termes, les électrons et les photons ne sont pas des petites boules de billard, il n’y a rien de tel dans le monde quantique. Tout au plus observe-t-on des événements physiques dont les relations possèdent des caractéristiques qui, selon les expériences, font penser à des objets ayant une position et une vitesse mais qui au fond sont au-delà de l’espace et du temps.
Seul a un sens un formalisme mathématique décrivant des résultats de mesures et les multiples relations entre les divers aspects de notre expérience. Il s’agit en réalité d’une interprétation très subtile de la physique, platonicienne par certains aspects, puisque les mathématiques sont le matériau fondamental, hors espace et hors temps des lois de la physique. Elle est aussi positiviste puisque l’accent est mis sur le caractère nécessairement opératoire et expérimental de la signification et de la définition des concepts physiques.
Une dispersion statistique des mesures intrinsèques La seconde chose que ces inégalités traduisent est que les résultats des mesures possèdent une dispersion statistique qui est, soulignons-le de nouveau, intrinsèque. Il ne s’agit donc pas d’un défaut de notre connaissance des valeurs des paramètres physiques des particules, comme c’est déjà le cas avec la théorie classique des gaz, qui nécessite de faire intervenir des probabilités et des incertitudes de mesures. Malheureusement, dans les premières tentatives d’explications des inégalités qu’il avait obtenues mathématiquement, le jeune Heisenberg laissait plus ou moins entendre, et peut-être le pensait-il vraiment, que les raisons de l’apparition des probabilités en mécanique quantique n’étaient au fond pas tellement différentes de celles de leur intervention en physique classique. Le quantum d’action découvert par Planck signifierait ainsi que l’on ne peut jamais rendre arbitrairement petite la perturbation d’un instrument de mesure sur le système physique observé.
Si position et vitesse d’un électron ne sont pas des caractéristiques existant simultanément, les résultats aléatoires de leurs mesures seraient dus au fait que l’incertitude sur l’état d’une de ces grandeurs pour un observateur macroscopique, combinée avec l’effet de perturbation incontrôlable de la mesure, et qui ne peut être rendue nulle, implique l’apparition d’une incertitude sur l’autre grandeur. Mathématiquement, on avait donc le célèbre produit de l’incertitude sur la position x d’une particule avec l’incertitude sur la quantité de mouvement Px de cette particule qui ne pouvait être rendu plus petit qu’une fraction bien définie de la constante de Planck. Comme on le découvrit assez vite, en mécanique quantique, ce résultat mathématique portant sur des incertitudes de mesures, plus rigoureusement sur ce que l’on appelle la dispersion ou encore l’écart quadratique moyen associé à des résultats de la mesure d’une grandeur, était en fait valable pour plusieurs paires de grandeurs physiques dites conjuguées.
On a ainsi des inégalités de Heisenberg pour l’énergie et une durée associées à un système physique (par exemple la masse et la durée de vie d’une particule instable) ou les composantes du moment cinétique d’une particule par exemple. Assez rapidement aussi, les physiciens partisans de l’interprétation dite de Copenhague de la théorie quantique, dont Heisenberg, réalisèrent que l’aspect probabiliste des mesures en physique quantique était bien intrinsèque et qu’il ne s’agissait pas d’une question d’incertitude sur la valeur d’une mesure comme on en rencontre déjà en physique classique. L’idée d’une perturbation de l’instrument de mesure resta cependant un bon expédient pédagogique pour introduire les conceptuellement subtiles, et plus correctement appelées inégalités de Heisenberg.
Toutefois, depuis quelque temps, sans remettre en cause l’interprétation orthodoxe de la mécanique quantique amplement vérifiée au moins depuis 30 ans par les travaux portant sur l’effet EPR, l’expérience de choix retardée de John Wheeler ou celles sur la décohérence effectuées par Serge Haroche et ses collègues, un physicien japonais affirmait qu’il se trouvait une part de vérité dans les premières réflexions de Heisenberg.
Une mécanique quantique toujours valide Pour Masanao Ozawa, les inégalités de Heisenberg devaient être étendues de manière à inclure, en plus de la dispersion inhérente aux valeurs des variables physiques en mécanique quantique, l’effet de la perturbation de l’instrument de mesure dans le sens des idées initiales de Heisenberg. En 2003, il avait effectivement obtenu des inégalités différentes. Dans certaines situations expérimentales, des mesures fines devaient permettre de départager les deux formulations et c’est précisément ce qu’annonce avoir fait un groupe de physiciens dans un article publié dans Nature. Un expérimentateur japonais, Yuji Hasegawa, a joint ses forces à celles de collègues autrichiens pour utiliser les faisceaux polarisés de neutrons disponibles à l’Université de technologie de Vienne.
Selon la mécanique quantique, les valeurs du spin d’un neutron mesuré selon deux directions orthogonales sont précisément des quantités conjuguées, comme le sont position et impulsion d’une particule selon une seule direction. On peut faire des mesures précises de ces valeurs de spins, bien qu’entachées d’erreurs et avec une perturbation inévitable.
Selon les chercheurs, on trouve effectivement que les inégalités classiques de Heisenberg sont violées mais que celles d’Ozawa sont bien vérifiées. Tout en ne remettant pas en cause l’interprétation orthodoxe de la mécanique quantique, nul doute qu’au moment où l’on explore de plus en plus finement le monde quantique, que ce soit avec la nanotechnologie ou des questions d’informatique liées aux ordinateurs quantiques, ce résultat constitue un progrès intéressant.
* Experimental demonstration of a universally valid error–disturbance uncertainty relation in spin measurements
Par Laurent Sacco, Futura-Sciences, le 25 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Jeu 2 Fév 2012 - 23:50
On observe peut-être des molécules de mésons à quatre quarks
Deux hadrons récemment découverts avec l’accélérateur japonais KEK ("Koh-Ene-Ken"ou High Energy Physics and Accelerator) ne cadrent pas avec l’image simple de particules toujours composées de deux ou trois quarks. Ces hadrons exotiques pourraient être des états liés de deux mésons standards, à la façon des atomes dans une molécule ou encore des nucléons dans un noyau.
Le modèle des quarks a plus de 50 ans et la théorie de la ChromoDynamique Quantique (QCD) qui décrit les interactions entre ces quarks au moyen d’échange de gluons existe depuis près de 40 ans. Malheureusement, les équations de la QCD sont non-linéaires et donc très difficiles à résoudre. Si l'on veut l'utiliser pour calculer la masse du proton par exemple, on est contraint de recourir à des ordinateurs. Le modèle des quarks nous permet de comprendre les nombres quantiques associés aux mésons et aux baryons en supposant que ces nombres résultent de ceux des quarks qui les composent, par paires pour les premiers et par triplets pour les derniers.
Mais dire que les protons et neutrons sont constitués de trois quarks, quand les mésons pi le sont de deux, est une simplification abusive. Les interactions fortes sont si intenses entre les quarks des protons et neutrons que, même si l’on peut effectivement reconstruire les propriétés de ces particules avec des quarks et des antiquarks u et d, la nature de ces quarks dans ces particules en est changée. C’est un peu comme se rendre compte que 2 =1+1 mais aussi que 2 =(1-π)+(1+π). En termes techniques, des effets non perturbatifs doivent intervenir, changeant la nature des états de base des nucléons, qui ne seraient pas des quarks dans leur sens initial. Si l'on peut modéliser les nucléons avec des quarks, il n'est pas évident que ceux-ci soient bel et bien composés de quarks au sens où les atomes sont faits d'électrons et de nucléons.
Les hadrons sont toujours incolores Malgré tout, le modèle des quarks semble au premier abord dire qu'il ne peut exister dans la nature que des paires ou des triplets de quarks - exception faite des strangelets, des particules hypothétiques constituées d'un état lié d'un nombre égal de quarks u, d et de quarks étranges. En effet, les quarks possèdent une sorte d'analogue de la charge électrique que l'on appelle la couleur. Un hadron composé de quarks devrait être neutre, c'est-à-dire « blanc » ou « incolore » du point de vue de la charge de couleur. C'est bien le cas pour un méson composé d'un quark et d'un antiquark et pour un baryon composé de trois quarks de couleurs différentes dont la composition donne du « blanc ».
Or, depuis quelques années, les physiciens des particules croient observer dans des collisions, comme celles de positrons et d’électrons avec l’accélérateur japonais KEK, des hadrons exotiques qui s’expliquent mal avec seulement deux ou trois quarks formant un état lié. Depuis un certain temps, des mésons formés de quatre quarks auraient bel et bien été créés dans des collisions. Les physiciens japonais ont une longue tradition d’excellence en physique des particules avec des chercheurs de tout premier plan, parmi lesquels on peut citer Kazuhiko Nishijima. Venant de leur part, l'annonce de l'observation d'hadrons exotiques doit donc être prise au sérieux. En l’occurrence, il apparaîtrait transitoirement, dans certaines collisions d’électrons et de positrons, des hadrons lourds instables dénommés Zb(10610) et Zb(10650), en raison de leurs masses respectives de 10.610MeV et 10.650MeV, qui se désintègrent ensuite en bottomium et deux mésons π chargés.
Des molécules formées de mésons ? Ces nouveaux mésons se comportent comme s’ils étaient constitués d’un quark beau et d’un antiquark beau mais comme ils sont chargés, ils doivent contenir aussi deux autres quarks différents. On a du mal à comprendre l'existence d’un hadron qui serait un tétraquark. D’autres exemples avaient déjà été observés, les hadrons exotiques X(3872), Y(3940), et Z(4430). Les théoriciens ont cependant de la ressource et certains avancent des explications où l'on évoque des « molécules » de quarks ou encore des diquarks liés. Il se pourrait que certains hadrons avec trois quarks soient en fait plus correctement compréhensibles si l’on suppose qu’ils sont un état lié d’un diquark, un peu analogue à un méson classique, avec un troisième quark. Dans le cas des hadrons Zb, on serait en présence d’un état lié de deux diquarks.
Il s’agit d’une idée ancienne, remontant aux années 1970. De même que les noyaux sont des états liés de nucléons collés ensemble non pas par des échanges de gluons mais des échanges de mésons, les hadrons exotiques seraient tout simplement des états liés de mésons déjà connus. Nous ne sommes probablement pas encore au bout de nos surprises, même dans le cadre du Modèle Standard, avec les quarks. D'ailleurs, n'a-t-on pas proposé que des étoiles pouvaient briller en brûlant des quarks ?
Par Laurent Sacco, Futura-Sciences, le 26 janvier 2012
Nombre de messages : 3922 Age : 59 Localisation : Nantes Loisirs : photos; peche ; astronomie; aéronautique Points : 3425 Date d'inscription : 02/05/2005
Sujet: Re: Regard sur l'univers de la physique et l'Astrophysique... Sam 4 Fév 2012 - 1:32
On sait refroidir un semi-conducteur par laser à -269°C
Des physiciens de l’Institut Niels Bohr au Danemark sont parvenus à refroidir un solide à l’aide d’un laser. Il ne s’agit pas du premier exemple de refroidissement optique d’un solide ni d’un record de basse température, mais la température atteinte par la nanomembrane semi-conductrice refroidie par laser est l’une des plus basses à ce jour. Cela pourrait aider à fabriquer des ordinateurs quantiques.
Que l’on puisse refroidir un objet avec de la lumière au lieu de le réchauffer était déjà envisagé en 1929 par le physicien Pringsheim. Après la seconde guerre mondiale, le grand physicien russe Landau a montré que c’était thermodynamiquement possible et des expériences à ce sujet, notamment pour refroidir des solides, ont été rapidement faites. Les premiers lasers ont presque 50 ans et on continue aujourd'hui à leur trouver des applications inattendues, comme refroidir à très basse température des atomes et des molécules ou encore, comme dernièrement, pour refroidir des solides à -118°C.
Des chercheurs de l’Institut Niels Bohr ont fait mieux. Ils viennent d’annoncer dans un article publié dans Nature Physics, dont on peut trouver une première version sur arXiv, être parvenus à refroidir, toujours avec un laser, une membrane semi-conductrice à une température d’environ -269°C, c'est-à-dire juste au-dessus de la température du rayonnement fossile. Voilà déjà un certain temps que des chercheurs du Quantop Laboratories de l’Institut Niels Bohr utilisent des lasers pour refroidir presque au zéro absolu des atomes de césium à l’état gazeux.
Des physiciens de ce laboratoire, tels Koji Usami, veulent utiliser leurs compétences pour sonder les frontières séparant le monde des atomes de celui des objets macroscopiques. D’autres chercheurs avant eux ont déjà utilisé des lasers pour refroidir des objets macroscopiques et tenter de mieux comprendre ce qui se passe lorsque le monde quantique de Heisenberg et Schrödinger doit céder la place au monde classique de Newton et Maxwell. Pour cela, les chercheurs de l’Institut ont eu l’idée d’utiliser une membrane semi-conductrice en Arséniure de Gallium (GaAs). Dans un premier temps, ils ont réussi le tour de force de fabriquer une membrane épaisse de seulement 160nm pour une surface d'environ 1mm². La nanomembrane a ensuite été déposée sur un support d’environ 1cm².
Refroidissement laser pour ordinateur quantique Du fait des propriétés électroniques et optiques de cette membrane, un couplage optomécanique subtil devient possible entre les mouvements d’oscillations de la surface de la membrane et un faisceau laser l’illuminant dans une chambre à vide. Plus précisément, on fait apparaître ce couplage en installant un miroir au-dessus de la nanomembrane de sorte qu'une partie de la lumière soit réfléchie de nombreuses fois entre les deux. L’ensemble fonctionne donc comme une sorte de résonateur optomécanique et si l’on sait s’y prendre, on peut de cette manière refroidir la nanomembrane par l’intermédiaire d’un contrôle des oscillations de sa surface.
L’une des applications potentielles les plus intéressantes d’un tel résonateur optomécanique semi-conducteur est probablement la réalisation d’un ordinateur quantique. Ceux que l’on réalise de nos jours doivent être refroidis à très basses températures pour éviter le processus de décohérence détruisant les effets quantiques nécessaires à des calculs avec un nombre important de qbits. Plus généralement, plusieurs dispositifs électroniques nécessitant d’être refroidis par de l’hélium liquide pourraient à l’avenir l’être de façon simple et permanente par des faisceaux laser. On peut penser par exemple à des télescopes en orbite, comme Spitzer, qui ont une durée de vie limitée à cause de l’évaporation inexorable de leur réserve en hélium liquide.
* Optical cavity cooling of mechanical modes of a semiconductor
Par Laurent Sacco, Futura-Sciences, le 27 janvier 2012