GUILLET Christelle

Publié le par Jean-Philippe Qadri

Chaque fois que le travail sur un article ou un sujet est terminé, placer son compte-rendu en commentaire du billet qui vous est attitré. Il sera ensuite référencé comme il se doit.

Publié dans Classe 2006-2007

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article
G
Il s'agit d'un article extrait du site de La Recherche et il n'était pas indiqué la pagination.
Répondre
J
Du bon travail de bout en bout, c'est bien ;-), même si le sujet du dernier article dépasse le cadre des TIPE (et les limites expérimentales de la physique tout court)...Quant à la pagination, il te suffisait d'aller voir au CDI, non?Mises en ligne (24/06/07) : PS n°306 : La physique des microécoulementsLR n°390 : L'équation ultime pour la physique
Q
Très bien. <br /> As-tu noté la pagination ?
Répondre
G
L'équation ultime pour la physique. Existe-t-elle cette « théorie du Tout » qui expliquerait simplement l'ensemble des phénomènes physiques ?,Lisa Randall LR n°390, Octobre 2005.<br /> <br /> MC : théorie du Tout, unification, théorie des cordes.<br /> Notes : Depuis près d'un siècle, bon nombre de physiciens ont recherché un cadre conceptuel unique qui permettrait d'expliquer simplement pourquoi notre Univers est tel qu'il est, et pourquoi son contenu se comporte comme nous l'observons. Cette quête, dont on ne sait si elle s'achèvera un jour, a déjà permis d'améliorer considérablement notre compréhension du monde, en particulier, depuis quelques années, avec le développement de la théorie des cordes. <br /> Contenu : La première étape vers une « théorie du Tout » consiste à unifier les quatre forces fondamentales de la physique : la gravitation, l'électromagnétisme, et les deux forces nucléaires, faible et forte. À basse énergie, les forces nucléaires se comportent d'une manière très différente des forces électromagnétiques et gravitationnelles. À cause de cela, et du fait que les forces nucléaires étaient encore inconnues il y a une centaine d'années, les premières tentatives d'unification ne concernèrent d'abord que la gravité et l'électromagnétisme. En 1919, le mathématicien allemand Theodor Kaluza formula une théorie. Observant que la relativité générale reste valable si l'espace compte plus de dimensions que les trois qui nous sont familières, Kaluza proposa l'existence d'une quatrième dimension spatiale (qu'il ne faut pas confondre avec le temps, quatrième dimension de l'espace-temps) dans laquelle apparaît l’électromagnétisme. Cette dernière et la gravité résultent des oscillations de la même particule, le « graviton ». Dans la direction des trois dimensions spatiales ordinaires, ces oscillations produisent la gravité ; dans la direction de la dimension supplémentaire, elles produisent la force électromagnétique. Selon cette théorie, toutefois, les intensités des forces électromagnétique et gravitationnelle seraient identiques. Or ces intensités diffèrent de plusieurs ordres de grandeur. De plus, la découverte des forces nucléaires marqua un tournant important dans le casse-tête de l'unification des forces. Les physiciens comprirent alors que la gravité était fondamentalement différente des trois autres forces. Ils se focalisèrent donc sur l'unification de ces dernières. Sheldon Glashow et Steven Weinberg, alors tous les deux à l'université Harvard, et Abdus Salam, alors à l'Imperial College de Londres, firent le premier pas dans cette direction en développant indépendamment, entre 1961 et 1967, la théorie « électrofaible », qui unifie électromagnétisme et force faible. Selon cette théorie, que tous les physiciens considèrent aujourd'hui comme correcte, la force électromagnétique n'est pas une force distincte dans l'Univers primordial. Ce n'est que plus tard, lorsque l'Univers s'est suffisamment refroidi, que cette force, transmise par une particule sans masse, le photon, s'est différenciée de la force faible. Toutefois, en 1974, en suivant la même logique, Glashow et son collègue de Harvard Howard Georgi proposèrent une théorie qui englobait toutes les forces non gravitationnelles. Selon eux, une « grande force unifiée » s'était partagée en trois peu après le Big Bang. Il restait à traiter le problème des intensités des interactions. Pour que l'unification fonctionne, les trois forces doivent avoir la même intensité aux énergies et températures élevées qui caractérisaient les premiers instants de l'Univers ; elles doivent aussi avoir des intensités différentes aux énergies et températures basses, conditions dans lesquelles les physiciens réalisent aujourd'hui leurs expériences. La « théorie quantique des champs » permet de calculer la variation de l'intensité d'une interaction en fonction de l'énergie. Peu après la proposition de Glashow et Georgi, ce dernier réalisa ce calcul, avec Weinberg et Helen Quinn, de l'université de Californie, pour les trois forces non gravitationnelles. Ils trouvèrent que leurs intensités varient avec l'énergie, de sorte qu'elles doivent avoir la même intensité pour une énergie cent mille milliards de fois plus grande que celles auxquelles des expériences avaient été réalisées. Nous savons aujourd'hui que ces calculs n'étaient pas assez précis pour démontrer l'unification. Des mesures plus précises de l'intensité des forces indiquent que celles-ci ne se rejoignent pas tout à fait à haute énergie. Des théories qui vont au-delà du Modèle standard, la théorie qui décrit les particules connues ainsi que leurs interactions, entretiennent l'espoir d'une unification des forces et, partant, de la découverte de la « théorie du Tout ». L'un de ces modèles est la « supersymétrie » qui associe une nouvelle particule « supersymétrique » à chaque particule du Modèle standard. Dans les théories supersymétriques, élaborées dans les années 1970, les contributions de particules virtuelles permettent en effet aux forces non gravitationnelles de s'unifier à très haute énergie. De façon remarquable même la gravité a une intensité comparable aux trois autres forces : cela laisse penser qu'elle pourrait être unifiée avec celles-ci. Avant d'y parvenir, nous devrons trouver une théorie de la gravitation plus générale encore que la relativité générale. Malgré ses succès indéniables, celle-ci ne serait pas la théorie ultime de la gravité, car elle ne s'applique pas à des distances extrêmement courtes de l'ordre de la longueur de Planck (10-33 centimètre). La « théorie des cordes » est considérée comme la meilleure candidate pour atteindre cet objectif. En théorie des cordes, la nature de la matière diffère radicalement des approches traditionnelles de la physique : les objets les plus élémentaires sont des boucles unidimensionnelles, ou « cordes », en vibration dont la longueur est la longueur de Planck. Contrairement aux cordes d'un violon, celles-ci ne sont pas composées d'atomes, eux-mêmes composés d'électrons et de noyaux, eux-mêmes composés de quarks. En fait, c'est exactement le contraire : toutes les particules connues sont produites par les vibrations de ces cordes. Cette théorie avance également des idées provocantes sur la nature de l'espace. En effet, ses prévisions n'ont de sens que si l'espace contient plus de trois dimensions. Selon les modèles considérés, il y en aurait neuf ou dix, voire davantage. Initialement, les théoriciens pensaient ne devoir utiliser que des cordes fondamentales, dont les différents modes de vibration produisaient l'ensemble des particules. Mais, depuis la fin des années 1990, ils ont compris qu'ils devaient prendre en compte d'autres objets afin d'expliquer l'organisation des particules connues et leur dynamique : les « branes ». Ces branes sont des sortes de membranes qui s'étendent dans plusieurs dimensions de l'espace. Elles peuvent piéger les particules et les forces qui, du coup, ne « ressentent » plus ce qu'il se passe dans les autres dimensions. La théorie des cordes embrasse les prévisions de la relativité générale, de la mécanique quantique et de la physique des particules ; elle permettrait en outre d'étendre la physique à des domaines de distance et d'énergie pour lesquels les théories concurrentes sont inadaptées. Bien qu'elle ne soit pas encore assez développée pour que l'on puisse tester son efficacité dans ces conditions insaisissables, elle a d'ores et déjà permis l'obtention de résultats qui apportent un éclairage intéressant sur des problèmes relatifs à la gravitation quantique et à la physique des particules. <br /> <br />
Répondre
G
La physique des microécoulements.,Stéphane Colin ,PS n°306, Avril 2003, p. 74-81.<br /> <br /> MC :microécoulement, microsystème, microfluide <br /> Notes :Des premiers aqueducs aux réseaux modernes d'extraction pétrolière, l'homme a cherché à maitriser et à optimiser les transports de fluides. Cependant pour les microsystèmes, cela pose des problèmes. Dans cet article, il est expliqué les difficultés et les solutions trouvées, ce qui en fait en article très complet. <br /> Contenu : Depuis les années 1980, nous fabriquons des machines dont les dimensions extérieures sont de l’ordre du millimètre afin de réaliser des opérations t elles que le dosage, le mélange, l’analyse, voire la synthèse de fluide. Ces machines appelées microsystèmes véhiculent des fluides. Mais cette petite taille des machines se heurte à un obstacle : les lois de la physique des écoulements classiques ne s’appliquent plus toujours. Les microécoulements diffèrent essentiellement des écoulements classiques parce que les effets de surface prennent une importance considérable. Lorsque nous passons d’un volume de fluide de dimensions métrique à un volume de fluide de dimensions micrométriques, le rapport de la surface sur le volume est multiplié par un million. Des effets généralement négligés à l’échelle macroscopique deviennent alors prépondérants. Un même objet a un comportement modifié. La diminution des dimensions d’un système n’est pas anodine. En général, nous ne pouvons déduire le comportement d’un fluide dans les microsystèmes de son comportement observé dans un système identique de grandes dimensions. Les phénomènes qui se déroulent à proximité des parois jouent un rôle déterminant, mais ne constituent pas toujours un inconvénient. Dans d’autres cas, les effets de surface sont gênants, notamment à l’interface d’un gaz et d’un liquide. Par exemple, lorsque nous cherchons à « mettre en eau » une micropompe, c’est-à-dire à chasser l’air qu’elle contient pour la remplir de liquide, la surpression nécessaire à l’évacuation des bulles est d’autant plus élevée que les sections de passage sont petites, d’après la loi de Laplace (le rayon de courbure de la bulle est inversement proportionnel à la différence de pression de part et d’autre de l’interface gaz-liquide). Donc un microsystème constitue un piège à bulle et son remplissage est difficile. Même quand l’écoulement est monophasique (liquide ou gazeux), la miniaturisation soulève des difficultés, différentes selon que le fluide est un gaz ou un liquide. Pour les gaz des microsystèmes, les parois étant plus proches, la probabilité qu’une molécule rencontre une paroi augmente et peut devenir supérieure à la probabilité qu’elle heurte une autre molécule. Le gaz se raréfie alors. Pour les liquides, nous ne connaissons pas encore les limites d’application des modèles continus classiques. Nous savons seulement que le rôle des forces intermoléculaires, de type Van der Waals, est vraisemblablement déterminant dans les microécoulemnts alors qu’il est négligeable dans les écoulements classiques. La nature de la surface ainsi que son état semblent également primordiaux. Enfin la présence de charges électriques dans les fluides dits polaires est à l’origine de comportements électrocinétiques particuliers, dont certains sont mis à profit pour engendrer l’écoulement. En effet, la mise en mouvement des fluides – l’opération pourtant la plus élémentaire en microfluidique - soulève bien des problèmes. La technique la plus courante à l’échelle macroscopique consiste à créer une différence de pressions entre l’amont et l’aval. Cette technique est difficile à mettre en œuvre dans les microsystèmes, car les microactionneurs destinés à établir une différence de pressions sont souvent délicats à fabriquer et ils demeurent fragiles. En outre, quand la dimension de la conduite diminue, les contraintes exercées par la paroi sur le fluide augmentent. Pour maintenir la vitesse moyenne d’un écoulement tout en divisant par dix les dimensions transversales d’un conduit, nous devons multiplier la différence de pression entre l’amont et l’aval par cent, ce qui est souvent trop. Face à ces difficultés, les physiciens ont conçu des dispositifs originaux, pour faire avancer les liquides sans appliquer de différence de pression. Certains sont adaptés aux liquides, d’autres aux gaz, d’autres enfin exploitent des changements de phase liquide-vapeur.Pour les liquides, la plupart des techniques sont fondés sur des phénomènes électrocinétiques et pour les gaz, des techniques de pompage exploitent les propriétés des écoulements raréfiés, ou bien, le principe de l’accommodation thermique<br /> <br />  <br />  <br />  <br />  <br /> <br />  <br />  
Répondre
G
A la recherche du temps zéro.,Jean-Pierre Luminet LR n°390, Octobre 2005, p :30-34.<br /> <br /> MC : relativité générale, mécanique quantique, Big Bang, univers, ére de Planck, géométrodynamique. <br /> Notes :Cette article montre surtout la difficulté de savoir si l’univers a un début ou s’il est infini. La réponse à cette question semble être une véritable ambiguïté pour les physiciens qui pour le moment n’ont pas trouvé d’unique vision de la naissance de l’univers.<br /> Contenu :L’univers est en expansion, une expansion qui semble sans fin. Cette article nous pose la question de savoir si le temps cosmique se prolonge dans le passé jusqu’à une valeur infinie ou bien s’il est borné à une valeur finie.Selon la relativité générale, qui est à l’origine de la théorie du Big Bang, les distances cosmiques diminuent jusqu’à un temps « zéro », événement qui aurait présidé l’apparition de l’espace, du temps, de la matière. Le temps « zéro » serait situé il y a 13,7 milliards d’années. Cette date a été confirmée par l’analyse de différents phénomènes tels que les supernovaes, le rayonnement cosmologique ou les isotopes radioactifs. Pourtant, cela perturbe les physiciens. En effet, en considérant toujours la relativité générale, cette limite temporelle se présente sous la forme d’une « singularité », un point vers lequel on tend sans jamais l’atteindre : l’univers, au moment où nous considérons le temps comme le temps « zéro », était, semblerait-il, concentré dans un volume infiniment petit, infiniment dense et de courbure infiniment grande. Donc, la singularité n’est pas réellement un événement puisque qu’elle n’a pas pris place et n’a pas eu lieu. Par ce fait, elle échappe aux théories des physiciens.Cependant, les distances extrêmement petites correspondant à une singularité (de l’ordre 10^-35, c’est-à-dire la longueur de Planck) ne peuvent pas être prises en compte par la relativité. A ses dimensions, les physiciens pensent que la géométrie pourrait subir des fluctuations quantiques dues à des températures et à une densité très élevées. Ce qui nous amène à considérer plutôt une théorie de le gravitation quantique unifiant les quatre interactions fondamentales. De là est née la géométrodynamique qui consiste à traiter la géométrie de l’espace-temps de la même manière que la physique quantique ordinaire traite la matière et l’énergie, soit en termes de grains d’espace et de temps. Mais cela reste tout de même très complexe et plusieurs simplifications ( par exemple : une géométrie ayant seulement des courbures constantes, un univers composé de plusieurs petits univers ayant leurs propres caractéristiques, ou la théorie des boucles ou les géométries non commutatives, etc…) ont été proposées. Néanmoins, les physiciens ne pourront se mettre en accord tant que les singularités subsisteront. <br /> Compléments : J.-P . Luminet et M. Lachièze-Rey, De l’infini…, Dunod, 2005 ;L. Z. Fang et R. Ruffini, Quantum Cosmology, World Scientific, 1987 ; A. Linde, Inflation and Quantum Cosmology, Academic Press, 1990 ;S. Hawking, Une brève histoire du temps, Flammarion, Coll. « Champs », 1999.<br />
Répondre
J
Mise en ligne (19/07/03) : LR n°390 : A la recherche du temps zéro