Les mathématiques sont le langage universel par lequel l'Univers se raconte. Chaque équation est une fenêtre ouverte sur la réalité profonde des choses qu'il s'agisse de la trajectoire d'une planète, de l'expansion des galaxies, du vide bouillonnant du Big Bang ou de la dynamique des populations en biologie.
Isaac Newton (1643-1727) formula en 1687, dans ses Principia Mathematica, cette équation d'une simplicité trompeuse. Elle résume en trois symboles une idée révolutionnaire : le mouvement n'a pas besoin d'explication, seul son changement en a besoin. Newton savait mesurer la force, la masse et l'accélération, mais la nature intime de ces trois grandeurs restait mystérieuse. Il savait que lorsqu'une force s'exerce, une masse lui résiste, et le mouvement naît : \[ \Large \vec{F} = m\,\vec{a} \] \( \vec{F} = \text{force (N)}\), \( m = \text{masse (kg)}\), \( \vec{a} = \text{accélération (m/s²)}\)
Ce que dit l'équationL'équation nous dit que pour faire bouger le monde, il faut une force. Elle ne dit pas pourquoi un objet est en mouvement, mais ce qui le fait accélérer ou ralentir. Cette loi unifie tous les cas, du repos absolu à la vitesse de la lumière. Partout où un mouvement s'accélère ou se courbe, c'est la même loi qui s'applique. Le chariot de supermarché : poussez un chariot vide : il part d'une simple pression. Remplissez-le de bouteilles d'eau : la même poussée le fait à peine bouger. La masse s'oppose au changement de mouvement.
Le coup de pied dans un ballon : plus vous frappez fort (force), plus le ballon part vite (accélération). Un ballon rempli d'eau (grande masse) ne bougera presque pas. La masse s'oppose, le mouvement change.
Le camion et la voiture : un camion chargé de sable et une petite voiture sont arrêtés au même feu rouge. Au vert, la voiture s'élance comme une flèche, le camion peine à démarrer. Même force (le moteur qui pousse), plus la masse est grande, plus l'accélération est faible.
Isaac Newton (1643-1727) formula en 1687, dans ses Principia Mathematica, cette loi qui semble une simple évidence mais qui gouverne tout. Quand un corps exerce une force sur un autre, le second exerce une force égale en intensité, opposée en direction, sur le premier : \[ \Large \vec{F}_{A\to B} = -\vec{F}_{B\to A} \] \( \vec{F}_{A\to B} = \text{force exercée par A sur B}\), \( \vec{F}_{B\to A} = \text{force exercée par B sur A}\), \( \text{Les deux forces sont toujours simultanées}\)
Ce que dit l'équationLes forces vont toujours par deux : à chaque action correspond une réaction, égale en intensité et opposée en direction. Rien, dans la nature, n'agit seul, aucune force ne peut exister isolément. La main contre le mur : quand vous appuyez contre un mur, le mur exerce sur vous une force égale et opposée. C'est pourquoi vous ne le traversez pas. Le mur résiste exactement autant que vous poussez.
La pomme et la Terre : quand la Terre attire une pomme, la pomme attire la Terre avec une force de même intensité. La masse immense de la Terre rend son mouvement imperceptible, mais la symétrie des forces est absolue. La pomme fait bien bouger la Terre, infiniment peu.
La fusée qui décolle : les gaz sont éjectés vers l'arrière à grande vitesse, et la fusée est propulsée vers l'avant par une force de réaction égale. Elle avance parce qu'elle pousse quelque chose d'autre dans l'autre sens.
La marche à pied : quand vous marchez, votre pied exerce une force vers l'arrière sur le sol, et le sol exerce sur vous une force vers l'avant. C'est cette poussée du sol qui vous fait avancer.
L'hélicoptère en vol : il pousse l'air vers le bas avec ses pales, et l'air pousse l'hélicoptère vers le haut avec une force égale. Il se tient dans les airs parce qu'il crée un vent vers le bas.
Isaac Newton (1643-1727) formula en 1687, dans ses Principia Mathematica, la loi unissant deux masses par une force proportionnelle à leur produit et inversement proportionnelle au carré de leur distance : \[ \Large F = G \frac{m_1 m_2}{r^2} \] \( m_1, m_2 = \text{ masses des deux corps (kg)}\), \( r = \text{ distance entre les corps (m)}\), \( G = 6{,}674 \times 10^{-11} \text{ N·m²·kg}^{-2} = \text{ constante gravitationnelle}\)
Ce que dit l'équationCette loi dit qu'une même force, la gravitation, agit à toutes les échelles. C'est une vérité simple mais vertigineuse : deux masses, où qu'elles soient dans l'univers, s'attirent. Les marées : l'empreinte de la Lune sur les océans. Deux fois par jour, l'eau des mers se soulève, obéissant à l'appel silencieux de notre satellite. La Lune tire l'océan, et la Terre entière frémit sous cet arrachement doux.
Les planètes : une danse sur des orbites tracées par cette seule force. Jupiter, Saturne, Mars, Vénus, toutes tournent autour du Soleil, retenues par un fil invisible. Pas de corde, pas de contact, juste l'attraction qui les courbe et les retient.
Les étoiles : elles meurent écrasées par leur propre poids. Quand leur feu s'éteint, plus rien ne s'oppose à la gravité. L'étoile s'effondre sur elle-même, jusqu'à devenir naine blanche, étoile à neutrons, ou trou noir, vaincue par sa propre masse.
L'univers entier : il se structure en galaxies sous l'effet de cette attraction silencieuse. Des nuages de gaz s'agrègent, des étoiles naissent, des galaxies tournent. Partout, la gravité tisse la toile cosmique, assemblant patiemment la matière.
Daniel Bernoulli (1700-1782) établit en 1738 une relation fondamentale entre la pression, la vitesse et la hauteur d'un fluide en écoulement. Il montre que dans un fluide, ces trois grandeurs sont liées par une constante : \[ \Large P + \frac{1}{2}\rho v^2 + \rho g h = \text{constante} \] \( P = \text{pression (Pa)}\), \( \rho = \text{densité du fluide (kg/m³)}\), \( v = \text{vitesse d'écoulement (m/s)}\), \( g = \text{accélération de la pesanteur}\), \( h = \text{hauteur (m)}\)
Ce que dit l'équationCette équation montre un échange contre-intuitif : quand un fluide accélère, sa pression chute. Partout où un fluide s'écoule, vitesse et pression dansent ensemble, l'une ne pouvant augmenter sans que l'autre ne diminue. L'air passe plus vite sur le dessus d'une aile que dessous : la pression chute au-dessus de l'aile, tandis qu'elle reste plus forte en dessous. Cette différence de pression aspire l'aile vers le haut : l'avion décolle.
Dans une rivière qui se resserre : l'eau accélère dans le goulet, et sa pression diminue. Quand on comprime un solide, on augmente la pression. Mais un fluide en mouvement se comporte différemment : il échange sa pression contre de la vitesse.
Quand le vent arrive face à des obstacles : il est contraint de s'engouffrer entre les immeubles, il accélère comme un fleuve dans des gorges. Cette accélération s'accompagne d'une chute de pression locale qui fait vibrer les vitres, claquer les portes, et dans les rafales les plus violentes, arrache les tuiles. Plus le passage est étroit, plus le vent accélère, plus la pression chute.
Jean le Rond d'Alembert (1717-1783) établit en 1746 l'équation qui régit la vibration des cordes vibrantes, première formulation mathématique d'un phénomène ondulatoire. Leonhard Euler (1707-1783) généralise cette équation en 1750 aux ondes sonores et aux fluides. L'équation d'onde décrit comment une perturbation se propage dans l'espace et dans le temps, qu'il s'agisse d'une corde qui vibre, d'un son qui voyage ou d'une vague qui se déforme : \[ \Large \frac{\partial^2 u}{\partial t^2} = v^2 \left( \frac{\partial^2 u}{\partial x^2} + \frac{\partial^2 u}{\partial y^2} + \frac{\partial^2 u}{\partial z^2} \right) \] \(u = \text{amplitude de l'onde (m)},\) \(t = \text{temps (s)},\) \(v = \text{vitesse de propagation dans le milieu (m/s)},\) \(\frac{\partial^2 u}{\partial x^2} + \frac{\partial^2 u}{\partial y^2} + \frac{\partial^2 u}{\partial z^2} = \text{somme des courbures dans les trois directions de l'espace}\)
Ce que dit l'équationL'équation d'onde exprime un principe universel : une déformation ne reste pas en place, elle voyage. Que ce soit une corde pincée, une compression d'air ou une vague à la surface de l'eau, la forme de la déformation détermine la façon dont elle se propage. La vitesse à laquelle elle voyage dépend du milieu (corde, air, eau). Ce qui change d'une onde à l'autre, c'est la nature de \(u\) et la vitesse de propagation \(v\) dans le milieu. La corde de guitare : pincée, elle se déforme. Cette déformation voyage le long de la corde, se réfléchit aux extrémités, et produit un son. Ce va-et-vient de nature matérielle voyage à ~100-150 m/s.
Le son dans l'air : quand vous parlez, vos cordes vocales compriment l'air. Ces compressions et dépressions de l'air se propagent jusqu'à l'oreille de votre interlocuteur à 340 m/s.
Les vagues à la surface de l'eau : jetez une pierre dans un étang. Les rides de l'eau s'éloignent avec une vitesse de ~0,5 à 1 m/s.
Pierre-Louis Moreau de Maupertuis (1698-1759) énonce en 1744, un principe audacieux : la nature est économe, elle choisit toujours le chemin qui minimise une certaine "action".
Leonhard Euler (1707-1783) cherche à donner une forme mathématique à cette intuition et, en 1755, découvre une équation qui permet de déduire le mouvement d'un système à partir de deux grandeurs : la force vive \(T\) (liée au mouvement) et la fonction des forces \(V\) (liée à la position) : \[ \Large \frac{d}{dt}\left(\frac{\partial T}{\partial \dot{q}}\right) - \frac{\partial V}{\partial q} = 0 \] \( q = \text{coordonnée (position, angle...)}\), \( \dot{q} = \text{vitesse}\), \( T = \text{force vive (demi-produit de la masse par le carré de la vitesse)}\), \( V = \text{fonction des forces (dépendant de la position)}\), \( dt = \text{instant élémentaire (s)}\)
La nature équilibre deux quantités : la force vive (ce que le système fait, il bouge, il a de la vitesse) et la force de position (ce qu'il pourrait faire, il est en hauteur, il a du potentiel).
Joseph-Louis Lagrange (1736-1813) unifiera ces deux termes en une seule fonction (T−V). Un chemin trop rapide dépense trop de force vive, un chemin trop lent accumule trop de potentiel, la nature trouve à chaque instant l'équilibre parfait entre les deux.
Aujourd'hui, la force vive c'est l'énergie cinétique et la fonction des forces, l'énergie potentielle. Elles sont unifiées en une seule entité nommée lagrangien : \(\mathcal{L} = T - V\). Un pendule qui oscille : la force vive est grande quand il passe vite en bas, nulle quand il s'arrête en haut. Sa fonction des forces est liée à sa hauteur : plus il monte, plus elle augmente. Le mouvement résulte de l'équilibre permanent entre ces deux quantités.
Une balle lancée en l'air : au sommet, elle est lente mais haute, toute son énergie est "en réserve". En bas, elle est rapide mais rase le sol, toute son énergie est "en action". La nature négocie en permanence entre les deux.
La lumière qui se courbe en traversant un prisme : dans l'air, elle va vite ; dans le verre, elle ralentit. La lumière elle-même obéit à cette économie, elle "choisit" l'angle qui minimise son temps de parcours.
Charles-Augustin de Coulomb (1736-1806) établit en 1785, par des expériences de torsion, la loi fondamentale de l'électrostatique. Structurellement identique à la loi de gravitation newtonienne, la force de Coulomb est 1036 fois plus intense que la gravité à l'échelle atomique. \[ \Large F = k_e \frac{q_1 q_2}{r^2} \] \( q_1, q_2 = \text{charges électriques (C)}\), \( r = \text{distance entre les charges (m)}\), \( k_e \approx 8{,}99 \times 10^9 \text{ N·m²·C}^{-2} = \text{constante de Coulomb}\)
Ce que dit l'équationC'est la loi de Coulomb qui maintient les électrons autour des noyaux, permet la formation des liaisons chimiques et donne à la matière sa consistance, sa dureté et ses propriétés électriques. Un aimant qui attire un clou : plus le clou s'éloigne, plus la force s'effondre, si on double la distance, la force est divisée par quatre.
Un cheveu qui se dresse après avoir frotté un ballon : quelques charges déplacées suffisent à vaincre la pesanteur terrestre tout entière, tant la force de Coulomb est intense à courte distance.
Un atome d'hydrogène : un proton, un électron, et entre eux la loi de Coulomb, rien d'autre. C'est cette équation seule qui fixe la taille de l'atome, son énergie, et la lumière qu'il émet.
Joseph Fourier (1768-1830) publia en 1822 sa théorie analytique de la chaleur, décrivant la propagation thermique dans un milieu. Cette équation décrit comment les différences de température s'effacent progressivement jusqu'à l'équilibre thermique : \[ \Large \frac{\partial T}{\partial t} = \alpha \nabla^2 T \] \( T = \text{température (K ou °C)}\), \( t = \text{temps (s)}\), \( \alpha = \text{diffusivité thermique du matériau (m²/s)}\)
Ce que dit l'équationToute différence de température est condamnée à s'effacer. Plus l'écart est grand, plus la chaleur se transfère vite, jusqu'à l'équilibre inévitable. Pour la résoudre, Fourier dut inventer un outil mathématique entièrement nouveau : décomposer n'importe quelle courbe en une somme de sinusoïdes appelée les séries de Fourier. Une casserole retirée du feu : elle refroidit vite d'abord, puis de plus en plus lentement, l'écart avec l'air ambiant diminue, et la force du transfert avec lui.
Une barre de métal chauffée à un bout : la chaleur progresse, s'étale, s'uniformise, l'équation de Fourier trace exactement ce front thermique, centimètre par centimètre.
La Terre elle-même : les océans, l'atmosphère, les pôles et l'équateur échangent en permanence leur chaleur. Les modèles climatiques modernes résolvent, à l'échelle planétaire, cette même équation.
Jean-Baptiste Joseph Fourier (1768-1830) publie en 1822 sa Théorie analytique de la chaleur, où il affirme qu'une fonction quelconque (même discontinue) peut être décomposée en une somme de sinus et cosinus. L'équation impressionne par sa forme, mais son sens est simple : le symbole \(\int\) n'est qu'une somme continue, et \(e^{-2\pi i x \xi}\) n'est qu'une onde sinusoïdale. Elle additionne donc les contributions de toutes les fréquences présentes dans un signal : \[ \Large \hat{f}(\xi) = \int_{-\infty}^{\infty} f(x) e^{-2\pi i x \xi} \, dx \] \(\displaystyle \hat{f}(\xi) = \text{représentation du signal dans l'espace des fréquences}\), \(f(x) = \text{signal original}\), \(\xi = \text{fréquence}\), \(e^{-2\pi i x \xi} = \text{onde sinusoïdale complexe}\)
Ce que dit l'équationToute forme d'onde, aussi complexe soit-elle, n'est que la somme d'ondes pures qui s'ajoutent, chacune avec sa propre fréquence et sa propre amplitude. La transformée de Fourier est comme une recette de cuisine inversée : à partir du gâteau (la somme d'ondes), on retrouve la liste des ingrédients (les fréquences) et leurs quantités. C'est aussi le prisme qui révèle l'arc-en-ciel caché dans la lumière blanche. La musique et l'égaliseur : quand vous regardez les barres lumineuses d'un égaliseur sur une chaîne hi-fi, vous voyez en temps réel la transformée de Fourier de la musique. Chaque barre représente l'intensité d'une fréquence temporelle particulière (graves, médiums, aigus).
La compression JPEG : une image est un signal spatial complexe à deux dimensions. La transformée de Fourier (ou plutôt sa variante, la transformée en cosinus discrète) permet de supprimer les détails que l'œil perçoit mal, pour compresser l'image sans perte apparente de qualité.
L'IRM médicale : l'imagerie par résonance magnétique utilise la transformée de Fourier pour reconstruire des images du corps humain à partir de signaux radiofréquences émis par les atomes d'hydrogène.
La reconnaissance vocale : quand vous parlez à votre téléphone, il analyse votre voix par transformée de Fourier pour identifier les fréquences caractéristiques de chaque son, et ainsi reconnaître vos mots.
Claude-Louis Navier (1785-1836) publie en 1822 les premières équations qui décrivent le mouvement des fluides visqueux, en s'appuyant sur les travaux de Leonhard Euler (1707-1783) qui avait déjà établi les équations pour les fluides parfaits (sans viscosité) en 1757. George Gabriel Stokes (1819-1903) reformule et généralise ces équations entre 1845 et 1850. Pour un fluide en mouvement, cette équation (en réalité quatre équations en une) joue le rôle que \(F = ma\) tient pour une bille : elle exprime, en chaque point, la conservation de la masse et de la quantité de mouvement. \[ \Large \rho \left( \frac{\partial \mathbf{v}}{\partial t} + \mathbf{v} \cdot \nabla \mathbf{v} \right) = -\nabla p + \eta \nabla^2 \mathbf{v} + \mathbf{f} \] \(\rho = \text{masse volumique du fluide (kg/m³)},\) \(\mathbf{v} = \text{vitesse du fluide (m/s)},\) \(p = \text{pression (Pa)},\) \(\eta = \text{viscosité dynamique (Pa·s)},\) \(\mathbf{f} = \text{forces extérieures (gravité, etc.) (N/m³)}\)
Ce que disent les équationsLes équations de Navier-Stokes mettent en balance, pour chaque goutte de fluide, ce qui la fait bouger et ce qui la retient. À gauche, son accélération. À droite, trois acteurs : la poussée des différences de pression, le frein de la viscosité qui la frotte contre ses voisines, et les forces extérieures comme la gravité qui la tirent ou la soulèvent. L'eau d'une rivière qui rencontre un rocher : devant le rocher, l'eau ralentit et sa pression augmente (terme \(-\nabla p\)). Sur les côtés, elle accélère (terme \(\mathbf{v} \cdot \nabla \mathbf{v}\)). Derrière, des tourbillons naissent : la viscosité (\(\eta \nabla^2 \mathbf{v}\)) dissipe l'énergie et crée ces mouvements tournants. Chaque remous raconte un terme de l'équation.
La fumée qui s'élève d'une cigarette : la fumée chaude, moins dense que l'air, subit une poussée vers le haut (terme \(\mathbf{f}\) qui inclut la gravité et la flottabilité). Elle monte d'abord en un filet bien lisse, équilibre entre cette poussée et la viscosité qui la freine. Puis, brusquement, elle se met à tourbillonner. C'est le terme \(\mathbf{v} \cdot \nabla \mathbf{v}\) qui prend le dessus : la vitesse s'auto-entretient et crée de la turbulence.
le miel froid : il s'écoule en rubans épais et lisses. Sa viscosité (\(\eta\)) est si forte qu'elle écrase tous les autres termes. Le miel nous montre le régime où le frottement interne domine.
La tasse de thé : en tournant une cuillère dans une tasse de thé, le liquide se met en mouvement. Arrêtez de tourner, et le thé continue un peu sur sa lancée (inertie), mais les feuilles de thé se rassemblent au centre. Pourquoi ? La viscosité ralentit le liquide près des parois, créant un gradient de pression (\(-\nabla p\)) qui pousse les feuilles vers l'intérieur. Chaque terme de Navier-Stokes est à l'œuvre sous vos yeux.
Georg Simon Ohm (1789-1854) publia en 1827 une relation fondamentale qui unit la tension, le courant et la résistance dans un circuit électrique. Il découvre que pour qu'un courant circule, il faut une tension qui pousse et une résistance qui cède : \[ \Large U = R \cdot I \] \( U = \text{tension électrique (volts, V)}\), \( R = \text{résistance (ohms, Ω)}\), \( I = \text{intensité du courant (ampères, A)}\)
Ce que dit l'équationOhm découvre que l'électricité se comporte comme l'eau dans une rivière. La tension est la pente qui la fait couler. La résistance est l'étroitesse du lit. Le courant est le flot qui passe. Ohm met en évidence un compromis permanent : plus la résistance est grande, plus il faut de tension pour faire passer le même courant. Inversement, à tension fixe, une résistance plus forte laisse passer moins de courant. Une ampoule à incandescence : son filament de tungstène offre une résistance telle qu'il chauffe jusqu'à émettre de la lumière sans fondre.
Un radiateur électrique : sa résistance est choisie pour qu'à la tension du secteur, le courant soit juste ce qu'il faut pour chauffer sans fondre.
Un fil trop fin : sa résistance est plus élevée qu'un fil épais. Si le courant est trop fort, il chauffe, rougit, et peut fondre, c'est ainsi que fonctionnent les fusibles.
Le corps humain : sec, sa résistance est élevée, le courant passe mal. Mouillé, elle chute, et le moindre courant devient dangereux. La loi d'Ohm explique pourquoi l'eau et l'électricité font si mauvais ménage.
Gaspard-Gustave Coriolis (1792-1843) publie en 1829 son livre Du calcul de l'effet des machines. Il reprend l'idée de Gottfried Wilhelm Leibniz (1646-1716) sur la "force vive" (\(mv^2\)), mais y ajoute le facteur \(\frac{1}{2}\) pour l'harmoniser avec la notion de travail mécanique. Il baptise cette grandeur énergie cinétique, formalisant ainsi l'énergie que possède un corps du seul fait de sa vitesse.
\[ \Large E_c = \frac{1}{2} m v^2 \] \( E_c = \text{énergie cinétique (joules, J)}\), \( m = \text{masse du corps (kg)}\), \( v = \text{vitesse (m/s)}\)
Ce que dit l'équationCette formule apparemment simple porte une conséquence redoutable : doubler sa vitesse, c'est quadrupler son énergie. Partout où un objet est en mouvement, sur la route, dans le sport, dans l'industrie, dans le cosmos, aucun mouvement n'y fait exception, cette loi en carré est sans pitié. Une voiture à 50 km/h : son énergie est modérée, les freins suffisent. À 100 km/h, elle emmagasine quatre fois plus d'énergie, la distance d'arrêt n'est pas deux fois, mais quatre fois plus longue.
Une balle de fusil à 900 m/s : sa vitesse est 30 fois celle de la balle de tennis, son énergie est 900 fois plus grande. Le carré transforme une différence de vitesse en abîme d'énergie.
Une météorite : sa masse est grande, sa vitesse phénoménale. L'énergie au carré devient celle d'une bombe nucléaire. Le cratère rend compte de cette énergie.
Un marteau : plus on frappe vite, plus il enfonce le clou. Mais sa masse qui compte aussi, un marteau léger lancé très vite peut égaler un marteau lourd lancé doucement. L'équation raconte cet équilibre.
Michael Faraday (1791-1867), génie de l'expérimentation, découvre en 1831 un phénomène fondamental : un champ magnétique qui varie engendre un courant électrique. En 1820, Hans Christian Œrsted (1777-1851) avait montré qu'un courant continu (celui de sa pile) déviait l'aiguille de sa boussole. Faraday prouve que l'inverse existe dans la nature. Cette intuition géniale prend une forme mathématique avec Franz Ernst Neumann (1798-1895) qui, en 1845, établit la relation quantitative. Le signe moins, ajouté par Heinrich Lenz (1804-1865), donne son sens profond à la loi (si le champ augmente, le courant tend à le diminuer ; s'il diminue, le courant tend à l'augmenter) : \[ \Large \mathcal{E} = -\frac{\Delta \Phi}{\Delta t} \] \( \mathcal{E} = \text{force électromotrice induite (V)}\), \( \Phi = \text{flux magnétique (Wb)}\), \( t = \text{temps (s)}\)
Ce que dit l'équationFaraday met en évidence une réciprocité cachée dans la nature. L'une crée l'autre, et quand l'autre bouge, elle recrée la première :
Courant continu → Champ magnétique constant
Champ magnétique variable → Courant induit Un aimant qui s'approche d'une bobine : le flux magnétique varie, un courant apparaît. L'aimant s'éloigne, le courant change de sens. La lampe branchée sur la bobine s'allume à chaque mouvement.
Un alternateur de centrale électrique : un aimant tourne devant des bobines, le champ varie en permanence, le courant jaillit. Toute l'électricité du réseau naît de cette loi.
Un transformateur, deux bobines face à face : le courant alternatif dans la première crée un champ qui varie, lequel induit un courant dans la seconde. La tension peut monter ou descendre au gré des spires.
Une guitare électrique : la corde métallique vibre devant un aimant, le flux magnétique varie, un courant naît dans la bobine. Ce signal, amplifié, devient le son que vous entendez.
William Rowan Hamilton (1805-1865) reformule en 1833 la mécanique d'une manière si profonde qu'elle éclaire encore la physique quantique aujourd'hui. Là où Joseph-Louis Lagrange (1736-1813) décrivait le mouvement à partir des positions et des vitesses, Hamilton introduit un duo inséparable : la position \(q\) et la quantité de mouvement \(p\). Une seule fonction, le Hamiltonien H (généralement l'énergie totale du système), contient à elle seule toute la dynamique : \[ \Large \dot{q} = \frac{\partial H}{\partial p} \quad \text{;} \quad \dot{p} = -\frac{\partial H}{\partial q} \] \(\dot{q} = \text{vitesse},\) \(\dot{p} = \text{taux de variation de l'impulsion},\) \(q = \text{position (m)},\) \(p = \text{impulsion (kg·m/s)},\) \(H(q,p) = \text{énergie totale (J)}\)
Ce que disent les équationsCes deux équations révèlent une symétrie cachée : position et impulsion sont les deux faces d'une même pièce. La position, c'est la hauteur de la vague à un instant donné (1 m au-dessus du calme) et l'impulsion, c'est la réserve de mouvement accumulée par la vague (sa masse et sa vitesse). Un camion lent et une balle de tennis rapide peuvent avoir la même réserve. Le Hamiltonien dit comment la réserve de mouvement fait avancer la position, et comment la position, en changeant, vide ou remplit cette réserve. Les deux s'engendrent mutuellement, comme la hauteur et la vitesse d'une vague. Un patineur sur un relief de glace vallonnée : l'altitude à chaque point représente le Hamiltonien. En chaque endroit, deux informations sont inscrites dans le relief : la pente dans une direction lui dit à quelle vitesse il va glisser ; la pente dans l'autre direction, inversée, lui dit si on le pousse vers le haut ou vers le bas. Le patineur n'a besoin que de cette carte du relief pour que tout son mouvement se déroule, sans autre loi à connaître.
Une bille qui roule dans un bol : la forme même du bol (le Hamiltonien) détermine tout. La pente locale dit à la bille d'accélérer ou de ralentir, et la courbure dit comment sa trajectoire va tourner. La bille n'obéit à rien d'autre qu'à la forme du bol qui la contient.
Le chêne et le gland : tout le futur y est déjà contenu le gland, il ne reste qu'à le laisser se déployer dans le temps. L'énergie totale, c'est ce gland. Elle suffit à prédire, pour tout temps à venir, la position et la vitesse de chaque particule, à chaque instant, à chaque endroit, dans les moindres détails de leurs mouvements.
Robert Boyle (1627-1691) établit en 1662 que pour une température fixe, la pression et le volume d'un gaz varient en sens inverse. Edme Mariotte (1620-1684) découvre la même loi indépendamment en France. Un siècle plus tard, Jacques Charles (1746-1823) puis Joseph Louis Gay-Lussac (1778-1850) montrent que le volume d'un gaz augmente avec sa température. Amedeo Avogadro (1776-1856) ajoute en 1811 que le volume est proportionnel à la quantité de matière. C'est Émile Clapeyron (1799-1864) qui, en 1834, synthétise ces découvertes en une seule équation universelle des gaz parfaits : \[ \Large PV = nRT \] \(P = \text{pression (Pa)},\), \(V = \text{volume (m³)},\), \(n = \text{quantité de matière (mol)}\), \(R = 8{,}314 \text{ J·mol}^{-1}\text{·K}^{-1} = \text{constante des gaz parfaits},\), \(T = \text{température (K)}\)
Ce que dit l'équationCette loi dit que pression, volume et température ne font qu'un. On ne peut changer l'un sans affecter les autres, comme on ne peut presser une éponge sans que l'eau n'en sorte La pompe à vélo : quand vous poussez le piston, vous réduisez le volume. La pression augmente, et l'air comprimé finit par gonfler le pneu.
La cocotte-minute : chauffez un gaz, sa température monte. À volume constant (la cocotte est fermée), la pression augmente dangereusement. C'est pourquoi une soupape libère l'excès avant que tout n'explose.
Le ballon qui s'envole : un ballon gonflé à l'hélium s'élève car la pression diminue avec l'altitude. À l'intérieur, le gaz se détend, le volume augmente jusqu'à ce que l'enveloppe éclate si le ballon monte trop haut.
La respiration : vos poumons sont des volumes qui changent. Quand le diaphragme s'abaisse et que les côtes s'écartent, le volume de la cage thoracique augmente, la pression diminue, et l'air extérieur entre (inspiration). Quand le diaphragme se soulève et que les côtes se resserrent, le volume diminue, la pression augmente, et l'air est expulsé (expiration).
James Prescott Joule (1818-1889) établit en 1841 la relation entre le courant électrique qui circule dans un conducteur et la chaleur qui en résulte. Cette loi est la conséquence directe de la loi d'Ohm : en combinant \(U = RI\) et \(P = UI\), on obtient : \[ \Large P = R \cdot I^2 \] \( P = \text{puissance thermique (watts, W)}\), \( R = \text{résistance du conducteur (ohms, Ω)}\), \( I = \text{intensité du courant (ampères, A)}\)
Ce que dit l'équationLe courant ne traverse jamais un conducteur sans y laisser de la chaleur. La chaleur produite ne dépend pas seulement du courant, mais de son carré. Doubler le courant, c'est quadrupler l'échauffement du chemin donc la chaleur à dissiper. Une ampoule à incandescence : son filament de tungstène offre une résistance telle que le courant qui passe le fait chauffer jusqu'à émettre de la lumière. Mais pas trop de courant, sinon il fond.
Un radiateur électrique : sa résistance est calculée pour qu'à la tension du secteur, le courant produise juste la chaleur voulue. La loi de Joule dit comment.
Un fusible : un fil fin, calibré pour fondre si le courant dépasse un seuil. Quand l'intensité double, la chaleur quadruple : le fil fond, le circuit est coupé.
Les lignes à haute tension : pour transporter l'électricité sur de longues distances sans perdre trop d'énergie en chaleur, on augmente la tension et on diminue le courant. Car la chaleur perdue croît comme le carré du courant.
James Prescott Joule (1818-1889) établit expérimentalement dès 1843 l'équivalence entre travail et chaleur, avant que Julius Robert von Mayer (1814-1878) ne formule le principe général en 1847. C'est Hermann von Helmholtz (1821-1894) qui, la même année, en donne la formulation mathématique universelle. Le premier principe s'énonce ainsi : la variation de l'énergie interne d'un système est égale à la somme de la chaleur reçue et du travail effectué sur lui. C'est la formalisation de l'adage Rien ne se perd, rien ne se crée, tout se transforme appliqué à l'énergie : \[ \Large \Delta U = Q + W \] \(\displaystyle \Delta U = \text{variation de l'énergie interne du système (J)}\), \(Q = \text{chaleur reçue par le système (J)}\), \(W = \text{travail reçu par le système (J)}\)
Ce que dit l'équationL'énergie est une monnaie d'échange universelle. Chaleur, mouvement, électricité ne sont que des formes différentes d'une même grandeur. L'énergie totale se conserve, elle change simplement d'apparence. Le freinage d'une voiture : lorsque vous freinez, l'énergie cinétique de la voiture est transférée aux freins sous forme de travail (W). Ce travail augmente l'énergie interne des freins (Δ U), ce qui se manifeste par une élévation de leur température, (Q) est la chaleur évacuée vers l'air ambiant. Une infime partie de ce travail sert également à user les plaquettes (transformation chimique).
Le moteur thermique : lors de la combustion du carburant dans le cylindre, l'énergie chimique est convertie en énergie thermique (Q). Cette chaleur élève la pression des gaz, qui, en se détendant, exercent une force sur le piston. Ainsi, les gaz transforment une partie de l'énergie thermique reçue en travail mécanique (W), permettant le mouvement du piston.
La pompe à chaleur : le fluide frigorigène permet à la pompe à chaleur de récupérer la chaleur (Q) présente dans l'air extérieur, même à basse température. Plus froid que l'air extérieur (par exemple à -10°C), il absorbe cette énergie thermique en s'évaporant, ce qui augmente son énergie interne (ΔU). Le compresseur, en consommant de l'énergie électrique (W), comprime ensuite le fluide gazeux, augmentant encore davantage son énergie interne (ΔU = Q + W). Cette opération élève sa température, permettant de restituer la chaleur amplifiée à l'intérieur de la maison.
Le corps humain : l'énergie chimique issue des aliments est convertie pour assurer nos fonctions vitales. Une partie de cette énergie maintient notre température corporelle, sous forme de chaleur (Q), une autre permet le mouvement et le travail musculaire (W), tandis que le surplus est stocké sous forme de réserves. Les réserves (glycogène, graisses) font partie de l'énergie interne du corps (ΔU). Quand vous mangez, vous augmentez ΔU. Quand vous dépensez cette énergie (travail musculaire + chaleur), ΔU diminue.
Julius Robert von Mayer (1814-1878) et Hermann von Helmholtz (1821-1894) formulent indépendamment en 1847 le principe universel de conservation de l'énergie. Dans sa forme la plus simple, l'énergie totale se réduit à la somme de l'énergie cinétique et de l'énergie potentielle, et cette somme demeure constante : \[ \Large E_{\text{totale}} = E_c + E_p = \text{constante} \] \(\displaystyle E_c = \text{énergie cinétique (J)}\), \(E_p = \text{énergie potentielle (J)}\).
Ce que dit la loiL'énergie cinétique et l'énergie potentielle se transforment l'une en l'autre sans jamais perdre un seul joule en chemin. Ce que l'une gagne, l'autre le perd. Leur somme, elle, ne varie pas. Le pendule qui oscille : en haut de sa trajectoire, le pendule s'arrête un instant : son énergie cinétique est nulle, mais son énergie potentielle est maximale. En bas, sa vitesse est maximale : l'énergie potentielle est devenue cinétique.
La balançoire : quand vous êtes au point le plus haut, vous êtes chargé d'énergie potentielle. En descendant, celle-ci se transforme en vitesse, donc en énergie cinétique. C'est pourquoi vous remontez de l'autre côté : la cinétique redevient potentielle.
La pomme qui tombe de l'arbre : immobile sur sa branche, elle ne possède que de l'énergie potentielle. En chutant, celle-ci se convertit progressivement en énergie cinétique. Juste avant de toucher le sol, toute l'énergie potentielle initiale est devenue cinétique.
Le skieur sur un tremplin : en haut, son énergie est presque entièrement potentielle. En dévalant la pente, il gagne de la vitesse : l'énergie potentielle se transforme en cinétique. Au moment du saut, c'est cette énergie cinétique qui le porte dans les airs.
En 1853, William Rankine (1820-1872) introduit le terme d'énergie potentielle pour désigner cette énergie stockée, en opposition à l'énergie actuelle (cinétique) d'un corps en mouvement. L'énergie potentielle gravitationnelle est l'énergie que possède un corps du fait de sa position dans un champ de pesanteur. Plus un objet est élevé, plus il peut acquérir de vitesse en tombant, comme si la hauteur était un réservoir d'énergie en attente, comme le montre cette équation : \[ \Large E_p = m\,g\,h \] \(E_p = \text{énergie potentielle (J)},\; m = \text{masse (kg)}\), \(g \approx 9{,}81\ \text{N·kg}^{-1} = \text{intensité de la pesanteur}\), \(h = \text{hauteur (m)}\)
Ce que dit l'équationCette équation nous dit que chaque objet élevé porte en lui une énergie endormie, patiente et inexorable. Plus la masse est lourde, plus la hauteur est grande, plus l'énergie stockée est importante. C'est l'énergie de l'immobilité dangereuse : prête à bondir, patiente mais puissante. Le barrage hydroélectrique : l'eau accumulée en hauteur dans le lac de retenue possède une énorme énergie potentielle. Pour mesurer la puissance de cette énergie en attente, imaginez la disparition soudaine du mur du barrage : l'eau libérée dévasterait tout sur son passage.
La chute d'eau naturelle : une cascade n'est pas qu'un beau spectacle. L'eau qui tombe de plusieurs dizaines de mètres libère l'énergie potentielle accumulée, creusant le rocher à la base et créant des tourbillons puissants.
Le poids d'horloge : dans une horloge comtoise, on remonte les poids. En descendant lentement, ils libèrent leur énergie potentielle pour entretenir le mouvement du balancier et faire tourner les aiguilles.
Le saut à l'élastique : en montant sur le pont, vous accumulez de l'énergie potentielle. En sautant, elle se transforme en vitesse (énergie cinétique). L'élastique, en s'étirant, convertit à son tour cette énergie en énergie potentielle, avant de vous renvoyer vers le haut (énergie cinétique).
James Clerk Maxwell (1831-1879) publie en 1865 son mémoire A Dynamical Theory of the Electromagnetic Field, où il unifie électricité et magnétisme. Il s'appuie sur les travaux de Michael Faraday (1791-1867) sur les champs et les lignes de force, et sur ceux d'André-Marie Ampère (1775-1836). Maxwell formule alors 20 équations à 20 inconnues utilisant des notations complexes et un modèle mécanique de l'éther. Ce n'est que plus tard, vers 1884, que Oliver Heaviside (1850-1925) et Josiah Willard Gibbs (1839-1903) les réécrivent sous la forme vectorielle compacte et élégante que nous connaissons aujourd'hui. La conséquence la plus spectaculaire demeure : la vitesse des ondes électromagnétiques calculée par Maxwell coïncide avec celle de la lumière. La lumière n'est donc qu'une onde électromagnétique visible : \[ \Large \nabla \cdot \mathbf{E} = \frac{\rho}{\varepsilon_0} \quad\text{;}\quad \nabla \times \mathbf{E} = -\frac{\partial \mathbf{B}}{\partial t} \] \[ \Large \nabla \cdot \mathbf{B} = 0 \quad\text{;}\quad \nabla \times \mathbf{B} = \mu_0 \mathbf{J} + \mu_0\varepsilon_0 \frac{\partial \mathbf{E}}{\partial t} \] \(\nabla \cdot = \text{divergence (flux sortant)}\), \(\nabla \times = \text{rotationnel (tourbillon)}\), \(\mathbf{E} = \text{champ électrique}\), \(\mathbf{B} = \text{champ magnétique}\), \(\rho = \text{densité de charge}\), \(\mathbf{J} = \text{densité de courant}\), \(\varepsilon_0, \mu_0 = \text{constantes fondamentales}\)
Ce que disent les équationsCes quatre équations sont des règles fondamentales auxquelles le champ électromagnétique obéit toujours et partout. Leur symétrie révèle l'intimité profonde entre électricité et magnétisme. Elles disent qu'un champ électrique peut naître de charges ou d'un champ magnétique variable, et qu'un champ magnétique peut naître de courants ou d'un champ électrique variable. L'électroaimant : un courant électrique (\( \mathbf{J} \)) parcourant un fil crée un champ magnétique (\( \mathbf{B} \)) qui peut soulever des masses de ferraille. L'électricité devient magnétisme.
L'alternateur : en tournant, un aimant crée un champ magnétique variable (\( \frac{\partial \mathbf{B}}{\partial t} \)), ce qui produit un champ électrique (\( \mathbf{E} \)) et donc un courant. Quand vous pédalez, un petit aimant tourne à l'intérieur d'une bobine de fil de cuivre. L'aimant tourne → la bobine "voit" un champ magnétique qui change de direction et d'intensité à chaque instant → c'est ce changement de flux qui génère le courant qui allume la lampe. Toutes nos grandes sources d'électricité, qu'elles soient hydrauliques, nucléaires ou éoliennes, reposent sur le même principe : faire tourner un alternateur.
La lumière : une onde transversale électromagnétique auto-propageante. Les champs électriques et magnétiques oscillent à angle droit les uns par rapport aux autres et se propagent perpendiculairement à la direction dans laquelle ils se déplacent indéfiniment à moins d'être absorbés par la matière intermédiaire. Autrement dit, chaque type de champ (électrique et magnétique) génère l'autre afin de propager l'ensemble de la structure composite à la vitesse de la lumière.
Les ondes radio : une antenne émet des ondes car un courant oscillant (\( \mathbf{J} \) variable) crée un champ magnétique variable, qui crée un champ électrique variable, et ainsi de suite. L'onde voyage jusqu'à votre récepteur à la vitesse de la lumière.
Pressentie par Benjamin Franklin (1706-1790) dès 1747, qui observa que l'électricité ne se crée pas mais se transfère, la conservation de la charge fut formalisée un siècle plus tard comme conséquence directe des équations de James Clerk Maxwell (1831-1879) en 1865. Les expériences de Michael Faraday (1791-1867) sur l'électrolyse en 1834 avaient déjà confirmé que la charge est quantifiée et indestructible. La loi s'énonce simplement : dans un système isolé, des charges positives et négatives peuvent se neutraliser, mais jamais une charge ne surgit du néant sans qu'une charge opposée n'apparaisse ailleurs pour équilibrer la balance : \[ \Large \frac{\partial \rho}{\partial t} + \nabla \cdot \vec{J} = 0 \] \(\rho = \text{densité de charge (C/m}^3\text{)},\) \( \vec{J} = \text{densité de courant (A/m}^2\text{)},\) \( t = \text{temps (s)}\)
Ce que dit l'équationLa charge électrique est comme une balance toujours équilibrée : chaque fois qu'un poids (charge positive) est ajouté sur un plateau, un poids identique (charge négative) doit être ajouté sur l'autre. La balance peut osciller, mais jamais son équilibre global n'est rompu. L'électrisation par frottement : frottez une règle en plastique sur un pull. Des électrons (charges négatives) passent du pull à la règle. La règle se charge négativement, le pull positivement. La charge totale reste nulle : ce que l'un gagne, l'autre le perd.
La pile électrique : à l'intérieur d'une pile, des réactions chimiques séparent des charges. Les bornes + et - accumulent des charges opposées, mais la pile reste globalement neutre. Quand vous branchez un circuit, ces charges se déplacent, mais la pile ne crée ni ne détruit d'électricité : elle se contente de la faire circuler.
La foudre : un orage sépare d'énormes quantités de charges entre le bas du nuage (négatif) et le sol (positif). L'éclair rétablit brutalement l'équilibre. La charge totale avant et après l'éclair est la même.
La création de paires particule-antiparticule : en physique des particules, on peut créer un électron (charge négative) et un positron (charge positive) à partir d'un photon. La charge totale était nulle avant, elle reste nulle après.
Rudolf Clausius (1822-1888) formule en 1850 le deuxième principe et introduit en 1865 le concept d'entropie. Il résume d'une phrase célèbre l'essence des deux premiers principes de la thermodynamique : "L'énergie de l'Univers est constante" (premier principe), "l'entropie de l'Univers tend vers un maximum" (deuxième principe).
Dans un système isolé il n' y a pas d'échange de chaleur, l'entropie ne peut donc que croître ou rester constante (\(\Delta S \geq 0\)). Mais de manière générale, pour tout système échangeant de la chaleur, la variation d'entropie ne peut jamais être inférieure à la chaleur reçue divisée par la température à laquelle l'échange a lieu : \[ \Large dS \geq \frac{\delta Q}{T} \] \(S = \text{entropie (J/K)},\) \(\delta Q = \text{chaleur échangée avec l'extérieur (J)},\) \(T = \text{température absolue de la source qui fournit cette chaleur (K)}\)
Ce principe est le seul en physique qui distingue le passé du futur. La chaleur coule spontanément du chaud vers le froid, jamais l'inverse. Un château de cartes parfaitement ordonné a une faible entropie ; une fois écroulé, son entropie augmente. Le deuxième principe dit que, dans l'Univers, on ne peut pas remonter le temps pour réordonner ce qui a été dispersé. Le glaçon qui fond dans un verre : l'eau chaude et le glaçon forment un système déséquilibré. Le glaçon fond, la température s'uniformise. L'entropie augmente. Jamais vous ne verrez un verre d'eau tiède produire spontanément un glaçon.
La tasse qui se brise : elle tombe, se casse en mille morceaux. L'entropie augmente brutalement. Les morceaux ne se rassembleront jamais d'eux-mêmes pour reformer la tasse intacte.
Le café qui refroidit : il cède sa chaleur à l'air ambiant jusqu'à atteindre la température de la pièce. L'entropie totale (café + air) augmente. Le café ne se réchauffera pas tout seul en puisant la chaleur de l'air.
Notre vieillissement : notre corps se dégrade, nos cellules perdent leur capacité à se régénérer. L'ordre apparent qui nous maintient en vie n'est qu'une illusion locale : il est maintenu en puisant sans cesse de l'ordre dans notre environnement (nourriture, oxygène) et en rejetant du désordre (chaleur, déchets). Quand ce fragile équilibre s'effondre, l'entropie de notre corps rejoint inexorablement celle de l'Univers qui, elle, n'a cessé d'augmenter.
Une protoétoile : en s'effondrant sous son propre poids, elle se réchauffe. On a donc un transfert de "froid" vers "chaud" ? Non, car il ne s'agit pas d'un échange thermique spontané, mais d'un effondrement gravitationnel qui libère de l'énergie. L'entropie totale (étoile + rayonnement émis) augmente malgré tout. Le deuxième principe ne s'applique jamais à un sous-système isolé, mais à l'Univers entier. Localement, l'ordre peut augmenter (une étoile, un être vivant), mais c'est toujours au prix d'un désordre encore plus grand ailleurs.
Josef Stefan (1835-1893) établit expérimentalement en 1879 que la puissance rayonnée par un corps chaud est proportionnelle à la puissance quatrième de sa température absolue. Son élève, Ludwig Boltzmann (1844-1906), démontre cette loi théoriquement en 1884 en utilisant les principes de la thermodynamique et la théorie de Maxwell sur le rayonnement électromagnétique. Cette loi fondamentale relie la température d'un corps à l'énergie qu'il émet sous forme de rayonnement : \[ \Large P = \sigma \, T^4 \] \(\displaystyle P = \text{puissance rayonnée par unité de surface (W/m}^2\text{)}\), \(\displaystyle \sigma \approx 5{,}67 \times 10^{-8}\ \text{W·m}^{-2}\text{·K}^{-4} = \text{constante de Stefan-Boltzmann}\), \(\displaystyle T = \text{température absolue (K)}\)
Ce que dit l'équationTout corps dont la température est supérieure au zéro absolu (0 Kelvin soit −273,15 °C) émet un rayonnement. Plus il est chaud, plus il rayonne, et cette augmentation n'est pas linéaire : si vous doublez la température, la puissance rayonnée est multipliée par seize. Le filament d'une ampoule : porté à environ 2500°C (soit ~2800 K), il émet une lumière blanche et une chaleur intense. Si sa température baissait de moitié (1400 K), la puissance rayonnée chuterait d'un facteur 16 : l'ampoule serait à peine rouge sombre.
Le Soleil : sa surface est à ~5500°C (5778 K). Chaque mètre carré de sa surface rayonne une puissance colossale de 63 millions de watts. Après avoir traversé 150 millions de kilomètres d'espace, il n'arrive plus que ~1360 W/m² au sommet de notre atmosphère. Au sol, dans les meilleures conditions (Soleil au zénith, ciel sans nuage), l'ensoleillement maximal est ~1000 W/m². C'est cette énergie, malgré la distance, qui éclaire et réchauffe notre planète.
Un fer à repasser : à 200°C (473 K), il rayonne dans l'infrarouge, invisible à l'œil nu. Vous sentez la chaleur sans voir la lumière. S'il était chauffé à 800°C (1073 K), il deviendrait rouge cerise.
Le corps humain : à 37°C (310 K), nous émettons un rayonnement infrarouge. Les caméras thermiques le captent pour "voir" dans l'obscurité ou détecter de la fièvre.
Ludwig Boltzmann (1844-1906) propose en 1877 une interprétation révolutionnaire de l'entropie. À une époque où l'existence même des atomes est farouchement débattue, Boltzmann fait le pari que la matière est composée de particules invisibles. Il postule que l'entropie d'un système mesure le nombre de façons différentes d'agencer ses constituants microscopiques sans changer son aspect macroscopique. Plus il y a de configurations possibles, plus l'entropie est grande. L'état d'équilibre n'est alors rien d'autre que l'état le plus probable, celui qui correspond au plus grand désordre : \[ \Large S = k \ln W \] \(S = \text{entropie (J/K)},\) \(k \approx 1{,}38 \times 10^{-23}\ \text{J/K} = \text{constante de Boltzmann},\) \(W = \text{nombre de microétats correspondant à un macroétat donné (sans dimension)}\) \(\ln = \text{logarithme naturel (base } e \approx 2,718\text{)}\)
Ce que dit l'équationL'équation relie le monde visible au monde invisible des atomes. L'entropie n'est qu'un compteur : elle dénombre toutes les configurations microscopiques (positions et vitesses des particules) qui donnent le même aspect macroscopique (même température, même pression, même volume). Plus ce nombre est grand, plus l'entropie est élevée. Le désordre est simplement l'état qui possède le plus de versions invisibles possibles. Le jeu de cartes : prenez un jeu neuf, parfaitement ordonné par couleur et par valeur. C'est un état très particulier (\(W = 1\) pour cet ordre précis). Battez les cartes. Le paquet désordonné obtenu correspond à un nombre gigantesque de configurations possibles (\(W \approx 10^{67}\)). L'entropie a formidablement augmenté.
Les pièces de monnaie : lancez 100 pièces. Obtenir 50 piles et 50 faces est très probable car il existe d'innombrables combinaisons qui y mènent. Obtenir 100 piles n'est possible que d'une seule façon. Le désordre (mélange équilibré) est l'état le plus probable.
La disparition d'un parfum : ouvrez un flacon de parfum dans une pièce. Les molécules odorantes, d'abord concentrées (\(W\) faible), se dispersent irréversiblement (\(W\) énorme). Elles ne reviendront jamais dans le flacon : le désordre est trop probable.
Max Planck (1858-1947) propose en 1900 une hypothèse révolutionnaire pour résoudre l'énigme du corps noir, un objet théorique qui absorbe toute la lumière qu'il reçoit. Les physiciens de l'époque avaient proposé des formules qui fonctionnaient soit pour les basses fréquences, soit pour les hautes, mais aucune n'était universelle. Planck, cherchant une explication, suppose que l'énergie des oscillateurs qui émettent la lumière ne peut prendre que des valeurs discrètes, multiples d'un quantum élémentaire : \[ \Large E = h \nu \] \(E = \text{énergie du quantum (J)},\) \(h \approx 6{,}626 \times 10^{-34}\ \text{J·s} = \text{constante de Planck},\) \(\nu = \text{fréquence de l'onde (Hz)}\)
Ce que dit l'équationL'énergie ne s'écoule pas en continu comme l'eau. Elle vient par quanta, comme un sucre vendu en morceaux qu'on ne peut pas diviser. Mais tous les morceaux n'ont pas la même taille : ceux de la lumière bleue (haute fréquence) sont plus gros et plus énergétiques que ceux de la lumière rouge (basse fréquence). L'effet photoélectrique : sous l'effet de la lumière, un métal peut libérer des électrons. Paradoxalement, une lumière rouge, quelle que soit son intensité, ne produit aucun effet, tandis qu'une lumière violette, même ténue, suffit à les arracher.
Les couleurs des néons : dans un tube au néon, les atomes excités retombent à leur état fondamental en émettant des photons. Chaque photon est un quantum de lumière, dont l'énergie est exactement la différence entre deux niveaux d'énergie de l'atome. Chaque gaz (néon, argon, mercure) a une empreinte digitale colorée. Chaque couleur correspond à des quanta d'énergie bien spécifiques.
Les lasers : le rayonnement laser est produit par des sauts quantiques synchronisés entre atomes. Tous les photons émis ont exactement la même énergie (même couleur) et voyagent en phase. Cette cohérence parfaite, impossible avec une source classique, découle directement de la quantification de l'énergie.
Henri Becquerel (1852-1908) découvre la radioactivité en 1896 en observant que l'uranium émet spontanément un rayonnement invisible. Pierre (1859-1906) et Marie Curie (1867-1934) isolent le polonium et le radium, démontrant que certains éléments se transforment naturellement en d'autres. Ernest Rutherford (1871-1937) et Frederick Soddy (1877-1956) établissent entre 1900 et 1902 la loi fondamentale de la désintégration radioactive. Le nombre de noyaux qui se désintègrent par unité de temps est proportionnel au nombre de noyaux encore présents : \[ \Large N(t) = N_0 \, e^{-\lambda t} \quad\text{;}\quad t_{1/2} = \frac{\ln 2}{\lambda} \] \( N(t) = \text{nombre d'atomes à l'instant } t\), \( N_0 = \text{nombre d'atomes initial}\), \( \lambda = \text{constante de désintégration}\), \( t_{1/2} = \text{demi-vie}\)
Ce que disent les équationsChaque noyau instable a une probabilité constante de se désintégrer à chaque instant, mais le moment exact est imprévisible. La loi n'est valable qu'en moyenne, sur un grand nombre de noyaux. Le temps de demi-vie est la durée nécessaire pour que la moitié des noyaux se soient désintégrés, indépendamment de la quantité initiale. La datation au carbone 14 : les organismes vivants absorbent du carbone 14 (radioactif) pendant leur vie. À leur mort, cet apport cesse et le carbone 14 se désintègre avec une demi-vie de 5730 ans. En mesurant la proportion restante, on peut dater des échantillons anciens jusqu'à 50000 ans.
Le radon dans les maisons : ce gaz radioactif issu du radium présent dans le sol s'infiltre dans les habitations. Sa demi-vie de 3,8 jours est assez courte pour qu'il se désintègre avant d'être inspiré, mais assez longue pour s'accumuler dans les caves mal ventilées.
La médecine nucléaire : on injecte au patient un traceur radioactif (comme le technétium 99m, demi-vie ~6 heures). Sa désintégration émet un rayonnement détecté par une caméra pour visualiser un organe. La demi-vie est choisie assez courte pour limiter l'exposition.
Les centrales nucléaires : les déchets radioactifs contiennent des noyaux à très longue demi-vie (des milliers ou millions d'années). Leur dangerosité diminue avec le temps selon la même loi exponentielle, mais sur des échelles de temps qui défient l'imagination.
Hendrik Lorentz (1853-1928) établit en 1904 les équations qui permettent de passer d'un référentiel à un autre lorsqu'on s'approche de la vitesse de la lumière. Il cherchait à expliquer pourquoi les expériences de Michelson et Morley (1887) n'avaient pas détecté le fameux "éther" censé porter la lumière. Henri Poincaré (1854-1912) donne à ces équations le nom de "transformations de Lorentz" et montre qu'elles forment un groupe mathématique cohérent. La transformation relie les coordonnées d'espace et de temps entre deux référentiels en mouvement relatif : \[ \Large t' = \gamma \left(t - \frac{v x}{c^2}\right)\quad\text{;} \quad x' = \gamma (x - v t)\quad\text{avec} \quad \gamma = \frac{1}{\sqrt{1 - \frac{v^2}{c^2}}} \] \(t, x = \text{temps et position dans le référentiel fixe},\) \(t', x' = \text{temps et position dans le référentiel mobile},\) \(v = \text{vitesse relative (m/s)},\; c = \text{vitesse de la lumière (m/s)},\) \(\gamma = \text{facteur de Lorentz (sans dimension)}\)
Ce que disent les équationsQuand un observateur regarde un objet se déplacer très vite par rapport à lui, il mesure que le temps de cet objet s'écoule plus lentement et que ses longueurs se contractent dans la direction du mouvement. Ces effets, imperceptibles à notre échelle, deviennent énormes près de la vitesse de la lumière. Le robinet qui se ferme : imaginez un robinet qui se ferme progressivement, plus il se ferme, moins l'eau coule, et plus il se ferme lentement. \(\gamma\) mesure à quelle vitesse il se ferme.
Un train lancé à toute vitesse : si un observateur sur le quai mesure simultanément les deux extrémités d'un train en mouvement, il obtient une longueur inférieure à celle du train à l'arrêt. À nos vitesses habituelles, l'effet est imperceptible, mais à 90 % de la vitesse de la lumière, le train apparaîtrait deux fois plus court.
Albert Einstein (1879-1955) publie en septembre 1905 un court article de trois pages, "L'inertie d'un corps dépend-elle de son contenu en énergie ?", qui bouleverse notre conception de la matière. Il y établit que la masse et l'énergie sont deux faces d'une même réalité. Ce qui nous apparaît comme de la matière solide et pesante n'est en fait que de l'énergie "cristallisée", figée dans une forme stable. Inversement, toute énergie possède une inertie, une masse équivalente : \[ \Large E = mc^2 \] \(E = \text{énergie (J)},\; m = \text{masse (kg)},\; c \approx 3 \times 10^8\ \text{m/s} = \text{vitesse de la lumière dans le vide}\).
Ce que dit l'équationUn tout petit peu de matière, même totalement immobile, contient une énergie gigantesque. Un gramme de matière au repos (une goutte d'eau, un grain de sable, une miette de pain), s'il était entièrement converti en énergie, pourrait alimenter une ville de 100 000 habitants pendant une journée. La masse de notre corps : si l'on additionnait les masses des protons, neutrons et électrons qui nous constituent, on trouverait beaucoup moins que notre poids sur une balance. L'essentiel de la masse ne vient pas des particules elles-mêmes : plus de 99% de la masse d'un proton vient de l'énergie qui agite ses quarks à l'intérieur. Nous sommes de l'énergie pure confinée.
Le Soleil et les étoiles : au cœur du Soleil, 4 millions de tonnes de matière disparaissent chaque seconde, converties en pure énergie. Sans cette réserve colossale, notre étoile se serait éteinte depuis longtemps : elle n'aurait pu briller que quelques millions d'années, au lieu des 5 milliards déjà écoulés.
La bombe atomique : dans une bombe comme celle d'Hiroshima, moins d'un gramme d'uranium fut réellement transformé en énergie. Pourtant, cette infime quantité de matière libéra une puissance équivalente à 15 000 tonnes de TNT. La matière recèle une énergie insoupçonnée.
Les centrales nucléaires : la fission d'un noyau d'uranium libère de l'énergie car la masse des produits de la fission est légèrement inférieure à celle du noyau initial. Cette différence de masse, multipliée par \(c^2\), devient la chaleur qui fait tourner les turbines. Un kilogramme d'uranium enrichi produit autant d'énergie que 1 500 000 kg de charbon ou 1 000 000 kg de pétrole.
L'antimatière : quand une particule de matière rencontre son antiparticule, elles s'annihilent en pure énergie, suivant exactement \(E=mc^2\). C'est la conversion parfaite, où toute la masse devient rayonnement. C'est ainsi que fonctionnent les scanners médicaux TEP (tomographie par émission de positons).
Niels Bohr (1885-1962) publie en 1913 un modèle de l'atome qui révolutionne la physique. Il s'appuie sur le noyau de Rutherford (1911) et les quanta de Planck (1900). Classiquement, un électron tournant devrait rayonner et s'effondrer sur le noyau en un éclair. Bohr postule au contraire des orbites stables et sans rayonnement. L'électron ne change d'orbite que par saut brusque, en émettant ou absorbant un photon d'énergie précise. Cette idée explique enfin les raies spectrales : \[ \Large E_n = -\frac{13{,}6 \text{ eV}}{n^2}, \quad n = 1, 2, 3, \ldots \] \(E_n = \text{énergie de l'orbite } n \text{ (eV)},\) \(n = \text{nombre quantique principal (entier ≥ 1)},\) \( 13{,}6 \text{ eV} = \text{énergie d'ionisation de l'hydrogène}\)
Ce que dit l'équationL'atome est comme un immeuble très particulier, dont les étages ne sont pas régulièrement espacés : plus on monte, plus ils se resserrent. Un électron occupe un étage ou un autre, il n'est jamais dans les escaliers qui les relient. Pour changer d'étage, il doit absorber ou émettre un quantum de lumière dont l'énergie correspond exactement à la différence entre deux paliers. En dessous du rez-de-chaussée (\(n=1\)), il n'y a rien : c'est l'état fondamental, le plus stable. Les raies spectrales de l'hydrogène : chauffez de l'hydrogène, il émet une lumière qui, décomposée par un prisme, révèle non pas un arc-en-ciel continu mais une série de raies colorées bien séparées : une rouge, une bleu-vert, une bleue et une violette. Chaque raie correspond à un saut d'électron entre deux orbites de Bohr. Inversement, si on éclaire de l'hydrogène froid (à température ambiante) avec une lumière blanche, il absorbe ces mêmes couleurs, laissant des raies noires dans le spectre. Il en va de même pour tous les gaz : chacun possède sa signature spectrale unique. C'est ainsi que les astronomes, en analysant la lumière des étoiles, identifient les raies noires ou colorées et déterminent la composition de leurs atmosphères.
Les lampes à vapeur de sodium : l'éclairage jaune-orangé des lampadaires vient des atomes de sodium. Leurs électrons sautent entre deux niveaux d'énergie très proches, émettant une lumière quasi monochromatique (deux raies jaunes intenses). C'est la signature du sodium.
Les feux d'artifice : les couleurs des fusées viennent d'atomes excités : le strontium donne le rouge, le baryum le vert, le sodium le jaune, le cuivre le bleu. Chaque atome excité, en revenant à son état normal, émet des photons aux couleurs de ses sauts quantiques.
William Lawrence Bragg (1890-1971) établit en 1913 la condition fondamentale de la diffraction des rayons X par les cristaux. Il comprend que les plans d'atomes régulièrement espacés dans un cristal peuvent agir comme un réseau de diffraction pour les rayons X, dont la longueur d'onde est comparable aux distances interatomiques : \[ \Large n\lambda = 2d\sin\theta \] \(n = \text{ordre de diffraction (entier)}\), \(\lambda = \text{longueur d'onde des rayons X (m)}\), \(d = \text{distance entre deux plans atomiques (m)}\), \(\theta = \text{angle entre le rayon incident et le plan atomique}\)
Ce que dit l'équationLes rayons X traversent le cristal comme des éclats de lumière dans une salle pleine de miroirs. Certains reflets reviennent exactement ensemble : ils se superposent, deviennent plus intenses et allument un point brillant. Les autres reviennent décalés : leurs lueurs se brouillent ou disparaissent. Les irisations d'un CD : retournez un CD, vous voyez des couleurs arc-en-ciel. Les micro-sillons du disque, espacés régulièrement, diffractent la lumière comme les plans atomiques diffractent les rayons X. La loi de Bragg explique pourquoi telle couleur apparaît à tel angle.
La photographie de l'ADN : aux rayons X, elle révèle la croix caractéristique de la double hélice. En 1953, Rosalind Franklin (1920-1958) capture cette image qui permettra à Crick et Watson de déchiffrer la structure de la vie.
Emmy Noether (1882-1935) publie en 1918 un théorème qui révèle l'unité cachée derrière les lois de conservation. Les physiciens connaissaient déjà la conservation de l'énergie, de la quantité de mouvement ou de la charge électrique, mais sans comprendre pourquoi ces grandeurs demeuraient invariables. Noether démontre que derrière chaque loi de conservation se cache une symétrie de la nature. À toute transformation continue qui ne modifie pas les lois de la physique (qu'elle agisse sur le temps, l'espace ou les particules) correspond une grandeur qui demeure immuable : \[ \Large \frac{d}{dt}\left(\frac{\partial \mathcal{L}}{\partial \dot{q}}\right) = 0 \] \(\mathcal{L} = \text{lagrangien du système (énergie cinétique - énergie potentielle)},\) \(q = \text{position généralisée},\) \(\dot{q} = \text{vitesse généralisée}\)
Ce que dit l'équationNos lois physiques sont les mêmes partout et en tout temps. Si les lois de la physique changeaient d'un jour à l'autre ou d'un lieu à l'autre, il n'y aurait pas de science possible. L'énergie se conserve parce que les lois de la physique sont les mêmes hier et demain. La quantité de mouvement se conserve parce qu'elles sont les mêmes ici et là-bas. Le moment cinétique se conserve parce qu'il n'existe pas de direction privilégiée dans l'espace. L'invariance par translation dans le temps : une planète tourne autour du Soleil sans jamais s'arrêter. Si les lois de la gravité changeaient avec le temps, son orbite dévierait. Le fait qu'elle conserve son énergie sur des milliards d'années prouve que les lois sont immuables.
L'invariance par translation dans l'espace : une satellite dans le vide spatial, loin de toute influence, conserve sa vitesse parce que l'espace est partout semblable.
L'invariance par rotation : quand une patineuse serre les bras, elle tourne plus vite. Son "élan de rotation" (le moment cinétique) reste constant. En rapprochant sa masse de l'axe, elle diminue sa résistance à tourner, et sa vitesse augmente automatiquement pour compenser.
Albert Einstein (1879-1955) présente en novembre 1915 sa théorie de la relativité générale, une nouvelle conception de la gravitation qui bouleverse notre vision de l'espace et du temps. Ses équations de champ décrivent comment la présence de matière et d'énergie courbe l'espace-temps alentour. Ce n'est plus une force qui attire les corps, mais la géométrie elle-même qui les guide dans leurs trajectoires : \[ \Large G_{\mu\nu} + \Lambda g_{\mu\nu} = \frac{8\pi G}{c^4} T_{\mu\nu} \] \(G_{\mu\nu} = \text{tenseur d'Einstein (courbure de l'espace-temps)},\) \(g_{\mu\nu} = \text{métrique (distance dans l'espace-temps)},\) \(\Lambda = \text{constante cosmologique},\) \(T_{\mu\nu} = \text{tenseur énergie-impulsion (contenu en matière/énergie)},\) \(G \approx 6{,}67 \times 10^{-11}\ \text{m}^3\text{kg}^{-1}\text{s}^{-2} = \text{constante gravitationnelle universelle},\) \(c = 299\,792\,458\ \text{m/s} \approx 3 \times 10^8\ \text{m/s} = \text{vitesse de la lumière dans le vide}\)
Ce que dit l'équationLa masse dit à l'espace-temps comment se courber, et l'espace-temps courbé dit à la masse comment se déplacer. Les planètes suivent simplement les lignes naturelles de ce paysage courbe : elles tombent perpétuellement autour du Soleil sans jamais l'atteindre. La déviation de la lumière par le Soleil : la lumière, pourtant sans masse, suit la courbure de l'espace-temps. Lors de l'éclipse de 1919, Arthur Eddington (1882-1944) mesure que la lumière des étoiles passant près du Soleil est déviée exactement comme le prédit la relativité générale.
L'avance du périhélie de Mercure : l'orbite de Mercure tourne lentement sur elle-même (avance de 43 secondes d'arc par siècle). La relativité générale l'explique parfaitement : c'est la courbure de l'espace-temps due au Soleil qui déforme légèrement la trajectoire de la planète. La mécanique de Newton ne pouvait expliquer
Les trous noirs : quand une étoile massive s'effondre, elle courbe l'espace-temps à un point tel que rien, pas même la lumière, ne peut s'échapper. L'objet devient un trou noir, confirmé par les observations d'ondes gravitationnelles et les images de l'horizon des événements.
Les ondes gravitationnelles : quand deux masses colossales (comme des trous noirs) tournent l'une autour de l'autre, elles créent des rides dans le tissu de l'espace-temps. Ces ondulations voyagent à travers l'Univers à la vitesse de la lumière, comme les vaguelettes à la surface d'un étang après qu'on y a jeté une pierre.
Alexandre Friedmann (1888-1925) démontre en 1922 que la relativité générale ne force pas un Univers immobile : l'espace peut se dilater ou se contracter. En 1924, il généralise ses solutions à un Univers infini à courbure négative, devenant ainsi le premier à parler d'« Univers en expansion ». Ses équations décrivent comment le facteur d'échelle \(a(t)\) (la « taille » de l'Univers) évolue en fonction de son contenu en matière et en énergie : \[ \Large H^2 \equiv \left( \frac{\dot{a}}{a} \right)^2 = \frac{8\pi G \rho}{3} - \frac{k}{a^2} \] \(a(t) = \text{facteur d'échelle (sans dimension)},\) \(H = \text{taux d'expansion (s⁻¹)},\) \(\rho = \text{densité d'énergie (kg/m³)},\) \(G = \text{constante gravitationnelle},\) \(k = \text{paramètre de courbure spatiale}\)
Ce que dit l'équationL'Univers ne peut pas être statique. L'équation dit à quelle vitesse il s'étend, et comment cette vitesse dépend de ce qu'il contient (matière, rayonnement) et de sa forme (courbure). Selon la densité, trois destins sont possibles. Univers fermé (k > 0) : si la densité est suffisante, la gravité finira par l'emporter. L'expansion ralentit, s'arrête, puis s'inverse. L'Univers s'effondre sur lui-même dans un Big Crunch.
Univers plat (k = 0) : la densité est exactement à la valeur critique. L'expansion ralentit sans jamais s'arrêter, tendant asymptotiquement vers zéro. C'est l'équilibre parfait entre l'élan initial et la gravité.
Univers ouvert (k < 0) : la densité est trop faible pour arrêter l'expansion. L'Univers s'étend éternellement, à une vitesse qui tend vers une constante non nulle. Les galaxies s'éloignent indéfiniment, l'espace devient de plus en plus froid et vide.
Louis de Broglie (1892-1987) propose en 1924 une idée audacieuse qui sera vérifiée expérimentalement trois ans plus tard. Puisque la lumière, que l'on croyait onde, peut se comporter comme une particule (photon), pourquoi la matière, que l'on croyait particule, ne se comporterait-elle pas aussi comme une onde ? Il postule qu'à toute particule matérielle est associée une onde, dont la longueur d'onde est inversement proportionnelle à sa quantité de mouvement : \[ \Large \lambda = \frac{h}{p} \] \(\lambda = \text{longueur d'onde associée (m)},\) \(h \approx 6{,}626 \times 10^{-34}\ \text{J·s} = \text{constante de Planck},\) \(p = \text{quantité de mouvement de la particule (kg·m/s)}\)
Ce que dit l'équationTout ce qui a une quantité de mouvement possède aussi une longueur d'onde. Plus une particule est massive ou rapide, plus sa longueur d'onde est petite. Pour les objets du quotidien, elle est si infime qu'elle est imperceptible. Mais pour les électrons ou les atomes, elle devient mesurable : la matière révèle alors sa nature ondulatoire. Les irisations des ailes de papillon : les magnifiques couleurs changeantes de certaines ailes de papillon (comme le Morpho) ne viennent pas de pigments mais de structures microscopiques en forme de réseau. Quand la lumière les frappe, elle interfère comme sur un CD. Ce phénomène est purement ondulatoire. Or, si l'on remplace la lumière par un faisceau d'électrons, on observe exactement le même type d'irisations sur un écran : les électrons rebondissent sur le réseau cristallin et interfèrent entre eux, prouvant leur nature ondulatoire.
Le microscope électronique : la longueur d'onde d'un électron accéléré peut être des milliers de fois plus petite que celle de la lumière visible. En utilisant des électrons plutôt que des photons, on peut observer des détails bien plus fins, jusqu'à l'échelle atomique. C'est le principe du microscope électronique.
L'onde de matière d'un atome : des atomes entiers, refroidis près du zéro absolu, peuvent interférer comme des ondes. On réalise aujourd'hui des expériences où des atomes de rubidium passent à travers deux fentes et produisent des franges d'interférence, prouvant que la dualité onde-particule s'applique à toute la matière.
Les ondes de matière d'une balle de tennis : une balle de tennis de 50 g lancée à 100 km/h a une longueur d'onde de Broglie d'environ \(10^{-34}\) m, soit un milliard de fois plus petite qu'un proton. Aucun instrument ne peut détecter une ondulation aussi infime. La nature ondulatoire de la matière n'apparaît qu'à l'échelle microscopique.
Erwin Schrödinger (1887-1961) publie en 1926 l'équation fondamentale de la mécanique quantique. Il s'appuie sur l'idée de Louis de Broglie (1892-1987) que la matière a une nature ondulatoire, et cherche une équation qui décrive comment ces ondes évoluent. Contrairement aux ondes classiques (son, vagues), l'onde de Schrödinger n'est pas une onde matérielle mais une onde de probabilité : sa valeur en chaque point indique la probabilité de trouver la particule à cet endroit. L'équation dit comment cette onde se propage, se déforme, interfère avec elle-même au fil du temps : \[ \Large i\hbar \frac{\partial \Psi}{\partial t} = \hat{H} \Psi \] \(i = \text{unité imaginaire},\) \(\hbar = \frac{h}{2\pi} \approx 1{,}055 \times 10^{-34}\ \text{J·s} = \text{constante de Planck réduite},\) \(\Psi = \text{fonction d'onde (probabilité)},\) \(\hat{H} = \text{opérateur hamiltonien (énergie totale du système)}\)
Ce que dit l'équationComme les lois de Newton prédisent où sera une planète demain, l'équation de Schrödinger prédit comment évolue le nuage de probabilité qui entoure une particule. Elle ne donne pas une position précise, elle établit une carte des endroits où la particule a des chances de se trouver. Cette carte s'étale, ondule, se froisse comme un drap qu'on agite. Et tant qu'on ne regarde pas, la particule est partout sur la carte. C'est le fait d'observer qui la force à choisir une place. Jetez une pierre dans un étang : une onde unique se propage en cercles concentriques. Si cette onde rencontre une barrière percée de deux trous, elle passe à travers les deux ouvertures. De l'autre côté, les deux nouvelles ondes se superposent, créant des zones où l'eau s'agite et d'autres où elle reste calme. L'équation de Schrödinger décrit le même phénomène pour une particule : son onde de probabilité peut franchir deux obstacles à la fois et interférer avec elle-même.
Saupoudrez du sable fin sur une plaque métallique : faites vibrer la plaque avec un archet. Le sable se rassemble sur les lignes où la plaque ne bouge pas (les nœuds), formant des figures géométriques (cercles, carrés, étoiles) selon la fréquence. Ces figures sont l'image des orbitales atomiques. Les électrons dans un atome forment des motifs tout aussi précis, mais en trois dimensions.
Regardez un CD sous la lumière : des irisations arc-en-ciel apparaissent. La lumière se réfléchit sur les micro-sillons et interfère avec elle-même, certaines couleurs s'annulant, d'autres se renforçant. L'équation de Schrödinger prédit qu'un faisceau d'électrons produit exactement les mêmes figures en traversant un cristal. La matière ondule comme la lumière.
Une bouffée de fumée dans une pièce : impossible de dire où ira chaque molécule. Pourtant, la tache de fumée s'étale selon une loi précise, comme une tache d'encre dans l'eau. L'équation de Schrödinger décrit cet étalement, mais pour une onde de probabilité. La particule quantique est partout à la fois dans la tache, comme la fumée.
L'effet tunnel : lancez une balle contre un mur, elle rebondit. Dans le monde quantique, une particule peut parfois traverser le mur sans l'endommager. Son onde de probabilité ne s'arrête pas brutalement à l'obstacle, elle s'y infiltre et s'affaiblit progressivement, comme un son qui traverse une cloison. Si le mur est assez mince, une infime partie de l'onde émerge de l'autre côté. Cette onde résiduelle, c'est la probabilité que la particule ait traversé.
Werner Heisenberg (1901-1976) énonce en 1927 un principe fondamental qui impose une limite absolue à ce que nous pouvons connaître du monde quantique. Contrairement à la physique classique on ne peut pas mesurer une grandeur avec une précision infinie. Heisenberg montre que certaines paires de grandeurs (comme la position et la quantité de mouvement) sont liées par un flou fondamental. Plus on connaît précisément l'une, moins on peut connaître l'autre. Ce n'est pas une imperfection de nos instruments, mais une propriété intrinsèque de la réalité : la nature elle-même est floue à cette échelle. Si \(\Delta x\) petit alors \(\Delta p\) grand : \[ \Large \Delta x \cdot \Delta p \geq \frac{\hbar}{2} \] \(\Delta x = \text{incertitude sur la position (m)},\) \(\Delta p = \text{incertitude sur la quantité de mouvement (kg·m/s)},\) \(\hbar = \frac{h}{2\pi} \approx 1{,}055 \times 10^{-34}\ \text{J·s}\)
Ce que dit l'équationDans le monde de l'infiniment petit, il y a une limite infranchissable. On ne peut pas tout savoir d'une particule : ce n'est pas un défaut de nos mesures, c'est ainsi que le monde est fait. La particule n'a pas de position et de vitesse précises, ce n'est qu'un nuage de possibles et c'est en l'observant que nous forçons ce nuage à se condenser en une réalité précise. Photographiez un oiseau avec un temps de pose très court : vous verrez nettement ses plumes (position précise), mais vous ne pourrez pas savoir à quelle vitesse il volait (vitesse inconnue). Allongez le temps de pose : l'oiseau devient une traînée floue (position incertaine), mais cette traînée vous révèle sa vitesse. Vous ne pouvez pas avoir les deux à la fois.
Les microscopes électroniques : pour voir un objet minuscule, il faut l'éclairer avec une onde de courte longueur d'onde, plus courte que l'objet lui-même. Cela demande des électrons rapides, donc une grande quantité de mouvement. Mais plus on connaît précisément la quantité de mouvement de ces électrons, moins on peut connaître leur position. Le principe d'incertitude fixe la limite ultime de ce que l'on peut voir : il y a un flou fondamental qui empêche de connaître à la fois la position et la vitesse de ce que l'on observe.
Un funambule tient un long balancier pour rester stable : plus son balancier est long (position très stable), plus il lui faut de temps pour le déplacer (vitesse lente et incertaine). Pour changer rapidement de position (vitesse rapide), il doit raccourcir son balancier, mais alors il vacille davantage (position instable). On ne peut pas avoir à la fois une position parfaitement stable et une grande agilité.
L'électron dans l'atome : pensez à quelqu'un qui cherche à tenir un bâton en équilibre vertical sur sa main. Pour le garder stable, il doit constamment bouger sa main, jamais trop lentement, jamais trop vite, toujours dans un flou perpétuel. L'électron, lui, est condamné à un flou perpétuel ; trop précis, il chuterait sur le noyau ; trop rapide, il s'évaderait. Le principe d'incertitude le maintient dans un nuage, ni trop près, ni trop loin, stabilisant ainsi toute la matière du réel.
Le principe d'incertitude de Werner Heisenberg (1901-1976) en 1927, interdit qu'un système soit parfaitement immobile : si sa position était fixe, son impulsion serait infinie, ce qui est impossible. Par conséquent, même l'état de plus basse énergie (le vide) conserve une activité résiduelle, des fluctuations d'énergie inévitables. Cette énergie est suffisante pour faire surgir du vide des paires de particules virtuelles, qui s'annihilent aussitôt : \[ \Large \Delta E \cdot \Delta t \geq \frac{\hbar}{2} \] \(\Delta E = \text{incertitude sur l'énergie (J)},\) \(\Delta t = \text{incertitude sur le temps (s)},\) \(\hbar = \frac{h}{2\pi} \approx 1{,}055 \times 10^{-34}\ \text{J·s} = \text{constante de Planck réduite}\)
Ce que dit l'équationLe vide n'est pas vide. Il grouille de particules fantômes qui empruntent de l'énergie au futur pour exister un instant, puis la restituent. Plus l'intervalle de temps est court, plus la fluctuation d'énergie peut être grande. C'est ainsi que naissent les paires matière-antimatière, et toutes les danses invisibles qui peuplent le rien. L'effet Casimir : deux miroirs parfaitement parallèles placés dans le vide s'attirent faiblement. Pourquoi ? Entre les plaques, l'espace est trop étroit pour accueillir toutes les ondes du vide ; seules les plus courtes y survivent. À l'extérieur, toutes les ondes dansent librement. Le vide extérieur, plus riche, pousse donc les plaques l'une contre l'autre.
La mer toujours agitée : même par temps calme, la mer n'est jamais parfaitement plate. Des vaguelettes infinitésimales, des ridules, des fluctuations incessantes parcourent sa surface. C'est l'énergie du vide : une agitation permanente, même quand tout semble immobile.
La poussière dans un rayon de soleil : dans une pièce sombre, on ne voit rien. Mais qu'un rayon de soleil traverse l'air, et des myriades de poussières dansantes apparaissent, révélant une agitation jusque-là invisible. Le vide est cette pièce sombre, et les particules virtuelles sont ces poussières que seul un rayonnement très intense peut révéler.
Paul Dirac (1902-1984) publie en 1928 une équation qui marie mécanique quantique et relativité restreinte. L'équation de Schrödinger, valable pour les électrons lents, échoue près de la vitesse de la lumière. Dirac construit une équation qui traite temps et espace à égalité. Sa solution est bouleversante : la fonction d'onde devient un spineur à quatre dimensions qui contient, sans qu'il les ait cherchés, des états d'énergie négative. Ces états, loin d'être une erreur, révèlent l'existence de l'antimatière, découverte en 1932 par Carl Anderson (1905-1991) : \[ \Large i\hbar \frac{\partial \psi}{\partial t} = \left( c \boldsymbol{\alpha} \cdot \mathbf{p} + \beta m c^2 \right) \psi \] \(\psi = \text{spineur à quatre composantes},\) \(\boldsymbol{\alpha},\) \(\beta = \text{matrices de Dirac (4×4)},\) \(\mathbf{p} = \text{opérateur impulsion},\) \(m = \text{masse de l'électron},\) \(c = \text{vitesse de la lumière},\) \(\hbar = \text{constante de Planck réduite}\)
Ce que dit l'équationL'équation décrit parfaitement l'électron dans l'atome et fait apparaître son spin, cette propriété de rotation interne, sans qu'on ait besoin de l'inventer. Mais elle cache bien plus. Comme l'équation \(x^2 = 4\) a deux réponses (+2 et -2), l'équation de Dirac a deux familles de solutions. À chaque électron d'énergie positive correspond un jumeau d'énergie négative. Loin d'être un simple artefact, ces solutions annoncent l'existence d'un autre monde : celui de l'antimatière. Tenez-vous devant un miroir : vous voyez votre jumeau, identique en tout point, mais dont la main droite est votre main gauche. L'équation de Dirac prédit pour chaque particule de matière un double en antimatière, symétrique mais inversé. L'électron et le positron sont comme vous et votre reflet : mêmes propriétés, charges opposées.
Une vague à la surface de l'eau : elle a une crête (énergie positive), mais elle ne peut exister sans un creux (énergie négative) qui la précède ou la suit. L'équation de Dirac montre que la matière (crête) et l'antimatière (creux) sont inséparables. Quand crête et creux se rencontrent, ils s'annulent : la surface redevient plate, et l'énergie de la vague se dissipe en pure énergie.
La une pellicule photo : l'image que nous voyons (le positif) n'est qu'une moitié de l'histoire. Son négatif existe aussi, latent, inversé, prêt à révéler son double si on l'expose à la lumière. L'équation de Dirac fonctionne comme ce négatif : elle montre qu'à chaque particule de matière (image positive) correspond une antiparticule (son négatif) qui sommeille dans le vide. Donnez assez d'énergie, et ce négatif s'incarne en une véritable particule d'antimatière.
Georges Lemaître (1894-1966) publie en 1927 un article où il déduit des équations de la relativité générale que l'Univers doit être en expansion, et que la vitesse d'éloignement des galaxies est proportionnelle à leur distance. En 1929, l'astronome américain Edwin Hubble (1889-1953) confirme cette loi par l'observation. L'écriture de l'équation est une convention moderne, attribuée collectivement à ces deux pères fondateurs : \[ \Large v = H_0 \times d \] \(v = \text{vitesse de récession de la galaxie (km/s)},\) \(d = \text{distance de la galaxie (Mpc)},\) \(H_0 \approx 70\ \text{km/s/Mpc} = \text{constante de Hubble-Lemaître (taux d'expansion actuel)}\)
Ce que dit l'équationImaginez des points répartis sur un ballon qu'on gonfle : chaque point s'éloigne des autres, et plus on gonfle le ballon, plus vite les points semblent s'éloigner. Ce n'est pas les points qui se déplacent mais la surface du ballon qui enfle. L'équation nous dit que l'espace se dilate, emportant les galaxies comme des points dessinés sur un ballon qu'on gonfle. Enfournez une pâte à gâteau avec des raisins secs : la pâte gonfle, écartant les raisins les uns des autres. Chaque raisin voit ses voisins s'éloigner. Plus deux raisins sont éloignés dans la pâte, plus vite ils semblent s'éloigner. Pourtant, ils ne bougent pas dans la pâte : c'est la pâte elle-même qui se dilate.
Des fourmis sur un élastique : étirez l'élastique, les fourmis s'éloignent les unes des autres sans marcher. Une fourmi regardant sa voisine la verra s'éloigner d'autant plus vite qu'elles étaient loin au départ. C'est exactement ce que mesure Hubble avec les galaxies.
Un ruban de caoutchouc avec des marques tous les centimètres : étirez-le à un rythme constant, par exemple 1% par seconde. La marque n°10 et la n°11, distantes d'1 cm au départ, s'éloignent à 0,01 cm/s. La marque n°1 et la n°100, distantes de 99 cm, s'éloignent à 0,99 cm/s. Ce 1% par seconde est notre constante de Hubble : elle fixe le taux d'expansion.
Oskar Klein (1894-1977) et Walter Gordon (1893-1939) publient en 1926 la version relativiste de l'équation de Schrödinger pour les particules de spin nul. Schrödinger lui-même l'avait dérivée le premier, mais l'avait abandonnée car elle ne donnait pas le bon spectre de l'atome d'hydrogène, le spin de l'électron, alors inconnu, lui manquait. L'équation de Klein-Gordon découle simplement de la relation relativiste \(E^2 = p^2c^2 + m^2c^4\) à laquelle on applique les règles de la mécanique quantique : \[ \Large \left( \Box + \frac{m^2 c^2}{\hbar^2} \right) \psi = 0 \quad \text{avec} \quad \Box = \frac{1}{c^2}\frac{\partial^2}{\partial t^2} - \nabla^2 \] \(\Box = \text{opérateur d'Alembertien (ou d'alembertien)},\) \(\nabla^2 = \frac{\partial^2}{\partial x^2} + \frac{\partial^2}{\partial y^2} + \frac{\partial^2}{\partial z^2} = \text{laplacien (courbure spatiale)},\) \(m = \text{masse de la particule (kg)},\) \(c = \text{vitesse de la lumière (m/s)},\) \(\psi = \text{champ (ou fonction d'onde)},\) \(\hbar = \frac{h}{2\pi} \approx 1{,}055 \times 10^{-34}\ \text{J·s} = \text{constante de Planck réduite}, \) \(\frac{\partial^2}{\partial t^2} = \text{dérivée partielle seconde par rapport au temps}\)
Ce que dit l'équationAlors que l'équation de Dirac décrit la matière (électrons, protons, neutrons), celle de Klein-Gordon décrit les messagers des forces : les bosons, qui transmettent les interactions entre particules. Elle s'applique aux particules de spin entier, appelées bosons, comme les pions (qui assurent la cohésion du noyau atomique) et le fameux boson de Higgs, découvert au CERN en 2012. Une balançoire oscille régulièrement : L'équation dit que son ombre au sol se balance en sens inverse, comme si une balançoire jumelle invisible accompagnait son mouvement. La nature fonctionne ainsi : à chaque particule ordinaire (la balançoire réelle) correspond une antiparticule (son ombre) qui lui est identique mais inversée dans le temps ou la charge.
Une bulle de savon : c'est sa tension de surface qui la maintient ronde. Plus la bulle est petite, plus sa pression interne est forte et plus elle résiste aux déformations. L'équation de Klein-Gordon suit une logique inverse : plus la particule est massive, plus son champ est difficile à courber, comme une banquise épaisse et rigide, alors qu'un champ léger serait fluide et ondulant comme l'eau liquide.
Une pierre qui tombe dans l'eau : l'onde de pression se propage à une vitesse finie, environ celle du son dans l'eau. Si l'eau était incompressible comme un bloc de béton, cette onde irait plus vite, n'importe quel point de l'eau ressentirait instantanément le choc. Dans l'équation de Klein-Gordon, la masse joue ce rôle : sans masse, les ondes du champ voyagent à la vitesse de la lumière ; avec masse, elles ralentissent. Plus la particule est massive, plus son champ est "lourd" à mettre en mouvement, plus ses ondes se propagent lentement.
Alfred Lotka (1880-1949) publie en 1925 un modèle décrivant des oscillations dans des réactions chimiques. Indépendamment, Vito Volterra (1860-1940) établit en 1926 les mêmes équations pour expliquer une observation surprenante : pendant la Première Guerre mondiale, la pêche ayant diminué dans l'Adriatique, la proportion de poissons prédateurs avait augmenté. Volterra montra que l'interaction entre proies et prédateurs produit naturellement des cycles, sans aucune influence extérieure. Ces deux équations couplées décrivent la danse éternelle des populations qui s'équilibrent sans jamais se stabiliser : \[ \Large \frac{dx}{dt} = \alpha x - \beta xy, \quad \frac{dy}{dt} = \delta xy - \gamma y \] \( x = \text{population de proies}\), \( y = \text{population de prédateurs}\), \( t = \text{temps}\), \( \alpha = \text{taux de croissance des proies}\), \( \beta = \text{taux de prédation}\), \( \delta = \text{taux de conversion proies-prédateurs}\), \( \gamma = \text{taux de mortalité des prédateurs}\)
Ce que disent les équationsLes équations de Lotka-Volterra racontent l'histoire sans fin de la sélection naturelle en action. Quand les proies abondent, les prédateurs prospèrent et se multiplient. Trop nombreux, ils épuisent leurs proies, qui déclinent. Affamés, les prédateurs diminuent à leur tour, laissant les proies se reconstituer. Et le cycle recommence, perpétuellement. Les lynx et les lièvres du Canada : les registres de fourrures de la Compagnie de la Baie d'Hudson, sur près d'un siècle, montrent des cycles réguliers d'environ dix ans. Les pics de lynx suivent toujours les pics de lièvres avec un décalage caractéristique.
Les poissons de l'Adriatique : les requins et autres prédateurs étaient plus nombreux dans les pêches italiennes juste après la guerre. Moins de pêche signifiait plus de proies, donc plus de prédateurs.
Les pucerons et les coccinelles : dans un jardin, l'explosion des pucerons au printemps attire les coccinelles. Celles-ci se multiplient, dévorent les pucerons, puis disparaissent faute de nourriture, permettant une nouvelle colonie de pucerons. Chaque jardinier observe sans le savoir les équations de Lotka-Volterra.
Les épidémies et les populations immunisées : Les personnes saines jouent le rôle des proies, les malades infectieux celui des prédateurs. L'épidémie s'éteint quand assez de personnes sont immunisées, comme les prédateurs meurent quand les proies viennent à manquer.
John von Neumann (1903-1957) distingue en 1932 deux types d'évolution en mécanique quantique. Là où l'équation de Schrödinger décrit un état quantique pur et isolé (fonction d'onde pure), l'équation de von Neumann décrit un ensemble statistique d'états, tenant compte de l'incertitude sur l'état réel du système. Elle s'applique là où le système quantique rencontre le monde extérieur, à la frontière où l'infiniment petit bascule vers notre réalité classique : \[ \Large i\hbar \frac{\partial \hat{\rho}}{\partial t} = [\hat{H}, \hat{\rho}] \] \(\hat{\rho} = \text{opérateur densité (état statistique du système)},\) \(\hat{H} = \text{hamiltonien (énergie totale)},\) \([\hat{H}, \hat{\rho}] = \hat{H}\hat{\rho} - \hat{\rho}\hat{H} = \text{commutateur},\) \(\hbar = \text{constante de Planck réduite}\)
Ce que dit l'équationL'équation de von Neumann est l'outil qui permet de suivre un système quantique quand il n'est plus seul, quand il touche au monde extérieur. Elle décrit comment les propriétés étranges du quantique (superposition, intrication) s'estompent peu à peu pour laisser place à la réalité classique que nous connaissons. Un jeu de cartes : parfaitement ordonné (état pur), il représente un système quantique dont on connaît tout. Battez les cartes : vous perdez l'ordre exact, mais vous savez qu'il y a une probabilité 1/52 pour chaque carte à chaque position (52!≈8.07×1067). C'est l'opérateur densité. L'équation décrit comment ce mélange évolue si on continue à battre.
Dans une pièce silencieuse : chaque mot se détache nettement, c’est un état pur. Dans une foule bruyante, les voix se mêlent et ne forment plus qu’un brouhaha : c’est un mélange statistique. L’équation de von Neumann décrit comment ces voix quantiques se brouillent au contact de l’environnement, jusqu’à devenir indiscernables.
Une goutte d'encre tombée dans un verre d'eau : au début, elle forme une tache bien localisée (état pur). Puis elle diffuse, s'étale, se dilue jusqu'à obtenir une couleur uniforme (mélange). L'équation décrit cette diffusion de l'information quantique dans l'environnement, c'est la décohérence.
Les ombres chinoises sur un mur : une seule lampe projette une ombre nette (état pur). Plusieurs lampes allumées créent des ombres multiples, superposées, floues (mélange). L’équation raconte comment un système quantique, bombardé par diverses interactions, voit son état clair et cohérent se brouiller peu à peu, jusqu’à devenir un simple nuage statistique.
Hideki Yukawa (1907-1981) propose en 1935 une idée simple et puissante : si les protons du noyau devraient se repousser à cause de leur charge électrique, c’est qu’il existe forcément une colle qui les maintient ensemble avec les neutrons. Il propose alors une nouvelle particule, le méson, qui crée une force d’adhésion extrêmement intense. Cette force, appelée interaction forte, est l'une des quatre forces fondamentales de la nature. Elle se manifeste par un défaut de masse : la masse d'un noyau est toujours inférieure à la somme des masses de ses constituants, la différence étant convertie en énergie selon la célèbre formule d'Einstein : \[ \Large E_b = \left(Z m_p + N m_n - M\right) c^2 \] \( E_b = \text{énergie de liaison du noyau (J)}\), \( Z = \text{nombre de protons}\), \( N = \text{nombre de neutrons}\), \( m_p = \text{masse du proton}\), \( m_n = \text{masse du neutron}\), \( M = \text{masse du noyau}\), \( c = \text{vitesse de la lumière}\)
Ce que dit l'équationL’équation raconte que le noyau possède une réserve d’énergie cachée, et que cette énergie vient précisément de la masse qui a disparu lorsque les nucléons se sont collés. Un mur de briques cimentées : un mur pèse un peu moins que la somme des briques + du ciment + de l’eau séparés. C’est comme si le mur avait stocké un peu de l’énergie de ses briques pour se solidifier. Tant qu’il garde cette énergie, il reste collé. Pour le défaire, il faut lui rendre ce qu’il a absorbé.
Comprimez un ressort : il emmagasine de l'énergie potentielle. Relâchez-le, il restitue cette énergie. Dans un noyau, les nucléons sont compressés par l'interaction forte. Si vous les séparez, il faut fournir de l'énergie pour vaincre cette attraction. L'énergie de liaison, c'est l'énergie du ressort nucléaire.
Le noyau d'uranium est comme un ressort hyper-comprimé : ses 235 nucléons (protons et neutrons) sont maintenus ensemble par une force colossale. Pourtant, le noyau pèse 0,1% de moins que la somme de ses 235 constituants pesés séparément. Ce défaut de masse s'est transformé en énergie de liaison, le ciment qui empêche le noyau d'éclater sous la répulsion des protons. Quand un neutron vient frapper ce noyau, il le déstabilise, le ressort se détend, et cette énergie de liaison est libérée brutalement sous forme de chaleur : c'est la fission nucléaire.
Claude Shannon (1916-2001) publie en 1948 un article fondateur qui donne naissance à la théorie de l'information. Jusqu'alors, la notion d'information était vague et subjective. Shannon propose une définition mathématique précise : l'information contenue dans un message est liée à son degré de surprise ou d'incertitude. Plus un événement est imprévisible, plus il apporte d'information. Il emprunte à la physique le terme d'entropie pour nommer cette mesure, formalisant ainsi ce qui allait devenir le langage universel des communications numériques : \[ \Large H = -\sum_{i} p_i \log_2 p_i \] \(H = \text{entropie de Shannon (en bits)},\) \(p_i = \text{probabilité d'apparition du symbole } i,\) \(\sum_{i} \text{désigne la somme sur tous les symboles possibles}\)
Ce que dit l'équationL'entropie de Shannon est un compteur de surprises. Un message prévisible (comme une pièce truquée qui tombe toujours sur pile) a une entropie nulle : il n'apprend rien. Un message imprévisible a une entropie élevée : chaque symbole apporte beaucoup d'information. Le \(\log_2\) mesure cette information en bits, la monnaie universelle du numérique. Cette limite est fondamentale : on ne peut pas compresser un message en dessous de son entropie sans perdre de l'information [citation:4]. Les couleurs du ciel : un ciel bleu et uniforme presque entièrement prévisible, porte une entropie faible car il n’apporte guère d’information nouvelle, tandis qu’un ciel chaotique aux nuages tourbillonnants, dont on ne peut anticiper ni la pluie ni le vent, possède une entropie élevée : plus le ciel surprend, plus il informe.
Les forêts : une forêt de pins issue d’une monoculture, où chaque arbre répète le précédent, présente une entropie faible car la scène offre peu de variété et presque aucune surprise, tandis qu’une forêt primaire en automne, foisonnante de couleurs, de formes et de densités différentes, manifeste une entropie élevée : la diversité des possibles y est telle que chaque regard révèle une configuration nouvelle, comme un message visuel riche en information.
La mer : une mer d’huile, dont l’état futur est presque certain, correspond à une entropie faible, alors qu’une mer agitée, où la forme de la prochaine vague reste imprévisible, traduit une entropie élevée : plus la surface surprend, plus elle délivre d’information.
Les mots de passe sécurisés : un mot de passe "123456" a une entropie très faible : il est prévisible. Un mot de passe comme "G7k#9pL$2" a une entropie élevée car chaque caractère est imprévisible. L'entropie de Shannon mesure exactement le nombre de bits de sécurité de votre mot de passe.
Les fichiers ZIP : quand vous compressez un fichier texte en ZIP, l'ordinateur analyse la fréquence des lettres. Le "e" très fréquent est codé sur moins de bits que le "z" rare. La taille minimale théorique du fichier compressé ne peut pas descendre en dessous de l'entropie de Shannon. C'est la limite absolue, quel que soit le logiciel.
Edward Lorenz (1917-2008) découvre en 1963 un phénomène qui bouleverse notre conception de la prédiction. En simulant un modèle simplifié de la convection atmosphérique, il s'aperçoit qu'une infime variation des conditions initiales produit rapidement des résultats totalement différents. Il appelle cela l'effet papillon : un battement d'ailes d'un papillon au Brésil peut-il déclencher une tornade au Texas ? Le système est pourtant déterministe (ses équations sont parfaitement connues), mais son évolution est imprévisible à long terme à cause de cette sensibilité extrême . C'est la naissance de la théorie du chaos, qui envahit aujourd'hui tous les domaines, de la météo à la biologie en passant par l'économie : \[ \Large \frac{dx}{dt} = \sigma (y - x),\quad \frac{dy}{dt} = x (\rho - z) - y,\quad \frac{dz}{dt} = xy - \beta z \] \(\displaystyle x = \text{taux de convection},\) \(y = \text{gradient de température horizontal},\) \(z = \text{gradient de température vertical},\) \(\sigma, \rho, \beta = \text{paramètres du système (nombres sans dimension)}\)
Ce que disent les équationsLe chaos n'est pas le désordre. C'est un ordre caché, une danse déterministe en trois dimensions, si sensible que le moindre souffle change la chorégraphie. On connaît les lois, mais on ne peut prédire l'avenir car on ne connaîtra jamais l'état initial avec une précision infinie. L'incertitude grandit exponentiellement avec le temps. Le jeu de billard : frappez une boule de billard contre une autre. Une infime différence dans l'angle de tir peut l'envoyer vers des trajectoires radicalement différentes au bout de quelques rebonds. Pourtant, les lois de la physique sont parfaitement connues. C'est le chaos : des lois parfaites, mais un avenir impossible à prévoir.
Les flocons de neige : deux flocons de neige ne sont jamais identiques. Chacun raconte l'histoire chaotique de sa chute dans l'atmosphère, avec ses rencontres avec des poussières, des variations de température, d'humidité. Pourtant, les lois de la cristallisation sont déterministes. Le chaos atmosphérique les rend uniques.
Les embouteillages : un bouchon se forme soudain sur une autoroute fluide, sans raison apparente. Un conducteur a freiné un peu trop fort, le suivant un peu plus, et l'onde de ralentissement s'est amplifiée jusqu'à bloquer la circulation. Phénomène déterministe, mais imprévisible à grande échelle.
Les orbites des planètes : le système solaire est-il stable ? On sait aujourd'hui que l'interaction gravitationnelle entre planètes peut engendrer un chaos à très long terme. L'orbite de Pluton, par exemple, est chaotique sur des échelles de millions d'années. Impossible de prédire sa position exacte dans 100 millions d'années.
Les battements du cœur : avant une crise cardiaque, le rythme cardiaque devient anormalement régulier. Un cœur sain a un battement légèrement chaotique, capable de s'adapter. La perte de ce chaos est un signe de danger. Le chaos peut être synonyme de santé.
François Englert, Robert Brout et Peter Higgs publient en 1964 trois articles qui résolvent une énigme : pourquoi des particules comme les bosons W et Z ont-elles une masse alors que la symétrie de la théorie l'interdit ? Leur idée : l'espace est rempli d'un champ invisible, le champ de Higgs. En le traversant, les particules acquièrent une masse, un peu comme un corps qui se déplace dans un fluide y ressent une inertie. Ce mécanisme prédit une particule, le boson de Higgs, découvert au CERN en 2012 : \[ \Large m = \frac{g v}{\sqrt{2}} \] \(m = \text{masse de la particule (kg)},\) \(g = \text{constante de couplage au champ de Higgs (sans dimension)},\) \(v \approx 246\ \text{GeV} = \text{valeur moyenne du champ de Higgs dans le vide}\)
Ce que dit l'équationLe champ de Higgs est comme une mélasse invisible qui remplit tout l'espace. Les particules élémentaires qui traversent cette mélasse y ressentent une résistance, une inertie : c'est ce que nous appelons la masse. Plus une particule interagit fortement avec le champ, plus elle est lourde. Certaines, comme le photon, n'interagissent pas du tout et restent sans masse. Le boson de Higgs est une ondelette dans le champ cosmique, comme les rides qui courent sur un lac quand on y jette un caillou. La foule dense dans un couloir : vous marchez dans un couloir vide : vous allez vite, sans effort (particule sans masse). Si le couloir est rempli d'une foule dense, vous avancez lentement, comme si vous étiez devenu plus lourd. La foule, c'est le champ de Higgs. Plus vous interagissez avec elle, plus votre progression est ralentie, plus votre "masse" est grande.
Le skieur dans la neige fraîche : un skieur sur une piste damée glisse vite (sans masse). Dans de la neige fraîche et profonde (le champ de Higgs), il s'enfonce, ralentit, doit forcer pour avancer : il acquiert une inertie, une masse. Plus la neige est épaisse, plus l'interaction est forte, plus la masse est grande.
La toile d'araignée : imaginez une toile invisible tendue dans tout l'espace. C'est le champ de Higgs. Une petite mouche (l'électron) s'y prend légèrement et ralentit à peine. Un gros bourdon (le quark top) s'y empêtre totalement et reste presque immobile. Le boson de Higgs, c'est la vibration qui parcourt la toile quand on la heurte.
Le photon et la lumière : le photon glisse à travers le champ de Higgs comme s'il n'existait pas, sans jamais s'y accrocher. Il reste éternellement sans masse, filant à la vitesse de la lumière.
Robert May (1936-2020) publie en 1976 un article retentissant dans lequel il montre qu'une équation d'apparence anodine, utilisée en dynamique des populations, peut produire des comportements d'une complexité insoupçonnée. L'équation logistique décrit l'évolution d'une population avec une ressource limitée. Selon la valeur d'un unique paramètre \(r\), elle peut converger vers un point fixe, osciller entre plusieurs valeurs, ou devenir totalement chaotique. Pourtant, elle ne contient ni bruit, ni hasard. Cette simplicité apparente peut cacher un abîme de complexité : \[ \Large x_{n+1} = r \, x_n (1 - x_n) \] \(x_n = \text{population à l'année } n \text{ (entre 0 et 1)},\) \(r = \text{taux de croissance (paramètre sans dimension)},\) \(n = \text{année (entier)}\)
Ce que dit l'équationL'équation logistique est un résumé de la vie : naître, croître, mais aussi se heurter aux limites du monde. Selon la valeur de \(r\), le destin de la population change du tout au tout. Quand \(r\) dépasse une certaine valeur (environ 3,57), l'ordre bascule dans le chaos. Les cycles se dédoublent indéfiniment jusqu'à devenir imprévisibles, comme si la nature elle-même hésitait. Un feu tricolore règle le flux de voitures : à faible trafic, tout est fluide (point fixe). Si le trafic augmente, des embouteillages réguliers apparaissent (cycle). Si la densité devient critique, le trafic devient totalement imprévisible, avec des bouchons surgissant sans raison apparente.
La propagation d'une épidémie : un virus se propage dans une population. Si son taux de contagion est faible, l'épidémie s'éteint. S'il est moyen, elle revient par vagues régulières. S'il est élevé, les vagues deviennent imprévisibles, avec des pics soudains impossibles à anticiper.
Le marché boursier : un marché financier suit des règles simples (achat, vente). Selon le degré de confiance des investisseurs ou la spéculation, il peut être calme, suivre des cycles prévisibles, ou sombrer dans le chaos. Les krachs arrivent sans prévenir.
Les lucioles synchronisent leurs éclairs : si elles sont peu nombreuses, elles clignotent toutes ensemble (point fixe). Si leur densité augmente, elles peuvent se diviser en deux groupes qui alternent (cycle 2). Plus nombreuses encore, leurs éclairs deviennent totalement imprévisibles (chaos). Pourtant, chaque luciole suit une règle simple : imiter ses voisines.
Les criquets : naturellement solitaires, ils ne fuient pas leurs semblables, ils les évitent simplement par comportement instinctif. Mais au-delà d'un certain nombre, les contacts physiques deviennent inévitables malgré tout. Ces stimulations tactiles répétées, notamment sur les pattes arrière, provoquent une libération de sérotonine dans leur système nerveux, amorçant le basculement vers un comportement grégaire. La transition s'emballe alors d'elle-même : les individus déjà transformés en attirent de nouveaux, la densité grimpe, et le processus migratoire s'enclenche de façon irréversible tant que la surpopulation perdure.
En 1974, Stephen Hawking (1942-2018) formule une prédiction troublante. On croyait les trous noirs éternels et absolument noirs : rien, pas même la lumière, ne pouvait s'en échapper. En combinant mécanique quantique et relativité générale, Hawking montre que les trous noirs émettent pourtant un faible rayonnement thermique et finissent par s'évaporer lentement. Ce phénomène, baptisé rayonnement de Hawking, jette un pont inédit entre gravité et physique quantique, et confère aux trous noirs une température, d'autant plus élevée que leur masse est faible : \[ \Large T = \frac{\hbar c^3}{8\pi G k_B M} \] \(T = \text{température de Hawking (K)},\) \(\hbar = \text{constante de Planck réduite (J·s)},\) \(c = \text{vitesse de la lumière (m/s)},\) \(G = \text{constante gravitationnelle (m³·kg⁻¹·s⁻²)},\) \(k_B = \text{constante de Boltzmann (J/K)},\) \(M = \text{masse du trou noir (kg)}\)
Ce que dit l'équationPlus un trou noir est petit, plus il est chaud. Un trou noir stellaire est glacé, tandis qu'un trou noir microscopique serait brûlant. En émettant ce rayonnement, le trou noir perd de la masse, donc rétrécit, donc devient plus chaud, donc rayonne plus vite, un emballement qui le mène à une fin explosive. Le kayakiste et le courant : un kayakiste rame désespérément pour remonter une rivière dont le courant s'accélère vers une chute. Au plus près de la chute, le courant devient trop fort : il recule irrésistiblement vers le gouffre, incapable de s'en échapper. C'est l'horizon du trou noir. Pourtant, de l'autre côté, on entend parfois un faible bruit : des paires de bulles naissent spontanément ; l'une tombe, l'autre remonte. Ce sont les particules de Hawking.
La cascade et ses bulles : au pied d'une cascade puissante, l'eau tombée forme un tumulte. La plupart des bulles sont entraînées vers le fond, mais certaines, plus légères, remontent à la surface et s'échappent. L'horizon du trou noir est comme la ligne où l'eau bascule : en deçà, tout est perdu ; au-delà, quelques particules (les bulles) peuvent encore fuir. Le grondement continu de la cascade, c'est le rayonnement de Hawking.
Le mur du son : un avion franchit le mur du son, créant un front d'onde derrière lequel aucune onde sonore ne peut remonter le flux supersonique. C'est un horizon acoustique, jumeau de celui d'un trou noir. Et tout comme le trou noir émet un rayonnement, ce front sonore émet des phonons (particules de son) par un effet Hawking sonore, aujourd'hui observé en laboratoire.
Jacob Bekenstein (1947-2015) propose en 1972 une idée audacieuse : les trous noirs doivent avoir une entropie. Bekenstein se demandait combien d'histoires différentes pouvaient aboutir au même trou noir ; deux trous noirs en apparence identiques peuvent cacher des passés radicalement distincts. La réponse est un nombre astronomique et sa formule dit que ce nombre dépend de la surface de l'horizon, pas du volume intérieur. En 1974, Stephen Hawking (1942-2018) raffina cette idée. \[ \Large S = \frac{k_B A}{4 \ell_P^2} \quad \text{avec} \quad \ell_P = \sqrt{\frac{\hbar G}{c^3}} \] \(S = \text{entropie du trou noir (J/K)},\) \(k_B = \text{constante de Boltzmann (J/K)},\) \(A = \text{aire de l'horizon (m²)} \text{ - la surface, pas le volume},\) \(\ell_P \approx 1{,}6 \times 10^{-35}\ \text{m} = \text{longueur de Planck}\)
Ce que dit l'équationLe nombre d'histoires qui aboutissent au même trou noir est colossal. Elles sont inscrites sur la surface de son horizon et non à l'intérieur de son volume. C'est le principe holographique : notre Univers en trois dimensions pourrait n'être qu'une image projetée depuis une surface à deux dimensions. Le trou noir en est la version miniature, tout ce qui tombe en lui s'inscrit sur sa sphère comme sur un disque dur cosmique. Le volume n'est qu'une illusion ; l'horizon garde trace de tout. La bibliothèque de Babel : imaginez une bibliothèque contenant tous les livres possibles. Si on les jetait un par un dans un trou noir, leur matière (papier, encre, reliure) disparaîtrait à jamais derrière l'horizon. Mais l'information qu'ils contiennent (chaque lettre, chaque mot, chaque histoire) ne serait pas perdue. Elle serait inscrite sur la surface de l'horizon, codée dans sa géométrie. La matière est engloutie, le sens de l'histoire demeure gravé.
Une bulle de savon : sa surface est irisée, elle reflète toutes les couleurs. À l'intérieur, il n'y a rien qu'un peu d'air sans histoire. L'horizon du trou noir est comme cette bulle : toute sa richesse est en surface ; l'intérieur n'est qu'un vide apparent.
Le Modèle Standard est l'aboutissement d'un demi-siècle de travaux qui unifie trois forces fondamentales (électromagnétisme, force faible, force forte) et décrit toute la matière connue : douze particules (quarks et leptons), quatre messagers (photon, W, Z, gluons) et le boson de Higgs. Le lagrangien du Modèle Standard condense toutes les particules et les forces du monde microscopique : \[ \Large \mathcal{L}_{SM} = -\frac{1}{4}F_{\mu\nu}F^{\mu\nu} + i\bar{\psi}\not{D}\psi + \bar{\psi}_i y_{ij}\psi_j\phi + |D_\mu\phi|^2 - V(\phi) \] \(\mathcal{L}_{SM} = \text{lagrangien du Modèle Standard},\) \(F_{\mu\nu} = \text{tenseur décrivant les champs de force},\) \(\psi = \text{champs de matière (quarks, leptons)},\) \(\not{D} = \text{dérivée covariante (couplage matière-forces)},\) \(y_{ij} = \text{couplages de Yukawa (masses des particules)},\) \(\phi = \text{champ de Higgs},\) \(V(\phi) = \text{potentiel du Higgs (brisure de symétrie)}\)
Ce que dit l'équationLe lagrangien du Modèle Standard est le mode d'emploi de l'infiniment petit. Quatre chapitres : les forces qui parcourent l'espace, la matière qui s'y couple, le champ de Higgs qui donne leur masse aux particules et comment la nature rend massifs les messagers de la force faible sans alourdir la lumière. Le lagrangien du Modèle Standard : c'est la partition d'un orchestre symphonique. Chaque instrument (particule) a sa partition : les cordes (quarks) jouent une mélodie, les cuivres (leptons) une autre, les percussions (bosons) marquent le rythme des forces. Le chef d'orchestre (le champ de Higgs) donne le la, et l'ensemble produit la musique de l'Univers. Une seule partition, des centaines de musiciens, une symphonie cosmique.
L'ADN : en quelques molécules, il contient tout le plan de construction d'un être vivant. Le lagrangien du Modèle Standard est l'ADN cosmique : en quelques lignes, il code la fabrication de toute la matière. Les quarks sont les nucléotides, les forces sont les enzymes qui les lient, le champ de Higgs est la machinerie cellulaire qui exprime le code.
Une boîte de Lego : des briques de toutes formes (les particules), des connecteurs (les bosons), et des plans pour construire des modèles (les forces). Pourtant, une seule notice suffit pour tout bâtir, du château à la fusée. C'est le lagrangien : le manuel d'assemblage unique de l'Univers.