Le passage de l’étude d’un système physique macroscopique à l’étude microscopique de ce système n’est pas chose aisée. Au xixe siècle, des physiciens tentent de répondre à cette question en appliquant la théorie des probabilités au monde microscopique. C’est la naissance de la physique statistique.

DU MICROSCOPIQUE AU MACROSCOPIQUE

Historiquement, la physique statistique s’est fondée sur les bases de la mécanique classique. L’idée était de fournir une explication aux phénomènes macroscopiques observés à partir de l’étude des phénomènes microscopiques. En effet, dans les expériences, seules des grandeurs caractéristiques des systèmes au niveau macroscopique (température ou résistance) peuvent être mesurées. La mécanique quantique, construite bien plus tard, n’est pas nécessaire pour comprendre ce qu’est la physique statistique, même si aujourd’hui les deux sont intimement liées. Introduite essentiellement par Ludwig Boltzmann au xixe siècle pour l’étude de la cinétique des gaz, la physique statistique fut formalisée par Gibbs au début du xxe siècle. Elle a pour objet de fournir un cadre théorique permettant de passer des propriétés microscopiques de la matière, donc celles des particules (atomes, molécules, etc.), aux propriétés macroscopiques des systèmes physiques dont les particules sont les constituants.

L’ÉTAT D’ÉQUILIBRE

Une autre motivation qui a guidé la mise en place de la physique statistique est la question de l’état d’équilibre d’un système. En effet, au niveau macroscopique, seules les valeurs moyennes permettent de caractériser l’état d’équilibre du système. Mais, au niveau microscopique, les fluctuations autour de l’état d’équilibre sont parfaitement mesurables. C’est le cas pour le mouvement brownien par exemple. On définira donc l’état d’équilibre par le fait qu’une certaine probabilité reste constante au cours du temps pour tous les états microscopiques. Naturellement, le passage se fait simplement vers le niveau macroscopique et on dira qu’un système physique à l’équilibre est stationnaire, c’est-à-dire que les grandeurs macroscopiques y sont indépendantes du temps. On peut comprendre cette idée en regardant le micro-état global du système. Si ce dernier fluctue au cours du temps, il y a par contre autant de systèmes qui quittent un micro-état particulier que de systèmes qui y arrivent.

LE CONCEPT D’ENTROPIE

Il est également nécessaire de prendre en compte les interactions entre particules, qui expliquent les transitions de phase (liquéfaction d’un gaz par exemple). Une approche microscopique totalement déterministe est alors impossible, tant le nombre de degrés de liberté au niveau des particules est immense. C’est pourquoi l’approche probabiliste est la plus adaptée à cette étude. C’est avec l’utilisation de la théorie des probabilités que s’est construite la physique statistique. Et notamment, avec la notion
d’entropie statistique d’un système. C’est une fonction à plusieurs variables définie par une somme de probabilités et faisant intervenir une constante. On choisit usuellement la constante de Boltzmann, ce qui permet d’assurer l’identification avec l’entropie thermodynamique. L’entropie statistique est toujours positive, minimale pour une certitude et maximale pour des événements équiprobables. Ainsi, plus on a d’informations sur les événements, plus l’entropie est faible.

SYSTÈME ISOLÉ

Afin de définir ce qu’est un système isolé, on s’intéresse d’abord à ce qui est extérieur et intérieur au système. On définira un paramètre extérieur au système comme un paramètre fixé par une contrainte extérieure imposée au système. Il sera donc statistiquement certain, même s’il peut être entaché d’une incertitude expérimentale, négligée ici. D’un autre côté, une variable interne au système sera une variable libre de fluctuer au gré de l’agitation thermique et sera donc caractérisée par une distribution statistique. Selon les conditions, une même grandeur peut être soit un paramètre extérieur, soit une variable libre (l’énergie E d’un système si on autorise ou non les échanges avec l’extérieur par exemple). On dira alors qu’un système est isolé si l’énergie, le nombre de particules et le volume sont des paramètres extérieurs (parfois, d’autres grandeurs peuvent intervenir), ceci à des incertitudes expérimentales près. Pour des grands systèmes, on négligera ces incertitudes.

LE PRINCIPE FONDAMENTAL DE LA PHYSIQUE STATISTIQUE

Dans un système isolé, on définit la notion de microétat accessible. Un micro-état sera dit accessible s’il est compatible avec les contraintes extérieures. Ici, les micro-états accessibles seront ceux d’énergie, de nombre de particules et de volume égaux aux paramètres extérieurs. Le postulat fondamental de la physique statistique affirme alors que pour un système isolé à l’équilibre, tous les micro-états accessibles sont équiprobables. La distribution de ces micro-états sera appelée la distribution microcanonique et l’ensemble statistique correspondant l’ensemble microcanonique. On constate qu’à l’équilibre, l’entropie statistique d’un système isolé est maximale compte tenu des contraintes extérieures. On retrouve le second principe de la thermodynamique. De même, il sera possible de définir des grandeurs thermodynamiques microcanoniques, telles que la température microcanonique ou la pression microcanonique, puis de s’attaquer aux interactions entre sous-systèmes de système isolé.

À RETENIR

Expérimentalement, on ne mesure que des grandeurs macroscopiques d’un système physique. Or, pour en comprendre le fonctionnement, il faut étudier les phénomènes microscopiques. Le passage de l’un vers l’autre, du micro au macro, est l’objet de la physique statistique. Pour cela, il faut avoir recours à la théorie des probabilités. C’est donc en termes de probabilités que l’on définira l’état d’équilibre d’un système, son entropie statistique et que l’on peut postuler une condition sur les micro-états dans le cas d’un système isolé à l’équilibre.