La théorie des systèmes dynamiques cherche à modéliser des processus qui évoluent dans le temps afin de décrire leur comportement à long terme. Relativement simple à l’époque de Newton, cette théorie s’est considérablement complexifiée, notamment avec la mise en évidence des phénomènes chaotiques.

UNE NAISSANCE LIÉE À L’ASTRONOMIE

La théorie des systèmes dynamiques est née avec l’étude du mouvement des planètes en astronomie. Au xvne siècle, Kepler et Galilée fournissent d’importants résultats qualitatifs, puis Newton formalise les lois de Kepler sur les mouvements des planètes et les observations de Galilée (mécanique newtonienne). Les mathématiciens développent cette théorie à l’aide de méthodes analytiques, faisant émerger l’analyse dynamique. Cependant, à la fin du xixe siècle, en tentant de résoudre le « problème des trois corps », Poincaré montre qu’il n’en existe pas de solutions générales (en soulignant l’existence de solutions apériodiques) et développe un certain nombre d’outils d’ordre topologique qui seront à la base de la théorie moderne des systèmes dynamiques. Liapounov, avec sa théorie de la stabilité, et Birkhoff, avec ses nombreuses contributions en dynamique topologique, fondent cette nouvelle théorie qualitative des systèmes dynamiques. Cela aboutira à la théorie des bifurcations ou à celle du chaos.
DÉFINITION
La théorie des systèmes dynamiques (dont l’initiateur est Poincaré) a pour objet de modéliser les processus qui évoluent dans le temps et de pouvoir ainsi étudier leur comportement. Ces processus peuvent être des phénomènes physiques, biologiques, environnementaux, économiques ou encore financiers. Un système dynamique est fondamentalement ce que l’on appelle un « espace des phases » (ou « espace des états »), c’est-à-dire l’espace de tous les états possibles du système considéré, muni d’une équation d’évolution qui décrit l’évolution temporelle de l’état du système. On distingue essentiellement deux types de systèmes dynamiques: les systèmes à temps continu (la variable temps évolue dans R) et les systèmes à temps discret (la variable temps évolue dans N). Pour les premiers, l’équation d’évolution prend la forme d’une équation différentielle ou d’une équation aux dérivées partielles, alors que dans le second cas elle se présente comme une application de l’espace des phases dans lui-même.
LA NOTION DE STABILITÉ
La théorie des systèmes dynamiques cherche à comprendre les propriétés qualitatives et statistiques de l’évolution à long terme d’un système, et plus particulièrement la notion de stabilité. L’étude de ces systèmes a mis en évidence deux grands types de comportement, que l’on retrouve dans de très nombreuses situations: les phénomènes quasi périodiques et les phénomènes hyperboliques (ou chaotiques). L’histoire des systèmes dynamiques a connu trois périodes bien distinctes, chacune étant caractérisée
À RETENIR
par le mathématicien qui s’est saisi du problème. La période Newton correspond à l’idée que nous disposons d’une équation différentielle et qu’il faut la résoudre. La période Poincaré stipule qu’il faut étudier le comportement qualitatif des solutions sans résoudre l’équation différentielle. Enfin, la période Andronov se distingue des deux périodes précédentes dans la mesure où nous n’avons pas d’équation différentielle mais où nous devons toujours étudier le comportement qualitatif des solutions.
ÉQUATION DIFFÉRENTIELLE ET TRANSFORMATION
Fondamentalement, la loi d’évolution d’un système dynamique peut être donnée par deux types de relation:

  • soit par une équation différentielle (une relation entre une ou plusieurs fonctions et leurs dérivées), voire une équation aux dérivées partielles (la dérivée partielle est la dérivée par rapport à l’une des variables, les autres étant gardées constantes), si l’espace des phases est en dimension infinie, décrivant l’évolution instantanée du système. La variable temps décrit l’axe réel. On dit dans ce cas-là que c’est une loi d’évolution d’un système dynamique en temps continu ;
  • soit par une transformation de l’espace des phases dans lui-même. La variable temps décrit les entiers (système dynamique en temps discret). La transformation appliquée au point représentant l’état du système au temps n donne le point représentant l’état du système au temps n+1. Comprendre l’évolution à long terme nécessite d’itérer (appliquer de nouveau) cette transformation.
    SYSTÈMES STABLES ET POINTS D’ÉQUILIBRE
    Si l’étude des systèmes dynamiques en temps discret possède de nombreux intérêts, la plupart des phénomènes physiques nécessitent d’étudier le cas du temps continu. La démarche pour étudier de tels systèmes peut se décrire essentiellement en trois étapes. On commence par rechercher des points d’équilibre du système, c’est-à-dire des solutions stationnaires ne présentant pas d’évolution temporelle. Ensuite, on étudie la stabilité autour de ces points d’équilibre. On dit qu’un équilibre est stable si une petite perturbation de cet équilibre ne l’empêche pas de revenir dans sa position d’équilibre. Dans le cas contraire, on parlera de « bifurcation ». Cette étude de la stabilité revient à regarder comment une faible perturbation sur les points d’équilibre influence l’évolution du système. On réalise enfin ce que l’on appelle un « diagramme de bifurcations », c’est-à-dire une représentation qui contient toute l’information sur la bifurcation et permet de comprendre comment le système évolue.
    • L’étude d’un système dynamique consiste à décrire le comportement à long terme d’un système qui évolue dans le temps. Si le temps est décrit par les nombres entiers, on parlera de « système dynamique à temps discret » ; s’il l’est par les réels, ce sera un « système dynamique à temps continu ». Pour étudier l’évolution d’un système à long terme, il faut d’abord en trouver les points d’équilibre puis regarder la stabilité du système autour de ces points (apparition possible de bifurcations).