En mathématiques et plus précisément, dans la théorie des systèmes dynamiques, l'entropie métrique, ou entropie de Kolmogorov (appelée également en anglais measure-theoretic entropy) est un outil développé par Kolmogorov vers le milieu des années 1950, issu du concept probabiliste d'entropie de la théorie de l'information de Shannon. Kolmogorov montra comment l'entropie métrique peut être utilisée pour montrer si deux systèmes dynamiques ne sont pas conjugués. C'est un invariant fondamental des systèmes dynamiques mesurés. En outre, l'entropie métrique permet une définition qualitative du chaos : une transformation chaotique peut être vue comme une transformation d'entropie non nulle.
Présentons tout d'abord le cadre mathématique dans lequel on se place. est un espace de probabilité, et est une application mesurable, qui représente la loi d'évolution d'un système dynamique à temps discrets sur l'espace des phases X. On impose à f de préserver la mesure, c'est-à-dire que . Partant d'un état initial x, on peut définir la suite de ses itérés par f : L'ensemble des états par lesquels passe le système s'appelle l'orbite de x.
Si l'on se donne une partition finie α de X constituée d'ensembles mesurables et un état initial x, les états fn(x) ( ) par lesquels le système passe tombent chacun dans une des parties de la partition α. La suite de ces parties fournit de l'information sur l'état initial x. L'entropie correspond à la quantité moyenne d'information apportée par une itération. La construction de l'entropie métrique est un processus qui se déroule en trois étapes, que nous allons expliciter ci-dessous. Dans un premier temps, on définit l'entropie d'une partition α (information moyenne issue de la connaissance de la partie de α dans laquelle se situe un point de x). Puis, on définit l'entropie h(f,α) de la transformation f relativement à la partition α (information moyenne apportée par une itération). Enfin, l'entropie métrique h(f) est la borne supérieure des entropies de f relativement aux partitions de X.
Soit α une partition finie de X en ensembles mesurables. Un point est d'autant mieux localisé qu'il se situe dans une partie de faible mesure μ(A). Ceci justifie l'introduction de la fonction information définie par :
c'est-à-dire I(α)(x) = − logμ(A) si .
L'entropie de la partition α est la moyenne de I(α) :
On prend 0log0 égal à 0. Si α et β sont deux partitions mesurables de X, on définit le joint de α et β, la plus petite partition plus fine que α et β : . On dit que β est plus fine que α, et on note si tout élément de A de α s'écrit comme union d'éléments de β.
L'entropie d'une partition vérifie les propriétés intuitives suivantes :
La première propriété signifie que l'information apportée par la connaissance simultanée des positions des états du système relativement à deux partitions est inférieure à la somme des informations apportées relativement à chacune des partitions. La deuxième propriété provient du fait que f préserve la mesure.
α est une partition mesurable. On définit l'entropie h(f,α) de la transformation f relativement à α par :
On peut voir la transformation f comme le passage d'un jour au suivant lors d'une expérience. Au temps zéro, on ne parvient pas à distinguer tous les états, on regroupe les états non distinguables par paquets, on forme de cette manière une partition α. représente ainsi tous les résultats possibles au bout de n jours. h(f,α) est donc l'information moyenne quotidienne que l'on obtient en réalisant l'expérience.
La limite définie existe bien. Si on note , alors la suite est sous-additive car :
On a utilisé respectivement les deux propriétés de la section précédente. admet donc une limite.
L'entropie métrique de f, notée h(f) est la borne supérieure des entropies de f relativement aux partitions finies mesurables de X
h(f) est éventuellement infinie.