Entropie métrique - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Exemples de systèmes dynamiques et calcul d'entropie

Le calcul de l'entropie métrique est facilité lorsque la borne supérieure est atteinte, i.e lorsqu'il existe une partition α telle que l'entropie métrique et l'entropie relativement à α soient confondues. À titre d'exemple, traitons le cas de l'application identité de X. Alors,

 h(id, \alpha) = \frac{1}{n}\mathcal{H}\Bigg(\bigvee_{i=0}^{n-1} id^{-i}(\alpha) \Bigg) =\frac{1}{n} \mathcal{H}(\alpha) \longrightarrow_{n \to + \infty} 0

L'identité a une entropie nulle, ce qui est prévisible en raison de son caractère peu chaotique.

Dans beaucoup de cas moins triviaux, le théorème suivant, de Kolmogorov-Sinai, est l'un des outils les plus pratiques pour calculer une entropie, car il évite de prendre la borne supérieure sur toutes les partitions mesurables de X.

Si α est une partition mesurable de X telle que la suite \Big(\bigvee_{i=0}^{n} f^{-i}(\alpha)\Big)_{n \in \N} engendre la tribu \mathfrak{M} , ou bien si f est inversible (f-1 est mesurable et préserve la mesure) et la suite \Big(\bigvee_{i=-n}^{n} f^{-i}(\alpha)\Big)_{n \in \N} engendre la tribu \mathfrak{M} alors on dit que α est génératrice.

Le théorème de Kolmogorov-Sinai affirme que si α est génératrice, alors h(f) = h(f,α).

Rotations du cercle

\mathbb{U} = \R / \Z est le cercle unité, muni de la mesure d'angle dθ. Analysons l'effet d'une rotation

f : x \mapsto a + z \mod 1

lorsque a = p / q est rationnel. Soit α une partition :

h(f, \alpha) = \lim_{n \to + \infty} \frac{1}{qn} \mathcal{H}\Bigg(\bigvee_{i=0}^{qn-1} f^{-i}(\alpha)\Bigg) = \lim_{n \to + \infty} \frac{1}{qn} \Bigg(\bigvee_{i=0}^{q-1} f^{-i}(\alpha)\Bigg) = 0

Dans le cas où a est irrationnel, on montre également que l'entropie métrique de f est nulle.

Doublement des angles

Toujours sur le cercle unité, on prend cette fois l'application

f : x \mapsto 2x \mod 1

qui double les angles. On considère la même partition

\alpha = \Big\{\Big[0, \displaystyle\frac{1}{2}\Big[, \Big[\displaystyle\frac{1}{2}, 1\Big[\Big\}

On observe que :

\alpha \vee f^{-1}(\alpha) = \Big\{\Big[0, \frac{1}{4}\Big[, \Big[\frac{1}{4}, \frac{1}{2}\Big[, \Big[\frac{1}{2}, \frac{3}{4}\Big[, \Big[\frac{3}{4},1\Big[\Big\}

Puis par récurrence, on déduit plus généralement que :

 \bigvee_{i=0}^{n-1} f^{-i}(\alpha) = \Big\{\Big[\frac{i}{2^n},\frac{i+1}{2^n}\Big[ : 0 \leq i \leq 2^n -1 \Big\}

Comme les ensembles du type \Big[\displaystyle\frac{i}{2^n},\displaystyle\frac{i+1}{2^n}\Big[ engendrent la tribu \mathfrak{M} , le théorème de Kolmogorov-Sinai montre que h(f) = h(f,α) et :

\mathcal{H}\Bigg(\bigvee_{i=0}^{n-1} f^{-i}(\alpha)\Bigg) = - \sum_{i=0}^{2^n - 1} \mu\Bigg(\Big[\frac{i}{2^n},\frac{i+1}{2^n}\Big[\Bigg) \log \mu \Bigg(\Big[\frac{i}{2^n},\frac{i+1}{2^n}\Big[\Bigg) = n \log 2

L'entropie métrique de f est donc log 2.

Décalage de Bernoulli

On dispose d'un alphabet fini \Lambda = \{1, \dots, k\} . Soit (p_i)_{1 \leq i \leq k} des nombres strictement positifs de somme 1. On assigne à chaque lettre i la probabilité m({i}) = pi d'apparition. (Λ,2Λ,m) est un espace de probabilité. On introduit l'espace des mots infinis (\Lambda^\Z, \mathfrak{M}, \mu) = \displaystyle\prod_{-\infty}^{+\infty} (\Lambda, 2^\Lambda, m) . On définit l'application décalage σ par σ(x)n = xn + 1 pour n \in \Z . (\Lambda^\Z, \mathfrak{M}, \mu, \sigma) est un système dynamique inversible. On partitionne \Lambda^\Z en \alpha = \{P_i\}_{1 \leq i \leq k} Pi est l'ensemble des mots (x_n)_{n \in \Z} tels que x0 = i. \bigvee_{i=-n}^n f^{-i}(\alpha) est la partition par les cylindres \mathcal{C}_{\lambda_{-n}, \dots, \lambda_n} = \{ (x_n) \in \Lambda^\Z : x_i = \lambda_i, -n \leq i \leq n\} . L'ensemble de ces cylindres engendrent la tribu de \Lambda^\Z et le théorème de Kolmogorov-Sinai s'applique. On calcule alors facilement :

 \mathcal{H}\Bigg( \bigvee_{i=0}^{n-1} \sigma^{-i}(\alpha) \Bigg) = - \sum_{(\lambda_0, \dots, \lambda_{n-1}) \in \Lambda^n} p_{\lambda_0}p_{\lambda_1}\cdots p_{\lambda_{n-1}} \log (p_{\lambda_0}p_{\lambda_1}\cdots p_{\lambda_{n-1}}) = - n \sum_{\lambda \in \Lambda} p_\lambda \log p_\lambda

Donc h(\sigma) = h(\sigma, \alpha) = - \displaystyle\sum_{\lambda \in \Lambda} p_\lambda \log p_\lambda .

Page générée en 0.094 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise