Démonstrations du théorème du minimax - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Cet article ne fait que recenser des preuves du théorème du minimax de John von Neumann. L'énoncé du théorème ainsi qu'une présentation globale de la variété de ses démonstrations sont disponibles dans l'article principal Théorème du minimax de von Neumann auquel on se réfèrera donc.

Toutes les preuves commencent par la même remarque, selon laquelle l'inégalité \max_{Y\in\Delta_n}\min_{X\in\Delta_k}Y^TAX\leq\min_{X\in\Delta_k}\max_{Y\in\Delta_n}Y^TAX , information signalée dans l'article principal qu'on supposera donc connue ici.

Preuves par arguments de convexité

La preuve de Jean Ville

La preuve qui suit ci-dessous est une variante de celle de Jean Ville et n'utilise que des arguments de convexité élémentaires.

Supposons que l'inégalité entre le maximin et le minimax soit stricte, et introduisons une constante c strictement comprise entre ces deux réels. Si on retranche c à tous les coefficients de A, la quantité YTAX est diminuée de c pour chaque (X,Y)\in\Delta_k\times\Delta_n . Quitte à modifier A de cette façon, on peut donc supposer c = 0.


Il nous suffit ainsi de montrer qu'il est impossible que le maximin soit strictement négatif tandis que le minimax est strictement positif.


Dans l'espace des vecteurs-colonnes à n entrées, notons Cj ( 1\leq j\leq k ) les colonnes de la matrice A et Ei ( 1\leq i \leq n ) la base canonique. Introduisons K enveloppe convexe des Cj et des Ei : K est un convexe compact. Soit enfin Y1 la projection de 0 sur ce convexe fermé.


1er cas : si Y1 = 0. Ceci signifie que 0\in K . Il existe donc des réels positifs ou nuls αj et βi dont un au moins n'est pas nul et pour lesquels \sum_{1\leq j\leq k}\alpha_jC_j+\sum_{1\leq i \leq n}\beta_i E_i=0 , ce qui se réécrit \sum_{1\leq j\leq k}\alpha_jC_j=\begin{pmatrix}-\beta_1&\ldots&-\beta_n\end{pmatrix}^T\quad (*) .

Dans cette égalité il n'est pas possible que tous les αj soient nuls (cela entraînerait la nullité de tous les βi) et cela a donc un sens de considérer le vecteur X_0=({\alpha_1\over\displaystyle\sum_{1\leq j\leq k}\alpha_j}\,\,\ldots\,\,{\alpha_k\over\displaystyle\sum_{1\leq j\leq k}\alpha_j})^T . L'identité ( * ) assure alors que AX0 est à coefficients négatifs ou nuls. Chaque vecteur Y\in\Delta_n étant à coefficients positifs ou nuls, le produit matriciel YTAX0 est donc négatif ou nul. Par conséquent le maximum \max_{Y\in\Delta_n}Y^TAX_0 est lui-même négatif ou nul, et enfin le minimax, qui est lui-même inférieur ou égal à \max_{Y\in\Delta_n}Y^TAX_0 , est lui aussi négatif ou nul.


2nd cas : si Y_1\not=0 , notons Y_1=\begin{pmatrix}\gamma_1&\ldots&\gamma_n\end{pmatrix}^T . Pour chaque i, puisque Y1 est la projection de 0 sur K et que Ei est un élément de K, on peut écrire l'inégalité <Y_1-0\, ,\, Y_1-E_i>\leq 0 dont on déduit \|Y_1\|^2\leq\gamma_i  : le vecteur Y1 est donc à coefficients strictement positifs. En exploitant de même pour chaque j l'inégalité <Y_1-0\, ,\, Y_1-C_j>\leq 0, on constate que chaque <Y_1\,,\,C_j> est un réel strictement positif, et donc que le vecteur Y_1^tA=\begin{pmatrix}<Y_1\,,\,C_1>&\ldots&<Y_1\,,\,C_k>\end{pmatrix} est à coefficients strictement positifs. Il n'y a plus qu'à introduire Y_0={1\over\displaystyle\sum_{1\leq i\leq n}\gamma_i}Y_1  ; c'est un élément de Δn pour lequel le vecteur ligne Y_0^tA est à coefficients strictement positifs. On finit alors comme au premier cas : on en déduit successivement que chaque produit Y_0^tA est un réel strictement positif, puis que le minimum \min_{X\in\Delta_k}Y^TAX est strictement positif, et enfin que le maximin est lui aussi strictement positif.

Le théorème du minimax comme corollaire du théorème de dualité en programmation linéaire

On se réfèrera à l'article programmation linéaire pour l'énoncé du théorème et les notations utilisées dans l'écriture des programmes linéaires.

On note e la matrice colonne e=\begin{pmatrix}1&\ldots&1\end{pmatrix} .

On rappelle qu'en programmation linéaire, pour deux matrices de même taille u et v, on convient de noter u \leq v lorsque chaque coefficient de u est inférieur ou égal au coefficient correspondant de v.

Quitte à augmenter d'une même quantité tous les coefficients de A, on peut supposer le maximin strictement positif. On notera le maximin \alpha=\max_{X\in\Delta_k}\min_{Y\in\Delta_n}Y^TAX et le minimax \beta=\min_{Y\in\Delta_n}\max_{X\in\Delta_k}Y^TAX . Ona donc supposé que 0<\alpha\leq\beta , et on veut montrer que α = β

On remarque préalablement (c'est facile) que pour X fixé, \min_{Y\in\Delta_n}Y^TAX n'est autre que le plus grand coefficient de AX.

Soit t un réel strictement positif. On peut écrire la suite d'équivalences suivantes :

\beta\leq t \iff \exists Y\in\Delta_k avec max{entrées de Y^TA\}\leq t

\iff\exists Y avec 0\leq Y,\,e^TY=1,\,Y^TA\leq te^T

\iff\exists y avec 0\leq y,\,e^Ty={1\over t},\,y^TA\leq e^T (en posant y={Y\over t} )

Il apparaît à la suite de ce calcul que le minimax est l'inverse de la valeur du programme linéaire :

 \begin{array}{rrll} \max z = & e^Ty & &\\      s.c & A^Ty   &\leq& e\\          &  y   &\geq&0 \end{array}

(on utilise ici les notations de l'article programmation linéaire).

Un calcul similaire montre que le maximin est l'inverse de la valeur du programme linéaire :

 \begin{array}{rrll} \min w = & e^Tx & &\\      s.c & Ax   &\geq& e\\          &  x   &\geq&0 \end{array}

Le théorème de dualité en programmation linéaire garantit donc leur égalité.

Page générée en 0.243 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise