Dans ce qui suit, désigne le groupe symétrique à n! éléments, et désigne une permutation, un élément typique de
Inégalité de réarrangement — Si et si alors
Autrement dit le maximum, sur de l'application :
est atteint pour σ=Id. On a un résultat similaire pour le minimum de l'application :
ce qui signifie que le minimum est atteint pour σ=(n, n-1, n-2, ... , 3, 2, 1).
Si toutes les inégalités des hypothèses sont strictes, il n'y a égalité que pour σ=Id.
Il existe beaucoup d'applications plus ou moins concrètes de cette inégalité ; une de celles qui viennent à l'esprit en premier est qu'on a intérêt à avoir les meilleures notes yi dans les matières qui ont les plus gros coefficients xi.
On dispose d'une machine pour accomplir un ensemble de k tâches, commandées par k clients. Pour traiter la tâche n°i, la machine consomme un temps pi. La machine ne peut effectuer qu'une tâche à la fois. L'objectif est de minimiser le temps d'attente total des k clients :
où le temps d'attente du client n°m, dépend de l'ordre σ dans lequel les tâches sont présentées à la machine (la machine traite d'abord la tâche σ(1), puis σ(2), etc ... ) :
Ainsi
Alors, l'inégalité de réarrangement (et le bon sens) disent qu'il est optimal de choisir une permutation σ satisfaisant à :
Autrement dit, au supermarché, pour minimiser le temps total d'attente des clients, il faut faire passer en premier ceux qui ont le caddy le moins plein.
L'algorithme de tri suivant a pour but de déterminer l'appartenance d'éléments (individus) d'une suite à un ensemble de k catégories C1 , C2 , ... , Ck disjointes, à des fins d'indexation ou de rangement :
[10] i = 1 ; u = 0 [20] Enregistrer l'individu w [30] Tant que u = 0, faire: [40] Si ranger w dans le fichier Fi et faire u = 1 [50] i = i+1 [60] Fin tant [70] Fin
Notons X(w) le numéro de la catégorie à laquelle appartient l'individu w et T(w) le temps nécessaire à l'algorithme pour ranger w. On se convainc facilement que T est une fonction affine croissante de X (posons T = aX + b, a>0) : en effet, la boucle tant que est itérée m fois si l'individu appartient à la catégorie Cm.
On suppose que
Le coût total C(ω) de l'exécution de l'algorithme est donné par
où
est l'espérance de la variable aléatoire X. Le développement asymptotique de c(ω) découle de la loi forte des grands nombres, si l'on suppose que les individus sont tirés de la population avec remise. Le terme o(n) peut être précisé en en utilisant, par exemple, le théorème central limite, ou bien l'inégalité de Hoeffding.
L'inégalité de réarrangement (et le bon sens) disent que, dans un but d'économie, il est optimal de choisir une permutation σ satisfaisant à :
Autrement dit, il est optimal, lorsqu'on teste l'appartenance aux différentes catégories, de ranger ces catégories dans l'ordre d'importance décroissante.
Par exemple le coût le plus défavorable (resp. le plus favorable), si n = 3 et {p1 , p2 , p3 } = {0.1 ; 0.6 ; 0.3}, correspond à 132 et donne (resp. correspond à 231 et donne ).
L'inégalité de Tchebychev pour les sommes est due à Pafnouti Tchebychev. Elle découle directement de l'inégalité de réarrangement, et est un cas particulier de l'inégalité FKG ou inégalité de corrélation. Elle ne doit pas être confondue avec l'inégalité de Bienaymé-Tchebychev.
Inégalité de Tchebychev pour les sommes — Si et alors
De même, si et alors
Un problème analogue, en probabilités, est de trouver les extrémas de la quantité lorsque la loi jointe du couple (X,Y) est arbitraire, ainsi, d'ailleurs, que l'espace probabilisé sur lequel X et Y sont définies, alors que les marginales (les lois de probabilités des deux variables aléatoires X et Y), disons μ et ν, sont fixées. La solution évoque celle de l'inégalité de réarrangement, puisque le maximum est atteint, entre autres, par les deux applications croissantes X0 et Y0 définies sur à l'aide du théorème de la réciproque : pour on pose
Le minimum étant atteint, lui, pour le choix conjoint de X0 et Y1 , où, pour on pose
Hardy, Littlewood, et Polya appellent X0 et Y0 les réarrangées croissantes de μ et ν. De la même manière, Y1 est une réarrangée décroissante de ν.
A égalité presque sûre près, X0 et Y0 sont les seules applications croissantes définies sur et ayant pour lois de probabilités respectives μ et ν, Y1 étant la seule application décroissante définie sur et ayant pour loi de probabilité ν ...
Définition — La distance de Wasserstein L2 entre les deux lois de probabilité μ et ν est l'infimum des quantités
lorsque les lois de probabilités respectives des deux variables aléatoires X et Y sont fixées égales à μ et ν, respectivement, mais que la loi jointe du couple (X,Y) est arbitraire, ainsi, d'ailleurs, que l'espace probabilisé sur lequel X et Y sont définies.
Comme
ne dépend pas de la loi jointe, mais seulement de μ, ce problème de minimisation de est équivalent au problème précédent (de maximisation de ), pour peu que et soient toutes deux finies.
Le problème du calcul de la distance de Wasserstein L2 entre deux lois de probabilités est une variante du problème de transport de Monge-Kantorovitch.