L’inégalité d'Azuma, parfois appelée inégalité d'Azuma-Hoeffding, est une inégalité de concentration concernant les martingales dont les accroissements sont bornés. C'est une généralisation de l'inégalité de Hoeffding, une inégalité de concentration ne concernant, elle, que les sommes de variables aléatoires indépendantes et bornées.
Un des énoncés les plus courants est
Notons que le choix entraine que
Le principe de Maurey a été énoncé pour la première fois par Maurey dans une note au Compte rendus de l'Académie des Sciences en 1979, et découvert plus tard, semble-t-il indépendamment, par Harry Kesten, en théorie de la percolation. Il est d'usage fréquent en théorie des graphes aléatoires, dans l'analyse des algorithmes randomisés, et en théorie de la percolation. Il est parfois appelé method of bounded differences ou MOBD.
Soit deux ensembles A et B et soit l'ensemble des applications de B dans A. On se donne une une filtration
Définition — Une application est dite -lipshitzienne si, pour tout et pour tout on a l'implication :
Autrement dit, si les deux applications coincident à l'intérieur de et à l'extérieur de (i.e. dans les zones vertes et bleues de la figure ci-dessous), alors X varie peu de l'une à l'autre.
Théorème — On suppose muni d'une structure d'espace probabilisé telle que les images forment une famille de variables aléatoires indépendantes. On suppose également que la variable aléatoire réelle X, définie sur , est -lipshitzienne. Alors, pour tout
On considère la filtration filtration définie, pour par
Pour on pose
Ainsi est une martingale, et Pour pouvoir appliquer l'inégalité d'Azuma, il ne reste plus qu'à démontrer que "les différences sont bornées". Pour cela on note, pour
Comme les forment une partition de B, il en résulte, d'une part, que est en correspondance bijective avec le triplet , d'autre part qu'en vertu du lemme de regroupement le triplet est un triplet de variables aléatoires indépendantes. Notons la loi de probabilité de qui est une mesure de probabilité sur On a alors
Ainsi
Mais les deux triplets et déterminent deux applications de B dans A qui ne diffèrent qu'au niveau de leurs restrictions à (leurs restrictions sont et respectivement). Ainsi, X étant -lipshitzienne,
Par conséquent
Dans cet exemple, l'intérêt d'une inégalité de concentration précise est de justifier une méthode statistique de comptage approximatif pouvant servir, par exemple, à déceler une attaque de virus informatique.
On jette m boules au hasard dans n boites, expérience probabiliste dont un évènement élémentaire est décrit par une application de dans : est le numéro de la boite dans laquelle est rangée la boule numéro k. Ainsi les sont bien des variables aléatoires indépendantes, et, accessoirement, des variables aléatoires uniformes. Considérons l'application X, qui, à une distribution de m boules dans n boites, associe le nombre de boites vides à la fin de cette distribution On peut calculer l'espérance de X aisément à l'aide d'une décomposition de X en somme de variables de Bernoulli. On trouve alors que
Pour le choix l'application X est -lipshitzienne : en effet, si, d'une distribution à une autre, seule la place de la boule n°t change ( est réduit au seul élément t ), alors le nombre de boites vides varie d'au plus une unité. Ainsi, en vertu du principe de Maurey,
Une inégalité plus précise est obtenue en appliquant la de l'inégalité d'Azuma.
Il s'agit d'estimer le nombre m d'utilisateurs différents, identifiés, à un noeud du réseau, par l'entête du paquet de données qu'ils envoient. L'idée est qu'une attaque de virus ne se traduit pas par une augmentation décelable du volume du trafic (le gros du volume étant fourni, par exemple, par des téléchargements de fichiers, lesquels sont scindés en nombreux paquets qui ont tous la même entête, caractérisant le même utilisateur), mais par une augmentation drastique du nombre d'utilisateurs différents, à cause d'un envoi massif et concerté de mails (tous de petit volume, comparés à des téléchargements).
Chaque fois qu'un paquet de données est reçu à un noeud du réseau, l'utilisateur b émetteur du paquet est reconnu à l'aide de l'entête du paquet de données (une suite de longueur L de 0 et de 1). Cette entête est hachée, i.e. transformée en un nombre aléatoire uniforme sur l'intervalle [0,1] : cette transformation (la fonction de hachage) est conçue de telle sorte que m paquets émis par m utilisateurs différents produisent m entêtes différentes et, après hachage de ces entêtes, produisent une suite de m variables aléatoires indépendantes et uniformes sur l'intervalle [0,1]. Par contre paquets émis par le même utilisateur b produisent fois la même entête , et hachages successifs de cette entête produisent une suite de valeurs aléatoires identiques, toutes égales au même nombre tiré au hasard, une fois pour toutes, uniformément sur l'intervalle [0,1].
On reçoit un grand nombre (P) de paquets en un laps de temps très court. On dispose seulement de n cases mémoires et on veut compter le nombre m d'utilisateurs différents émetteurs de ces paquets. Par manque de place mémoire, il est impossible de stocker au fur et à mesure les entêtes des paquets déjà reçus, et par manque de temps il serait impossible de tester si une nouvelle entête reçue fait partie de la liste des entêtes déjà récoltées. Un calcul exact de m est donc impossible. On se donne alors n cases, numérotées de 1 à n, considérées comme libres, ou bien occupées. Au départ toutes les cases sont considérées comme libres. A chaque paquet reçu, l'entête correspondante est hachée, produisant un nombre U aléatoire uniforme sur [0,1], et la case n° est marquée occupée, quel qu'ait été son statut antérieur. Qu'une entête apparaisse une fois ou 10 000 fois, le résultat sera le même : c'est, du fait de cette entête, le même nombre aléatoire U qui sera engendré et la même case n° qui sera marquée occupée.
Ainsi l'état de l'ensemble des n cases après réception des P paquets ne dépend pas du volume P du trafic, mais uniquement de la suite des m entêtes hashées correspondant aux m utilisateurs différents. Plus précisément, le nombre X de cases libres à la fin du processus a même loi que dans le problème de boites et de boules évoqué à la section précédente. L' assure que, pour n et m assez grands, avec une forte probabilité, l'approximation de par X, c'est-à-dire :
est assez précise pour permettre de reconstituer le ratio r=m/n, et, partant de là, le nombre m d'utilisateurs différents, inconnu jusque là, en fonction de X et de n, qui sont connus : on choisit comme approximation de r le nombre Dans cette situation particulière, on sera satisfait si la précision de l'approximation permet de déceler un changement brutal de la valeur de m d'un moment à l'autre, changement annonciateur d'une attaque de virus : pour cela, une approximation grossière de m devrait suffire.