La statistique descriptive est la branche de la Statistique qui regroupe les nombreuses techniques utilisées pour décrire un ensemble relativement important de données.
L'objectif de la statistique descriptive est de décrire, c'est-à-dire de résumer ou représenter, par des statistiques, les données disponibles quand elles sont nombreuses.
Toute description d'un phénomène nécessite d' observer ou de connaître certaines choses sur ce phénomène.
Il est assez compliqué de définir la meilleure description possible d'un phénomène. Dans le cadre des statistiques, il s'agira de fournir toute l'information disponible sur le phénomène en le moins de chiffres et de mots possibles.
Typiquement, la loi des gaz parfaits est une très bonne description du phénomène constitué du comportement d'un gaz en état d'équilibre dont on observe que la pression, la température, et le volume. La valeur de la constante R peut alors être vue comme une statistique associée à cette description.
La question de la description visuelle se pose aussi, mais nous la mettrons provisoirement de côté. L'article Visualisation des données, y répond plus directement.
Le point de vue statistique sur la description d'un phénomène provient de ce que l'on considère que les observations disponibles sont différentes réalisations du même phénomène abstrait. Pour rester sur l'exemple de la température, la pression et la densité mesurées en plusieurs instants, on va considérer qu'à chaque fois que l'on prend ces trois mesures, on observe le même phénomène. Les mesures ne seront pas exactement les mêmes; c'est la répartitions de ces mesures que nous allons decrire statistiquement.
Si on mesure de temps à autre la pression, la température et la densité d'un gaz présent dans une cuve, on obtient une collection de triplets de données, indexés par l'instant de mesure.
Dans le domaine médical, on peut par exemple mesurer le poids avant et après la prise d'un médicament pour plusieurs personnes. On obtient alors une collection de couples de données (poids avant et après) indexés par le nom de la personne.
En sociologie ou en marketing on peut mesurer le nombre de livres lus par an pour de nombreuses personnes, dont on connait par ailleurs l'âge et le niveau d'étude. Ici aussi on obtient une collection de triplets de données, indexés par le nom du lecteur.
Les différentes grandeurs mesurées sont appelées des variables.
L'étude statistique nécessite que l'on prenne comme hypothèse qu'il existe un phénomène abstrait plus ou moins caché qui met en œuvre ces variables (et peut être d'autres).
Chaque valeur l'index (qui peut être une date, ou un numéro identifiant un individu), identifie alors une photographie partielle du phénomène. On appelle les valeurs des variables pour un indice donné des observations ou une réalisation du phénomène.
D'un point de vue formel, on pose le principe que le phénomène abstrait peut comporter des éléments déterministes comme des éléments aléatoires (on dit aussi stochastiques). L'ensemble des variables observées sont alors juxtaposées sous la forme d'un vecteur de données. Il n'y a plus alors qu'une seule variable (mais qui est multi variée).
Les observations sont alors bien des réalisations (au sens des statistiques mathématiques) de cette variable aléatoire multi variée.
Commençons par la situation la plus simple: celle de l'observation d'une seule variable (par exemple la pression dans une cuve, ou bien le nombre de livres lus par an pour une personne). Comme nous l'avons vu plus haut, nous prenons comme hypothèse qu'il existe un pénomène dont cette variable fait partie, que ce phénomène est peut être en partie aléatoire. Cette partie aléatoire implique que la variable observée est issue d'une variable abstraite soumise en partie à un aléa inconnu.
Les observations dont nous disposons sont alors des réalisations de cette variable aléatoire abstraite.
L'objectif des statistiques descriptives dans ce cadre est de résumer au mieux cette collection de valeurs en prenant éventuellement appui sur notre hypothèse (l'existence d'une loi aléatoire abstraite derrière tout cela).
Une première remarque est que la meilleure description possible d'un phénomène à partir d'une collection d'observations est la collection elle-même! En effet, pourquoi se compliquer la vie à calculer de nombreux indicateurs alors que tout est là?
En premier lieu, il faut noter que cette remarque est loin d'être stupide, et d'un certain point de vue, on retrouve cette philosophie derrière les Statistiques non paramétriques.
Mais en second lieu, on voit bien qu'il est intéressant de résumer ces observations. La question importante devient alors: comment les résumer sans détruire l'information qu'elle contient?
Si nos observations sont le succès ou l'échec de 23 sportifs à une épreuve de saut en hauteur. Il s'agira d'une série de "succès" (S), "échec" (E) indexé par le nom du sportif. Voici les données:
S,S,E,E,E,S,E,S,S,S,E,E,S,E,S,E,S,S,S,S,E,E,S
Sans réfléchir et en utilisant des critères statistiques, nous pouvons décider de décrire ce phénomène comme suit:
Il s'agit d'une description plutôt obscure, et on notera qu'elle comprend un peu moins de 200 caractères, alors que la liste des succès et échecs en compte moins de 50. Nous préfèrerons sans doute celle-ci:
Cette description est simple, claire et courte (moins de 50 caractères).
Il est aussi tout à fait possible d'en faire une description qui détruit de l'information, par exemple celle-ci:
En effet, il manque au moins le nombre de sauteurs, qui est un élément descriptif important.
Bien entendu, si on cherche à décrire un phénomène particulier, comme celui-ci si j'avais parié sur un des 23 sauteurs, quelles chances avais-je de gagner?, la réponse aurait été différente:
beaucoup plus courte, et ne détruisant aucune information au vu de la question. Il ne s'agissait plus alors de décrire les réalisations du phénomène sans point de vue particulier, mais avec un angle bien précis. On décrit en réalité un autre phénomène (celui des paris).
Il est donc très important de bien répondre à la question posée, et de ne pas appliquer des formules toutes faites sans réfléchir.
Interessons-nous en dernier lieu à une autre question: Si je devais parier lors d'une prochaine épreuve de saut, quelles seraient mes chance de gain?.
Nous pourrions répondre 57%, comme pour la question précédente, mais après tout, nous n'avons observé que 23 sauteurs; est-ce suffisant pour en tirer une conclusion sur les perfomances d'autres sauteurs?
Afin d'apporter tout de même une réponse, précision la principale hypothèse que nous allons utiliser:
Cela veut dire que si cette compétition était nationale, la seconde le sera aussi: on ne va pas utiliser des observations issues d'un phénomène de niveau national avec la même phénomène, mais de niveau olympique par exemple.
Et même dans ce cadre, si par exemple nous n'avions observé que 2 sauteurs, qui avaient tout deux réussi, cela voudrait-il dire que tous les sauteurs de niveau national réussissent toujours (c'est-à-dire que j'ai une chance de gain de 100%)? Bien sûr que non.
Nous devons alors recourir à la notion d' intervalle de confiance: le but est de rendre compte de la taille de notre échantillon de sportifs, conjugué à certaines hypothèses probabilistes.
En l'occurrence, les statistiques mathématiques nous disent qu' 'un estimateur de proportion calculé à partir de N observations suit une loi normale de variance p(1 − p) / N autour de la proportion théorique p. Dans notre cas: N = 23 et p = 0.57. Ceci nous apprend que sous notre hypothèse, il y a une probabilité de 95% que notre chance de gain soit entre
Il existe finalement toute une collection de statistiques que l'on peut utiliser à des fins descriptives. Il s'agit de critères qui quantifient différentes caractéristiques de la distribution des observations:
Sans a priori sur la question qui nous est posée, nous pouvons passer en revue ces différents indicateurs descriptifs.
Sans aucun a priori sur la question que l'on se pose, quelques statistiques simples permettent de la decrire:
Les deux premiers sont souvent nommé critères de position', et les autres entre plutôt dans la catégorie des critères de dispersion.'
La moyenne arithmétique est la somme des valeurs de la variable divisée par le nombre d'individus :
La médiane est la valeur centrale qui partage l'échantillon en 2 groupes de même effectif : 50% au dessus et 50% en dessous. La médiane peut avoir une valeur différente de la moyenne. En France, le salaire médian est inférieur au salaire moyen : il y a beaucoup de smicards et peu de très gros salaires. Cependant, les gros salaires tirent la moyenne vers le haut.
En général, une médiane est, dans une série ordonnée, une valeur M telle qu'il y ait autant de valeur supérieure ou égal à M que de valeur inferieures ou égales à M .
Le mode correspond à la réalisation la plus fréquente.
La variance empirique corrigée
Attention : la variance (notion de statistique descriptive) égale est la simple moyenne arithmétique des carrés des écarts à la moyenne arithmétique observée, mais la variance sans biais (notion de statistique mathématique, qui signifie que lorsque la taille de l'échantillon de données tends vers l'infini, la statistique --ici la variance-- tends vers sa valeur théorique) est n / (n − 1) fois la variance observée. La variance sans biais est donc supérieure à la variance observée.
La Loi des grands nombres garantit que la moyenne estimée
Par conséquent, lorsque la taille de l'échantillon n augmente linéairement, la précision de l'estimateur de la moyenne augmente en
Quand l'ensemble de n point ne constitue pas un échantillon de la population, mais la population totale, la variance sans biais n'a pas à être utilisée, puisque l'on n'est plus dans un contexte d'estimation mais de mesure.
Ceux-ci généralisent la notion de médiane qui coupe la distribution en deux parties égales. On définit notamment les quartiles, déciles et centiles (ou percentiles) sur la population, ordonnée dans l'ordre croissant, que l'on divise en 4, 10 ou 100 parties de même effectif.
On parlera ainsi du " centile 90 " pour indiquer la valeur séparant les premiers 90% de la population des 10% restant. Ainsi, dans une population de jeunes enfants, un enfant dont la taille ou le poids est au-delà du centile 90, ou en deçà du centile 10, doit être l'objet d'un suivi particulier.
Même s'il est considéré par beaucoup comme une réprésentation graphique, et qu'il a donc plus sa place dans une description des méthodes de Visualisation des données, l'histogramme est un chaînon naturel entre une représentation exhaustive des données et la description par comparaison à des lois statistiques connues.
La densité empirique d'une variable à valeurs discrètes est simplement constituée de la proportion des observations prenant chaque valeur.
Si on reprend l'exemple des sportifs, la densité empirique de notre population est 57% de succès et 43% d'échecs. L'histogramme associé est très simple (cf image à gauche).
On appelle fonction de répartition empirique associée une série d'observations à valeur réelles ayant les valeurs
Elle est une estimation de la probabilité que la valeur dun événement du phénomène observé ait une valeur supérieure ou égale à v.
Si on voulait en déduire la densité empirique associée aux observations, il faudrait dériver F * (v). Etant donné que la dérivée d'une indicatrice (
Plusieurs alternatives sont possibles:
Un histogramme est la meilleur estimation par une fonction en escalier de la densité empirique. C'est-à-dire que l'intégrale de l'histogramme doit être la plus proche possible de F * (v). Remarquons que l'intégrale de l'histogramme est une fonction continue affine par morceaux. D'un certain point de vue:
Dans ce cadre, le nombre de morceaux (de classes ou de barres) est un paramètre très important. Il faut recourir à un critère supplémentaire si on veut trouver sa meilleure valeur possible. On prend par exemple un critère à la Akaike ou le critère BIC (Bayesian Information Criterion); il est aussi possible de recourir à un critère d'information ou d'entropie.
Par construction, les barres de l'histogrammes ne sont donc pas nécessairement toutes de la même largeur.
L'histogramme est une des nombreuses représentations graphiques de données statistiques possibles. Comme les quantiles, l'histogramme découpe la population en classes mais le point de vue est différent.
Avec les quantiles, le but est de localiser les frontières entre classes de même effectif. Ils sont souvent utilisés, par exemple en matière de revenus, pour comparer les deux classes extrêmes.
Pour les histogrammes, les largeurs de classes sont choisies afin de rendre le mieux possible compte de la distribution réelle des observations. Il s'agit d'une tâche difficile.
Pour plus de simplicité, les classes des histogrammes sont parfois pris de même largeur et de hauteur variable : on appelle de tels histogrammes des diagrammes en barres. Ce ne sont pas de véritables histogrammes.
Il est possible de comparer la distance entre ces deux courbes.
En allant plus loin, ce genre de méthode de comparaison de fonctions de distribution (ici entre celles issues de l'histogramme et la distribution empirique) peut être utilisé pour comparer la répartition empirique de nos observations à celle d'une loi connue (c'est par exemple le principe de la Droite de Henry). Cela permet de répondre à la question ma répartition ressemble t-elle à une distribution connue ?.
Il s'agit de comparer la distribution d'observations à une loi statistique connue.
Si on identifie une loi connue (par exemple une gaussienne) dont la répartition est statistiquement indiscernable de notre distribution empirique, nous avons un très bon moyen de résumer l'information: qu'y a-t'il de plus descriptif qu'une phrase du genre mes observations sont réparties comme une loi normale de moyenne 0 et d'écart type 0.2?
Le principe est le même que pour une seule variable, sauf que toutes les caractéristiques (moyenne, mode, écart type, etc) sont bi variées (des vecteurs).
Il y a d'autre part une caractéristique supplémentaire: la corrélation. Elle est une mesure linéaire de la dépendance entre les différentes composantes de la variable multi variée.
Il existe d'autres mesures de dépendance entre deux variables, comme l'information mutuelle (ou l'entropie conditionnelle).
Au delà des mesures, on peut aussi explorer les dépendances à l'aides d'outils graphiques ou de tableaux.
Le plus simple des tableaux possible est une disjonction. Lorsque nous avons deux variables V1 et V2, observées par exemple en plusieurs instants
Plus ces deux ensembles seront différents (en terme de critère mono variés: moyenne, écart type, comparaison à une distribution connue, etc), et plus l'événement
Il est possible de poursuivre cela en découpant notre échantillon en plusieurs morceaux, en recourant à plusieurs seuils
On se retrouve alors avec une population de S + 1 échantillons à une seule variable (V1), qui peuvent être étudiés séparément. Si on s'aperçoit que les distributions sur les échantillons sont très différentes, c'est qu'il y a une dépendance entre les deux variables.