En statistiques, la loi des grands nombres exprime le fait que les caractéristiques d'un échantillon aléatoire se rapprochent d'autant plus des caractéristiques statistiques de la population que la taille de l'échantillon augmente. La taille de l'échantillon à considérer pour approcher les caractéristiques de la population ne dépend que faiblement, voire pas du tout, de la taille de celle-ci: que le sondage soit fait au Luxembourg ou aux États-Unis, il suffit, pour obtenir des précisions égales, de prendre des échantillons de tailles égales.
Initialement c'est Jacob Bernoulli qui en définit le premier modèle mathématique vers 1690, publié en 1715 dans la quatrième partie de son Ars conjectandi.
C'est sur cette loi que reposent la plupart des sondages. Ils interrogent un nombre suffisamment important de personnes pour connaître l'opinion (probable) de la population entière. De même, sans la formalisation de cette loi, l'assurance n'aurait jamais pu se développer avec un tel essor. En effet, cette loi permet aux assureurs de déterminer les probabilités que les sinistres dont ils sont garants se réalisent ou non.
La loi des grands nombres sert aussi en statistique inférentielle, pour déterminer une loi de probabilité à partir d'une série d'expériences.
Les mathématiciens distinguent deux énoncés, appelés respectivement « loi faible des grands nombres » et « loi forte des grands nombres ».
La loi des grands nombres soulève une question d'ordre métaphysique : personne ne s'étonne que des évènements considérés de façon isolée soient soumis au hasard (il n'est pas impossible d'obtenir 1 000 fois pile en lançant une pièce de monnaie 1 000 fois, mais cette probabilité est extrêmement faible). Et pourtant, si l'on fait l'expérience, on constate qu'on obtient environ 50% de pile et 50% de face, comme s'il existait une loi d'équilibre naturelle, comme si le chaos était impossible et les catastrophes improbables.
Il ne faut toutefois pas confondre la moyenne des gains et le gain absolu. Si deux joueurs jouent très longtemps à pile ou face, celui qui perd donnant un euro à celui qui gagne, la moyenne des gains de chaque joueur tendra effectivement vers 0 (la moyenne étant définie comme le gain divisé par le nombre de parties jouées), mais le gain de chaque joueur connaîtra beaucoup d'irrégularités, et les inversions ne sont pas exclues. Plus important encore : « l'excédent des pile sur les face, ou l'inverse, est de l'ordre de où N désigne le nombre de tirages ». Cela ne contredit en rien la loi des grands nombres, car tend bien vers 0 à mesure que N augmente.
Dans son ouvrage Les Certitudes du hasard, Marcel Boll imagine un million de Parisiens commençant à jouer à pile ou face en 1789 à raison d'un coup par seconde, en convenant de ne s'arrêter qu'à égalité. Deux secondes après le début, la moitié des joueurs ont terminé; le calcul montre cependant qu'en 1942, date de sortie de l'ouvrage, une demi-douzaine de joueurs seront encore en train d'attendre cette égalité, avec de moins en moins de chances de la voir se produire.
Vers 1820, Robert Brown observe le comportement erratique d'un grain de pollen dans un liquide : plus on attend, plus les particules s'éloignent de leur point de départ, dans un mouvement d'amplitude croissante. Le moteur de ce mouvement mentionné en 1900 par Louis Bachelier et étudié en détail par Albert Einstein en 1905 est précisément l'écart à la moyenne. Pour Andreï Kolmogorov, la valeur épistémologique de la théorie des probabilités est fondée sur le fait que les phénomènes aléatoires engendrent à grande échelle une régularité stricte, où l'aléatoire a, d'une certaine façon, disparu. Appliquée aux sociétés humaines, cette régularité statistique absolue qu'évoque Kolmogorov pose l'interrogation suivante : nos actions individuelles peuvent-elles être autre chose que la confirmation d'une tendance générale qui nous dépasse ?.