La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».
Un nombre est un concept permettant d’évaluer et de comparer des quantités ou des rapports de grandeurs, mais aussi d’ordonner des éléments par une numérotation. Souvent écrits à l’aide d’un ou plusieurs chiffres, les nombres interagissent par le biais d’opérations qui sont résumées par des règles de calcul. Les propriétés de ces relations entre les nombres sont l’objet d’étude de l’arithmétique, qui se prolonge avec la théorie des nombres.
En l’absence d’une définition générale satisfaisante de cette notion, les mathématiques proposent plusieurs types de nombres pour exprimer des mesures physiques, résoudre des équations, voire pour appréhender l’infini.
En physique, les grandeurs sans dimension sont souvent appelées « nombres », tels le nombre de Reynolds en mécanique des fluides ou les nombres quantiques.
En dehors de leur utilisation scientifique, plusieurs nombres ont aussi acquis une charge symbolique forte dans les cultures populaires et religieuses.
Le concept de nombre trouve son origine dans l’idée d’appariement, c’est-à-dire de la mise en correspondance d’ensembles (par exemple des êtres humains d’une part et des chevaux d’autre part). Si l’on tente de répartir tous les éléments en couples comprenant un élément de chaque ensemble, il se peut qu’il reste des éléments d’un ensemble en trop, ou qu’il en manque, ou encore qu’il y en ait juste assez. L’expérience montre alors que la manière de faire la répartition ne change pas le résultat, d’où la notion de quantité, caractère intrinsèque et qui peut être comparé.
Cette quantité n’est pas encore un nombre mais est parfois désignée comme un « nombre-de ». Le nombre en tant que tel ne possède pas d’unité de mesure. Il est d’après Euclide « un assemblage composé d’unités », où « l’unité est ce selon quoi chacune des choses existantes est dite une. »
Parallèlement à la notion de quantité, lié à l’aspect « cardinal », le notion de repérage dans une liste mène à la définition du nombre « ordinal » : le premier nombre est suivi d’un deuxième, lui-même suivi d’un autre et ainsi de suite « jusqu’à l’infini ».
Sans calcul, les nombres sont limités à la quantité de symboles utilisables. La découverte des opérations numériques élémentaires (addition et multiplication notamment) va permettre aux mathématiques de faciliter la description des nombres beaucoup plus grands à l’aide de divers systèmes de numération. La civilisation babylonienne découvre notamment la notation positionnelle dès le IIIe millénaire avant notre ère et pratique alors le calcul avec des nombres ayant une partie fractionnaire.
Les fractions sont conçues en Égypte antique sous formes de « quantièmes », c’est-à-dire d’inverses d’entiers. Leur manipulation est alors soumise à certaines contraintes qui ne seront surmontées que par l’interprétation géométrique comme rapport de longueurs (entières). Toutefois, ni les fractions ni les autres proportions géométriques telles que pi, le nombre d’or ou la diagonale du carré ne seront vraiment considérées comme des nombres par les mathématiciens de la Grèce antique, pour qui les seuls nombres sont entiers.
Même si le chiffre « 0 » est employé dans certains systèmes de numération positionnelle par plusieurs civilisations antiques, le nombre zéro n’apparait en tant que tel qu’au VIIe siècle dans les mathématiques indiennes. Il est repris par la civilisation de l’Islam et importé en Europe au Xe siècle. Sous le qualificatif d’« absurdes », les nombres négatifs sont déjà étudiés au XVIe siècle mais leurs propriétés arithmétiques font encore polémique au début du XIXe siècle.
Les nombres algébriques (réels positifs) sont étudiés avec le développement de l’algèbre par les mathématiciens arabes. Ces derniers en calculent des valeurs approchées en notation décimale dès le XIIe siècle. Cette même algèbre conduira certains mathématiciens italiens à inventer au XVIe siècle des nombres « imaginaires », première approche des nombres complexes qui ne seront définis de manière satisfaisante qu’au XVIIIe siècle. Leur construction géométrique sera d’ailleurs rapidement suivie de celle des quaternions puis d’autres nombres hypercomplexes pendant le siècle suivant.
Paradoxalement, il faudra cependant attendre le XIXe siècle pour que soit reconnue l’existence de nombres transcendants, juste avant que soit formalisée la notion de nombre réel indépendamment de la géométrie. La procédure de complétion des nombres rationnels sera imitée au début du XXe siècle pour construire les nombres p-adiques.
Les nombres transfinis sont introduits de diverses manières à partir de la fin du XIXe siècle, lorsque Georg Cantor définit les ordinaux et cardinaux. Dans la seconde moitié du XXe siècle, l’analyse non standard fait usage de nombres hyperréels puis superréels, tandis que Conway présente les nombres surréels et pseudo-réels.
Diverses expériences explorent les capacités numériques chez l’enfant en bas âge.
Dans l’éducation, l’apprentissage du nombre débute avec l’acquisition de la « chaine numérique », notamment à l’aide de comptines : « un, deux, trois… » Cette liste sera progressivement prolongée pour permettre à l’enfant d’énumérer des objets qu’il manipule afin de les dénombrer (en associant à cette quantité le dernier terme de l’énumération), mais aussi pour repérer une position dans une série ordonnée.
Au cours de la scolarité, l’enfant est amené à considérer divers types de nombres rangés dans une suite croissante d’ensembles :