Les tests économétriques ont apporté un éclairage intéressant à des théories économiques dont étaient tirées certaines politiques économiques. Par exemple, les monétaristes vont remettre en cause la pertinence de la courbe de Phillips en se fondant sur des données statistiques de long terme. De même, les tests économétriques vont fortement affaiblir le lien, crucial chez les keynésiens, entre consommation nationale et revenu national.
Concernant les applications, l'économétrie va trouver des débouchés dans la finance et dans les politiques économiques budgétaires et financières. Le modèle Black et Scholes par exemple, permet de calculer la valeur des options. Des modèles macroéconométriques ont également été mis en place dès les années 1950 pour prévoir l'impact des politiques économiques. La question se pose dès lors de savoir si l'utilisation des modèles macroéconométriques a un impact sur son objet d'étude. Problème que les monétaristes et les théoriciens des anticipations rationnelles comme Lucas ne manqueront pas de souligner.
Les méthodes de l'économétrie sont très variées. En économie mathématique, on retrouve des outils mathématiques très divers comme l'algèbre, l'analyse, la théorie des jeux et la probabilité. Du point de vue de la statistique appliquée à l'économie, on pourra retenir la statistique descriptive, l'analyse des données et la statistique mathématique. Les techniques économétriques au sens strict, sont généralement issues de la statistique mathématique. On retiendra également l'importance de l'algèbre matricielle.
Dans les techniques économétriques au sens strict, on trouve en premier lieu les modèles de régression linéaire classiques qui reposent sur plusieurs hypothèses permettant de construire un estimateur ayant les bonnes propriétés. Certaines hypothèses peuvent par la suite être relâchées.
Les modèles de régression linéaire cherchent à déterminer une relation linéaire entre une ou plusieurs variables explicatives (on utilisait à l'origine le terme de variables exogènes, mais l'exogénéité est un concept protéiforme, on distingue aujourd'hui l'exogénéité faible --qui permet la régression -- de l'exogénéité forte -- qui permet la prévision -- et enfin la super-exogénéité -- utile en analyse de politique économique) et une ou plusieurs variables à expliquer (ou endogènes) à partir d'un ensemble de n observations qualitatives ou quantitatives. On considère en général que les écarts entre les observations et les relations entre les variables peuvent être expliqués par différentes sources d'erreurs :
Dans ces trois derniers cas l’on dit que la relation a été mal spécifiée. Ces sources d'erreurs sont considérées comme aléatoires. On les appelle des éléments aléatoires. Très souvent on suppose que ces éléments aléatoires autour de la valeur théorique, suivent une loi normale, ce qui permet de faire des estimations des paramètres du modèle d'ajustement, et d'effectuer des tests. L'objectif est alors de trouver des relations linéaires entre les variables qui minimisent l'erreur aléatoire. Différentes méthodes existent. On peut par exemple utiliser la méthode des moindres carrés.
La technique de régression dans les modèles linéaires classiques s'appuie sur quelques hypothèses fondamentales :
Historiquement, on considérait que les variables explicatives étaient exemptes d'éléments aléatoires. Ce n'est plus le cas depuis les années 1980, les propriétés des variables endogènes et explicatives doivent être similaires : ce sont des processus aléatoires "similaires", c'est-à-dire soit stationnaires, soit qui peuvent être facilement transformés en processus stationnaires de la même manière (on parle de processus intégrés).
Lorsqu'on relâche une ou plusieurs de ces hypothèses, on entre dans des modèles économétriques particuliers, dont les modèles non linéaires.
Contrairement à l'économétrie paramétrique, l'économétrie non paramétrique ne fait pas d'hypothèse sur la relation à étudier qui lie la variable dépendante aux variables explicatives. Le modèle de régression s'écrit ainsi :
y = f(X) + ε
Cette discipline s'est développée sur deux branches. La première consiste a estimer non paramétriquement la densité par noyau, cela revient à faire des histogrammes qui prennent la forme d'une fonction de densité. La seconde branche sont des modèles de régression par polynômes locaux, par splines et par ondelettes.
Les tests de causalité permettent de déterminer si une série temporelle peut en prédire une autre. Le test de Granger est le plus connu.