Moindres carrés non linéaires - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Autres méthodes

Linéarisation

Un modèle non linéaire peut parfois se transformer en modèle linéaire. Par exemple, lorsque le modèle est une simple fonction exponentielle,

f(x_i,\boldsymbol \beta)= \alpha e^{\beta x_i}

on peut obtenir un modèle linéaire par transformation logarithmique.

\log f(x_i,\boldsymbol \beta)=\log \alpha + \beta x_i

La somme des carrés devient

S=\sum_i (\log y_i-\log \alpha - \beta x_i)^2\!

Toutefois, si on n'a aucun renseignement sur la structure des aléas, cette transformation peut être problématique: de toute évidence, les erreurs expérimentales sur y ne sont pas les mêmes que sur log y. Estimer le modèle initial et celui linéarisé donnera des estimations différentes et des variances estimées. En pratique, le modèle exponentiel s'estime dans une procédure à part.

Quelques ajustements

On peut considérer quelques ajustements

  • Calcul de la matrice jacobienne par approximation numérique. Dans certains modèles, obtenir des dérivées analytiques peut s'avérer délicat. On doit avoir recours à une approximation numérique de la jacobienne; par exemple, l'approximation de son entrée (i,j) est:
\mathbf{J}_{i,j} = \frac{\partial f(x_i, \boldsymbol \beta)}{\partial \beta_j} \approx \frac{\delta f(x_i, \boldsymbol \beta)}{\delta \beta_j}

Cette approximation s'obtient par le calcul de f(x_i, \boldsymbol \beta)\, pour \beta_j\, et \beta_j+\delta \beta_j\, . L'incrément, \delta \beta_j\, , doit être choisi ni trop grand ni trop petit (afin d'éviter les erreurs d'arrondi);

  • L'inclusion des dérivées secondes dans le développement de Taylor. On obtient la méthode classique de Newton.
f(x_i, \boldsymbol \beta)=f^k(x_i, \boldsymbol \beta) +\sum_j J_{ij} \Delta \beta_j + \frac{1}{2}\sum_j\sum_k \Delta\beta_j \Delta\beta_k H_{jk_{(i)}},\ H_{jk_{(i)}}=\frac{\partial^2 f(x_i, \boldsymbol \beta)}{\partial \beta_j \partial \beta_k }

La matrice H est la Matrice hessienne. Bien que présentant de bien meilleures propriétés de convergence près de l'optimum, ce modèle se comporte mal quand les paramètres sont loin de leur valeur optimale. Le calcul de la Hessienne ajoute à la complexité de l'algorithme. Cette méthode n'est pas utilisée en général;

  • On peut remplacer l'algorithme de Newton par un algorithme de pseudo-Newton, où on calcule numériquement la hessienne par approximations successives. C'est l'algorithme de Davidon-Fletcher-Powell (DFP);
Page générée en 0.095 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise