Méthode des différences finies - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

Dans le domaine de l'analyse numérique, on peut être amené à rechercher la solution d'une équation aux dérivées partielles. Parmi les méthodes de résolutions couramment pratiquées, la méthode des différences finies est la plus facile d'accès, puisqu'elle repose sur deux notions : la discrétisation des opérateurs de dérivation/différentiation (assez intuitive) par différences finies d'une part, et la convergence du schéma numérique ainsi obtenu d'autre part.

Approximation des opérateurs par formules de Taylor

Grâce aux formules de Taylor, on définit la discrétisation des opérateurs différentiels (dérivées premières, secondes, etc, partielles ou non).

La formulation de Taylor-Young est préférable dans son utilisation simple, la formulation de Taylor avec reste intégral de Laplace permet de mesurer les erreurs (cf. plus bas)

Exemple d'approximation d'opérateur

Par exemple, écrivons en un point x et pour une valeur h telle que u est dérivable trois fois sur un intervalle contenant strictement [xh,x + h], on sait écrire les deux formules de Taylor-Young :

u( x + h ) = u( x ) + \sum_{ n = 1 }^3{ \frac{ h^n }{ n! } u^{(n)}( x ) } + h^3 \varepsilon_1( x, h )

et :

u( x - h ) = u( x ) + \sum_{ n = 1 }^3{ \frac{ (-h)^n }{ n! } u^{(n)}( x ) } + h^3 \varepsilon_2( x, h )

où toutes les applications \varepsilon_i convergent vers 0 avec h. Alors :

\frac{ u( x + h ) - u( x ) }{ h } = u'(x) + \frac{h}{2} u''(x) + \frac{h^2}{3!} u^{(3)}(x) + h^2 \varepsilon_1( x, h )

et en sommant les développements pour x-h et x+h l'on obtient:

\frac{ u( x + h ) - u( x - h ) } { 2 h } = u'(x) + \frac{ h^2 }{ 6 } u^{(3)}( x ) + h^2 \varepsilon_3( x,h )

on obtient respectivement des approximations de 1er ordre et 2nd ordre en h.

Degré de dérivation

Pour des raisons à la fois d'écriture algébrique et d'étude de convergence/stabilité a priori il est important de se replacer autant que possible dans une problématique avec des ordres de dérivation les plus faibles possible, quitte à augmenter la dimension de l'espace d'étude. On fera ainsi appel à des variables intermédiaires : les dérivées ou dérivées partielles des fonctions initialement étudiées.

Exemple d'abaissement de degré de dérivation

u''(x) + ω2u(x) = 0,u(0) = u0,u'(0) = u1

s'écrira volontiers avec le choix :

U( x ) = \begin{pmatrix} \omega u( x ) \\ u'(x) \end{pmatrix}

ce qui donnera l'équation pour U :

U'( x ) = A U(x), U_0 = \begin{pmatrix} \omega u_0 \\ u_1 \end{pmatrix}

Avec

A = \begin{pmatrix} 0 & \omega  \\ - \omega  & 0 \end{pmatrix}

Donc le degré de dérivation est ici réduit à 1, alors que la dimension de l'espace d'arrivée est devenue 2.

Maillage

Un maillage est un ensemble de points du domaine de définition sur lequel on va appliquer la méthode des différences finies. Pour une application définie sur un segment de \mathbb R , on ajoutera en général les deux extrémités du segment ; pour un maillage en dimension supérieure, on sera amené à choisir, éventuellement, des points du contours du domaine de définition.

On appelle le pas du maillage la distance entre deux points successifs du maillage voisins. En dimension 1, cela se simplifie en différence des abscisses. Ce pas n'est pas nécessairement constant, il peut même être judicieux de ne pas le fixer comme tel. Le pas (global) de l'approximation peut être défini comme le plus grand pas du maillage. Ainsi, si ce pas global tend vers 0, cela veut dire que la répartition des points du maillage dans l'intervalle choisi tend à se faire sur tout le domaine d'étude par densité.

Exemple de maillage

Pour un intervalle de validité [0,1] on utilisera (M + 1) points, par exemple {0,h,2h,...,Mh = 1} pour un pas constant h = \frac{ 1 }{ M } .

Convergences

La deuxième notion complète la première. Elle traite de la convergence d'un schéma numérique. En effet, une modélisation par différences finies est un couple (conditions (initiales, finales, etc), schéma numérique) dont on ne sait a priori pas si son éventuelle solution est proche ou non d'une solution réelle espérée du système initial (conditions (initiales, finales, etc), équations différentielles). Pour parler de convergence, il est nécessaire de comprendre celle-là selon un critère similaire à ceux-ci, si on étudie une fonction f sur un intervalle [a,b] :

- convergence simple : en n'importe quel point l'approximation évaluée tend vers la vraie valeur de la solution quand le pas tend vers 0

- convergence en norme 2 \left( ||f||_2 = \sqrt{\int_a^b{|f(t)^2|}} \right)  : cette norme tend vers 0 avec le pas

- convergence absolue ou en norme absolue \left( ||f||_\infty = \max_{ t \in [a,b] }{|f(t)|} \right)  : cette norme tend vers 0 avec le pas

On doit alors étudier la qualité de la convergence de ce schéma numérique selon des critères tels que la stabilité, la robustesse et bien-sûr différentes normes (2 ou \infty la plupart du temps). Cela peut aussi bien dépendre de la méthode de discrétisation, de la nature des équations que des conditions initiales (selon la nature du problème posé).

- La stabilité, la robustesse du schéma : [à rajouter]

Exemple d'erreur d'approximation

Pour un maillage donné, l'erreur entre la solution approchée et la solution réelle est déterminée par l'erreur de troncature, comme définie notamment dans le théorème de Taylor avec reste intégral ou au sens de la restriction à une partie finie d'une série de Taylor qui possède un nombre infini de termes.

Là encore, l'erreur dépend de ce qu'on entend mesurer. L'erreur peut en effet être mesurée point par point (convergence simple) ou selon une norme 2 ou infinie.

Dans le dernier exemple présenté, on connaît la solution exacte de l'équation, qui est une fonction exponentielle.

u(x) = u0ex)

On sait donc évaluer la différence directement entre la version réelle et la version estimée par approximation pour un maillage M intervalles :

\forall n \in \{ 0, ..., M \}, u( x_n ) - u_n = u_0 \left[ e^{ \frac{ \tau n }{M}} - \left( 1 + \frac{ \tau }{ M } \right)^n \right]

Ici, on a une mesure exacte de l'erreur point par point. Notons qu'on peut aussi démontrer que si le maillage s'affine infiniment (c'est-à-dire que le nombre de points M tend vers l'infini), alors la convergence simple est assurée. Prenons un exemple : le point \frac{1}{2} . Distinguons le cas M pair. Le cas où M est impair est identique par encadrement, même s'il est un peu plus compliqué.

Si M est pair, alors le point x_{ \frac{M}{2} } = \frac{1}{2} . La différence d'image est alors

u\left( \frac{1}{2} \right) - u_{ \frac{M}{2} }= u_0 \left[ e^{ \frac{ \tau }{2}} - \left( 1 + \frac{ \tau }{ M } \right)^{ M / 2 } \right]

Or, un résultat classique d'analyse nous donne la limite de la suite \left( 1 + \frac{ \tau }{ M } \right)^{ M / 2 } est e^{ \frac{ \tau }{ 2 } } , ce qui fait que la différence u\left( \frac{1}{2} \right) - u_{ \frac{M}{2} } tend bien vers 0.

Il est en fait possible, en utilisant le caractère archimédien et la continuité des solutions, de montrer que la convergence simple est assurée partout...

Page générée en 0.351 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise