Comatrice
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

En algèbre linéaire, la comatrice d'une matrice carrée A est une matrice introduite par une généralisation du calcul de l'inverse de A. Elle a une importance considérable pour l'étude des déterminants. Ses coefficients sont appelés cofacteurs de A, et ils permettent d'étudier les variations de la fonction déterminant.

La comatrice (En algèbre linéaire, la comatrice d'une matrice carrée A est une matrice introduite par une généralisation du calcul de l'inverse de A. Elle a une importance considérable pour l'étude des déterminants. Ses...) est aussi appelée matrice des cofacteurs, ou encore, hélas, matrice adjointe (par exemple dans le logiciel (En informatique, un logiciel est un ensemble d'informations relatives à des traitements effectués automatiquement par un appareil informatique. Y sont inclus les instructions de traitement,...) Maple).

Matrice ayant un coefficient (En mathématiques un coefficient est un facteur multiplicatif qui dépend d'un certain objet, comme une variable (par exemple, les...) variable (En mathématiques et en logique, une variable est représentée par un symbole. Elle est utilisée pour marquer un rôle dans une formule, un prédicat ou un algorithme. En statistiques, une...)

Le déterminant pour les matrices est naturellement défini comme une fonction sur les n vecteurs colonnes de la matrice. Il est cependant légitime de le considérer aussi comme une fonction qui aux n2 coefficients de la matrice associe un scalaire (Un vrai scalaire est un nombre qui est indépendant du choix de la base choisie pour exprimer les vecteurs, par opposition à un pseudoscalaire, qui est un nombre qui peut...).

Quand on gèle tous les coefficients de la matrice à l'exception d'un seul, le déterminant est une fonction affine (En mathématiques élémentaires, une fonction affine est une fonction de la variable réelle dont la représentation graphique est une droite. C'est une fonction polynôme de degré inférieur ou égal à un. ....) du coefficient variable. L'expression de cette fonction affine (En mathématiques, affine peut correspondre à :) est simple à obtenir comme cas particulier de la propriété de n-linéarité ; elle fait intervenir un déterminant de taille n-1, appelé cofacteur du coefficient variable.

Ces considérations permettent d'établir une formule de récurrence ramenant le calcul d'un déterminant de taille n, à celui de n déterminants de taille n-1 : c'est la formule de Laplace.

Cofacteur

Soit A une matrice carrée de taille n. On observe l'effet d'une modification d'un des coefficients de la matrice, toutes choses égales par ailleurs. Pour cela on choisit donc deux indices i pour la ligne et j pour la colonne, et on note A(x) la matrice dont les coefficients sont les mêmes que ceux de A, sauf le terme d'indice i,j qui vaut ai,j+x. On écrit la formule de linéarité pour la j-ème colonne

\det A(x)=\det A + x\begin{vmatrix}a_{1,1} & \dots & a_{1,j-1}& 0&a_{1,j+1}& \dots & a_{1,n} \\\vdots & & \vdots & \vdots & \vdots& &\vdots\\ a_{i-1,1} & \dots & a_{i-1,j-1}& 0&a_{i-1,j+1}& \dots & a_{i-1,n} \\ a_{i,1} & \dots & a_{i,j-1}& 1&a_{i,j+1}& \dots & a_{i,n}\\  a_{i+1,1} & \dots & a_{i+1,j-1}& 0&a_{i+1,j+1}& \dots & a_{i+1,n} \\ \vdots & & \vdots & \vdots & \vdots& &\vdots\\ a_{n,1} & \dots & a_{n,j-1}& 0&a_{n,j+1}& \dots & a_{n,n}\end{vmatrix} = \det A+x {\rm Cof}_{i,j}

Le déterminant noté Cofi,j est appelé cofacteur d'indice i,j de la matrice A. Il admet les interprétations suivantes

  • augmenter de x le coefficient d'indice i,j de la matrice (toutes choses égales par ailleurs) revient à augmenter le déterminant de x fois le cofacteur correspondant
  • le cofacteur est la dérivée (La dérivée d'une fonction est le moyen de déterminer combien cette fonction varie quand la quantité dont elle dépend, son argument, change. Plus précisément, une dérivée...) du déterminant de la matrice A(x)

Dans la pratique, on calcule les cofacteurs de la façon suivante : on appelle M(i;j) le déterminant de la sous-matrice (Une sous-matrice est une matrice obtenue à partir d'une matrice en ne gardant que certaines lignes ou colonnes.) déduite de M en ayant enlevé la ligne i et la colonne j (on parle de mineur pour un tel déterminant). Alors le cofacteur est (-1)i+j fois M(i;j).

{\rm Cof}_{i,j}=(-1)^{i+j}\begin{vmatrix}a_{1,1} & \dots & a_{1,j-1}& a_{1,j+1}& \dots & a_{1,n} \\\vdots & & \vdots &  \vdots& &\vdots\\ a_{i-1,1} & \dots & a_{i-1,j-1}& a_{i-1,j+1}& \dots & a_{i-1,n} \\ a_{i+1,1} & \dots & a_{i+1,j-1}& a_{i+1,j+1}& \dots & a_{i+1,n} \\ \vdots & & \vdots & \vdots &&\vdots\\ a_{n,1} & \dots & a_{n,j-1}& a_{n,j+1}& \dots & a_{n,n}\end{vmatrix}

Formules de Laplace

Pierre-Simon Laplace
Pierre-Simon Laplace (Pierre-Simon Laplace, né le 23 mars 1749 à Beaumont-en-Auge (Calvados), mort le 5 mars 1827 à Paris, était un mathématicien, astronome et physicien français...)

Si n>1 et A est une matrice carrée de taille n alors on peut calculer son déterminant en fonction des coefficients d'une seule colonne et des cofacteurs correspondants. Cette formule, dite formule de Laplace, permet ainsi de ramener le calcul du déterminant à n calculs de déterminants de taille n-1.

  • Formule de développement par rapport à la colonne j
\det{A}=\sum_{i=1}^{n} a_{i;j} {\rm Cof}_{i,j}
  • On peut donner également une formule de développement par rapport à la ligne i
\det{A}=\sum_{j=1}^{n} a_{i;j} {\rm Cof}_{i,j}


Généralisation (La généralisation est un procédé qui consiste à abstraire un ensemble de concepts ou d'objets en négligeant les détails de façon à ce qu'ils puissent être considérés de façon...)

On introduit la comatrice de A, matrice constituée des cofacteurs de A. On peut généraliser les formules de développement du déterminant par rapport aux lignes ou colonnes

A \times {}^t{{\rm com} A} = {}^t{{\rm com} A}\times A =\det{A} \times I_n


La matrice transposée de la comatrice est appelée matrice complémentaire de A. Notamment si A est inversible, l'inverse (En mathématiques, l'inverse d'un élément x d'un ensemble muni d'une loi de composition interne · notée multiplicativement, est un élément y tel que x·y = y·x = 1, si 1 désigne...) de A est un multiple de la matrice complémentaire. Ce qui veut dire qu'on a obtenu une formule pour l'inverse, ne nécessitant que des calculs de déterminants

A^{-1}=\frac1{\det A} \, {}^t{{\rm com} A}

Cette formule est encore valable si les matrices sont à coefficients dans un anneau A. Elle est utilisée pour démontrer que M est inversible en tant que matrice à coefficients dans A si et seulement si det(M) est inversible comme élément de A.

Elle est d'un intérêt limité pour calculer explicitement des inverses de matrices; en pratique elle est trop lourde dès que n=4 et la méthode plus élémentaire à base d'opérations élémentaires sur les lignes (inversion par pivot de Gauss) est plus efficace, aussi bien pour l'homme (Un homme est un individu de sexe masculin adulte de l'espèce appelée Homme moderne (Homo sapiens) ou plus simplement « Homme ». Par distinction, l'homme...) que pour la machine.

Propriétés de la comatrice

Nous avons

com(In) = In

et

pour toutes matrices d'ordre n M et N, com(MN) = com(N) com(M)

La comatrice est aussi compatible avec la transposition :

com(tM) = t (com(M)).

de plus,

det(com(M)) = det(M)n-1.

Si p(t) = det(M - tIn) est le polynôme caractéristique (En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes...) de M et que q est le polynôme (En mathématiques, un polynôme est la combinaison linéaire des puissances d'une variable, habituellement notée X. Ces objets sont largement utilisés...) défini par q(t) = (p(0) - p(t))/t, alors

tcom(M) = q(M).

La comatrice apparaît dans la formule de la dérivée d'un déterminant.

Pour A \in M_{n}(K):

  • si A est de rang ( Mathématiques En algèbre linéaire, le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Le théorème du rang lie le rang et la dimension du noyau d'une...) n (i.e. A inversible), Com(A) aussi. On a alors Com(A)=det(A)~^{t}A^{-1} et Com(A)^{-1}=\frac{1}{det(A)}~^{t}A.
  • si A est de rang n-1, Com(A) est de rang 1.
  • si A est de rang au plus n-2, Com(A)=0.

Si n \geq 3 et A \in M_{n}(K), Com(Com(A))=det(A)^{n-2}\,A (et est donc nulle si, et seulement si, A n'est pas inversible). Si n=2, on a Com(Com(A))=A pour toute matrice A (ce qu'on peut inclure dans la formule précédente avec la convention x0 = 1 pour tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) x \in K, y compris pour x=0).

Si n \geq 3, les matrices A \in M_{n}(\mathbb{R}) telles que A=Com(A) sont la matrice nulle et les matrices spéciales orthogonales. Si n=2, ce sont les matrices multiples des matrices spéciales orthogonales.

Variations de la fonction déterminant

Le formule de Leibniz (Plusieurs formules portent le nom de Formule de Leibniz) montre que le déterminant d'une matrice A s'exprime comme somme et produit de composantes de A. Il n'est donc pas étonnant que le déterminant ait de bonnes propriétés de régularité. On suppose ici que K est le corps des réels.

Déterminant dépendant d'un paramètre (Un paramètre est au sens large un élément d'information à prendre en compte pour prendre une décision ou pour effectuer un calcul.)

Si t\mapsto A(t) est une fonction de classe \mathcal C^k à valeurs dans les matrices carrées d'ordre n, alors t\mapsto \det A(t) est également de classe \mathcal C^k.

La formule de dérivation s'obtient en faisant intervenir les colonnes de A

\frac{{\rm d}}{{\rm d}t} \left(\det (A_1(t),\dots, A_n(t))  \right)= \sum_{i=1}^n \det (A_1(t),\dots, A_{i-1}(t),A'_i(t),A_{i+1}(t),\dots, A_n(t))

Cette formule est analogue formellement à la dérivée d'un produit de n fonctions numériques.

Le déterminant comme fonction sur l'espace des matrices

  • L'application qui à la matrice A associe son déterminant est continue.

Cette propriété a des conséquences topologiques intéressantes : ainsi le groupe GLn(\mathbb{R}) est un ouvert, le sous-groupe SLn(\mathbb{R}) est un fermé.

  • Cette application est en fait différentiable, et même \mathcal C^\infty

En effet le calcul des cofacteurs peut être vu précisément comme un calcul de dérivée partielle

\frac{\partial \det }{\partial E_{ij}} (A) = {\rm Cof} A_{i,j}

Toutes ces dérivées partielles étant elles-mêmes des déterminants, par récurrence le déterminant est \mathcal C^\infty. En outre on peut écrire le développement limité (En physique et en mathématiques, un développement limité d'une fonction f au voisinage de x0, est l'écriture d'une fonction sous la forme d'une fonction polynôme et d'un reste .) à l'ordre un du déterminant au voisinage (La notion de voisinage correspond à une approche axiomatique équivalente à celle de la topologie. La topologie traite plus naturellement les notions globales comme la continuité qui s'entend ici comme la continuité en tout point. En...) de A

\det (A+H)=\det A + {\rm tr } ({}^t{\rm Com }(A).H)+o(\|H\|)

C'est-à-dire que si on munit Mn(\mathbb{R}) de son produit scalaire (En géométrie vectorielle, le produit scalaire est une opération algébrique s'ajoutant aux lois définissant la structure d'espace vectoriel. À deux vecteurs elle associe leur produit, qui est un nombre (ou scalaire)....) canonique, l'application déterminant a pour gradient

\nabla \det (A) = {\rm Com }(A)

Notamment pour le cas où A est l'identité

\det (I+H)=1 + {\rm tr } (H)+o(\|H\|)\qquad \nabla \det (I) = I
Articles de mathématiques (Les mathématiques constituent un domaine de connaissances abstraites construites à l'aide de raisonnements logiques sur des concepts tels que les nombres, les figures, les structures et les...) en rapport avec l'algèbre linéaire (L’algèbre linéaire est la branche des mathématiques qui s'intéresse à l'étude des espaces vectoriels (ou espaces linéaires), de leurs...)
Espace vectoriel (En algèbre linéaire, un espace vectoriel est une structure algébrique permettant en pratique d'effectuer des combinaisons linéaires. Pour une introduction au concept de vecteur, voir...) | Base | Dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de...) | Matrice | Application linéaire (En mathématiques, une application linéaire (aussi appelée opérateur linéaire ou transformation linéaire) est une application entre deux espaces vectoriels qui respecte l’addition des...) | Déterminant | Trace (TRACE est un télescope spatial de la NASA conçu pour étudier la connexion entre le champ magnétique à petite échelle du Soleil et la géométrie du plasma coronal, à travers des images haute...) | Rang | Théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un...) des facteurs invariants | Réduction d'endomorphisme | Réduction de Jordan (La réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations...) | Décomposition de Dunford (La décomposition de Dunford s'inscrit dans la problématique de la réduction d'endomorphisme. Cette approche consiste à décomposer l'espace vectoriel en une somme directe...) | Valeur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon...) | Polynôme caractéristique | Forme linéaire (En algèbre linéaire, les formes linéaires désignent un type particulier d'applications linéaires. L'étude spécifique qu'on leur accorde est motivée par le fait qu'elles jouent un rôle primordial en mathématiques, et...) | Espace dual (L'espace dual d'un espace vectoriel E est l'ensemble des formes linéaires sur E. La structure d'un espace et celle de son dual sont très liées. La fin de cet...) | Orthogonalité | Produit scalaire | Produit vectoriel (Le produit vectoriel est une opération vectorielle effectuée dans les espaces euclidiens orientés de dimension trois[1]. Le formalisme utilisé actuellement est apparu en 1881 dans un manuel d'analyse vectorielle écrit par Josiah...) | Polynôme d'endomorphisme | Polynôme minimal (Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un endomorphisme, comme expliqué...) | Tenseur | Pseudovecteur | Covecteur | Algèbre multilinéaire (En mathématiques, l’algèbre multilinéaire étend les méthodes de l’algèbre linéaire. Tout comme l’algèbre linéaire est bâtie sur le concept d’un vecteur et développe la théorie des espaces...)
Page générée en 0.186 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique