Matrice (mathématiques)
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

En mathématiques, les matrices servent à interpréter en termes calculatoires et donc opérationnels les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires comme c'est le cas en optique géométrique (L'optique géométrique est une branche de l'optique, comme le sont l'optique ondulatoire (souvent appelée optique physique) et l'optique quantique. Ces approches ne sont pas opposées, mais complémentaires. L'optique géométrique a été...) avec les approximations de Gauss.

Définitions

Soient A un ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble),...) et (m,n) un couple d'entiers positifs.

On appelle matrice à coefficients dans A, corps commutatif quelconque, de dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de révolution.) (ou taille) (m,n) -ie à m lignes et n colonnes-, une famille (ai,j)d'éléments de A indexée par le produit cartésien (En mathématiques, le produit cartésien de deux ensembles X et Y est l'ensemble de tous les couples, dont la première composante appartient à X et la seconde à...) des ensembles de nombres entiers [1,m] et [1,n].

La matrice M pourra être notée par

M=(a_{i,j})_{1\le i\le m,1\le j\le n},

ou plus simplement (ai,j)i,j, voire (ai,j) si le contexte s'y prête.

On représente généralement une matrice sous la forme d'un tableau (Tableau peut avoir plusieurs sens suivant le contexte employé :) rectangulaire. Par exemple, est représentée ci-dessous une matrice M, à coefficients entiers, et de dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son...) (3,4) :

M=\begin{pmatrix} 0 &1 & 2 & 3\\ 4 & 5 & 6 & 7\\ 8 & 9 & 10 & 11\\ \end{pmatrix}

Dans cette représentation, le premier coefficient (En mathématiques un coefficient est un facteur multiplicatif qui dépend d'un certain objet, comme une variable (par exemple, les coefficients d'un polynôme), un...) de la dimension est le nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de lignes, et le deuxième, le nombre de colonnes du tableau. Une matrice pour laquelle le nombre m de lignes est égal au nombre n de colonnes sera dite matrice carrée de taille n. Une matrice ne comportant qu'une seule ligne et n colonnes est appellée matrice ligne de taille n. Une matrice ne comportant m lignes et une seule colonne est appellée matrice colonne de taille m.

Pour repérer un coefficient d'une matrice, on indique son indice de ligne puis son indice de colonne, les lignes se comptant du haut vers le bas et les colonnes de la gauche vers la droite. Par exemple, on notera ai,j, les coefficients de la matrice M, pour 1\le i\le 3 désignant le numéro de la ligne sur laquelle figure le coefficient envisagé, et 1\le j\le 4 désignant son numéro de colonne ; ainsi a2,4=7.

La disposition générale des coefficients d'une matrice M de taille (m,n) est donc la suivante

M=\begin{bmatrix} a_{1,1} & a_{1,2} & \cdots & a_{1,n}\\ a_{2,1} & a_{2,2} & \cdots & a_{2,n}\\ \vdots & \vdots & \ddots & \vdots\\ a_{m,1} & a_{m,2} & \cdots & a_{m,n}\\ \end{bmatrix}

Pour effectuer certaines opérations, il peut être utile de travailler sur le système des lignes ou des colonnes d'une matrice. On pourra alors l'écrire sous une des formes suivantes

M=\begin{pmatrix} L_1\\L_2\\\vdots \\ L_m\\\end{pmatrix} ou M = \begin{pmatrix} C_1 & C_2 & \dots  & C_n\\ \end{pmatrix}.

L'ensemble des matrices à coefficients dans A possédant m lignes et n colonnes est noté Mm,n(A). Lorsque m=n on note plus simplement Mn(A).

Soit M= (a_{i,j})_{1\le i\le m,\ 1\le j\le n} \in M_{m,n}(A), on appelle transposée de A la matrice ^tM=(a_{j,i})_{1\le j\le n,\ 1\le i\le m}. Remarquons que ^tM\in M_{n,m}(A).

Par exemple, avec la matrice M des exemples précédents, on a

^tM=\begin{pmatrix} 0 & 4 & 8\\ 1 & 5 & 9\\ 2 & 6 & 10\\ 3 & 7 & 11\\ \end{pmatrix}

L'opération de transposition est involutive, c'est-à-dire que ^t{}(^t\!M)=M.

Espaces de matrices

On suppose maintenant que A est muni d'une structure d'anneau unitaire ; les éléments de A seront appelés scalaires, par opposition aux matrices dont nous allons voir qu'elles peuvent être considérées comme des vecteurs.

Addition (L'addition est une opération élémentaire, permettant notamment de décrire la réunion de quantités ou l'adjonction de grandeurs extensives de même nature, comme les longueurs, les aires, ou les volumes. En...) et multiplication (La multiplication est l'une des quatre opérations de l'arithmétique élémentaire avec l'addition, la soustraction et la division .) par un scalaire (Un vrai scalaire est un nombre qui est indépendant du choix de la base choisie pour exprimer les vecteurs, par opposition à un pseudoscalaire, qui...)

On définit sur Mm,n(A) une loi de composition interne (L’algèbre est la branche des mathématiques qui s’intéresse aux ensembles et aux opérations qui peuvent s’y effectuer. Elle recherche les conséquences...) provenant de l'addition des scalaires :

(ai,j) + (bi,j) = (ci,j)\displaystyle c_{i,j}=a_{i,j}+b_{i,j}

On ne peut additionner que deux matrices de même taille.

  • Exemple :
\begin{array}{l} \begin{pmatrix} 0 &1 & 2 & 3\\ 4 & 5 & 6 & 7\\ \end{pmatrix} +  \begin{pmatrix} 0 &0 & 1 & 1\\ 0 & 1 & 0 & 1\\ \end{pmatrix} = \begin{pmatrix} 0 &1 & 3 & 4\\ 4 & 6 & 6 & 8\\ \end{pmatrix} \end{array}

Pour chaque valeur du couple (m,n), l'espace Mm,n(A) devient alors un groupe abélien, d'élément neutre la matrice nulle, celle dont tous les coefficients valent 0.

On définit aussi une opération à gauche de A sur chaque espace Mm,n(A)en associant à chaque matrice (ai,j) à coefficients dans A et chaque scalaire λ dans A, la matrice λ(ai,j) = (λai,j) obtenue en effectuant la multiplication, dans A, de tous les coefficients de la matrice initiale par λ : c'est la multiplication par un scalaire.

En reprenant toujours la matrice M du premier exemple :

2M=\begin{pmatrix} 0 &2 & 4 & 6\\ 8 & 10 & 12 & 14\\ 16 & 18 & 20 & 22\\ \end{pmatrix}

Les espaces Mm,n(A) ainsi obtenus ont donc une structure de A-module à gauche, et plus particulièrement de A-espace vectoriel, si A est un corps commutatif.

Base canonique (Dans un espace vectoriel, une base canonique est une base qui se présente de manière naturelle d'après la manière dont l'espace...) de l'espace des matrices

Alors Mm,n(A) est un A-module libre de dimension mn, muni d'une base canonique (E_{i,j})_{1\le i\le m,\ 1\le j\le n}. La matrice Ei,j est celle dont tous les coefficients sont nuls sauf celui d'indice (i,j), qui vaut 1.

Pour toute matrice M, les coordonnées dans la base canonique sont les coefficients

M = \sum _{1\le i\le n,\ 1\le j\le p} a_{i,j} E_{i,j}
  • Exemple :

\begin{pmatrix} 0 &1 & 2 \\ 4 & 3 & 1 \\ \end{pmatrix} = 0\cdot \begin{pmatrix} 1 &0 & 0 \\ 0 & 0 & 0 \\ \end{pmatrix} + 1\cdot \begin{pmatrix} 0 &1 & 0 \\ 0 & 0 & 0 \\ \end{pmatrix} + 2\cdot \begin{pmatrix} 0 &0 & 1 \\ 0 & 0 & 0 \\ \end{pmatrix} + 4\cdot \begin{pmatrix} 0 &0 & 0 \\ 1 & 0 & 0 \\ \end{pmatrix} + 3\cdot \begin{pmatrix} 0 &0 & 0 \\ 0 & 1 & 0 \\ \end{pmatrix} + 1\cdot \begin{pmatrix} 0 &0 & 0 \\ 0 & 0 & 1 \\ \end{pmatrix}

Produit matriciel (Le produit matriciel désigne le produit de matrices, initialement appelé la « composition des tableaux »[1]. Cet article montre comment multiplier les matrices.)

On commence par définir le produit d'une matrice ligne par une matrice colonne. Soit n un nombre entier, L une matrice ligne, xi ses coefficients, C une matrice colonne, yi ses coefficients. On les suppose toutes deux de taille n. On définit alors le produit, considéré comme un scalaire ou une matrice de dimension (1,1) :

LC = \begin{pmatrix}x_1&\dots&x_n\end{pmatrix}\begin{pmatrix}y_1\\\vdots\\ y_n\end{pmatrix}=\sum_{1\le i\le n} x_iy_i

On remarque la condition de compatibilité sur les tailles des matrices (égalité du nombre de colonnes de la première avec le nombre de lignes de la deuxième). On définit maintenant plus généralement un produit entre deux matrices, la première, (xi,j) dans Mm,n(A), la deuxième, (yi,j) dans Mn,p(A), toujours avec une condition de compatibilité sur les tailles (et l'ordre des facteurs de la multiplication ne peut en général pas être changé). Le résultat obtenu est une matrice de Mm,p(A), dont les coefficients (zi,j) sont obtenus par :

z_{i,j}=\sum_{1\le k \le n} x_{i,k}y_{k,j}=x_{i1}y_{1j}+x_{i2}y_{2j}+\cdots+ x_{ip}y_{pj}

A la lumière (La lumière est l'ensemble des ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde de 380nm (violet) à 780nm...) de l'exemple de la multiplication d'une matrice ligne par une matrice colonne, on peut reformuler cette définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) en disant que ce coefficient est égal au produit de la ligne i de la première matrice par la colonne j de la deuxième, ce qui s'écrit de la manière suivante, si les Li sont les lignes de la première matrice, et les Cj les colonnes de la deuxième, le produit est : \begin{pmatrix}L_1\\\vdots\\ L_m\end{pmatrix}\begin{pmatrix}C_1&\dots&C_p\end{pmatrix}=\begin{pmatrix} L_1C_1 & L_1C_2 & \dots & L_1C_p\\L_2C_1 & L_2C_2 & \dots & L_2C_p\\ \vdots & \vdots & & \vdots\\ L_mC_1 & L_mC_2 & \dots & L_mC_p\\\end{pmatrix}.

Pour calculer en pratique un produit, il est nécessaire de visualiser l'opération. On considère le coefficient c12 de la matrice produit MN si M est une matrice de type (4, 2), et N est une matrice de type (2, 3).

Image:Matrix multiplication diagram.svg
c_{12} = \sum_{r=1}^2 a_{1r}b_{r2} = a_{11}b_{12}+a_{12}b_{22}

Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle (L'addition des matrices est définie pour deux matrices de même type. La somme de deux matrices de type (m, n), A = (aij) et B = (bij), notée A + B, est à nouveau...). En revanche, même si les dimensions permettent de donner un sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but l'extension radicale de l'espérance de vie humaine. Par une évolution progressive...) à la question, même si l'anneau des scalaires est commutatif, un produit de matrices ne commute en général pas : MN n'est pas égal à NM, par exemple :

M =\begin{pmatrix}      0 & 0 \\       1 & 0   \end{pmatrix} \quad   N =\begin{pmatrix}      1 & 0 \\      0 & 0 \\        \end{pmatrix} \quad   MN =\begin{pmatrix}      0 & 0 \\      1 & 0 \\        \end{pmatrix} \quad   NM =\begin{pmatrix}      0 & 0 \\      0 & 0 \\        \end{pmatrix}

Ce contre-exemple (En mathématiques, un contre-exemple est un exemple, un cas particulier ou un résultat général, qui contredit les premières impressions. Un contre-exemple peut aussi être donné pour...) prouve même que les matrices MNet NM ne sont pas toujours semblables.

Lorsque l'anneau des scalaires est commutatif, la transposition et le produit matriciel vérifient la propriété :

\forall M\in M_{n,p}(A),\ \forall N\in  M_{p,q}(A),\ ^t(MN)=^tN\,^t\!M

Matrice identité (En algèbre linéaire, la matrice unité ou matrice identité (cette dernière dénomination étant un anglicisme) est une matrice carrée avec des 1 sur la...) et inverse (En mathématiques, l'inverse d'un élément x d'un ensemble muni d'une loi de composition interne · notée multiplicativement, est un élément y tel que x·y =...) d'une matrice

Pour chaque nombre entier n, on note In la matrice carrée de taille n dont les coefficients diagonaux sont égaux à 1 et dont les autres coefficients sont nuls ; elle est appelée matrice identité de taille n.

I_1=1\quad  I_2= \begin{pmatrix} 1 & 0\\ 0 & 1\end{pmatrix} \quad  I_3=\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \\0 & 0 & 1 \end{pmatrix} \quad I_n=(\delta_{i,j})_{1\le i\le n,1\le j\le n}

δi,j désigne le symbole de Kronecker (En mathématiques, le symbole de Kronecker est une fonction de deux variables qui est égale à 1 si celles-ci sont égales, et 0 sinon. Il est symbolisé par la lettre...).

Sous réserve de compatibilité des tailles, les matrices In sont neutre à droite et à gauche pour la multiplication.

\forall M\in M_{m,n}(A),\ I_m\,M=M\,I_n =M

Soit M une matrice de dimension (m,n). On dit que M est inversible à droite (respectivement à gauche) si et seulement s'il existe une matrice N de taille (n,m) telle que \displaystyle MN = I_m (respectivement \displaystyle NM = I_n). Pour une matrice carrée, à coefficients dans un anneau commutatif, être inversible à droite et à gauche sont deux propriétés équivalentes. Une matrice les vérifiant sera dite inversible, sans plus de précision. Le déterminant est une fonction importante sur les matrices carrées, qui permet notamment de tester leur inversibilité. Le sous-ensemble (En mathématiques, un ensemble A est un sous-ensemble ou une partie d’un ensemble B, ou encore B est sur-ensemble de A, si tout élément du...) de Mn(A) constitué des matrices inversibles possède une structure de groupe pour le produit matriciel, est appelé groupe linéaire et noté \displaystyle GL_n(A).

Algèbre (L'algèbre, mot d'origine arabe al-jabr (الجبر), est la branche des mathématiques qui étudie, d'une façon générale, les structures...) des matrices carrées

Lorsque l'anneau A est commutatif, l'ensemble des matrices carrées Mn(A) est donc muni d'une structure d'algèbre associative (En mathématiques, une algèbre associative est un espace vectoriel dans lequel est aussi définie une multiplication des vecteurs, qui possède les propriétés de distributivité et d'associativité.) et unitaire avec l'addition matricielle, le produit par un scalaire et le produit matriciel.

On appelle matrice scalaire une matrice de la forme aIna est un élement de l'anneau K.

aI_n=\begin{pmatrix} a & 0 & \dots & 0\\ 0 & a & \dots & 0\\ \vdots &\vdots&\ddots& 0\\ 0 & 0&\dots & a \end{pmatrix}

Ces matrices s'appellent matrices scalaires car elles se comportent comme des scalaires, vis-à-vis de la mutliplication :

\forall a\in A,\ \forall M\in M_n(A),\ (aI_n)M = a\cdot M

Lorsque A est commutatif, ou à défaut, losque a est central dans A, c'est-à-dire lorsque a commute avec tous les éléments de A, on a

\forall a\in A,\ \forall M\in M_n(A),\ (aI_n)M = M(aI_n) = a\cdot M

Réciproquement, toute matrice N de Mn(A) telle que \forall M\in M_n(A),\ MN = NM est une matrice scalaire aIna est central dans M. Ceci se démontre en prenant pour M les matrices de la base canonique.

Une matrice de la forme :

\begin{pmatrix} a_1 & 0 & \dots & 0\\ 0 & a_2 & \dots & 0\\ \vdots &\vdots&\ddots& 0\\ 0 & 0&\dots & a_n \end{pmatrix}

sera dite matrice diagonale (En algèbre linéaire, une matrice diagonale est une matrice carrée dont les coefficients en dehors de la diagonale principale sont nuls. Les coefficients de la diagonale peuvent être ou ne...).

Outre le déterminant, une autre fonction à noter est la trace (TRACE est un télescope spatial de la NASA conçu pour étudier la connexion entre le champ magnétique à petite échelle du Soleil et la géométrie du plasma coronal, à...). Toutes deux apparaissent dans un objet (De manière générale, le mot objet (du latin objectum, 1361) désigne une entité définie dans un espace à trois dimensions, qui a une fonction précise, et qui peut être désigné par une étiquette verbale. Il est...) plus général, le polynôme caractéristique (En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé...), qui a sont tour permet d'obtenir certaines caractérisations des matrices diagonalisables (c'est-à-dire semblable (voir ci-dessous) à une matrice diagonale), ou de la trigonalisation (En algèbre linéaire, trigonaliser une matrice consiste à réduire celle-ci sous la forme d'une matrice triangulaire supérieure, ou inférieure. Ceci...).

Actions du groupe linéaire

Il existe plusieurs manières de faire agir le groupe linéaire \displaystyle GL_n(A) sur les espaces de matrices, et notamment :

  • action par multiplication à gauche de \displaystyle GL_m(A) sur Mm,n(A), qui à P et M, associe PM,
  • action (à droite) par multiplication à doite de \displaystyle GL_n(A) sur Mm,n(A), qui à Q\in\displaystyle GL_n(A) et M\in M_{m,n}(A), associe MQ,
  • action par conjugaison de \displaystyle GL_n(A) sur Mn(A), qui à X\in\displaystyle GL_n(A) et M\in M_n(A), associe XMX − 1.

On décrit maintenant les résultats classiques sur ces actions, lorsque les scalaires forment un corps commutatif. Les deux premières actions sont souvent considérées simultanément ; on s'intéresse donc à la question : deux matrices M1 et M2 de dimension (m,n) étant données, existe-t-il des matrices P\in\displaystyle GL_m(A) et Q\in\displaystyle GL_n(A) telles que M1 = PM2Q ? Si tel est le cas, les deux matrices M1 et M2 sont dites équivalentes. Le résultat principal est que deux matrices sont équivalentes si et seulement si elles ont même rang ( Mathématiques En algèbre linéaire, le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Le théorème du rang lie le...), ce qui s'exprime encore en disant que le rang est un invariant complet pour les doubles classes définies par les deux actions de multiplication à gauche et à droite. Par ailleurs, une matrice étant donnée (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un...), on peut trouver d'autres matrices privilégiées (les matrices échelonnées) dans la même orbite (En mécanique céleste, une orbite est la trajectoire que dessine dans l'espace un corps autour d'un autre corps sous l'effet de la gravitation.) pour une de ces actions par la méthode du pivot de Gauss.

Pour l'action par conjugaison, deux matrices carrées M1 et M2 de taille n dans la même orbite admettent une relation de la forme M1 = PM2P − 1, pour une certaine matrice P inversible de taille n ; deux telles matrices sont dites semblables. La description d'un système complet d'invariants est plus délicate. On appelle ces invariants les invariants de similitude. D'un point (Graphie) de vue (La vue est le sens qui permet d'observer et d'analyser l'environnement par la réception et l'interprétation des rayonnements lumineux.) algorithmique (L'algorithmique est l’ensemble des règles et des techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est à dire de processus systématiques de résolution, par le calcul,...), la réduction d'une matrice quelconque à une matrice sous une forme privilégiée se fait par un algorithme inspiré de celui du pivot de Gauss, voir théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un...) des facteurs invariants.

Interprétations linéaires

Un intérêt principal des matrices est qu'elles permettent d'écrire commodément les opérations habituelles de l'algèbre linéaire (L’algèbre linéaire est la branche des mathématiques qui s'intéresse à l'étude des espaces vectoriels (ou espaces linéaires), de leurs éléments les vecteurs, des...), avec une certaine canonicité.

Coordonnées

Le premier point est de remarquer que le A-module An s'identifie canoniquement à l'espace de matrices colonnes Mn,1(A) : si ei est le n-uplet dont tous les coefficients sont nuls, sauf le i-ème qui vaut 1, on lui associe la matrice colonne élémentaire dont tous les coefficients sont nuls sauf le i-ème qui vaut 1, et on étend l'identification par linéarité ; la matrice associée à chaque n-uplet sera appelée matrice coordonnée canonique.

D'autres identifications sont cependant possibles ; lorsqu'on peut parler de base (si l'anneau des scalaires est un corps, ou est principal, par exemple), on peut associer les matrices colonnes élémentaires à n'importe quelle base de l'espace An (ou plus généralement d'un A-module libre), puis à nouveau étendre par linéarité ; les matrices associées seront appelées matrices coordonnées dans la base envisagée.

On peut concaténer les matrices coordonnées, dans une base fixée, de plusieurs n-uplets. On obtient ainsi la matrice coordonnée d'une famille de vecteurs. Le rang de la matrice est alors défini comme la dimension de la famille de ces vecteurs. En particulier la matrice d'une base dans une autre base est appelée matrice de passage (Une matrice de passage permet d'écrire des formules de changement de base pour les représentations matricielles des vecteurs, des endomorphismes, des formes bilinéaires.) entre ces deux bases, ou matrice de changement de base. Si X et X' sont les matrices coordonnées du même vecteur (En mathématiques, un vecteur est un élément d'un espace vectoriel, ce qui permet d'effectuer des opérations d'addition et de multiplication par un scalaire. Un n-uplet peut constituer un...) dans deux bases B et C, et que P est la matrice de la base C dans la base B, on a la relation :

X=PX'\quad X'=P^{-1} X

Applications linéaires

Soit E et F deux A-module (à gauche) libres de dimensions finies. Soit B=(e1,...,ep) une base de E et C=(f1,...,fn) une base de F. Soit enfin φ une application linéaire (En mathématiques, une application linéaire (aussi appelée opérateur linéaire ou transformation linéaire) est une application entre deux espaces vectoriels qui respecte l’addition des vecteurs et la multiplication scalaire définie...) de E dans F.

On appelle matrice de φ dans le couple de bases (B,C) la matrice : mat_{ B, C}\,\phi = mat_{C}(\varphi(e_1),\dots,\varphi(e_p)). L'application de \mathcal L(E,F) dans Mn,p(A) qui à \varphi associe la matrice :M=mat_{ B, C}\, \varphi est un isomorphisme.

Soit x un vecteur de E. Notons y=\varphi(x), X=mat_{B}\,x, Y=mat_{ B}\,y et M=mat_{ B, C}\,\varphi. Lorsque l'anneau A est commutatif (ou si on travaille avec des modules à droite), ces matrices sont reliées par :

\displaystyle Y=MX

Cette formule devient ^tY=^t\!\!M\,^tX pour des modules à gauche sur un anneau non commutatif.

L'application X\mapsto MX du A-module Mp,1(A) dans le A-module Mn,1(A) est linéaire et sa matrice dans les bases canoniques est \displaystyle M. C'est un point clef (Au sens propre, la clef ou clé (les deux orthographes sont correctes) est un dispositif amovible permettant d'actionner un mécanisme.) du lien entre algèbre linéaire et matrices.

En conséquence, il arrive souvent qu'on l'identifie avec l'application linéaire ci-dessus. On parlera alors de noyau de la matrice, d'espaces propres de la matrice, d'image de la matrice, etc.

Si E et F sont deux A-modules, B et B' deux bases de E, de cardinal p, et C et C' deux bases de F de cardinal n, P la matrice de B' dans B et Q la matrice de C' dans C, alors les deux matrices M et M' d'une même application linéaire \varphi de E dans F, dans les couples de bases (B,C) et (B',C') sont liées par la relation :

M'=Q^{-1} M P\quad M=Q M' P^{-1}.

On constate ainsi que deux matrices équivalentes, d'après la définition donnée (Dans les technologies de l'information, une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction, d'un événement, etc.) plus haut dans l'article, sont deux matrices qui représentent la même application linéaire dans des bases différentes.

En particulier, dans le cas d'un endomorphisme, si on impose B= B' et C=C' , les formules précédentes se simplifient :

M'=P^{-1} M P\quad M=P M' P^{-1}

On constate ainsi que deux matrices semblables, d'après la définition donnée plus haut dans l'article, sont deux matrices qui représentent le même endomorphisme dans des bases différentes.

Interprétations bilinéaires

Dans ce paragraphe, l'anneau commutatif des scalaires sera noté (K,+,\cdot). Dans la plupart des applications, ce sera un corps commutatif.

Le cas non commutatif existe aussi mais il faut prendre quelques précautions et les notations deviennent trop lourdes pour cet article.

Matrice d'une forme bilinéaire (Soit E, F et G trois espaces vectoriels sur un corps . Soit une application, on dit que est bilinéaire si et seulement si elle est linéaire en chacune de ses...)

Soit E un K-module libre et \mathcal B=(e_1,\dots,e_n) une base de E.

Soit f : E\times E \to K une forme bilinéaire. On définit la matrice de f dans la base \mathcal B par la formule suivante :

mat_{\mathcal B}\, f = (f(e_i,e_j))_{1\le _i\le n,\ 1\le j\le n}= \begin{pmatrix} f(e_1,e_1) & f(e_1,e_2) & \dots & f(e_1,e_n)\\ f(e_2,e_1) & f(e_2,e_2) & \dots & f(e_2,e_n)\\ \vdots & \vdots & \ddots & \vdots\\ f(e_n,e_1) & f(e_n,e_2) & \dots & f(e_n,e_n)\\ \end{pmatrix}

Dans le cas particulier où K=\R et f est un produit scalaire (En géométrie vectorielle, le produit scalaire est une opération algébrique s'ajoutant aux lois définissant la structure d'espace vectoriel. À deux vecteurs...), cette matrice est appelée matrice de Gram.

mat_{\mathcal B}\, f est symétrique (respectivement antisymétrique) si et seulement si f est symétrique (respectivement antisymétrique).

Soit x et y deux vecteurs de E. Notons X et Y leurs coordonnées dans la base \mathcal B et A=mat_{\mathcal B}\, f. On a alors la formule : f(x,y) = tXAY.

Deux formes bilinéaires sont égales si et seulement si elles ont la même matrice dans une base donnée.

Matrice d'une forme quadratique (En mathématiques, une forme quadratique est un polynôme homogène de degré deux avec un nombre quelconque de variables. Par exemple, la distance...)

Lorsque (K,+,\cdot) est un corps de caractéristique différente (En mathématiques, la différente est définie en théorie algébrique des nombres pour mesurer l'éventuel défaut de dualité d'une application définie à l'aide de la trace, dans l'anneau...) de 2, on appelle matrice d'une forme quadratique la matrice la matrice de la forme bilinéaire symétrique dont est issue la forme quadratique.

Formule de changement de base

Soit E un K-module libre, \mathcal B et \mathcal C deux bases de E. Soit f : E\times E \to K une forme bilinéaire.

Notons A = mat_{\mathcal B}\, f la matrice de A dans la base \mathcal B et B = mat_{\mathcal C}\, f la matrice de A dans la base \mathcal C. Notons P =mat_{\mathcal B}\, \mathcal C la matrice de passage. On a alors : \displaystyle B=^tPAP

Matrices congruentes

Deux matrices carrées A et B sont dites congruentes s'il existe une matrice inversible (En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière, s'il existe une matrice B d'ordre n...) P telle que A = tPBP.

Deux matrices congruentes sont deux matrices qui représentent la même forme bilinéaire dans deux bases différentes.

Lorsque (K,+,\cdot) est un corps de caractéristique différente de 2, toute matrice symétrique (ce qui exige que A soit une matrice carrée.) est congruente à une matrice diagonale (On appelle diagonale d'un polygone tout segment reliant deux sommets non consécutifs (non reliés par un côté). Un polygone à n côtés possède diagonales.). L'algorithme utilisé s'appelle réduction de Gauss à ne pas confondre avec le pivot de Gauss.

Matrices orthogonales

Matrices unitaires

Matrices symétriques

Matrices antisymétriques

Matrice d'une forme sesquilinéaire

Matrices hermitiennes

Une matrice A est dite hermitienne si A_{i,j} = \overline{A}_{j,i} \quad \forall \  i,j.

Exemple

A=\begin{pmatrix}3&i&-5i\\-i&-2&5\\ 5i&5&10\end{pmatrix} est une matrice hermitienne.

Décomposition (En biologie, la décomposition est le processus par lequel des corps organisés, qu'ils soient d'origine animale ou végétale dès...) d'une matrice

  • On utilise abusivement le terme décomposition d'une matrice, qu'il s'agisse d'une véritable décomposition (en somme) comme dans la décomposition de Dunford (La décomposition de Dunford s'inscrit dans la problématique de la réduction d'endomorphisme. Cette approche consiste à décomposer l'espace vectoriel en une somme directe de sous-espaces stables où l'expression de l'endomorphisme est plus...) ou d'une factorisation comme dans la plupart des autres décomposition.

Réduction d'une matrice carrée

  • Réduire une matrice, c'est trouver une matrice qui lui est semblable le plus simple possible.
  • Une matrice diagonalisable est une matrice semblable à une matrice diagonale.

A est diagonalisable si et seulement si il existe une matrice inversible P et une matrice diagonale D telles que A = P − 1DP.

  • Sur un corps algébriquement clos, on dispose de la réduction de Jordan (La réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations...) qui est optimale et il existe des décompositions intermédiaires comme la décomposition de Dunford qui utilise les sous-espaces caractéristiques ou celle de Froebenius qui utilise les sous-espaces cycliques.
  • Les polynômes d'endomorphismes jouent un rôle crucial dans les techniques de réduction.

Décomposition LU (En algèbre linéaire, la décomposition LU est une méthode de décomposition d'une matrice en une matrice triangulaire inférieure L (comme "Low", bas) et une matrice triangulaire supérieure U (comme "Up",...)

  • C'est une factorisation en produit de deux matrices triangulaires.
  • En lien avec le pivot de Gauss, c'est une méthode qui permet d'inverser une matrice.

Décomposition QR (En algèbre linéaire, la décomposition QR (appelée aussi, décomposition QU) d'une matrice A est une décomposition de la forme)

  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale (Une matrice carrée A (n lignes, n colonnes) à coefficients réels est dite orthogonale si elle vérifie :) et d'une matrice triangulaire (En algèbre linéaire, les matrices triangulaires sont des matrices carrées dont une partie triangulaire des valeurs, délimitée par la diagonale principale, est...).
  • C'est une traduction matricielle du procédé de Gram-Schmidt (En algèbre linéaire, le procédé de Gram-Schmidt est une méthode pour orthonormaliser une famille libre de vecteurs d'un espace vectoriel muni d'un produit scalaire.).

Décomposition polaire

  • C'est un résultat sur les matrices à coefficients réels ou à coefficients complexes.
  • C'est une factorisation en produit d'une matrice orthogonale et d'une matrice symétrique strictement positive dans le cas réel, en produit d'une matrice unitaire (En algèbre linéaire, une matrice A est une matrice unitaire si elle vérifie l'égalité suivante: , avec A * la matrice adjointe de la matrice A et I la matrice identité.) et d'une matrice hermitienne strictement positive dans le cas complexe.
  • On peut décomposer à droite ou à gauche.
  • On a unicité de la factorisation pour les matrices inversibles.

Normes et rayon spectral

Dans tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) ce paragraphe, les matrices considérées sont dans \mathcal M_n(\R) ou \mathcal M_n(\mathbb C). De plus on identifie une matrice A avec l'endomorphisme de \mathcal M_{n,1}(\R) ou \mathcal M_{n,1}(\mathbb C) qui à la matrice colonne X associe la matrice colonne AX. Le cas réel et le cas complexe sont identiques.

Normes et normes d'algèbre

Soit N une norme (Une norme, du latin norma (« équerre, règle ») désigne un état habituellement répandu ou moyen considéré le plus souvent comme une...) sur \mathcal M_n(\R) ou \mathcal M_n(\mathbb C).

On dira que N est une norme d'algèbre (on dit aussi norme de Banach) si et seulement si

\forall (A,B),\  N(AB)\le N(A)N(B)

Certains auteurs imposent en outre que N(In) = 1

Pour une norme quelconque, l'application bilinéaire (A,B) \mapsto AB étant continue (on est en dimension finie), on est assuré de l'existence d'une constante k > 0 telle que

\forall (A,B),\  N(AB)\le kN(A)N(B)

Par suite, la norme \frac1k N est une norme d'algèbre. Toute norme est donc proportionnelle à une norme d'algèbre.

Rayon spectral

Soit A une matrice carrée à coefficients complexes. On appelle rayon spectral le plus grand module des valeurs propres de A. Dans tout ce qui suit, on notera ρ(A) le rayon spectral de A.

Théorème : Pour toute norme d'algèbre N sur \mathcal M_n(\R) (respectivement dans \mathcal M_n(\mathbb C)) et pour toute matrice A dans \mathcal M_n(\R) (respectivement dans \mathcal M_n(\mathbb C)), l'inégalité suivante est vérifiée :

\rho(A)\le N(A)

Démonstration : Soit λ une valeur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il...) de A et X un vecteur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il...) associé. notons B la matrice carrée dont la première colonne est X et les autres sont nulles. On a AB = λB donc N(AB) = |\lambda| N(B)\le N(A)N(B) et on peut simplifier par N(B) car le vecteur X étant non nul, il en est de même de la matrice B.

De plus, on montre que \rho(A) = \inf N(A), la borne inférieure étant prise sur l'ensemble des normes subordonnées, donc a fortiori sur l'ensemble des normes d'algèbre.

Par contre, l'égalité peut s'évérer impossible. Il suffit pour cela de considérer une matrice non nulle dont le rayon spectral est nul : \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix}

Normes subordonnées

Lorsqu'on munit \mathcal M_{n,1}(\R) d'une norme \|.\|, on munit automatiquement \mathcal M_n(\R) d'une norme, appelée norme subordonnée à \|.\|. Elle est donnée par la formule suivante donnée pour une matrice A quelconque dans \mathcal M_{n,1}(\R) : |||A ||| = \sup _{\|X\|\le 1} \|AX\|

En notant A=(a_{i,j})_{1\le i\le n,\ 1\le j\le n}, on a

  • Si \|X\| = \max_{1\leq i \leq n} |x_i|, (norme infinie), alors la norme de A vaut :
\max_{1\leq i \leq n} \sum _{1\leq j \leq n} |a_{i,j}|
  • Si \|X\| = \sum _{1\leq i \leq n} |x_i|, (norme indice 1), alors la norme de A vaut :
\max_{1\leq j \leq n} \sum _{1\leq i \leq n} |a_{i,j}|

Toute norme subordonnée est une norme d'algèbre avec en plus | | | In | | | = 1.

Démontrer la réciproque ou insérer contre-exemple pour la réciproque. Pour la réciproque, on pourrait construire \|X\| = \inf_{AX_0=X} N(A) mais je n'ai pas vérifié que ça marche (La marche (le pléonasme marche à pied est également souvent utilisé) est un mode de locomotion naturel. Il consiste en un déplacement en appui alternatif sur les jambes, en position...).

D'autre part, si deux normes subordonnées sont égales, les normes auxquelles celle-ci sont subordonnées sont proportionnelles. C'est une conséquence immédiate du théorème de Hahn-Banach.

Norme subordonnée à la norme euclidienne

On se place dans la cas où \mathcal M_{n,1}(\R) est muni de sa norme euclidienne canonique donnée par \|X\|^2 = \sum _{1\leq i \leq n} |x_i|^2.

Lorsque A est une matrice symétrique (respectivement hermitienne), la norme de A est égale au rayon spectral de A.

Dans le cas où A est une matrice quelconque, la norme de A est égal à \sqrt {\rho(^tAA)}.

La norme de A est donc la plus grande des valeurs singulière de A (les valeurs singulière de A sont, par définition, les racines carrées des valeurs propres de tAA).

Exponentielle (La fonction exponentielle est l'une des applications les plus importantes en analyse, ou plus généralement en mathématiques et dans ses domaines d'applications. Il existe plusieurs définitions équivalentes : un morphisme continu de...) d'une matrice

Soit A\in\mathcal M_n(\mathbb C), Soit N une norme d'algèbre et \sum a_n z^n une série entière de rayon de convergence (Le terme de convergence est utilisé dans de nombreux domaines :) R.

Alors si N(A) < R, la série \sum a_n A^n est absolument convergente. La ruse, c'est que N(A^n)\le N(A)^n.

En particulier, on peut définir, pour toute matrice carrée complexe, la quantité (La quantité est un terme générique de la métrologie (compte, montant) ; un scalaire, vecteur, nombre d’objets ou d’une autre manière de dénommer la valeur d’une collection ou un groupe...)

\exp (A) = \sum_{k=0}^{+\infty} \frac1{n!} A^n

Le calcul effectif de cette exponentielle se fait par réduction de la matrice.

L'exponentielle joue (La joue est la partie du visage qui recouvre la cavité buccale, fermée par les mâchoires. On appelle aussi joue le muscle qui sert principalement à ouvrir et fermer la bouche et à mastiquer.) un rôle central dans l'étude des systèmes linéaires d'équations différentielles.

Page générée en 0.406 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique