« Matrice/Inverse » : différence entre les versions

Contenu supprimé Contenu ajouté
mAucun résumé des modifications
réorganisation mineure + preuves
Ligne 41 :
}}
Par conséquent :
*si <math>A</math> est inversible alors <math>\left(A\right)^{-1}</math> l'est aussi, et
*:<math>\left(A^{-1}\right)^{-1}=A</math> ;
*si <math>A,B\in\mathrm{GL}_n \left(K\right)</math> alors le produit <math>AB</math> est inversible, et l'inverse du produit est le produit des inverses, '''dans l'ordre contraire''' :
Ligne 47 :
 
==Condition nécessaire et suffisante d'inversibilité==
===Conditions équivalentes===
{{Théorème|contenu=
DireSoit qu'une matrice carrée ''<math>A''\in\mathrm d'ordre ''n'' est inversible équivaut à chacuneM_n(K)</math>. desLes propositions suivantes (dans lesquelles on identifie ''M''{{ind|''n'',1}}(''K'') à ''K{{exp|n}}'') sont équivalentes :
#''A'' est inversible ;
#l'application linéaire <math>K^n\to K^n,\;X\mapsto AX</math> est bijective (ou, [[Application linéaire/Rang#Caractérisations de la bijectivité|ce qui est équivalent]] : injective, ou encore : surjective) ;
*#''A'' est inversible à gauche, c'est-à-dire qu'il existe une matrice ''B'' telle que ''BA'' = I{{ind|''n''}} ;
*#''A'' est inversible à droite, c'est-à-dire qu'il existe une matrice ''B'' telle que ''AB'' = I{{ind|''n''}}. ;
* #les colonnes de ''A'' forment une base de ''K{{exp|n}}'' ;
*#la transposée de ''A'' est inversible (et dans ce cas, on a <math>(^t\!A)^{-1}={}^t\!(A^{-1})</math>) ;.
}}
{{Démonstration déroulante|contenu=
<math>1\Leftrightarrow2\Leftrightarrow3\Leftrightarrow4</math> : la proposition 3 équivaut à l'injectivité de l'application <math>f:K^n\to K^n,\;X\mapsto AX</math> et la proposition 4 à sa surjectivité. Les deux sont par conséquent équivalentes entre elles, donc équivalentes à la proposition 1.
 
<math>4\Leftrightarrow5</math> : la proposition 4 équivaut à la surjectivité de <math>f</math>, dont l'image est engendrée par les ''n'' colonnes de ''A''.
 
<math>1\Leftrightarrow6</math> : résulte de la formule sur la transposée d'un produit.
}}
 
{{Remarque|contenu=
La deuxième caractérisation se reformule en termes de [[système d'équations linéaires]]. Pour l'application <math>K^n\to K^n,\;X\mapsto AX</math> :
*l'injectivité équivaut à :
* *pour tout ''b'' dans ''K{{exp|n}}'', le système linéaire ''AX = b'' a au plus une solution, ou encore ;à
* *le [[Système d'équations linéaires|système linéaire]] homogène ''AX'' = 0 a pour seule solution ''X'' = 0 (c.-à-d. le noyau de cette application est nul) ;
*la surjectivité équivaut à :
* *pour tout ''b'' dans ''K{{exp|n}}'', le système linéaire ''AX = b'' a au moins une solution ;.
}}
===Non-nullité du déterminant===
Si <math>M</math> est inversible alors son déterminant est évidemment non nul, puisque
:<math>\det \left(M^{-1}\right)\det M=\det\left(M^{-1}M\right)=\det\left(\mathrm I_n\right)=1</math>.
Réciproquement :
 
{{Théorème|contenu=
Une matrice carrée <math>M</math> est inversible si (et seulement si) <math>\det M\ne0</math>.
}}
{{Démonstration déroulante|contenu=
Si <math>M</math> n'est pas inversible alors ses colonnes sont liées (d'après le théorème précédent) donc son déterminant est nul.
}}
Cette réciproque n'est garantie que lorsque ''K'' est un corps commutatif. Si ''K'' est seulement un [[Anneau (mathématiques)|anneau]] commutatif, la condition <math>\det M\ne0</math> est à remplacer par : <math>\det M</math> est inversible dans ''K''. Par exemple dans <math>\mathrm M_n(\Z)</math>, les matrices inversibles ne sont pas toutes les matrices de déterminant non nul, mais seulement celles dont le déterminant est égal à <math>\pm1</math>.
Ligne 60 ⟶ 89 :
*le sous-ensemble des matrices inversibles est dense (cf. [[Espaces vectoriels normés/Exercices/Dimension finie#Exercice 2-2 : densité de GLn]]) ;
*son complémentaire est [[w:Ensemble négligeable|négligeable]], c.-à-d. de [[w:Mesure de Lebesgue|mesure de Lebesgue]] nulle<ref>{{Lien web|auteur=Alexandre Bailleul|titre=Mesure de M{{ind|''n''}}('''R''')\GL{{ind|''n''}}('''R''')|url=http://perso.eleves.ens-rennes.fr/~abailleu/divers/compGLn.pdf|site=perso.eleves.[[w:École normale supérieure de Rennes|ens-rennes]].fr/~abailleu/}}.</ref>{{,}}<ref>{{Article|auteur=Boris Mityagin|titre=The zero set of a real analytic function|revue=[[w:arXiv|arXiv]]|year=2015|url=https://arxiv.org/abs/1512.07276}}.</ref>.
 
===Conditions équivalentes===
Dire qu'une matrice carrée ''A'' d'ordre ''n'' est inversible équivaut à chacune des propositions suivantes (dans lesquelles on identifie ''M''{{ind|''n'',1}}(''K'') à ''K{{exp|n}}'') :
* ''A'' est [[../Relations entre matrices|équivalente]] à la matrice identité I{{ind|''n''}} ;
* les colonnes de ''A'' forment une base de ''K{{exp|n}}'' ;
* le [[Système d'équations linéaires|système linéaire]] homogène ''AX'' = 0 a pour seule solution ''X'' = 0 ;
* pour tout ''b'' dans ''K{{exp|n}}'', le système linéaire ''AX = b'' a au plus une solution ;
* pour tout ''b'' dans ''K{{exp|n}}'', le système linéaire ''AX = b'' a au moins une solution ;
*la transposée de ''A'' est inversible (dans ce cas, on a <math>(^t\!A)^{-1}={}^t\!(A^{-1})</math>) ;
*''A'' est inversible à gauche, c'est-à-dire qu'il existe une matrice ''B'' telle que ''BA'' = I{{ind|''n''}} ;
*''A'' est inversible à droite, c'est-à-dire qu'il existe une matrice ''B'' telle que ''AB'' = I{{ind|''n''}}.
 
== Calcul de l'inverse ==
Ligne 76 ⟶ 94 :
La formule de [[w:Pierre-Simon de Laplace|Laplace]] fournit, lorsque <math>\det A</math> est inversible, une expression de la matrice inverse, à partir de la ''transposée'' de la comatrice de <math>A</math> :
<div style="text-align: center;"><math>A^{-1}=\frac1{\det A}\,{}^t\!\left(\operatorname{com}A\right)</math>.</div>
La comatrice — ou matrice des cofacteurs — <math>\operatorname{com}A</math> est la matrice dont le terme situé en ligne <math>i</math> et colonne <math>j</math> est le coefficient de <math>a_{i,j}</math> dans le développement du déterminant de <math>A</math> par rapport à la ligne <math>i</math> ou à la colonne <math>j</math>. Autrement dit : le cofacteur d'indice <math>\left(i,j\right)</math> est égal à <math>\left(-1\right)^{i+j}</math> que multiplie le déterminant de la matrice déduite de <math>A</math> en «  oubliant  » la ligne <math>i</math> et la colonne <math>j</math>.
 
Par exemple : <math>\operatorname{com}\begin{pmatrix} a & b \\ c & d \end{pmatrix}=\begin{pmatrix}d&-c\\-b&a\end{pmatrix}</math>
Ligne 88 ⟶ 106 :
| titre=Inverse d'une matrice 2 × 2
| contenu =
Un cas très simple (et à mémoriser) est celui des matrices de taille 2 × 2, dont l'inverse est très facile à calculer. Soit la matrice :
<math>M=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \in \mathrm{GL}_2 \left(K\right)</math>
Alors :
<math>M^{-1} = \frac1{\det M}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}</math>.
}}
 
si <math>M=\begin{pmatrix} a & b \\ c & d \end{pmatrix} \in \mathrm{GL}_2 \left(K\right)</math>
 
alors <math>M^{-1} = \frac1{\det M}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}</math>.
}}
{{Démonstration déroulante
| contenu =
La démonstration est immédiate : il suffit de faire le produit. Comme l'inverse est unique, ce calcul est suffisant.
}}
 
 
{{Exemple