Subsections


Déterminants, inversion de matrices

On a déjà vu dans le chapitre précédent comment on peut dans des cas simples calculer l'inverse d'une matrice. Dans des cas plus complexes, comme par exemple dans le cas de matrices de grandes taille, il est parfois utile d'utiliser une approche différente, basée sur la notion de déterminant.

Déterminants

Déterminants en dimension 2

Soient $ {\vec{u}}=(x,y)$ et $ {\vec{v}}=(x',y')$ deux vecteurs de $ {\mathbb{R}}^2$. On se pose le problème de calculer l'aire $ {\mathcal A}$ du parallélogramme engendré par $ {\vec{u}}$ et $ {\vec{v}}$.

Une construction géométrique simple (voir FIG. [*]) permet de montrer que cette aire vaut

$\displaystyle {\mathcal A}= \vert xy' - x'y\vert\ .
$

Cette quantité est directement reliée à ce que l'on appelle le déterminant des vecteurs $ {\vec{u}}$ et $ {\vec{v}}$.

Figure: Détermination géométrique de l'aire d'un parallèlogramme, et relation avec le déterminant des deux vecteurs engendrant ce parallélogramme.
Image determinantw1

REMARQUE 4.1   Cette construction géométrique a aussi la vertu de montrer que contrairement à ce que la formule ci-dessus pourrait laisser croire, le déterminant est indépendant du repère orthonormé choisi.

Le déterminant est quant à lui défini de la façon suivante:
\begin{definition}
Soient ${\vec{u}}=(x,y)$\ et ${\vec{v}}= (x',y')$\ deux vecte...
...on}
{\rm det}({\vec{u}},{\vec{v}}) = xy' - x'y\ .
\end{equation}\end{definition}
Ce déterminant possède certaines propriétés simples, dont on verra la forme plus générale dans le cas de matrices plus grandes. Les propriétés les plus importantes sont les propriétés de bilinéarité et d'antisymétrie.


Le déterminant d'une matrice $ 2\times 2$ est défini de façon similaire, en utilisant les colonnes des matrices
\begin{definition}
Soit $A \in{\mathcal M}_2(\mathbb{K})$\ une matrice $2\times ...
...th}alors
\begin{equation}
{\rm det}(A) = ad-bc\ .
\end{equation}\end{definition}
On note également le déterminant d'une matrice sous la forme

$\displaystyle {\rm det}\left(\begin{array}{cc}
a&b \\ c&d\end{array}\right) = \left\vert\begin{array}{cc}
a&b \\ c&d\end{array}\right\vert$ (4.6)

EXEMPLE 4.1   On voit facilement que

$\displaystyle \begin{vmatrix}1&-2\\ -7&14\end{vmatrix} = 0 \ .
$

EXEMPLE 4.2   matrice de rotation. Nous avons déjà rencontré les matrices de rotation d'angle $ \theta$ du plan

\begin{displaymath}
R_\theta = \left(
\begin{array}{cc}
\cos\theta&-\sin\theta\\
\sin\theta&\cos\theta
\end{array}\right)\ .
\end{displaymath}

Un calcul simple montre que

$\displaystyle {\rm det}(R_\theta) = \cos^2\theta + \sin^2\theta = 1\ ,
$

ce qui est somme toute logique si on se souvient que le déterminant de la matrice est égal au déterminant de ses colonnes, qui est égal (au signe près) à l'aire du parallèlogramme qu'ils définissent, à savoir un carré de côté 1.


On peut vérifier directement la propriété suivante à partir de la définition du déterminant.
\begin{lemma}
Soit $A\in{\mathcal M}_2(\mathbb{C})$, et soit ${}^T\!A$\ sa trans...
...egin{displaymath}
{\rm det}({}^T\!A) = {\rm det}(A)
\end{displaymath}\end{lemma}

Le déterminant des matrices $ 2\times 2$ hérite des propriétés du déterminant des vecteurs, à savoir les propriétés d'antisymétrie et de bilinéarité. Ces propriétés, combinées au lemme ci-dessus, conduisent aux propriétés suivantes.

Application à la résolution d'un système linéaire de deux équations à deux inconnues.

Considérons le système linéaire de deux équations à deux inconnues

\begin{displaymath}
\left\{
\begin{array}{lllll}
ax &+& by &=& u\\
cx &+& dy &=& v
\end{array}\right.
\end{displaymath}

Supposons par exemple $ d\ne 0$; en éliminant $ x$ de la seconde équation, on obtient

$\displaystyle y=(v-cx)/d\ ,
$

d'où en reportant dans la première équation,

$\displaystyle ax + b(v-cx)/d = u\ ,
$

on tire, à condition que $ ad-bc\ne 0$,

$\displaystyle x = \frac{ud-vb}{ad-bc}\ ,
$

et de là

$\displaystyle y = \frac{av-uc}{ad-bc}\ .
$

En termes matriciels, le système peut aussi s'écrire

$\displaystyle \left(\begin{array}{cc}a&b\\ c&d\end{array}\right)
\left(\begin{array}{c}x\\ y\end{array}\right)
=\left(\begin{array}{c}u\\ v\end{array}\right)\ ,
$

et on reconnaît

$\displaystyle \begin{pmatrix}x\\ y\end{pmatrix}= \frac1{ad-bc} \begin{pmatrix}d&-b\\ -c&a\end{pmatrix}\begin{pmatrix}u\\ v\end{pmatrix}\ .
$

Ceci étant vrai pour tous $ u,v$, on en déduit

$\displaystyle \left(\begin{array}{cc}a&b\\ c&d\end{array}\right){^{-1}}
= \frac1{ad-bc} \begin{pmatrix}d&-b\\ -c&a\end{pmatrix}\ .
$

On voit bien apparaître le rôle du déterminant dans ce résultat. Comme on le verra, ce résultat restera vrai pour des matrices carrées de taille quelconque.


Notons aussi que la solution est de la forme

$\displaystyle x = \frac{\left\vert\begin{array}{cc}u&b\\ v&d\end{array}\right\v...
...y}\right\vert}
{\left\vert\begin{array}{cc}a&b\\ c&d\end{array}\right\vert}\ .
$

Comme on l'a vu, le dénominateur de $ x$ et $ y$ n'est autre que le déterminant de la matrice $ \left(\begin{array}{cc} a&b\\ c&d\end{array}\right)$. Le numérateur de $ x$ est le déterminant d'une autre matrice, obtenue à partir de $ \left(\begin{array}{cc} a&b\\ c&d\end{array}\right)$ en substituant à la première colonne la colonne $ \left(\begin{array}{c}u\\ v\end{array}\right)$. Le numérateur de $ y$ est quant à lui le déterminant de la matrice obtenue à partir de $ \left(\begin{array}{cc} a&b\\ c&d\end{array}\right)$ en substituant à la seconde colonne la colonne $ \left(\begin{array}{c}u\\ v\end{array}\right)$.

Là encore, ce résultat n'est pas une coïncidence, mais n'est que le cas particulier d'une situation plus générale, dans laquelle on verra que les déterminants jouent un rôle central pour la résolution de systèmes linéaires.

Déterminant en dimension 3

Comme en dimension 2, il est possible d'introduire le déterminant de trois vecteurs de $ {\mathbb{R}}^3$ de façon géométrique: le volume du parallélépipède engendré par ces trois vecteurs est égal à la valeur absolue du déterminant de ces trois vecteurs. On définit alors le déterminant d'une matrice $ 3\times 3$ comme le déterminant de ses trois vecteurs colonne.

Cette définition est toutefois difficile à utiliser en dimensions supérieures, et on préfère en donner une autre, plus opératoire.
\begin{definition}
Soit
\begin{displaymath}
A=\left(
\begin{array}{ccc}
a_{11}&a...
...}&a_{22}\\ a_{31}&a_{32}\end{array}\right\vert\ .
\end{equation}\end{definition}

On peut vérifier que ce déterminant possède toutes les propriétés que nous avions déjà rencontrées dans le cas des matrices $ 2\times 2$:

Calculons maintenant, pour $ A\in{\mathcal M}_3(\mathbb{C})$,

$\displaystyle {\rm det}(A)$ $\displaystyle =$ $\displaystyle a_{11}(a_{22}a_{33}-a_{23}a_{32}) -
a_{12}(a_{21}a_{33}-a_{23}a_{31})
+ a_{13}(a_{21}a_{32}-a_{22}a_{31})$  
  $\displaystyle =$ $\displaystyle a_{11}(a_{22}a_{33}-a_{23}a_{32}) - a_{21}(a_{12}a_{33}-a_{32}a_{13})
+ a_{31}(a_{12}a_{23} - a_{13}a_{22})$  
  $\displaystyle =$ $\displaystyle {\rm det}({}^T\!A)\ .$  

Ainsi, le Lemme [*] reste vrai pour les matrices $ 3\times 3$
\begin{lemma}
Soit $A\in{\mathcal M}_3(\mathbb{C})$, et soit ${}^T\!A$\ sa trans...
...egin{displaymath}
{\rm det}({}^T\!A) = {\rm det}(A)
\end{displaymath}\end{lemma}
Par conséquent, on peut appliquer toutes les propriétés que nous avons énoncées ci-dessus (bilinéarité, antisymétrie,...) en remplaçant les colonnes par les lignes.


De plus, ces propriétés donnent d'autres possibilités pour calculer le déterminant d'une matrice. On a besoin pour cela d'introduire une notation nouvelle. Etant donnée $ A\in{\mathcal M}_n(\mathbb{C})$, on notera $ A_{ij}\in{\mathcal M}_{n-1}(\mathbb{C})$ la matrice à $ n-1$ lignes et $ n-1$ colonnes obtenue en supprimant la $ i$-ième ligne et la $ j$-ième colonne de $ A$:

$\displaystyle A_{ij} = \left(\begin{array}{cccccc}
a_{11}&\dots&a_{1(j-1)}&a_{1...
...&&\vdots\\
a_{n1}&\dots&a_{n(j-1)}&a_{n(j+1)}&\dots& a_{nn}
\end{array}\right)$ (4.7)


\begin{definition}
On appelle {\bf cofacteur}\index{Cofacteur} de l'\'element $a...
...
{\rm cof}(a_{ij}) = (-1)^{i+j} {\rm det}(A_{ij})
\end{equation}\end{definition}

On a alors
\begin{theorem}
Soit $A\in{\mathcal M}_3(\mathbb{C})$. Le d\'eterminant de $A$\ ...
...(a_{2j}) +
a_{3j}{\rm cof}(a_{3j})\ .
\end{equation}\end{enumerate}\end{theorem}


Ce théorème est intéressant, car il montre qu'il existe plusieurs façons différentes de calculer un déterminant, et qu'il est donc possible de choisir celle qui sera la plus simple, comme on va le voir dans l'exemple ci-dessous.

EXEMPLE 4.3   Soit à calculer

$\displaystyle {\rm det}(A) =
\begin{vmatrix}
1&2&3\\ 0&1&0\\ 1&3&2
\end{vmatrix}\ .
$

En développant ce déterminant par rapport à sa première ligne, comme dans la définition, on a à calculer trois déterminants $ 2\times 2$. Si par contre on développe par rapport à la deuxième ligne, on obtient

$\displaystyle {\rm det}(A) = (-1)^4 \begin{vmatrix}1&3\\ 1&2\end{vmatrix} = -1\ .
$


Le résultat suivant est essentiel, dans la mesure où il permet dans certains cas de montrer qu'un déterminant est nul sans faire le moindre calcul.
\begin{proposition}
Soit $A\in{\mathcal M}_3(\mathbb{C})$.
Le d\'eterminant de $...
... est combinaison lin\'eaire des autres lignes).
\end{enumerate}\end{proposition}
Preuve: Il suffit de montrer cette proposition dans le cas des colonnes. Pour démontrer le cas des lignes, il suffit d'appliquer les résultats concernant les colonnes à la transposée de la matrice $ A$, qui possède le même déterminant.

  1. On voit facilement que si la première colonne de $ A$ est nulle, le déterminant de $ A$ est nul. Si $ A$ possède une colonne nulle, on peut par permutations se ramener à une matrice dont la première colonne est nulle. Le déterminant de cette dernière matrice (qui est égal au déterminant de $ A$, à un signe près) est nul, et donc $ {\rm det}(A)=0$.
  2. Supposons que $ A$ possède deux colonnes adjacentes identiques; alors en les permutant (ce qui ne change rien !), on change le signe du déterminant. Ce dernier est nécessairement nul. Si $ A$ possède deux colonnes identiques, on peut par permutations remplacer $ A$ par une matrice $ B$ ayant (au signe près) le même déterminant et deux colonnes adjacentes identiques. Donc $ {\rm det}(B)=0$, d'où $ {\rm det}(A)=0$.
  3. Supposons que $ A$ possède deux colonnes proportionnelles, par exemple

    \begin{displaymath}
A = \left(
\begin{array}{ccc}
a_{11}&a_{12}&\lambda a_{11}\\...
...da
a_{21}\\ a_{31}&a_{32}&\lambda a_{31}
\end{array}\right)\ .
\end{displaymath}

    Alors

    \begin{displaymath}
{\rm det}(A) = \lambda\left\vert
\begin{array}{ccc}
a_{11}&a...
...2}&a_{21}\\ a_{31}&a_{32}&a_{31}
\end{array}\right\vert = 0\ .
\end{displaymath}

  4. Finalement, supposons par exemple que la seconde colonne soit combinaison linéaire de la première et la troisième:

    \begin{displaymath}
A = \left(
\begin{array}{ccc}
a_{11}&\lambda a_{11}+ \mu a_{...
...31}&\lambda a_{31}+ \mu a_{33}&a_{33}\\
\end{array}\right)\ .
\end{displaymath}

    Alors d'après les propriétés de linéarité, on a

    \begin{displaymath}
{\rm det}(A) =
\lambda \left\vert
\begin{array}{ccc}
a_{11}...
...}&a_{23}\\
a_{31}&a_{33}&a_{33}\\
\end{array}\right\vert = 0
\end{displaymath}

    $ \spadesuit$

Il est possible de démontrer que la dernière propriété est en fait une condition nécessaire et suffisante: $ {\rm det}(A)=0$ si et seulement si il existe une colonne de $ A$ qui soit combinaison linéaire des autres, c'est à dire si la famille des colonnes n'est pas libre. Ce résultat a un corollaire immédiat:


\begin{corollary}
Soit $A\in{\mathcal M}_3(\mathbb{K})$\ (avec $\mathbb{K}={\mat...
...e base de $\mathbb{K}^3$
si et seulement si ${\rm det}(A)\ne 0$.
\end{corollary}


Finalement, en se basant sur les propriétés ci-dessus, on peut facilement voir que la méthode du pivot de Gauss peut s'appliquer pour calculer un déterminant.


\begin{proposition}
Soit $A\in{\mathcal M}_N(\mathbb{K})$, avec $\mathbb{K}={\ma...
...ombinaison lin\'eaire des autres
lignes de $A$.
\end{enumerate}\end{proposition}

EXEMPLE 4.4   En appliquant cette règle, on voit par exemple que

$\displaystyle \left\vert\begin{array}{ccc} 1&2&3\\ 4&5&6\\ 7&8&10\end{array}\ri...
...ft\vert\begin{array}{ccc} 1&2&3\\ 0&-3&-6\\ 0&0&1\end{array}\right\vert
=-3\ .
$

Dans ce calcul on a utilisé le pivot, puis le fait que le déterminant d'une matrice triangulaire supérieure est égal au produit de ses termes diagonaux.

On peut également organiser le calcul différemment, comme suit:

$\displaystyle \left\vert\begin{array}{ccc} 1&2&3\\ 4&5&6\\ 7&8&10\end{array}\ri...
...ft\vert\begin{array}{ccc} 1&2&3\\ 0&-3&-6\\ 0&0&1\end{array}\right\vert
=-3\ .
$

On a ici utilisé le pivot différemment, puis le fait que le déterminant d'une matrice triangulaire inférieure est égal au produit de ses termes diagonaux.

Déterminant d'une matrice carrée quelconque

La définition du déterminant d'une matrice carrée $ A\in{\mathcal M}_n(\mathbb{C})$ se fait par récurrence.


\begin{definition}
Soit $A\in{\mathcal M}_n(\mathbb{C})$\ une matrice $n\times n...
... (-1)^{n+1} a_{1n}{\rm det}(A_{1n})\ .
\end{array}\end{equation}\end{definition}

EXEMPLE 4.5   Considérons la matrice

$\displaystyle A = \left(\begin{array}{ccc}1&2&3\\ 4&5&6\\ 7&8&9\end{array}\right)\ .
$

L'application directe de la définition donne
$\displaystyle {\rm det}(A)$ $\displaystyle =$ $\displaystyle 1\times \left\vert\begin{array}{cc}5&6\\ 8&9\end{array}\right\ver...
...\right\vert
+ 3\times\left\vert\begin{array}{cc}4&5\\ 7&8\end{array}\right\vert$  
  $\displaystyle =$ $\displaystyle (5\times 9 - 8\times 6) - 2\times(4\times 9 - 7\times 6) +
3\times (4\times 8 - 7\times5)$  
  $\displaystyle =$ $\displaystyle -3 -2\times (-6) + 3\times (-3) = 0\ .$  

EXEMPLE 4.6   Les exemples les plus simples sont ceux de la matrice nulle $ 0_n$ et de la matrice identité $ I_n$. On a dans ces cas $ {\rm det}(0_n)=0$, et $ {\rm det}(I_n)=1$.

EXEMPLE 4.7   Il est facile aussi de montrer, à partir de cette définition, que le déterminant d'une matrice diagonale est égal au produit des termes diagonaux:

$\displaystyle \begin{vmatrix}
\lambda_1&0&0&\dots&0\\
0&\lambda_2&0&\dots &0\\...
...s\\
0&0&0&\dots&\lambda_n
\end{vmatrix} = \lambda_1\lambda_2\dots\lambda_n\ .
$

Ceci reste vrai lorsque la matrice est triangulaire supérieure (c'est à dire lorsque tous les éléments situés en dessous de la diagonale sont nuls), ou triangulaire inférieure (c'est à dire lorsque tous les éléments situés au dessus de la diagonale sont nuls).

EXEMPLE 4.8   Soit

$\displaystyle A = \begin{pmatrix}
1&2&3&4\\
5&6&7&8\\
9&10&11&12\\
13&14&15&16
\end{pmatrix}$

On a
$\displaystyle {\rm det}(A)$ $\displaystyle =$ $\displaystyle \begin{vmatrix}6&7&8\\ 10&11&12\\ 14&15&16\end{vmatrix}- 2 \begin...
...13&14&16\end{vmatrix}- 4 \begin{vmatrix}5&6&7\\ 9&10&11\\ 13&14&15\end{vmatrix}$  
  $\displaystyle =$ $\displaystyle 0 - 2\times 0 + 3\times 0 -4\times 0$  
  $\displaystyle =$ 0  

Les propriétés essentielles des déterminants sont résumées dans le théorème fondamental suivant.
\begin{theorem}
Le d\'eterminant est une {\bf forme multilin\'eaire altern\'ee}
...
...'on permute deux colonnes adjacentes de la matrice.
\end{enumerate}\end{theorem}

Comme dans le cas des matrices $ 2\times 2$ et $ 3\times 3$, on a les résultats fondamentaux
\begin{theorem}
Soit $A\in{\mathcal M}_n({\mathbb{R}})$. Alors
\begin{equation}
{\rm det}({}^T\!A)={\rm det}(A)\ .
\end{equation}\end{theorem}

Le résultat suivant est le pendant direct de la proposition [*], qui se généralise donc à la dimension $ n$. On peut vérifier que la preuve de la proposition [*] n'a rien de spécifique aux matrices $ 3\times 3$, et reste valable dans un cas quelconque.
\begin{proposition}
Soit $A\in{\mathcal M}_n(\mathbb{C})$.
Le d\'eterminant de $...
... est combinaison lin\'eaire des autres lignes).
\end{enumerate}\end{proposition}
Il s'ensuit que l'on ne modifie pas le déterminant d'une matrice lorsque

Ceci permet d'utiliser des techniques que nous avons déjà vu en étudiant la méthode du pivot pour calculer des déterminants: on peut jouer sur les lignes (ou les colonnes) pour remplacer des coefficients par des valeurs nulles, et ainsi simplifier des calculs de déterminants.

EXEMPLE 4.9   Soit à calculer le déterminant

$\displaystyle {\rm det}(A) = \begin{vmatrix}
1&2&4&8\\
1&3&9&27\\
1&4&16&64\\
1&5&25&125
\end{vmatrix}\ .
$

En soustrayant des lignes, on a

$\displaystyle \begin{vmatrix}
1&2&4&8\\
1&3&9&27\\
1&4&16&64\\
1&5&25&125
\e...
...}=
\begin{vmatrix}
1&2&4&8\\
0&1&5&19\\
0&0&2&18\\
0&0&0&6
\end{vmatrix}\ .
$

Il suffit alors de développer par rapport à la première colonne, pour obtenir

$\displaystyle {\rm det}(A) = 1\times
\begin{vmatrix}
1&5&19\\
0&2&18\\
0&0&6
\end{vmatrix}=
1\times
\begin{vmatrix}
2&18\\
0&6
\end{vmatrix}= 12
\ .
$

On s'est ainsi épargné des calculs pénibles.

Comme en dimensions 2 et 3, ce résultat a un corollaire immédiat
\begin{corollary}
Soit $A\in{\mathcal M}_n(\mathbb{K})$. Alors les colonnes (res...
...
base de $\mathbb{K}^N$\ si et seulement si ${\rm det}(A)\ne 0$.
\end{corollary}


Le résultat suivant est une généralisation directe du Théorème [*]
\begin{theorem}
Soit $A\in{\mathcal M}_n(\mathbb{C})$. Le d\'eterminant de $A$\ ...
...}) +\dots
+a_{nj}{\rm cof}(a_{nj})\ .
\end{equation}\end{enumerate}\end{theorem}

EXEMPLE 4.10   Reprenons l'exemple [*], et considérons la matrice

$\displaystyle A = \left(\begin{array}{ccc}1&2&3\\ 4&5&6\\ 7&8&9\end{array}\right)\ .
$

En développant le déterminant suivant la première colonne, on obtient
$\displaystyle {\rm det}(A)$ $\displaystyle =$ $\displaystyle 1\times \left\vert\begin{array}{cc}5&6\\ 8&9\end{array}\right\ver...
...\right\vert
+ 7\times\left\vert\begin{array}{cc}2&3\\ 5&6\end{array}\right\vert$  
  $\displaystyle =$ $\displaystyle (5\times 9 - 8\times 6) - 4\times(2\times 9 - 8\times 3) +
7\times (2\times 6 - 3\times5)$  
  $\displaystyle =$ $\displaystyle -3 -4\times (-6) + 7\times (-3) = 0\ .$  

EXEMPLE 4.11   En utilisant cette propriété, on peut montrer que le déterminant d'une matrice triangulaire inférieure est égal au produit des termes diagonaux:

$\displaystyle \begin{vmatrix}
\mu_{11}&0&0&\dots&0\\
\mu_{21}&\mu_{22}&0&\dots...
...{n2}&\mu_{n3}&\dots&\mu_{nn}
\end{vmatrix} = \mu_{11}\mu_{22}\dots\mu_{nn}
\ ,
$

il suffit pour cela de développer suivant la première ligne; seul le premier terme est non nul, et conduit au déterminant d'une matrice $ (n-1)\times (n-1)$, elle aussi triangulaire inférieure, à laquelle on peut appliquer le même traitement, et ainsi de suite. De même, en développant suivant la première colonne, on peut montrer que le déterminant d'une matrice triangulaire supérieure est égal au produit des termes diagonaux:

$\displaystyle \begin{vmatrix}
\mu_{11}&\mu_{12}&\mu_{13}&\dots&\mu_{1n}\\
0&\m...
...dots\\
0&0&0&\dots&\mu_{nn}
\end{vmatrix} = \mu_{11}\mu_{22}\dots\mu_{nn}
\ ,
$

Déterminants, produits et inversion de matrices

Les déterminants ont un comportement très simple vis à vis du produit matriciel, comme le montre le résultat suivant, donné sans démonstration.
\begin{theorem}
Soient $A,B\in{\mathcal M}_n(\mathbb{K})$. Alors
\begin{equation}
{\rm det}(AB) = {\rm det}(A){\rm det}(B)\ .
\end{equation}\end{theorem}

Ce résultat a un certain nombre d'importants corollaires.

Supposons que $ A$ soit inversible. Alors, de $ A{^{-1}}A= I_n$, on déduit que $ {\rm det}(A)\ne 0$, et que $ {\rm det}(A{^{-1}}) = 1/{\rm det}(A)$. Inversement, supposons que $ {\rm det}(A)\ne 0$. Alors les colonnes de $ A$ forment une base de $ \mathbb{K}^n$, et $ A$ n'est autre que la matrice de passage de la base canonique à cette nouvelle base. Une matrice de passage étant toujours inversible, on en déduit que $ A$ est inversible. On a donc montré:
\begin{corollary}
Une matrice $A\in{\mathcal M}_n(\mathbb{K})$\ est inversible s...
...ion}
{\rm det}(A{^{-1}}) = \frac1{{\rm det}(A)}\ .
\end{equation}\end{corollary}


Soient $ A$ et $ B$ deux matrices semblables , c'est à dire représentant le même endomorphisme dans deux bases différentes. Alors on sait que $ B = P{^{-1}}A P$, $ P$ étant la matrice de passage. Par suite, on a

$\displaystyle {\rm det}(B) = {\rm det}(P{^{-1}}){\rm det}(A){\rm det}(P)\ ,
$

d'où
\begin{corollary}
Soient $A,B\in{\mathcal M}_n(\mathbb{K})$\ deux matrices semblables. Alors
${\rm det}(A)={\rm det}(B)$
\end{corollary}


Soit $ E$ un $ \mathbb{K}$-espace vectoriel, et soit $ \varphi\in End(E)$. On peut définir la notion de déterminant de $ \varphi$.
\begin{definition}
Le d\'eterminant ${\rm det}(\varphi)$\ de $\varphi\in End(E)$...
...ion}${\rm det}(\varphi)$\ est ind\'ependant de la base choisie.
\end{definition}
Nous pouvons facilement vérifier ce dernier point. Soit $ {\mathcal B}'$ une autre base de $ E$, et soit $ P=P_{{\mathcal B}\to{\mathcal B}'}$ la matrice de passage correspondante. On a alors

$\displaystyle M(\varphi)_{{\mathcal B}'} = P{^{-1}}M(\varphi)_{\mathcal B}P\ ,
$

d'où $ M(\varphi)_{{\mathcal B}'}$ et $ M(\varphi)_{\mathcal B}$ sont semblables, et ont donc même déterminant.


Le résultat suivant permet de calculer effectivement l'inverse d'une matrice, tout du moins lorsque celle-ci n'est pas trop grande.
\begin{theorem}
Soit $A\in{\mathcal M}_n(\mathbb{C})$. Soit ${\rm cof}({}^T\!A)$...
...}
A{^{-1}}= \frac1{{\rm det}(A)} {\rm cof}(^T\!A)\ .
\end{equation}\end{theorem}

EXEMPLE 4.12   On considère la matrice $ 2\times 2$

$\displaystyle A = \begin{pmatrix}a&b\\ c&d\end{pmatrix}\ ,
$

et on suppose que son déterminant $ ad-bc$ est non nul. La matrice des cofacteurs de $ {}^T\!A$est la matrice

$\displaystyle {\rm cof}(^T\!A) = \begin{pmatrix}d&-b\\ -c&a
\end{pmatrix}\ ,
$

d'où

$\displaystyle A{^{-1}}= \frac1{ad-bc} \begin{pmatrix}d&-b\\ -c&a
\end{pmatrix}\ .
$

EXEMPLE 4.13   Soit

$\displaystyle A = \begin{pmatrix}1&2\\ 3&4\end{pmatrix}\ .
$

On a

$\displaystyle {}^T\!A = \begin{pmatrix}1&3\\ 2&4\end{pmatrix}\ ,\quad
{\rm cof}({}^T\!A) = \begin{pmatrix}4&-2\\ -3&1\end{pmatrix}\ ,
$

et donc, comme $ {\rm det}(A)=-2$

$\displaystyle A{^{-1}}= -\frac1{2}\begin{pmatrix}4&-2\\ -3&1\end{pmatrix}\ .
$

EXEMPLE 4.14   Considérons maintenant la matrice

$\displaystyle A = \begin{pmatrix}1&2&0\\ -1&3&0\\ 0&1&-1\end{pmatrix}\ .
$

Le calcul donne

$\displaystyle {}^T\!A = \begin{pmatrix}1&-1&0\\ 2&3&1\\ 0&0&-1\end{pmatrix}\ ,\...
...{\rm cof}({}^T\!A) = \begin{pmatrix}-3&2&0\\ -1&-1&0\\ -1&-1&5\end{pmatrix}\ ,
$

et donc, puisque $ {\rm det}(A)=-5$,

$\displaystyle A{^{-1}}= -\frac1{5}\begin{pmatrix}-3&2&0\\ -1&-1&0\\ -1&-1&5\end{pmatrix}\ .
$

Systèmes de Cramer

Une des applications de ce que nous venons de voir concerne l'utilisation des déterminants pour la résolution de systèmes linéaires. On considère des systèmes linéaires de la forme

\begin{displaymath}\left\{
\begin{array}{lll}
a_{11}x_1 + a_{12}x_2 + \dots + a_...
...1 + a_{m2}x_2 + \dots + a_{mn}x_n &=& b_m
\end{array}\right.\ ,\end{displaymath} (4.8)

que l'on met sous forme matricielle

$\displaystyle A X = B\ ,$ (4.9)

$ A\in{\mathcal M}_{mn}(\mathbb{C})$, et où $ X$ et $ B$ sont des matrices colonne à $ n$ et $ m$ lignes respectivement.


\begin{definition}
% latex2html id marker 11733Un syst\\lq eme lin\'eaire comme e...
...et si
\begin{displaymath}
{\rm det}(A)\ne 0\ .
\end{displaymath}\end{definition}

Les systèmes de Cramer peuvent être résolus de façon simple, grâce à ce que nous avons vu plus haut. Comme $ {\rm det}(A)\ne 0$, $ A$ est inversible, et on peut donc écrire

$\displaystyle X = A{^{-1}}B\ .
$

En explicitant $ A{^{-1}}$ et son action sur $ B$, on peut alors montrer le résultat suivant, donné ici sans démonstration.


\begin{theorem}
% latex2html id marker 11739Consid\'erons un syst\\lq eme de Cram...
...}&b_n&a_{n(i+1)}&\dots& a_{nn}
\end{array}\right)\ .
\end{equation}\end{theorem}

EXEMPLE 4.15   Considérons le système

\begin{displaymath}
\left\{
\begin{array}{lllllll}
4x &-& y &+& z &=& -5\\
2x &+& 2y &+& 3z &=& 10\\
5x &-& 2y &+& 6z &=& 1
\end{array}\right.
\end{displaymath}

On voit facilement par le calcul que

$\displaystyle \begin{vmatrix}
4 & -1& 1\\
2 & 2 & 3 \\
5 & -2& 6
\end{vmatrix...
...egin{vmatrix}
4 & -1& -5\\
2 & 2 & 10 \\
5 & -2& 1
\end{vmatrix}\!=\! 110\ ,
$

d'où on déduit directement la solution

$\displaystyle (x,y,z) = (-1,3,2)\ .
$

REMARQUE 4.2   Lorsque le déterminant de la matrice $ A$ est nul, la méthode de Cramer ne s'applique plus. Le système est soit inconsistent (c'est à dire qu'il n'existe pas de solution), soit dépendant (il existe une infinité de solutions). Dans un cas comme dans l'autre, une autre méthode doit être employée.

REMARQUE 4.3   Pour conclure, remarquons que le calcul d'un déterminant peut faire intervenir un très grand nombre de termes lorsque la matrice est de grande taille. Ainsi, utiliser des déterminants pour résoudre des systèmes linéaires de grande taille n'est pas nécessairement à conseiller. Il est dans ce cas préférable de revenir à la méthode du pivot.

Bruno Torresani 2009-02-18