Subsections


Diagonalisation des matrices et réduction des endomorphismes

Etant donnés un espace vectoriel $ E$, et un endomorphisme $ \varphi$ de $ E$, on sait qu'une matrice de $ \varphi$ dépend de la base de $ E$ dans laquelle elle est exprimée. D'où la question: est il possible de trouver une base particulière de $ E$ dans laquelle la matrice serait la plus simple possible. Pour illustrer cette problématique, il est utile de considérer quelques exemples simples.

EXEMPLE 5.1   Dans $ {\mathbb{R}}^2$, on considère une application linéaire $ \phi$. Supposons qu'on ait trouvé deux vecteurs $ {\vec{v}}_1$ et $ {\vec{v}}_2$ tels que la famille $ \{{\vec{v}}_1,{\vec{v}}_2\}$ soit libre, et que $ \phi({\vec{v}}_1)={\vec{v}}_1$ et $ \phi({\vec{v}}_2)=2{\vec{v}}_2$. Alors, la famille étant libre, c'est une base de $ {\mathbb{R}}^2$, et tout vecteur $ {\vec{u}}$ admet une unique décomposition de la forme $ {\vec{u}}= \alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2$. Par exemple, dans la figure [*], on a $ {\vec{u}}= 3{\vec{v}}_1 + 2{\vec{v}}_2$. Alors l'image de $ {\vec{u}}$ par $ \phi$ est très facile à calculer. $ \phi$ étant linéaire, on a
$\displaystyle \phi({\vec{u}})$ $\displaystyle =$ $\displaystyle \phi(\alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2)$  
  $\displaystyle =$ $\displaystyle \alpha_1\phi({\vec{v}}_1) + \alpha_2\phi({\vec{v}}_2)$  
  $\displaystyle =$ $\displaystyle \alpha_1{\vec{v}}_1 + 2\alpha_2{\vec{v}}_2$  

. En l'occurrence, on voit facilement sur la figure [*] comment est obtenu $ \phi({\vec{u}})$.
Figure: Construction de l'image d'un vecteur du plan par une application linéaire $ \phi$, connaissant deux vecteurs $ {\vec{u}}_1$ et $ {\vec{u}}_2$ sur lesquels $ \phi$ agit par multiplication par un scalaire (ici 1 et 2).
Image VectPropres

Représenter une application linéaire par une matrice diagonale peut aussi être très utile pour expliciter des suites de vecteurs, comme on le voit dans l'exemple ci-dessous, ou résoudre certains systèmes d'équations différentielles.

EXEMPLE 5.2   Dans $ {\mathbb{R}}^2$, soit $ \varphi$ l'endomorphisme défini par

$\displaystyle \varphi(x,y) = (x+y,x-y)\ .
$

Sa matrice dans la base canonique $ {\mathcal B}$ est

$\displaystyle M(\varphi)_{\mathcal B}= \begin{pmatrix}1&1\\ 1&-1\end{pmatrix}\ .
$

On considère maintenant les vecteurs

$\displaystyle {\vec{f}}_1 = {\vec{e}}_1 + (\sqrt{2}-1){\vec{e}}_2 = (1,\sqrt{2}...
...quad
{\vec{f}}_2 = {\vec{e}}_1 + (-\sqrt{2}-1){\vec{e}}_2 = (1,-\sqrt{2}-1)\ ,
$

dont on vérifie facilement qu'ils forment une base de $ {\mathbb{R}}^2$ (puisqu'ils ne sont pas colinéaires), notée $ {\mathcal B}'$. Il est clair que
$\displaystyle \varphi({\vec{f}}_1)$ $\displaystyle = (\sqrt{2},2- \sqrt{2})$ $\displaystyle = \sqrt{2}{\vec{f}}_1$  
$\displaystyle \varphi({\vec{f}}_2)$ $\displaystyle = (-\sqrt{2},2+ \sqrt{2})$ $\displaystyle = -\sqrt{2}{\vec{f}}_2\ ,$  

de sorte que la matrice de $ \varphi$ dans la base $ {\mathcal B}'$ est diagonale

$\displaystyle M(\varphi)_{{\mathcal B}'} = \begin{pmatrix}\sqrt{2}&0\\ 0&-\sqrt{2}\end{pmatrix}\ .
$

En quoi cela simplifie-t-il les choses ? il suffit de voir que n'importe quel vecteur du plan $ {\mathbb{R}}^2$ s'écrit de façon unique

$\displaystyle {\vec{v}}= u_1 {\vec{f}}_1 + u_2 {\vec{f}}_2\ ,
$

et que l'action de $ \varphi$ sur cette forme est particulièrement simple:

$\displaystyle \varphi({\vec{v}}) = \sqrt{2}{\vec{f}}_1 - \sqrt{2}{\vec{f}}_2\ .
$

EXEMPLE 5.3   Dans $ E={\mathbb{R}}^2$, on considère la suite de vecteurs $ \{(u_n,v_n),n\in\mathbb{Z}^+\}$, définie par

\begin{displaymath}
\left\{
\begin{array}{ccc}
u_{n+1} &=& -u_n + v_n\\
v_{n+1} &=& -12 u_n + 6 v_n
\end{array}\right.\ ,
\end{displaymath}

et on cherche à exprimer $ u_n$ et $ v_n$ en fonction de $ u_0$ et $ v_0$. Ce problème peut se simplifier par un changement de base approprié. En notant $ {\mathcal B}=\{{\vec{e}}_1,{\vec{e}}_2\}$ la base canonique, la matrice du vecteur $ {\underline{x}}_n = (u_n,v_n)$ vaut

$\displaystyle X_n = M({\underline{x}}_n)_{\mathcal B}= \begin{pmatrix}u_n\\ v_n\end{pmatrix}\ ,
$

et on peut donc écrire

$\displaystyle X_{n+1} = A X_n\ ,\quad\mathrm{avec}\quad
A = \begin{pmatrix}-1&1\\ -12&6\end{pmatrix}\ .
$

On considère une nouvelle base $ {\mathcal B}'=\{{\vec{f}}_1,{\vec{f}}_2\}$ définie par

$\displaystyle {\vec{f}}_1 = {\vec{e}}_1 + 3{\vec{e}}_2\ ,\quad{\vec{f}}_2 = {\vec{e}}_1 + 4{\vec{e}}_2\ .
$

La matrice de passage prend la forme

$\displaystyle P = \begin{pmatrix}1&1\\ 3&4\end{pmatrix}\ ,
$

et on montre facilement par le calcul que son inverse est donnée par

$\displaystyle P{^{-1}}= \begin{pmatrix}4&-1\\ -3&1\end{pmatrix}\ .
$

Dans la nouvelle base, la matrice $ A$ devient

$\displaystyle D = P{^{-1}}A P = \begin{pmatrix}2&0\\ 0&3\end{pmatrix}\ .
$

Ecrivons maintenant

$\displaystyle X_{n} = A X_{n-1} = PDP{^{-1}}X_{n-1}\ .
$

On peut donc écrire aussi

$\displaystyle X_{n} = PDP{^{-1}}PDP{^{-1}}X_{n-2} = PD^2P{^{-1}}X_{n-2}\ ,
$

et finalement montrer par récurrence

$\displaystyle X_n = PD^n P{^{-1}}X_0\ .
$

Maintenant, remarquons que comme la matrice $ D$ est diagonale,

$\displaystyle D^2 = \begin{pmatrix}2^2&0\\ 0&3^2\end{pmatrix}\ ,
$

et que par récurrence, on a aussi

$\displaystyle D^n = \begin{pmatrix}2^n&0\\ 0&3^n\end{pmatrix}\ .
$

On voit alors que
$\displaystyle X_n$ $\displaystyle =$ $\displaystyle \begin{pmatrix}1&1\\ 3&4\end{pmatrix}\begin{pmatrix}2^n&0\\ 0&3^n...
...ix}\begin{pmatrix}4&-1\\ -3&1\end{pmatrix}\begin{pmatrix}u_0\\ v_0\end{pmatrix}$  
  $\displaystyle =$ $\displaystyle \begin{pmatrix}1&1\\ 3&4\end{pmatrix}\begin{pmatrix}2^n&0\\ 0&3^n\end{pmatrix}\begin{pmatrix}4u_0-v_0\\ -3u_0+v_0\end{pmatrix}$  
  $\displaystyle =$ $\displaystyle \begin{pmatrix}1&1\\ 3&4\end{pmatrix}\begin{pmatrix}2^n(4u_0-v_0)\\ 3^n(-3u_0+v_0)\end{pmatrix}$  
  $\displaystyle =$ $\displaystyle \begin{pmatrix}2^n(4u_0-v_0) + 3^n(-3u_0+v_0)\\
3\times 2^n(4u_0-v_0) + 4\times 3^n(-3u_0+v_0)
\end{pmatrix}\ .$  

De là on déduit la solution de notre problème:

\begin{displaymath}
\left\{
\begin{array}{lll}
u_n &=& (4\times 2^n -3\times 3^n...
...s 3^n) u_0 + (-3\times 2^n +4\times 3^n)v_0
\end{array}\right.
\end{displaymath}

Cet exemple nous montre que dès lors que l'on peut trouver une base dans laquelle un endomorphisme a une matrice diagonale, des calculs ultérieurs se simplifient considérablement.

Diagonalisation

Les questions qui se posent maintenant sont essentiellement les deux questions suivantes:
  1. Quels sont les endomorphismes qui peuvent être représentés par une matrice diagonale dans une base bien choisie ?
  2. Lorsque c'est possible, comment déterminer cette base et la matrice diagonale ?

Endomorphismes diagonalisables et trigonalisables


\begin{definition}
Etant donn\'e un $\mathbb{K}$-espace vectoriel $E$\ de dimens...
...,
\end{displaymath}o\\lq u $\mu_{11},\dots \mu_{nn}\in\mathbb{K}$.
\end{definition}

Dans ce qui suit, on se focalisera essentiellement sur la diagonalisation des endomorphismes, si elle est possible.


Considérons un endomorphisme $ \varphi$ de $ E$, et notons $ A$ sa matrice par rapport à une base de référence $ {\mathcal B}_0$. Supposons qu'il existe effectivement une base $ {\mathcal B}$ de $ E$ telle que la matrice de $ \varphi$ soit diagonalisable, et notons $ D=M(\varphi)_{\mathcal B}$ la matrice diagonale correspondante. Notons $ P = P_{{\mathcal B}_0\to{\mathcal B}}$ la matrice de passage de la base de référence à la base $ {\mathcal B}$; on a donc $ D=P{^{-1}}A P$, d'où on tire

$\displaystyle A = P D P{^{-1}}\ .$ (5.1)

Une importante application de cette propriété est qu'elle permet de calculer très simplement des puissances d'une matrice. En effet, supposons que $ A$ soit diagonalisable; alors on peut calculer

$\displaystyle A^2 = PDP{^{-1}}PDP{^{-1}}= P D^2 P{^{-1}}\ ,
$

où la matrice $ D^2$ est elle aussi diagonale, de la forme

$\displaystyle D = \begin{pmatrix}
\lambda_1^2&0&0&\dots&0\\
0&\lambda_2^2&0&\d...
...\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_n^2
\end{pmatrix}\ .
$

Plus généralement, on peut montrer par récurrence
\begin{proposition}
Soit $\varphi\in End_\mathbb{K}(E)$, et soit $A\in{\mathcal ...
...s\\
0&0&0&\dots&\lambda_n^k
\end{pmatrix}\ .
\end{displaymath}\end{proposition}

Vecteurs propres, valeurs propres

La diagonalisabilité est une notion étroitement liée à la notion de valeur propre et de vecteur propre.


\begin{definition}
Soit $\varphi$\ un endomorphisme du $\mathbb{K}$-espace vecto...
... {\bf valeur propre} associ\'ee \\lq a ${\vec{v}}$.
\end{enumerate}\end{definition}

On a alors
\begin{theorem}
$\varphi\in End_\mathbb{K}(E)$\ est diagonalisable si et seuleme...
...existe une base de $E$\ form\'ee de vecteurs propres de $\varphi$.
\end{theorem}
Preuve: Supposons qu'il existe une base $ \{{\vec{v}}_1,{\vec{v}}_2,\dots{\vec{v}}_n\}$ de $ E$ formée de vecteurs propres, et notons $ \lambda_1,\dots \lambda_n$ les valeurs propres correspondantes. Alors dans cette base, la matrice de $ \varphi$ est automatiquement diagonale.

Inversement, supposons $ \varphi$ diagonalisable. Alors il est tout aussi clair que les vecteurs de base sont des vecteurs propres de $ \varphi$. $ \spadesuit$


En pratique, on commence tout d'abord par chercher les valeurs propres de l'endomorphisme considéré (voir l'exemple ci-dessous, ou la section suivante). On peut ensuite rechercher le ou les vecteur(s) propre(s) associé(s) à une valeur propre ainsi obtenue $ \lambda$ en résolvant l'équation

$\displaystyle \varphi({\vec{v}}) = \lambda {\vec{v}}\ .
$


EXEMPLE 5.4   Soit $ \varphi\in End_{\mathbb{R}}({\mathbb{R}}^2)$ défini par

$\displaystyle \varphi(x,y) = (3x-y,-6x+2y)\ .
$

Chercher des vecteurs propres de $ \varphi$ revient à chercher des couples $ (x,y)\in{\mathbb{R}}^2$ tels que

\begin{displaymath}
\left\{
\begin{array}{lll}
3x-y &=& \lambda x\\
- 6x + 2y &=& \lambda y
\end{array}\right.
\end{displaymath}

pour un certain $ \lambda\in{\mathbb{R}}$. La première équation nous donne $ y=(3-\lambda)x$, d'où en reportant dans la seconde on obtient

$\displaystyle - 6x + 2(3-\lambda)x = \lambda(3-\lambda) x\ .
$

Si $ x=0$, alors nécessairement $ y=0$, et $ (x,y)$ est le vecteur nul, qui ne peut être vecteur propre par définition. En supposant donc $ x\ne 0$, en simplifiant par $ x$ on aboutit à l'équation du second degré en $ \lambda$

$\displaystyle \lambda^2 -5\lambda = 0
$

qui donne les valeurs propres possibles: $ \lambda_1=0$ et $ \lambda_2=5$.

Cherchons s'il existe des vecteurs propres associés. Dans le cas de $ \lambda_1$, le vecteur propre associé $ (x,y)$ est tel que $ 3x-y = 0$, d'où $ {\vec{v}}_1$ est de la forme $ {\vec{v}}_1 = k(1,3)$, pour n'importe quel $ k\in{\mathbb{R}}$. Dans le cas de $ \lambda_2$, le vecteur propre associé est tel que $ 2x = -y$, d'où $ {\vec{v}}_1$ est de la forme $ {\vec{v}}_2 = k(1,-2)$, pour n'importe quel $ k\in{\mathbb{R}}$. L'endomorphisme considéré est donc diagonalisable.

Diagonalisation, polynôme caractéristique

On a vu dans l'exemple ci-dessus un cas où la recherche de valeurs propres se ramenait à une recherche de racines d'un polynôme. Cette situation n'était pas un cas particulier, comme on va le voir.


Soit $ \lambda$ une valeur propre de l'endomorphisme $ \varphi\in End_\mathbb{K}(E)$. Ceci veut dire qu'il existe $ {\vec{v}}\in E$ tel que $ \varphi({\vec{v}}) = \lambda{\vec{v}}$, autrement dit

$\displaystyle (\varphi - \lambda{\bf 1}_E)({\vec{v}})={\underline{v}}0_E\ .
$

Ainsi, l'application linéaire $ \varphi - \lambda{\bf 1}_E$ n'est pas injective, d'où comme on l'a vu au chapitre [*]

$\displaystyle {\rm det}(\varphi - \lambda{\bf 1}_E) = 0\ .
$

On rappelle que le déterminant d'un endomorphisme est égal au déterminant de sa matrice dans une base quelconque (et ne dépend pas du choix de la base).

Notons $ A=M(\varphi)_{\mathcal B}$ la matrice de $ \varphi$ dans une base donnée:

$\displaystyle A = \begin{pmatrix}
a_{11}&a_{12}&\dots &a_{1n}\\
a_{21}&a_{22}&...
...
\vdots&\vdots&\ddots &\vdots\\
a_{n1}&a_{n2}&\dots &a_{nn}
\end{pmatrix}\ .
$

Alors

$\displaystyle M(\varphi - \lambda{\bf 1}_E)_{\mathcal B}=
\begin{pmatrix}
a_{11...
...&\vdots&\ddots &\vdots\\
a_{n1}&a_{n2}&\dots &a_{nn}-\lambda
\end{pmatrix}\ ,
$

et l'équation $ {\rm det}(\varphi - \lambda{\bf 1}_E)=0$ se ramène à une équation de degré $ n$ en $ \lambda$:

$\displaystyle (-1)^n \lambda^n + c_{n-1}\lambda^{n-1} +c_{n-2}\lambda^{n-2} +\dots
+c_{0}=0\ ,
$

les $ c_k$ étant des scalaires. Cette équation est appelée équation caractéristique, et son membre de gauche est le polynôme caractéristique, noté $ P_\varphi(\lambda)$.

On a donc montré le résultat


\begin{proposition}
Soit $E$\ un $\mathbb{K}$-espace vectoriel de dimension fini...
...}_E)\ ,
\end{displaymath}qui est un polyn\^ome de degr\'e $n$.
\end{proposition}

EXEMPLE 5.5   Reprenons l'exemple [*] ci dessus. La matrice de $ \varphi$ est

$\displaystyle A = \begin{pmatrix}3&-1\\ -6&2\end{pmatrix}\ ,
$

et l'équation caractéristique prend la forme

$\displaystyle \begin{vmatrix}3-\lambda&-1\\ -6&2-\lambda\end{vmatrix}=0\ ,
$

ce qui revient à

$\displaystyle (3-\lambda)(2-\lambda) - 6 = 0\ ,
$

ce qui est précisément l'équation que nous avions obtenue.

Quelques remarques sur les polynômes et leur factorisation

.

Soit $ \mathbb{K}={\mathbb{R}}$ ou $ \mathbb{C}$. On note $ \mathbb{K}[X]$ l'ensemble des polynômes d'indéterminée $ X$. On rappelle que $ a\in\mathbb{K}$ est une racine du polynôme $ P\in \mathbb{K}[X]$ si $ P(x)$ peut s'écrire sous la forme

$\displaystyle P(X) = (X-a) Q(x)\ ,
$

$ Q$ étant un autre polynôme de $ \mathbb{K}[X]$.
\begin{definition}
Soit $P\in \mathbb{K}[X]$\ un polyn\^ome de degr\'e $n$. On d...
...ment
distinctes) dans $\mathbb{K}$.
\index{Polyn\^ome scind\'e}
\end{definition}
Il est possible de démontrer que dans ce cas, le polynôme $ P$ peut être complètement factorisé, et se mettre sous la forme

$\displaystyle P(X) = C (X-\alpha_1)(X-\alpha_2)\dots (X-\alpha_n)\ ,$ (5.2)

$ C\in\mathbb{K}$ est une constante, et où $ \alpha_1,\alpha_2\dots \alpha_n$ sont les racines de $ P$. Comme on l'a vu, les racines ne sont pas nécessairement distinctes. En notant $ a_1,a_2,\dots a_p$ les $ p$ racines distinctes de $ P$, on introduit leur multiplicité

$\displaystyle m_k = mult(a_k)\ ,
$

qui est le nombre d'occurrences de $ a_k$ parmi les racines $ \alpha_1,\alpha_2\dots \alpha_n$. On a alors

$\displaystyle P(X) = C (X-a_1)^{m_1}(X-a_2)^{m_2}\dots (X-a_p)^{m_p}\ ,$ (5.3)

$ p$ étant donc le nombre de racines distinctes. En identifiant ces deux expressions, on montre également que

$\displaystyle m_1 + m_2 +\dots +m_p = n\ ,$ (5.4)

$ n$ étant le degré du polynôme $ P$.


Tout polynôme n'est pas nécessairement scindé dans $ {\mathbb{R}}$. Par exemple, le polynôme

$\displaystyle P(X) = X^2 + X + 1
$

n'est pas scindé dans $ {\mathbb{R}}$. Par contre, il l'est dans $ \mathbb{C}$, car il admet deux racines de partie imaginaire non nulle

$\displaystyle a_\pm = \frac{-1\pm i\sqrt{3}}2\ .
$

Plus généralement, on sait bien que pour un polynôme de degré deux

$\displaystyle P(X) = a X^2 + bX + c\ ,
$

celui-ci sera scindé sur $ {\mathbb{R}}$ si son discriminant $ \Delta=b^2-4ac$ est positif ou nul, et sera toujours scindé sur $ \mathbb{C}$. Cette dernière propriété se généralise en fait à des polyhnômes de degré quelconque:


\begin{theorem}[Th\'eor\\lq eme de D'Alembert]
Tout polyn\^ome de $\mathbb{C}[X]$\ est scind\'e sur $\mathbb{C}$.
\end{theorem}

Caractérisation des endomorphismes diagonalisables

Pour qu'un endomorphisme soit diagonalisable, il faut donc nécessairement que son polynôme caractéristique soit scindé. Malheureusement, cette condition n'est pas suffisante, et il faut donc préciser davantage les choses.

La caractérisation des endomorphismes diagonalisables repose sur la notion de sous-espace propre.
\begin{definition}
Pour $\lambda\in\mathbb{K}$, soit
\begin{equation}
E_\lambda...
...} de $\varphi$.
\index{Espace propre}\index{Sous-espace propre}
\end{definition}

REMARQUE 5.1   Notons que


\begin{proposition}
Soient $\lambda_1,\dots\lambda_p\in\mathbb{K}$\ des scalaire...
...}$, $E_{\lambda_2}$,... $E_{\lambda_p}$
sont en somme directe.
\end{proposition}
Preuve: Il est clair que si $ {\vec{v}}\in E$ est tel que $ \varphi({\vec{v}}) = \lambda_1{\vec{v}}$ et $ \varphi({\vec{v}}) = \lambda_2{\vec{v}}$, avec $ \lambda_1\ne\lambda_2$, on a nécessairement $ {\vec{v}}={\underline{v}}0$. $ \spadesuit$

Ce résultat, conjuqué à la définition d'un endomorphisme diagonalisable, a une conséquence immédiate
\begin{corollary}
$\varphi$\ est diagonalisable si et seulement si $E$\ est somm...
...)+dim(E_{\lambda_2})+\dots + dim(E_{\lambda_p})\ .
\end{equation}\end{corollary}

La dernière question en suspens concerne le lien entre les valeurs propres et les sous-espaces propres.
\begin{theorem}
Un endomorphisme $\varphi\in End(E)$\ est diagonalisable si et
s...
...lambda_k) = \dim(E_{\lambda_k})\ .
\end{displaymath}\end{enumerate}\end{theorem}

Dans le cas particulier où toutes les racines sont des racines simples, on a directement
\begin{corollary}
Si le polyn\^ome caract\'eristique de $\varphi\in End(E)$
est ...
...s sont des racines simples, alors
$\varphi$\ est diagonalisable.
\end{corollary}

Exemples

On considère ci-dessous une série d'endomorphismes de $ {\mathbb{R}}^3$ (ou $ \mathbb{C}^3$) définis par leurs matrices, qui donnent un éventail des situations possibles.

EXEMPLE 5.6  

$\displaystyle A = \begin{pmatrix}2&0&4\\ 3&-4&12\\ 1&-2&5\end{pmatrix}$

Le polynôme caractéristique de $ A$ prend la forme
$\displaystyle P_A(\lambda)$ $\displaystyle =$ $\displaystyle (2-\lambda)[(-4-\lambda)(5-\lambda)+24]
+4 [-6 - (-4-\lambda)]$  
  $\displaystyle =$ $\displaystyle (2-\lambda)[(-4-\lambda)(5-\lambda)+24] + 4 (\lambda-2)$  
  $\displaystyle =$ $\displaystyle (2-\lambda)[(-4-\lambda)(5-\lambda)+20]$  
  $\displaystyle =$ $\displaystyle (2-\lambda)[\lambda^2 - \lambda] = - \lambda(\lambda-1)(\lambda-2)\ .$  

On a trois valeurs propres distinctes, l'endomorphisme considéré est donc diagonalisable. Cherchons maintenant les vecteurs propres correspondants. Pour cela, calculons tout d'abord

$\displaystyle A \begin{pmatrix}x\\ y\\ z\end{pmatrix} =
\begin{pmatrix}2x+4z\\ 3x-4y+z\\ x-2y+5z\end{pmatrix}\ .
$

Les composantes $ (x,y,z)$ d'un vecteur propre $ {\vec{v}}_1$ associé à la valeur propre $ \lambda_1=2$ doivent donc satisfaire le système

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
2x &&&+&4z&=& 2x\\
3x&-&4y&+&12z &=& 2y\\
x&-&2y&+&5z &=& 2z
\end{array}\right.
\end{displaymath}

c'est à dire le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
&&&&4z&=& 0\\
3x&-&6y&+&12z &=& 0\\
x&-&2y&+&3z &=& 0
\end{array}\right.
\end{displaymath}

dont toutes les solutions satisfont $ z=0$ et $ x=2y$. Par conséquent, on peut choisir

$\displaystyle {\vec{v}}_1 = (2,1,0)\ .
$

Cherchons maintenant un vecteur propre $ {\vec{v}}_2$ associé à la valeur propre $ \lambda_2=1$. Ses composantes $ (x,y,z)$ doivent donc satisfaire le système

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
2x &&&+&4z&=& x\\
3x&-&4y&+&12z &=& y\\
x&-&2y&+&5z &=& z
\end{array}\right.
\end{displaymath}

c'est à dire le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
x&&&+&4z&=& 0\\
3x&-&5y&+&12z &=& 0\\
x&-&2y&+&4z &=& 0
\end{array}\right.
\end{displaymath}

dont toutes les solutions satisfont $ y=0$ et $ x=-4z$. Par conséquent, on peut choisir

$\displaystyle {\vec{v}}_2 = (-4,0,1)\ .
$

Finalement, les composantes du vecteur propre $ {\vec{v}}_3$ associé à $ \lambda_3=0$ satisfont le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
2x &&&+&4z&=& 0\\
3x&-&4y&+&12z &=& 0\\
x&-&2y&+&5z &=& 0
\end{array}\right.
\end{displaymath}

dont les solutions sont de la forme $ (-2z,3z/2,z)$, de sorte qu'un vecteur propre est

$\displaystyle {\vec{v}}_3 = (-4,3,2)\ .
$

La matrice de passage de la base canonique à la base des vecteurs propres prend la forme

$\displaystyle P = \begin{pmatrix}
2&-4&-4\\ 1&0&3\\ 0&1&2
\end{pmatrix}$

EXEMPLE 5.7   On considère l'endomorphisme dont la matrice dans la base canonique est

$\displaystyle B = \begin{pmatrix}-1&1&1\\ 1&-1&1\\ 1&1&-1\end{pmatrix}\ .
$

Son polynôme caractéristique vaut
$\displaystyle P_B(\lambda)$ $\displaystyle =$ $\displaystyle (-1-\lambda)[(-1-\lambda)^2 -1] +2 (\lambda+2)$  
  $\displaystyle =$ $\displaystyle -(\lambda+1)(\lambda^2 + 2\lambda)+2 (\lambda+2)$  
  $\displaystyle =$ $\displaystyle (\lambda+2)[2 - \lambda(\lambda+1)]$  
  $\displaystyle =$ $\displaystyle - (\lambda-1)(\lambda+2)^2$  

On a cette fois une racine double $ \lambda_1=-2$ et une racine simple $ \lambda_2=1$. Pour voir si $ B$ est diagonalisable, il faut étudier le sous-espace propre $ E_1$. Soit donc $ {\vec{v}}= (x,y,z)\in E_1$. On a alors le système

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
-x &+&y&+&z&=& -2x\\
x&-&y&+&z &=& -2y\\
x&+&y&-&z &=& -2z
\end{array}\right.
\end{displaymath}

c'est à dire le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
x &+&y&+&z&=& 0\\
x&+&y&+&z &=& 0\\
x&+&y&+&z &=& 0
\end{array}\right.
\end{displaymath}

qui équivaut à la seule équation $ x+y+z=0$. L'ensemble des solutions est un espace vectoriel de dimension deux, dont on peut prendre comme base

$\displaystyle {\vec{v}}_1 = (1,-1,0)\ ,\quad {\vec{v}}_2 = (1,0,-1)\ .
$

Donc $ B$ est diagonalisable. Pour terminer, on peut aussi trouver un vecteur propre associé à $ \lambda_2=1$, en résolvant le système

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
-x &+&y&+&z&=& x\\
x&-&y&+&z &=& y\\
x&+&y&-&z &=& z
\end{array}\right.
\end{displaymath}

c'est à dire le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
-2x &+&y&+&z&=& 0\\
x&-&2y&+&z &=& 0\\
x&+&y&-&2z &=& 0
\end{array}\right.
\end{displaymath}

qui équivaut à

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
-2x &+&y&+&z&=& 0\\
&-&3y&+&3z &=& 0\\
&&3y&-&3z &=& 0
\end{array}\right.
\end{displaymath}

dont les solutions satisfont $ x=y=z$. On peut donc prendre comme vecteur propre $ {\vec{v}}_3=(1,1,1)$, et écrire

$\displaystyle B = PDP{^{-1}}\ ,
$

avec

$\displaystyle P = \begin{pmatrix}1&1&1\\ -1&0&1\\ 0&-1&1\end{pmatrix}\ ,
\qquad
D = \begin{pmatrix}-2&0&0\\ 0&-2&0\\ 0&0&1\end{pmatrix}$

EXEMPLE 5.8   On considère l'endomorphisme dont la matrice dans la base canonique est

$\displaystyle C = \begin{pmatrix}-1&1&0\\ 0&-1&1\\ 1&0&-1\end{pmatrix}\ .
$

Le polynôme caractéristique est donné par
$\displaystyle P_C(\lambda)$ $\displaystyle =$ $\displaystyle (-1-\lambda)^3 +1$  
  $\displaystyle =$ $\displaystyle -\lambda (\lambda^2 +3\lambda +3)\ .$  

$ \lambda=0$ est racine évidente. Pour connaitre les autres racines, il faut factoriser le polynôme $ \lambda^2 +3\lambda +3$. Son discriminant vaut $ \Delta = -3<0$, dont les deux racines sont des nombres complexes conjugués l'un de l'autre. Par conséquent, $ C$ n'est pas $ {\mathbb{R}}$-diagonalisable, $ P_C$ n'étant pas $ {\mathbb{R}}$-scindé. Par contre, $ P_C$ est $ \mathbb{C}$-scindé, et admet 3 racines (complexes) distinctes. Donc, $ C$ est $ \mathbb{C}$-diagonalisable, et on pourra donc lui associer une base de vecteurs propres. Les valeurs propres sont complexes, de partie imaginaire non-nulle.

EXEMPLE 5.9   On considère l'endomorphisme dont la matrice dans la base canonique est

$\displaystyle E = \begin{pmatrix}-4&0&-2\\ 0&1&0\\ 5&1&3\end{pmatrix}$

Le polynôme caractéristique est (en développant le déterminant par rapport à la seconde ligne)
$\displaystyle P_E(\lambda)$ $\displaystyle =$ $\displaystyle (1-\lambda)[(-4-\lambda)(3-\lambda) +10]$  
  $\displaystyle =$ $\displaystyle (1-\lambda)(\lambda^2+\lambda-2)$  
  $\displaystyle =$ $\displaystyle -(\lambda-1)^2(\lambda+2)\ .$  

Là encore, on a une racine double $ \lambda_1 = 1$. Etudions le sous-espace propre associé. Soit $ {\vec{v}}= (x,y,z)\in E_1$, il doit satisfaire le système

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
-4x &&&-&2z&=& x\\
&&y&& &=& y\\
5x&+&y&+&3z &=& z
\end{array}\right.
\end{displaymath}

c'est à dire le système homogène

\begin{displaymath}
\left\{
\begin{array}{ccccccc}
&&y&&&=& 0\\
5x&&&+&2z &=& 0
\end{array}\right.
\end{displaymath}

dont les solutions sont de la forme $ (x,0,-5x/2)$. L'ensemble des solutions est donc un espace vectoriel de dimension 1, alors que la multiplicité de $ \lambda_1$ vaut 2. Donc, $ E$ n'est pas diagonalisable.

Quelques classes particulières d'endomorphismes

La structure d'espace Euclidien de $ {\mathbb{R}}^n$

Jusqu'à présent, nous n'avons exploité que la structure d'espace vectoriel de $ {\mathbb{R}}^n$. Or on sait que $ {\mathbb{R}}^n$ est aussi muni d'autres types d'opérations, telles que la norme et le produit scalaire.
\begin{definition}
\begin{enumerate}
\item
Soit ${\vec{v}}=(x_1,x_2,\dots x_n)\i...
... entre les vecteurs ${\vec{u}}$\ et ${\vec{v}}$.
\end{enumerate}\end{definition}
On vérifie facilement que si $ {\vec{u}}=(x_1,x_2,\dots x_n)$ et $ {\vec{v}}=(y_1,y_2,\dots y_n)$, alors

$\displaystyle {\vec{u}}\cdot{\vec{v}}= x_1y_1 +x_2y_2 +\dots +x_ny_n \ .
$

Sans entrer dans les détails de la démonstration, qui va au delà des objectifs de ce cours, il est quand même utile de donner le résultat suivant, qui donne un critère simple poir la diagonalisabilité des matrices réelles.
\begin{theorem}
Soit $E$\ un ${\mathbb{R}}$-espace vectoriel, et soit $\varphi\i...
...lambda_2}$, on a
${\vec{v}}_1\cdot{\vec{v}}_2 = 0$.
\end{enumerate}\end{theorem}
Par conséquent, lorsque l'on est en présence d'une matrice réelle symétrique $ A\in{\mathcal M}_N({\mathbb{R}})$, on est assuré de pouvoir trouver une base de vecteurs propres $ {\mathcal B}= \{{\vec{v}}_1,\dots {\vec{v}}_n\}$ qui est orthonormée, c'est à dire telle que

$\displaystyle \Vert{\vec{v}}_i\Vert = 1\ ,\qquad\forall i=1,\dots n\ ,
$

$\displaystyle {\vec{v}}_i \cdot{\vec{v}}_j = 0\ ,\qquad \forall j\ne i\ .
$

La structure d'espace Hermitien de $ \mathbb{C}^n$

Dans le cas complexe, le résultat précédent ne s'applique pas. Cependant, il peut être généralisé, en introduisant une structure généralisant celle d'espace Euclidien.
\begin{definition}
\begin{enumerate}
\item
Soit ${\vec{v}}=(z_1,z_2,\dots z_n)\i...
...it de $\mathbb{C}^n$\ un {\bf espace Hermitien}.
\end{enumerate}\end{definition}
Ceci nous permet d'étendre au cas complexe le théorème précédent. La condition qui remplace la condition de symétrie de la matrice est cette fois une condition d'Hermiticité:
\begin{theorem}
Soit $E$\ un $\mathbb{C}$-espace vectoriel, et soit $\varphi\in ...
...lambda_2}$, on a
${\vec{v}}_1\cdot{\vec{v}}_2 = 0$.
\end{enumerate}\end{theorem}

Applications de la diagonalisation

La réduction des endomorphismes et la diagonalisation des matrices permettent de simplifier considérablement un certain nombre de calculs, comme par exemple le calcul de puissances d'une matrice, ou la résolution de systèmes différentiels linéaires.

Sans entrer dans les détails, on peut en donner quelques exemples ici. Avant d'entrer dans le vif du sujet, il est intéressant de souligner l'aspect le plus important des calculs que nous allons faire. Dans tous les cas, la diagonalisation de la matrice considérée va nous permettre de transformer un problème matriciel, donc compliqué, en un problème dans lequel les variables sont découplées, ce qui nous ramènera à des problèmes faisant intervenir des nombres et non plus des matrices.

Par exemple, le calcul des puissances d'une matrice devient très simple dès lors que l'on a diagonalisé la matrice: la puissance $ n$-ième d'une matrice diagonale s'obtient en élevant tous ses éléments de matrice à la puissance $ n$, ce qui est faux pour des matrices non diagonales.

Puissances, exponentielle,... et fonction d'une matrice

Puissances

Soit $ A\in{\mathcal M}_N(\mathbb{C})$ une matrice Hermitienne (ce résultat s'applique tout aussi bien aux matrices réelles symétriques). Nous avons vu que $ A$ est nécessairement diagonalisable: en notant $ D$ la matrice diagonale des valeurs propres de $ A$, et $ P$ la matrice de passage correspondante, on a donc

$\displaystyle A = PDP{^{-1}}= P \begin{pmatrix}\lambda_1&0&0&\dots&0\\
0&\lamb...
...\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_N
\end{pmatrix}P{^{-1}}
\ .
$

Pour calculer le carré de $ A$, on calcule donc

$\displaystyle A^2 = PDP{^{-1}}PDP{^{-1}}= PD^2 P{^{-1}}=
P \begin{pmatrix}\lamb...
...s&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_N^2
\end{pmatrix}P{^{-1}}
$

car le carré d'une matrice diagonale est toujours une matrice diagonale, dont les éléments diagonaux sont les carrés des éléments diagonaux de la matrice de départ.

Plus généralement, on montre que pour tout entier positif $ k$,

$\displaystyle A^k = PD^kP{^{-1}}=
P \begin{pmatrix}\lambda_1^k&0&0&\dots&0\\
...
...s&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_N^k
\end{pmatrix}P{^{-1}}
$


Exponentielle d'une matrice

L'exponentielle d'une matrice $ A$ est définie par la série entière

$\displaystyle e^A = \sum_{k=0}^\infty \frac1{k!} A^k =
I_N + A + \frac1{2}A^2 + \frac1{3!}A^3 +\frac1{4!}A^4 +\dots\ ,
$

et on peut donc lui appliquer le résultat précédent si $ A$ est Hermitienne:

$\displaystyle e^A = I_N + PDP{^{-1}}+ PD^2P{^{-1}}+\dots = P e^D P{^{-1}}\ ,
$

expression calculable si on sait calculer l'exponentielle d'une matrice diagonale.

On peut en fait facilement voir que $ e^D$ prend une forme simple

$\displaystyle e^D$ $\displaystyle =$ $\displaystyle \begin{pmatrix}
1&0&0&\dots&0\\
0&1&0&\dots&0\\
0&0&1&\dots&0\\...
...ts&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_N^2/2
\end{pmatrix}+\dots$  
  $\displaystyle =$ $\displaystyle \sum_{k=0}^\infty
\begin{pmatrix}
\lambda_1^k/k!&0&0&\dots&0\\
0...
...
\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&\lambda_N^k/k!
\end{pmatrix}$  
  $\displaystyle =$ $\displaystyle \begin{pmatrix}
\sum_{k=0}^\infty\lambda_1^k/k!&0&0&\dots&0\\
0&...
...dots&\ddots&\vdots\\
0&0&0&\dots&\sum_{k=0}^\infty\lambda_N^k/k!
\end{pmatrix}$  
  $\displaystyle =$ $\displaystyle \begin{pmatrix}
e^{\lambda_1}&0&0&\dots&0\\
0&e^{\lambda_2}&0&\d...
...
\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&e^{\lambda_N}
\end{pmatrix}$  

Ainsi, l'exponentielle d'une matrice diagonale est la matrice diagonale dont les éléments diagonaux sont les exponentielles des éléments diagonaux de la matrice de départ.

Autres fonctions

Ces calculs peuvent se généraliser à d'autres fonctions que des exponentielles. Par exemple, soit $ f$ une fonction à valeurs réelles, telle que $ f$ admette un développement en série entière convergent en 0 (cette hypothèse est très importante):

$\displaystyle f(t) = \sum_{k=0}^\infty a_k t^k\ ,\quad\forall t\in{\mathbb{R}}\ .
$

Alors, en utilisant les mêmes arguments que ci-dessus, il va être possible de définir $ f(A)$ pour une matrice Hermitienne $ A$, par

$\displaystyle f(A) = \sum_{k=0}^\infty a_k A^k\ ,
$

ce qui donne

$\displaystyle f(A) = P \begin{pmatrix}
f(\lambda_1)&0&0&\dots&0\\
0&f(\lambda_...
...\vdots&\vdots&\ddots&\vdots\\
0&0&0&\dots&f(\lambda_N)
\end{pmatrix} P{^{-1}}
$

Application aux suites

Pour simplifier, on va ici considérer le cas $ N=3$.

On considère des instants discrets $ t=0,1,2,\dots$ et on suppose que les mouvements d'un point dans l'espace tridimensionnel, repéré par le vecteur $ {\vec{v}}_n$, évoluent suivant une suite de la forme

$\displaystyle X_n = M({\vec{v}}_n)=
\begin{pmatrix}x_n\\ y_n\\ z_n\end{pmatrix}...
...rix}x_{n-1}\\ y_{n-1}\\ z_{n-1}\end{pmatrix}= A M({\vec{v}}_{n-1}) = A X_{n-1}
$

$ A$ est une matrice réelle symétrique, donc diagonalisable. On peut donc écrire encore une fois $ A=PDP{^{-1}}$, où $ P=P_{{\mathcal B}\to{\mathcal F}}$ est la matrice de passage de la base canonique $ {\mathcal B}$ à la base qui diagonalise $ A$, que l'on note $ {\mathcal F}$, et où $ D\in{\mathcal M}_3({\mathbb{R}})$ est la matrice diagonale des valeurs propres de $ A$, notées $ \lambda_1,\lambda_2$ et $ \lambda_3$.

Notons

$\displaystyle Y_n = M({\vec{v}}_n)_{\mathcal F}= P{^{-1}}X_n
$

la matrice de $ {\vec{v}}_n$ dans la base $ {\mathcal F}$. On voit facilement que

$\displaystyle Y_n = P{^{-1}}PDP{^{-1}}X_{n-1} = D Y_{n-1} = D^2 Y_{n-2} =\dots =
D^n Y_0\ .
$

On en déduit donc la solution, c'est à dire l'expression de $ X_n$ en fonction de la condition initiale $ X_0$:

$\displaystyle X_n = P D^n P{^{-1}}X_0 =
P
\begin{pmatrix}\lambda_1^n&0&0\\ 0&\lambda_2^n&0\\ 0&0&\lambda_3^n\end{pmatrix}P{^{-1}}X_0
$

Systèmes différentiels

Le même type de raisonnement s'applique également à la résolution de systèmes d'équations différentielles linéaires du premier ordre couplées. Là encore, on va se limiter au cas de systèmes de trois équations, le cas général se traitant de façon identique. On considère les positions $ (x(t),y(t),z(t)$ d'un point matériel, représentées sous forme matricielle par

$\displaystyle X(t) = M({\vec{v}}(t)) = \begin{pmatrix}x(t)\\ y(t)\\ z(t)\end{pmatrix}$

et on suppose qu'elles sont décrites par un système d'équations différentielles, que l'on écrit sous forme matricielle, en posant

$\displaystyle X'(t)=\frac{d}{dt}X(t) =
\begin{pmatrix}x'(t)\\ y'(t)\\ z'(t)\end...
...rix} =
A \begin{pmatrix}x(t)\\ y(t)\\ z(t)\end{pmatrix}= A M({\vec{v}}(t)) \ ,
$

$ A$ est une matrice réelle symétrique, donc diagonalisable.

En diagonalisant la matrice $ A$ comme ci-dessus, on aboutit au système matriciel

$\displaystyle X'(t) = PDP{^{-1}}X(t)\ ,
$

d'où on déduit

$\displaystyle P{^{-1}}X'(t) = D P{^{-1}}X(t)\ .
$

Posons

$\displaystyle V(t) = P{^{-1}}X(t) = \begin{pmatrix}u(t)\\ v(t)\\ w(t)\end{pmatrix}\ .
$

$ V(t$ est la matrice colonne des coordonnées de $ {\vec{v}}$ dans la base qui diagonalise la matrice $ A$. De plus, on voit facilement que

$\displaystyle V'(t) = \begin{pmatrix}u'(t)\\ v'(t)\\ w'(t)\end{pmatrix}= P{^{-1}}X'(t)\ .
$

Ainsi, on aboutit à un nouveau système

$\displaystyle V'(t) = D V(t)\ ,
$

autrement dit

\begin{displaymath}
\left\{
\begin{array}{ccc}
u'(t) &=& \lambda_1 u(t)\\
v'(t)...
... \lambda_2 v(t)\\
w'(t) &=& \lambda_3 w(t)
\end{array}\right.
\end{displaymath}

dont les solutions sont

\begin{displaymath}
\left\{
\begin{array}{ccc}
u(t) &=& e^{\lambda_1 t} u(0)\\
...
...da_2t} v(0)\\
w(t) &=& e^{\lambda_3t} w(t)
\end{array}\right.
\end{displaymath}

Sout forme matricielle, on a donc

$\displaystyle V(t) = \begin{pmatrix}
e^{\lambda_1 t}&0&0\\
0&e^{\lambda_2 t}&0...
...}
\end{pmatrix} \begin{pmatrix}u(0)\\ v(0)\\ w(0)\end{pmatrix}= e^{tD} V(0)\ .
$

On en déduit la solution du système

$\displaystyle X(t) = P V(t) = P e^{tD} V(0) = P e^{tD} P{^{-1}}X(0) \ .
$

Bruno Torresani 2009-02-18