Subsections


Applications Linéaires

Applications linéaires

On rappelle qu'une application

$\displaystyle \varphi: E\longrightarrow F
$

d'un ensemble $ E$ vers un ensemble $ F$ associe à tout élément $ x\in E$ un élément $ y=\varphi(x)\in F$.

Premières définitions et propriétés

La notion fondamentale de ce chapitre est la notion d'application linéaire. Une application linéaire d'un espace vectoriel vers un autre est une application qui préserve l'addition et la multiplication scalaire. Plus précisément:
\begin{definition}
Soient $E$\ et $F$\ deux $\mathbb{K}$-espaces vectoriels (ici...
...es de $E$\ dans $F$\ est not\'e
${\mathcal L}_\mathbb{K}(E,F)$.
\end{definition}

EXEMPLE 3.1   Soient $ E,F$ deux $ \mathbb{K}$-espaces vectoriels. Soit $ \varphi: E\to F$ l'application définie par

$\displaystyle \varphi({\vec{u}})={\underline{v}}0_F\ ,\quad\forall{\vec{u}}\in E
$

( $ {\underline{v}}0_F$ étant le vecteur nul dans $ F$). Il est facile de vérifier que $ \varphi$ est une application linéaire.

EXEMPLE 3.2   Soit $ E$ un $ \mathbb{K}$-espace vectoriel. Soit $ \varphi: E\to E$ l'application définie par

$\displaystyle \varphi({\vec{u}})={\vec{u}}\ ,\quad\forall{\vec{u}}\in E\ .
$

Il est facile de vérifier que $ \varphi$ est une application linéaire, appelée application identité, et notée

$\displaystyle \varphi={\bf 1}_E\ .
$

EXEMPLE 3.3   Soit $ E=\mathbb{C}^3$, et soit $ F=\mathbb{C}^2$. Soit $ \varphi:\mathbb{C}^3\to\mathbb{C}^2$, définie par

$\displaystyle \varphi(x,y,z) = (x+y, 3z-iy)\ .
$

Vérifions que $ \varphi$ est une application linéaire. Calculons
$\displaystyle \varphi((x,y,z)+(x',y',z'))$ $\displaystyle =$ $\displaystyle \varphi(x+x',(y+y'),(z+z'))$  
  $\displaystyle =$ $\displaystyle ((x+x') + (y+y'), 3(z+z')-i(y+y'))$  
  $\displaystyle =$ $\displaystyle (x+y, 3z-iy) + (x'+y', 3z'-iy')\ ,$  

ce qui montre la première égalité. De plus,

$\displaystyle \varphi(\lambda(x,y,z)) = \varphi((\lambda x,\lambda y,\lambda z)) =
(\lambda x+\lambda y, 3\lambda z-i\lambda y) = \lambda (x+y, 3z-iy)\ ,
$

ce qui achève la démonstration.

EXEMPLE 3.4   Soit $ E=F={\mathbb{R}}$ et soit $ \varphi$ définie par

$\displaystyle \varphi(x) = x^2\ .
$

Il est manifeste que $ \varphi$ n'est pas une application linéaire. De même, les applications

$\displaystyle x\to ax + b\ ,\quad x\to\cos(ax)\ ,x\to a \ln(x)\ ,\dots
$

ne sont pas des applications linéaires (au moins tant que $ b\ne 0$ dans le cas e la première).

EXEMPLE 3.5   On considère l'ensemble $ C^1({\mathbb{R}})$ des applications $ \varphi: {\mathbb{R}}\to{\mathbb{R}}$ dérivables à dérivée continue, et l'ensemble $ C^0({\mathbb{R}})$ des applications $ \varphi: {\mathbb{R}}\to{\mathbb{R}}$ continues. Il est possible de démontrer que $ C^0({\mathbb{R}})$ et $ C^1({\mathbb{R}})$ sont des espaces vectoriels: ce sont des sous-ensembles de $ {\mathcal F}({\mathbb{R}},{\mathbb{R}})$, dont on a déjà vu qu'il était un $ {\mathbb{R}}$-espace vectoriel. De plus, la somme de deux fonctions continues est continue, tout comme le produit d'une fonction continue par un réel. $ C^0({\mathbb{R}})$ est donc un sous-espace vectoriel de $ {\mathcal F}({\mathbb{R}},{\mathbb{R}})$, et par conséquent c'est un $ {\mathbb{R}}$-espace vectoriel. On montre de même que $ C^1({\mathbb{R}})$ est donc un sous-espace vectoriel de $ {\mathcal F}({\mathbb{R}},{\mathbb{R}})$, et donc un $ {\mathbb{R}}$-espace vectoriel.

Soit $ D$ l'application qui à $ f\in C^1({\mathbb{R}})$ associe sa dérivée (qui est donc une fonction continue)

$\displaystyle D: f\in C^1({\mathbb{R}}) \to D(f) = f'\in C^0({\mathbb{R}})\ .
$

On sait que

$\displaystyle (f+g)' = f' + g'\ ,\quad\hbox{et }\quad (\lambda f)' = \lambda f'\ ,
$

donc $ D$ est une application linéaire.

Un cas particulier d'application linéaire est fourni par les projections. Soit $ E$ un espace vectoriel, et soient $ F$ et $ G$ deux sous-espaces vectoriels supplémentaires dans $ E$:

$\displaystyle E = F \oplus G\ .
$

Alors, on sait que pour tout $ {\vec{v}}\in E$, il existe un unique $ {\vec{u}}_1\in F$ et un unique $ {\vec{u}}_2\in G$ tels que

$\displaystyle {\vec{v}}= {\vec{u}}_1 + {\vec{u}}_2\ .
$

L'application qui associe à tout $ {\vec{v}}\in E$ le vecteur $ {\vec{u}}_1\in F$ est appelée projection de $ E$ sur $ F$, parallèlement à $ G$.

EXEMPLE 3.6   Prenons $ E={\mathbb{R}}^2$, et soient

$\displaystyle F = \{(x,y)\in E,\, y=2x\}\ ,\quad
G = \{(x,y)\in E,\, y=3x\}\ .
$

$ F$ et $ G$ sont tous deux de dimension 1; une base de $ F$ est constituée par le vecteur $ (1,2)$, et une base de $ G$ est constituée par le vecteur $ (1,3)$.

Pour tout $ {\vec{v}}=(x,y)\in E$, on sait donc qu'il existe un unique couple de réels $ (\lambda,\mu)$ tel que

$\displaystyle (x,y) = {\vec{u}}_1 + {\vec{u}}_2 = \lambda (1,2) + \mu (1,3)\ .
$

Un calcul explicite montre que

$\displaystyle \lambda = 3x-y\ ,\qquad \mu = y-2x\ .
$

Soit maintenant $ \varphi: E\to F$ associant à $ {\vec{v}}$ le vecteur $ \varphi({\vec{v}})={\vec{u}}_1$. On a alors

$\displaystyle \varphi(x,y) = (3x-y,6x-2y)\ .
$

Notons que l'on a aussi

$\displaystyle \varphi({\vec{u}}_1)={\vec{u}}_1\ ,\quad \varphi({\vec{u}}_2)={\underline{v}}0\ .
$

Figure: Projection sur $ F$ parallèlement à $ G$.
Image Proj


\begin{definition}
\begin{enumerate}
\item
Un {\bf endomorphisme}\index{Endomorp...
...st lui m\^eme
un $\mathbb{K}$-espace vectoriel).
\end{enumerate}\end{definition}

Matrice d'un vecteur dans une base

Soit $ E$ un espace vectoriel de dimension $ n$, et soit

$\displaystyle {\mathcal B}= \{{\vec{e}}_1,\dots {\vec{e}}_n\}
$

une base de $ E$. On a déjà vu que tout vecteur $ {\vec{v}}\in E$ peut se décomposer de façon unique comme combinaison linéaire des vecteurs de la base

$\displaystyle {\vec{v}}= x_1{\vec{e}}_1 + x_2{\vec{e}}_2 + \dots + x_n{\vec{e}}_n = \sum_{k=1}^n x_k {\vec{e}}_k\ .
$

Ceci permet d'associer à $ {\vec{v}}$ sa matrice (colonne) dans la base $ {\mathcal B}$, notée $ M({\vec{v}})_{\mathcal B}$ ou plus simplement (lorsqu'il n'y a pas de confusion possible) $ M({\vec{v}})$:

$\displaystyle M({\vec{v}})_{\mathcal B}= M({\vec{v}})= \left(\begin{array}{c}
x_1\\ x_2\\ \vdots\\ x_n\end{array}\right)\ .$ (3.1)

Il est évident que la matrice d'un vecteur dépend de la base choisie. On verra plus loin comment la matrice est modifiée lorsque l'on change de base.

Applications linéaires et matrices

On va maintenant voir que les matrices s'introduisent aussi naturellement dans le cadre de l'étude des applications linéaires, dès lors que l'on a choisi une base dans chacun des espaces vectoriels concernés. En effet, soient $ E$ et $ F$ deux $ \mathbb{K}$-espaces vectoriels, avec $ dim(E)=m$ et $ dim(F)=n$, et soit

$\displaystyle \varphi: E\to F
$

une application linéaire. Soit $ {\mathcal B}_E = \{{\vec{e}}_1,\dots {\vec{e}}_m\}$ une base de $ E$, et soit $ {\mathcal B}_F= \{{\vec{f}}_1,\dots {\vec{f}}_n\}$ une base de $ F$.

Pour tout $ k=1,\dots m$, on sait que $ \varphi({\vec{e}}_k)\in F$. Donc, $ \varphi({\vec{e}}_k)$ admet une unique décomposition en combinaison linéaire de la base $ \{{\vec{f}}_1,\dots{\vec{f}}_n\}$ de $ F$: il existe une unique famille de scalaires $ a_{1k},a_{2k},\dots a_{nk}$ telle que

\begin{displaymath}\left\{
\begin{array}{lll}
\varphi({\vec{e}}_1) &=& a_{11} {\...
...m}{\vec{f}}_2 + \dots + a_{nm}{\vec{f}}_n\ ,
\end{array}\right.\end{displaymath} (3.2)

que l'on synthétise sous la forme d'une équation générique

$\displaystyle \varphi({\vec{e}}_k) = \sum_{\ell = 1}^n a_{\ell k}{\vec{f}}_\ell\ ,\quad k=1,\dots m\ .
$

Ces scalaires $ a_{\ell k}$ peuvent se mettre sous la forme d'une matrice $ A_\varphi\in{\mathcal M}_{m,n}(\mathbb{K})$.
\begin{definition}
La matrice dont les colonnes sont les composantes
des images ...
...s bases consid\'er\'ees
${\mathcal B}_E$\ et ${\mathcal B}_F$}.
\end{definition}

REMARQUE 3.1   Il existe une façon simple d'écrire cette matrice. Partant du système ([*]), on peut écrire les matrices colonne des images $ \varphi({\vec{e}}_k)$ dans la base $ {\mathcal B}_F$:

$\displaystyle M(\varphi({\vec{e}}_1))_{{\mathcal B}_F} =
\left(\begin{array}{c}...
...
\left(\begin{array}{c} a_{1m}\\ a_{2m}\\ \vdots\\ a_{nm}\end{array}\right)\ .
$

Ainsi, la matrice $ A=M(\varphi)_{{\mathcal B},{\mathcal B}'}$ s'obtient en mettant côte à côte ces matrices colonnes.

EXEMPLE 3.7   Considérons le cas $ E=\mathbb{C}^2$, et soit $ {\mathcal B}=\{{\vec{e}}_1,{\vec{e}}_2\}$ la base canonique de $ E$:

$\displaystyle {\vec{e}}_1 = (1,0)\ ,\qquad {\vec{e}}_2 = (0,1)\ .
$

Soit $ \varphi$ la projection de $ E$ sur le sous-espace vectoriel engendré par $ {\vec{e}}_2$, parallèlement à $ {\vec{e}}_1$.

$\displaystyle \varphi(x,y) = (0,y)\ .
$

Alors $ \varphi({\vec{e}}_1)={\underline{v}}0$ et $ \varphi({\vec{e}}_2)={\vec{e}}_2$ . La matrice de $ \varphi$ dans la base canonique $ {\mathcal B}$ est donc

$\displaystyle {\mathcal M}(\varphi)_{\mathcal B}= \left(\begin{array}{cc}
0&0\\ 0&1\end{array}\right)\ .
$

EXEMPLE 3.8   On considère l'application linéaire $ r_\theta$, qui à tout $ {\vec{v}}\in{\mathbb{R}}^2$ associe le vecteur obtenu à partir de $ {\vec{v}}$ par rotation d'angle $ \theta$. On a alors

\begin{displaymath}
\left\{
\begin{array}{lll}
r_\theta({\vec{e}}_1) &=& {\vec{e...
...vec{e}}_1\sin\theta + {\vec{e}}_2\cos\theta
\end{array}\right.
\end{displaymath}

La matrice de l'application linéaire $ r_\theta$ dans la base canonique est la matrice $ 2\times 2$

$\displaystyle R(\theta) = \left(\begin{array}{cc}
\cos\theta&-\sin\theta\\
\sin\theta&\cos\theta
\end{array}\right)
$

que nous avons déjà rencontrée.


Quelle est l'utilité des matrices dans ce contexte ? le calcul matriciel permet de calculer directement les coordonnées par rapport à une base $ {\mathcal B}_F$ de $ F$ de l'image d'un vecteur $ {\vec{v}}\in E$, connaissant ses composantes par rapport à une base $ {\mathcal B}_E$ de $ E$.


\begin{proposition}
Soient $E$\ et $F$\ deux $\mathbb{K}$-espaces vectoriels.
\b...
...
\end{equation}au sens du produit des matrices.
\end{enumerate}\end{proposition}
Preuve: Supposons que $ E$ soit de dimension $ dim(E)=m$, et que $ F$ soit de dimension $ dim(F)=n$. Soit $ {\vec{v}}= \sum_{k=1}^m x_k {\vec{e}}_k\in E$. La linéarité de l'application $ \varphi$ donne

$\displaystyle \varphi({\vec{v}})$ $\displaystyle =$ $\displaystyle \sum_{k=1}^m x_k \varphi({\vec{e}}_k)$  
  $\displaystyle =$ $\displaystyle \sum_{k=1}^m x_k \left(\sum_{\ell=1}^n a_{\ell k} {\vec{f}}_\ell)\right)$  
  $\displaystyle =$ $\displaystyle \sum_{\ell=1}^n \left(\sum_{k=1}^m a_{\ell k} x_k\right){\vec{f}}_\ell\ .$  

Si on note $ y_1,\dots y_n$ les composantes de $ \varphi({\vec{v}})$ dans la base de $ F$, c'est à dire

$\displaystyle \varphi({\vec{v}}) = \sum_{\ell=1}^n y_\ell{\vec{f}}_\ell\ ,
$

on obtient bien par identification

$\displaystyle y_\ell = \sum_{k=1}^m a_{\ell k} x_k\ ,
$

ce qui est bien le produit matriciel annoncé. $ \spadesuit$

Notons que dans ce cas, la matrice colonne $ M(\varphi({\vec{v}}))$ est une matrice à $ n$ lignes, la matrice $ M({\vec{v}})$ est une matrice à $ m$ lignes, et donc la matrice $ M(\varphi)$ est une matrice à $ n$ lignes et $ m$ colonnes. On a bien, conformément aux règles du calcul matriciel

$\displaystyle M(\varphi)\in {\mathcal M}_{n,m}(\mathbb{K}): {\mathcal M}_{m,1}(\mathbb{K}) \longrightarrow {\mathcal M}_{n,1}(\mathbb{K})\ .
$

EXEMPLE [*] (SUITE) Reprenons l'exemple de la rotation ci-dessus. Soit $ {\vec{v}}\in{\mathbb{R}}^2$, et soit

$\displaystyle M({\vec{v}})=\left(\begin{array}{c} x\\ y\end{array}\right)
$

sa matrice dans la base canonique. On a donc

$\displaystyle {\vec{v}}= x{\vec{e}}_1 + y{\vec{e}}_2\ ,
$

et donc

$\displaystyle r_\theta({\vec{v}}) = r_\theta(x{\vec{e}}_1 + y{\vec{e}}_2) =
x r_\theta({\vec{e}}_1) +y r_\theta({\vec{e}}_2) \ .
$

Le calcul donne

$\displaystyle r_\theta({\vec{v}}) = (x\cos\theta - y\sin\theta){\vec{e}}_1 +
(x\sin\theta + y\cos\theta){\vec{e}}_2 \ ,
$

et on vérifie facilement que

$\displaystyle M(r_\theta({\vec{v}})) = M(r_\theta) M({\vec{v}})\ .
$


EXEMPLE 3.9   Soient $ E={\mathbb{R}}^2$ et $ F={\mathbb{R}}^3$, munis de leurs bases canoniques respectives $ {\mathcal B}_E = \{{\vec{e}}_1,{\vec{e}}_2\}$ et $ {\mathcal B}_F = \{{\vec{f}}_1,{\vec{f}}_2,{\vec{f}}_3\}$ (on rappelle que $ {\vec{e}}_1=(1,0)$ et $ {\vec{e}}_2=(0,1)$, alors que $ {\vec{f}}_1=(1,0,0)$, $ {\vec{f}}_2=(0,1,0)$ et $ {\vec{f}}_3=(0,0,1)$).

Soit

$\displaystyle \varphi: (x,y)\in E \to (x,x+y,y)\in F\ .
$

On voit facilement que

$\displaystyle \varphi({\vec{e}}_1) = {\vec{f}}_1 + {\vec{f}}_2\ ,\quad
\varphi({\vec{e}}_2) = {\vec{f}}_2 + {\vec{f}}_3\ ,
$

et donc la matrice de $ \varphi$ par rapport à ces deux bases vaut

$\displaystyle M(\varphi) = \left(\begin{array}{cc}
1&0\\ 1&1\\ 0&1\end{array}\right)\ .
$

On vérifie facilement que pour tous $ (x,y)\in{\mathbb{R}}$,

$\displaystyle \left(\begin{array}{cc}
1&0\\ 1&1\\ 0&1\end{array}\right)
\left(\...
...}x\\ y\end{array}\right)
=
\left(\begin{array}{c}x\\ x+y\\ y\end{array}\right)
$

Composition des applications linéaires et produit matriciel

La relation étroite entre les applications linéaires et le produit matriciel apparaît plus clairement grâce au résultat fondamental suivant, qui exprime la matrice de la composée de deux applications linéaires (voir FIG. [*] ci dessous) en fonction de leurs matrices

Figure: Composition de deux applications linéaires.
Image Composition


\begin{theorem}
Soient $E,F,G$\ trois $\mathbb{K}$-espaces vectoriels, soient ${...
...}_G}
M(\varphi)_{{\mathcal B}_E,{\mathcal B}_F} \ .
\end{equation}\end{theorem}

Preuve: Soit $ {\vec{v}}\in E$, et soit $ M({\vec{v}})$ sa matrice colonne. Par l'associativité du produit matriciel, on a

$\displaystyle M(\psi\circ\varphi({\vec{v}}))_{{\mathcal B}_G}=M(\psi(\varphi ({...
..._G}M(\varphi)_{{\mathcal B}_E,{\mathcal B}_F} M({\vec{v}})_{{\mathcal B}_E}\ .
$

Mais on a aussi

$\displaystyle M(\psi\circ\varphi({\vec{v}}))_{{\mathcal B}_G} =
M(\varphi\circ \psi)_{{\mathcal B}_E,{\mathcal B}_G} M({\vec{v}})_{{\mathcal B}_E}\ ,
$

d'où on déduit le résultat. $ \spadesuit$

EXEMPLE 3.10   Dans $ E={\mathbb{R}}^2$, on considère les deux applications linéaires suivantes: $ \psi=r_\theta$, la rotation d'angle $ \theta$ autour de l'origine, et $ \varphi$, définie par

$\displaystyle \varphi({\vec{e}}_1)=2{\vec{e}}_1\ ,\quad \varphi({\vec{e}}_2)=3{\vec{e}}_2\ .
$

On a donc $ \varphi(x,y)=(2x,3y)$. Calculons

$\displaystyle (\psi\circ\varphi)(x,y) = \psi(2x,3y) = (2x\cos\theta-3y\sin\theta,
2x\sin\theta + 3y\cos\theta)\ .
$

On a donc
$\displaystyle (\psi\circ\varphi)({\vec{e}}_1)$ $\displaystyle =$ $\displaystyle 2{\vec{e}}_1\cos\theta +2{\vec{e}}_2\sin\theta$  
$\displaystyle (\psi\circ\varphi)({\vec{e}}_2)$ $\displaystyle =$ $\displaystyle -3{\vec{e}}_1\sin\theta +3{\vec{e}}_2\cos\theta\ ,$  

de sorte que la matrice de $ \psi\circ\varphi$ vaut

$\displaystyle M(\psi\circ\varphi) =\left(\begin{array}{cc}
2\cos\theta&-3\sin\theta\\ 2\sin\theta&3\cos\theta
\end{array}\right)\ .
$

On vérifie bien de plus que

$\displaystyle M(\psi\circ\varphi) = M(\psi)M(\varphi) =
\left(\begin{array}{cc}...
...s\theta
\end{array}\right)
\left(\begin{array}{cc}
2&0\\ 0&3\end{array}\right)
$

Matrice de l'inverse d'une application linéaire

Supposons que $ \varphi\in{\mathcal L}(E,F)$ soit une application linéaire de $ E$ dans $ F$. Etant données deux bases de $ E$ et $ F$ respectivement, on a vu que l'on peut associer à $ \varphi$ sa matrice par rapport à ces deux bases.

Supposons maintenant que $ \varphi$ soit bijective. Alors il existe $ \varphi{^{-1}}\in{\mathcal L}(F,E)$ telle que $ \varphi{^{-1}}\circ\varphi = {\bf 1}_E$. Dans ce cas, on peut associer à $ \varphi{^{-1}}$ une matrice, qui est reliée à $ M(\varphi)$. Plus précisément, on a:


\begin{theorem}
Soient $E,F$\ deux espaces vectoriels de m\^eme dimension, et so...
...ment $\dim(F)=\dim(E)$, et
$M(\varphi)$\ est une matrice carr\'ee.
\end{theorem}

Preuve: Supposons que $ \varphi\in{\mathcal L}(E,F)$ soit bijective. Alors on sait que

$\displaystyle \varphi{^{-1}}\circ\varphi = {\bf 1}_E\ ,
$

et donc

$\displaystyle I_n = M(\varphi{^{-1}}\circ\varphi) = M(\varphi{^{-1}}) M(\varphi)\ ,
$

(où $ n=\dim(E) = \dim(F)$). De même,

$\displaystyle \varphi\circ\varphi{^{-1}}= {\bf 1}_F\ ,
$

et donc

$\displaystyle I_n = M(\varphi\circ\varphi{^{-1}}) = M(\varphi) M(\varphi{^{-1}})\ .
$

On en déduit donc que $ M(\varphi)$ est inversible, et que

$\displaystyle M(\varphi{^{-1}}) = M(\varphi){^{-1}}\ .
$

Réciproquement, supposant que $ M(\varphi)$ est inversible, on en déduit de façon similaire que $ \varphi$ est nécessairement un isomorphisme. $ \spadesuit$

REMARQUE 3.2   Comment calcule-t-on l'inverse d'une matrice ? Le calcul de l'inverse d'une matrice carrée peut se ramener à la résolution d'un système linéaire, à autant d'équations que d'inconnues. Si celui possède une solution, on montre qu'elle est unique, et la matrice est alors inversible.

Prenons l'exemple de la matrice $ 2\times 2$

$\displaystyle A = \left(\begin{array}{cc}
1&2\\ 3&4\end{array}\right)\ .
$

Si $ A$ est inversible, alors $ \forall (x,y)\in{\mathbb{R}}^2$, il existe $ (x',y')\in{\mathbb{R}}^2$ tel que

$\displaystyle A \left(\begin{array}{c}x'\\ y'\end{array}\right) =
\left(\begin{array}{c}x\\ y\end{array}\right) \ .
$

Ceci équivaut au système de deux équations à deux inconnues

\begin{displaymath}
\left\{
\begin{array}{lll}
x'+2y'&=&x\\
3x'+4y'&=&y\ ,
\end{array}\right.
\end{displaymath}

qui admet pour solution $ (x',y')=(-2x+y,3x/2 -y/2)$, qui se met sous forme matricielle

$\displaystyle \left(\begin{array}{c}x'\\ y'\end{array}\right) =
\left(\begin{ar...
...\ 3/2&-1/2\end{array}\right)
\left(\begin{array}{c}x\\ y\end{array}\right) \ ,
$

d'où on déduit

$\displaystyle A{^{-1}}= \left(\begin{array}{cc}
-2&1\\ 3/2&-1/2\end{array}\right)
\ .
$

Image et noyau d'une application linéaire

Definitions


\begin{definition}
Soient $E,F$\ deux espaces vectoriels, et soit $\varphi: E\to...
... ,
\end{equation}et appel\'e {\bf image} de $E$\ par $\varphi$.
\end{definition}

EXEMPLE 3.11   Soit $ \varphi: {\mathbb{R}}^2\to{\mathbb{R}}^3$, définie par

$\displaystyle \varphi(x,y) = (x,x+y,y)\ .
$

On voit alors facilement que

$\displaystyle {\rm Im}(\varphi) = \left\{(\alpha,\beta,\gamma)\in{\mathbb{R}}^3,\
\beta =\alpha+\gamma\right\}\ .
$

Cet ensemble est en fait un sous-espace vectoriel de dimension 2 de $ {\mathbb{R}}^3$. On vérifie en effet qu'il n'est pas vide, et qu'il est stable par addition et multiplication scalaire.

Il s'agit d'un plan vectoriel dans $ {\mathbb{R}}^3$.

Cette propriété est en fait une propriété générique de l'image d'une application linéaire.
\begin{proposition}
\begin{enumerate}
\item
${\rm Im}(\varphi)$\ est un sous-esp...
...$\varphi$\ est un sous-espace vectoriel de $F$.
\end{enumerate}\end{proposition}

Preuve: La première propriété est une conséquence de la seconde, qu'il suffit donc de démontrer. Pour cela, soient $ {\vec{v}}_1,{\vec{v}}_2\in\varphi(E')$. Alors il existe $ {\vec{u}}_1\in E'$ et $ {\vec{u}}_2\in E'$ tels que $ {\vec{v}}_1 = \varphi({\vec{u}}_1)$, et $ {\vec{v}}_2 = \varphi({\vec{u}}_2)$. Donc,

$\displaystyle {\vec{v}}_1 + {\vec{v}}_2 = \varphi({\vec{u}}_1) + \varphi({\vec{u}}_2) = \varphi({\vec{u}}_1 + {\vec{u}}_2)\ ,
$

d'après la linéarité de $ \varphi$. $ E'$ étant un sous-espace vectoriel de $ E$, $ {\vec{u}}_1 + {\vec{u}}_2$ appartient donc à $ E'$, et $ {\vec{v}}_1 + {\vec{v}}_2 $ est donc l'image par $ \varphi$ d'un élément de $ E'$. Donc, $ {\vec{v}}_1 + {\vec{v}}_2 \in\varphi(E')$.

Soit maintenant $ \lambda\in\mathbb{K}$. On a

$\displaystyle \lambda{\vec{v}}_1 = \lambda\varphi({\vec{u}}_1) = \varphi(\lambda{\vec{u}}_1)\ ,
$

et comme $ \lambda{\vec{u}}_1\in E'$, on a donc bien $ \lambda{\vec{v}}_1\in\varphi(E')$, ce qui conclut la démonstration. $ \spadesuit$



\begin{definition}
Soient $E,F$\ deux $\mathbb{K}$-espaces vectoriels, et soit $...
...par $\varphi$\ est
le vecteur nul ${\underline{v}}0_F$\ de $F$.
\end{definition}

EXEMPLE 3.12   Soit $ \varphi:{\mathbb{R}}^3\to{\mathbb{R}}^3$, définie par

$\displaystyle \varphi(x,y,z) = (x+y-z,2x+y-3z,3x+2y-4z)\ .
$

Soit $ {\vec{v}}\in{\mathbb{R}}^3$. On a $ {\vec{v}}\in {\rm Ker}(\varphi)$ si $ (x,y,z)$ vérifie

\begin{displaymath}
\left\{
\begin{array}{lll}
x+y-z&=&0\\
2x+y-3z&=&0\\
3x+2y-4z&=&0\ .
\end{array}\right.
\end{displaymath}

Ce système se résout facilement, par exemple par la méthode du pivot de Gauss, et on voit facilement que $ {\vec{v}}\in {\rm Ker}(\varphi)$ si et seulement si $ {\vec{v}}= \lambda (2,1,-1)$ pour un certain $ \lambda\in{\mathbb{R}}$. Ceci définit en fait un sous-espace vectoriel de dimension 1 de $ {\mathbb{R}}^3$.


\begin{proposition}
Le noyau ${\rm Ker}(\varphi)$\ d'une application lin\'eaire ...
...rphi\in{\mathcal L}(E,F)$
est un sous espace vectoriel de $E$.
\end{proposition}
Preuve: Soient $ {\vec{u}},{\vec{v}}\in {\rm Ker}(\varphi)$; alors $ \varphi({\vec{u}})={\underline{v}}0_F$ et $ \varphi({\vec{v}})={\underline{v}}0_F$. Donc

$\displaystyle \varphi({\vec{u}}+{\vec{v}}) = \varphi({\vec{u}}) + \varphi({\vec{v}})={\underline{v}}0_F\ .
$

De plus, pour tout $ \lambda\in\mathbb{K}$,

$\displaystyle \varphi(\lambda{\vec{u}}) = \lambda\varphi({\vec{u}}) = {\underline{v}}0_F\ ,
$

ce qui conclut la preuve. $ \spadesuit$


\begin{proposition}
Soient $E,F$\ deux espaces vectoriels, et soit $\varphi\in{\...
...et seulement si ${\rm Ker}(\varphi) = \{{\underline{v}}0_E\}$.
\end{proposition}
Preuve: Supposons que $ \varphi$ soit injective. Alors, comme $ \varphi({\underline{v}}0_E)={\underline{v}}0_F$, $ \varphi({\vec{u}})={\underline{v}}0_F$ implique nécessairement que $ {\vec{u}}={\underline{v}}0_E$. Réciproquement, supposons que $ {\rm Ker}(\varphi) = {\underline{v}}0_E$, et soient $ {\vec{u}},{\vec{v}}\in E$ tels que $ \varphi({\vec{u}}) = \varphi({\vec{v}})$. Alors par linéarité de $ \varphi$, on a $ \varphi({\vec{u}}-{\vec{v}}) = \varphi({\vec{u}}) -\varphi({\vec{v}}) ={\underline{v}}0_F$, d'où $ {\vec{u}}- {\vec{v}}= {\underline{v}}0_E$, et donc $ {\vec{u}}={\vec{v}}$. $ \spadesuit$

Théorème de la dimension


\begin{proposition}
Soient $E,F$\ deux $\mathbb{K}$-espaces vectoriels de dimens...
...thbb{K}(E) = dim_\mathbb{K}(F)
\end{displaymath}\end{enumerate}\end{proposition}

Preuve:

  1. Supposons que $ \varphi$ soit injective, que $ \{{\vec{u}}_1,{\vec{u}}_2,\dots{\vec{u}}_n\}$ soit une famille libre de vecteurs de $ E$, et qu'il existe $ \lambda_1,\dots\lambda_n\in\mathbb{K}$ tels que

    $\displaystyle \sum_{i=1}^n \lambda_i\varphi({\vec{u}}_i)={\underline{v}}0_F\ .
$

    Alors, par linéarité de $ \varphi$, ceci est équivalent à

    $\displaystyle \varphi\left(\sum_{i=1}^n \lambda_i{\vec{u}}_i\right)={\underline{v}}0_F\ ,
$

    qui implique

    $\displaystyle \sum_{i=1}^n \lambda_i{\vec{u}}_i ={\underline{v}}0_E\ ,
$

    par injectivité de $ \varphi$, et donc

    $\displaystyle \lambda_1=\lambda_2=\dots = \lambda_n = 0
$

    car la famille $ \{{\vec{u}}_1,{\vec{u}}_2,\dots{\vec{u}}_n\}$ est libre. Ceci démontre le premier point.
  2. Supposons que $ \varphi$ soit surjective, et que $ \{{\vec{u}}_1,{\vec{u}}_2,\dots{\vec{u}}_m\}$ soit une famille génératrice de $ E$. Alors $ \forall{\vec{v}}\in F$, il existe $ {\vec{u}}\in E$ tel que $ {\vec{v}}=\varphi({\vec{u}})$. De plus, il existe $ \lambda_1,\dots \lambda_m\in\mathbb{K}$ tels que

    $\displaystyle {\vec{u}}= \sum_{i=1}^m \lambda_i{\vec{u}}_i\ ,
$

    de sorte que l'on a, par linéarité de $ \varphi$

    $\displaystyle {\vec{v}}= \varphi\left(\sum_{i=1}^m \lambda_i{\vec{u}}_i\right)
=\sum_{i=1}^m \lambda_i\varphi({\vec{u}}_i)\ .
$

    Ceci prouve le second point.
  3. Si $ \{{\vec{e}}_1,{\vec{e}}_2,\dots {\vec{e}}_n\}$ est une base de $ E$, c'est donc une famille libre et génératrice. Si $ \varphi$ est bijective, $ \{\varphi({\vec{e}}_1),\varphi({\vec{e}}_2),\dots \varphi({\vec{e}}_n)\}$ est elle aussi libre et génératrice, et c'est donc une base de $ F$. $ \spadesuit$

REMARQUE 3.3   On dit que deux espaces vectoriels sont isomorphes si il existe un isomorphisme entre eux. Une conséquence importante de ce résultat est que deux espaces vectoriels de dimension finie isomorphes sont nécessairement de même dimension.


\begin{theorem}[Th\'eor\\lq eme du rang (ou de la dimension)]
Soient $E$\ et $F$\ d...
...(E) = {\rm rg}(\varphi) + dim({\rm Ker}(\varphi))
\end{displaymath}\end{theorem}

EXEMPLE 3.13   Reprenons l'exemple de l'application linéaire $ \varphi:{\mathbb{R}}^3\to{\mathbb{R}}^3$, définie par

$\displaystyle \varphi(x,y,z) = (x+y-z,2x+y-3z,3x+2y-4z)\ .
$

On a vu plus haut que $ Ker(\varphi)$ est un sous-espace vectoriel de $ {\mathbb{R}}^3$ de dimension 1. On peut donc en déduire que le rang de $ \varphi$ est égal à deux, que que l'on va vérifier.

Soit $ {\vec{v}}=(a,b,c)\in {\rm Im}(\varphi)$. Il existe $ {\vec{u}}=(x,y,z)$ tel que

\begin{displaymath}
\left\{
\begin{array}{lllllll}
x&+&y&-&z &=& a\\
2x&+&y&-&3z &=& b\\
3x&+&2y&-&4z &=& c
\end{array}\right.
\end{displaymath}

Ce système est équivalent au système

\begin{displaymath}
\left\{
\begin{array}{lllllll}
x&+&y&-&z &=& a\\
&-&y&-&z &=& b-2a\\
&-&y&-&z &=& c-3a
\end{array}\right.
\end{displaymath}

qui n'admet de solution que si $ b-2a = c-3a$, c'est à dire $ a+b-c=0$. Ainsi, on a montré que

$\displaystyle {\rm Im}(\varphi) = \left\{ (a,b,c)\in{\mathbb{R}}^3,\ a+b-c=0\right\}\ ,
$

qui est bien un sous-espace vectoriel de dimension 2 de $ {\mathbb{R}}^3$.

Dans ces conditions, on peut déduire du résultat ci-dessus
\begin{corollary}
Soient $E,F$\ deux $\mathbb{K}$-espaces vectoriels
{\bf de m\^...
...i$\ est surjective
\item
$\varphi$\ est bijective
\end{enumerate}\end{corollary}
Preuve: Il suffit de démontrer que les deux premières assertions sont équivalentes. Supposons tout d'abord que $ \varphi$ soit injective. Alors $ Ker(\varphi) =\{{\underline{v}}0_E\}$, est donc de dimension nulle. Par conséquent,

$\displaystyle {\rm rg}(\varphi) = dim({\rm Im}(\varphi)) = dim(E) = dim(F)\ .
$

$ {\rm Im}(\varphi)$ étant un sous-espace vectoriel de $ F$, il est alors nécessairement égal à $ F$, d'où $ \varphi$ est surjective.

Inversement, supposons que $ \varphi$ soit surjective. Alors $ {\rm Im}(\varphi)=F$, d'où on déduit, par les mêmes arguments, que $ dim(Ker(\varphi))=0$, d'où $ \varphi$ est nécessairement injective. $ \spadesuit$

Matrices et changements de base

On a déjà vu que le choix d'une base dans un espace vectoriel de dimension finie $ E$ permettait de caractériser les vecteurs de $ E$ par les matrices colonnes de leurs composantes par rapport à cette base. Naturellement, lorsque l'on change de base, la matrice colonne des composantes change également.

Matrice de changement de base

Considérons un $ \mathbb{K}$-espace vectoriel de dimension $ n$, et soient $ {\mathcal B}= \{{\vec{e}}_1,{\vec{e}}_2,\dots{\vec{e}}_n\}$ et $ {\mathcal B}' = \{{\vec{f}}_1,{\vec{f}}_2,\dots{\vec{f}}_n\}$ deux bases de $ E$. Naturellement, les éléments de $ {\mathcal B}'$ peuvent se décomposer sur la base $ {\mathcal B}$: il existe $ n^2$ scalaires $ p_{11},p_{12},\dots p_{nn}$ tels que

\begin{displaymath}\left\{
\begin{array}{lll}
{\vec{f}}_1 &=& p_{11}{\vec{e}}_1 ...
...p_{2n}{\vec{e}}_2 +\dots + p_{nn}{\vec{e}}_n
\end{array}\right.\end{displaymath} (3.3)


\begin{definition}
On appelle {\bf matrice de passage}\index{Matrice de passage}...
...
p_{n1}&p_{n2}&\dots&p_{nn}
\end{array}\right)\ .
\end{equation}\end{definition}

REMARQUE 3.4   Il existe une façon simple d'écrire cette matrice de passage. Partant du système ([*]), on peut écrire les matrices colonne des nouveaux vecteurs de base $ {\vec{f}}_k$ dans la base $ {\mathcal B}$:

$\displaystyle M({\vec{f}}_1)_{{\mathcal B}} =
\left(\begin{array}{c} p_{11}\\ p...
...
\left(\begin{array}{c} p_{1n}\\ p_{2n}\\ \vdots\\ p_{nn}\end{array}\right)\ .
$

Ainsi, la matrice $ P$ s'obtient en mettant côte à côte ces matrices colonnes.

EXEMPLE 3.14   Le cas le plus simple est celui où les bases $ {\mathcal B}$ et $ {\mathcal B}'$ sont identiques: $ {\vec{f}}_k = {\vec{e}}_k$ pour tout $ k$. On vérifie facilement que dans ce cas, la matrice de passage est la matrice identité.

Si par contre $ {\mathcal B}'$ est constituée des mêmes vecteurs que $ {\mathcal B}$, mais que ceux-ci sont numérotés différemment, la matrice de passage est toujours constituée uniquement de zéros et de uns, mais n'est plus la matrice identité. Par exemple, dans $ {\mathbb{R}}^3$, si on prend $ {\vec{f}}_1={\vec{e}}_2$, $ {\vec{f}}_2={\vec{e}}_1$ et $ {\vec{f}}_3={\vec{e}}_3$, la matrice de passage correspondante sera de la forme

$\displaystyle P = \left(\begin{array}{ccc}
0&1&0\\ 1&0&0\\ 0&0&1
\end{array}\right)\ .
$

EXEMPLE 3.15   Dans $ {\mathbb{R}}^3$, muni de sa base canonique $ {\mathcal B}=\{{\vec{e}}_1,{\vec{e}}_2,{\vec{e}}_3\}$, on considère les trois vecteurs $ {\vec{f}}_1=(0,1,1)$, $ {\vec{f}}_2=(1,0,1)$ et $ {\vec{f}}_3=(1,1,0)$. Ces trois vecteurs forment une base de $ {\mathbb{R}}^3$, vérifions le. Supposons qu'il existe $ \lambda,\mu,\nu\in{\mathbb{R}}$ tels que

$\displaystyle \lambda {\vec{f}}_1 + \mu{\vec{f}}_2 + \nu{\vec{f}}_3 = {\underline{v}}0\ ,
$

ceci équivaut au système linéaire homogène

$\displaystyle \left(\begin{array}{ccc}
0&1&1\\ 1&0&1\\ 1&1&0
\end{array}\right)...
...nu
\end{array}\right)
=
\left(\begin{array}{c}
0\\ 0\\ 0
\end{array}\right)\ ,
$

dont on vérifie facilement qu'il n'admet que la solution triviale $ \lambda=\mu=\nu=0$. $ \{{\vec{f}}_1,{\vec{f}}_2,{\vec{f}}_3\}$ est donc une famille libre dans $ {\mathbb{R}}^3$. Comme $ dim({\mathbb{R}}^3)=3$ et que cette famille est constituée de 3 vecteurs, c'est une base de $ {\mathbb{R}}^3$, que l'on note $ {\mathcal B}'$. La matrice de passage correspondante prend la forme

$\displaystyle P_{{\mathcal B}\to{\mathcal B}'} = \left(\begin{array}{ccc}
0&1&1\\ 1&0&1\\ 1&1&0
\end{array}\right)\ .
$

REMARQUE 3.5   En comparant l'équation ([*]) à l'équation ([*]), on peut voir que la matrice de passage n'est autre que la matrice de l'application linéaire identité $ {\bf 1}_E$ de $ E$ par rapport aux bases $ {\mathcal B}$ et $ {\mathcal B}'$:

$\displaystyle P_{{\mathcal B}\to{\mathcal B}'} = M({\bf 1}_E)_{{\mathcal B}',{\mathcal B}}\ .$ (3.4)

Une conséquence immédiate est
\begin{proposition}
Une matrice de passage est toujours inversible. De plus, on ...
...B}} = P_{{\mathcal B}\to{\mathcal B}'}{^{-1}}\ .
\end{equation}\end{proposition}
Preuve: En notant $ n=dim(E)$, on a

$\displaystyle P_{{\mathcal B}\to{\mathcal B}'}P_{{\mathcal B}'\to{\mathcal B}} ...
...\mathcal B},{\mathcal B}'}
M({\bf 1}_E)_{{\mathcal B}',{\mathcal B}'} = I_n\ ,
$

ce qui suffit à montrer cette propriété. $ \spadesuit$

Changement de base et composantes d'un vecteur

Les matrices de passage fournissent un outil très simple d'utilisation pour calculer les composantes d'un vecteur dans une nouvelle base $ {\mathcal B}'$, à partir des composantes dans une première base $ {\mathcal B}$.

En effet, considérons deux bases $ {\mathcal B}= \{{\vec{e}}_1,{\vec{e}}_2,\dots{\vec{e}}_n\}$ et $ {\mathcal B}' = \{{\vec{f}}_1,{\vec{f}}_2,\dots{\vec{f}}_n\}$ d'un $ \mathbb{K}$-espace vectoriel $ E$ de dimension $ n$, et soit $ P\in{\mathcal M}_n(\mathbb{K})$ la matrice de passage correspondante.

Soit $ {\vec{v}}\in E$, et soient $ x_1',\dots x_n'$ ses composantes par rapport à la base $ {\mathcal B}'$: on écrit

$\displaystyle {\vec{v}}= x_1'{\vec{f}}_1 +x_2'{\vec{f}}_2 +\dots +x_n'{\vec{f}}_n \ .
$

On peut alors écrire aussi
$\displaystyle {\vec{v}}$ $\displaystyle =$ $\displaystyle \sum_{k=1}^n x_k'{\vec{f}}_k$  
  $\displaystyle =$ $\displaystyle \sum_{k=1}^n x_k'\left(\sum_{\ell=1}^n p_{\ell k} {\vec{e}}_\ell\right)$  
  $\displaystyle =$ $\displaystyle \sum_{\ell=1}^n \left(\sum_{k=1}^n p_{\ell k}x_k'\right){\vec{e}}_{\ell}\ .$  

Or, $ {\mathcal B}$ étant une base de $ E$ elle aussi, il existe une et une seule façon de décomposer $ {\vec{v}}$ sur $ {\mathcal B}$:

$\displaystyle {\vec{v}}= x_1{\vec{e}}_1 +x_2{\vec{e}}_2 +\dots +x_n{\vec{e}}_n\ ,
$

d'où on déduit, par identification

\begin{displaymath}
\left\{
\begin{array}{lll}
x_1 &=& p_{11} x_1' +p_{12} x_2' ...
...1} x_1' +p_{n2} x_2' +\dots +p_{nn} x_n'\ ,
\end{array}\right.
\end{displaymath}

où on reconnait le produit matriciel

\begin{displaymath}
\left(\begin{array}{c}x_1\\ x_2\\ \vdots\\ x_n\end{array}\ri...
...egin{array}{c}x_1'\\ x_2'\\ \vdots\\ x_n'\end{array}\right)\ .
\end{displaymath}

La matrice de passage étant toujours inversible on a donc montré
\begin{proposition}
Soient ${\mathcal B}= \{{\vec{e}}_1,{\vec{e}}_2,\dots{\vec{e...
...l B}'} = P{^{-1}}M({\vec{v}})_{{\mathcal B}} \ .
\end{equation}\end{proposition}

EXEMPLE 3.16   Reprenons l'exemple [*]. Etant donné un vecteur $ {\vec{v}}$, de matrice

$\displaystyle M({\vec{v}})_{\mathcal B}= \left(\begin{array}{c} x_1\\ x_2\\ x_3\end{array}\right)
$

dans la base $ {\mathcal B}$, ses coordonnées dans la base $ {\mathcal B}'$ s'obtiennent par

$\displaystyle M({\vec{v}})_{{\mathcal B}'} =P{^{-1}}\left(\begin{array}{c} x_1\\ x_2\\ x_3\end{array}\right)\ .
$

Il faut donc calculer l'inverse de la matrice $ P$. Si

$\displaystyle \left(\begin{array}{c} a\\ b\\ c\end{array}\right) = P{^{-1}}
\left(\begin{array}{c} x\\ y\\ z\end{array}\right)\ ,
$

alors

$\displaystyle \left(\begin{array}{c} x\\ y\\ z\end{array}\right) =
P \left(\begin{array}{c} a\\ b\\ c\end{array}\right)\ ,
$

ce qui, pour notre choix de $ P$, revient au système linéaire

\begin{displaymath}
\left\{
\begin{array}{lll}
b+c&=&x\\
a+c&=&y\\
a+b&=&z
\end{array}\right.
\end{displaymath}

La solution du système est donnée par

\begin{displaymath}
\left\{
\begin{array}{lll}
a&=&(y+z-x)/2\\
b&=&(z+x-y)/2\\
c&=&(x+y-z)/2
\end{array}\right.
\end{displaymath}

d'où on déduit

$\displaystyle P{^{-1}}= \frac1{2}\,\left(\begin{array}{ccc}
-1&1&1\\ 1&-1&1\\ 1&1&-1
\end{array}\right)\ ,
$

et donc les composantes du vecteur $ {\vec{v}}$ dans la base $ {\mathcal B}'$:

$\displaystyle M({\vec{v}})_{{\mathcal B}'} = P{^{-1}}\left(\begin{array}{c} x_1...
...c}
(x_2+x_3-x_1)/2\\
(x_3+x_1-x_2)/2\\
(x_1+x_2-x_3)/2
\end{array}\right)\ .
$

Changement de base et application linéaire

Comme on l'a vu, la matrice d'une application linéaire dépend elle aussi de la base considérée. Considérons tout d'abord le cas d'un endomorphisme

$\displaystyle \varphi: E\to E
$

d'un espace vectoriel $ E$ de dimension $ n$. Soient, comme plus haut, $ {\mathcal B}$ et $ {\mathcal B}'$ deux bases de $ E$, et soit $ P$ la matrice de passage correspondante. Soit $ {\vec{u}}\in E$, et soit $ {\vec{v}}=\varphi({\vec{u}})$. On a alors

$\displaystyle M({\vec{v}})_{{\mathcal B}'} = P{^{-1}}M({\vec{v}})_{{\mathcal B}...
...cal B}
= P{^{-1}}M(\varphi)_{{\mathcal B}} P\, M({\vec{u}})_{{\mathcal B}'}\ ,
$

où on a noté $ M(\varphi)_{{\mathcal B}}$ la matrice de $ \varphi$ dans la base $ {\mathcal B}$. En restant dans la base $ {\mathcal B}'$, on a aussi

$\displaystyle M({\vec{v}})_{{\mathcal B}'} = M(\varphi)_{{\mathcal B}'}\, M({\vec{u}})_{{\mathcal B}'}\ .
$

Ceci étant vrai pour tout $ {\vec{u}}\in E$, on a donc montré:
\begin{proposition}
Soient ${\mathcal B}= \{{\vec{e}}_1,{\vec{e}}_2,\dots{\vec{e...
...l B}'} = P{^{-1}}M(\varphi)_{{\mathcal B}} P \ .
\end{equation}\end{proposition}

REMARQUE 3.6   Dans le cas plus général d'applications linéaires d'un espace vectoriel $ E$ vers un espace vectoriel $ F$, il est possible de montrer une propriété similaire, plus complexe, qu'on n'abordera pas ici.

EXEMPLE 3.17   Dans $ {\mathbb{R}}^2$, muni de sa base canonique $ {\mathcal B}=\{{\vec{e}}_1,{\vec{e}}_2\}$, on considère les vecteurs

$\displaystyle {\vec{f}}_1 = 2{\vec{e}}_1 + {\vec{e}}_2\ ,\quad{\vec{f}}_2 = 3{\vec{e}}_1 + 2{\vec{e}}_2\ .
$

On peut vérifier que la famille $ {\mathcal B}'=\{{\vec{f}}_1,{\vec{f}}_2\}$ est une base de $ {\mathbb{R}}^2$. La matrice de passage correspondante est la matrice

$\displaystyle P=\left(\begin{array}{cc}
2&3\\ 1&2
\end{array}\right)\ .
$

Comme précédemment, son inverse se calcule directement, et on obtient

$\displaystyle P{^{-1}}= \left(\begin{array}{cc} 2&-3\\ -1&2\end{array}\right)\ .
$

Soit $ \varphi\in End({\mathbb{R}}^2)$ l'endomorphisme de $ {\mathbb{R}}^2$, défini par

$\displaystyle \varphi({\vec{e}}_1) = {\vec{e}}_1 + {\vec{e}}_2\ ,\quad
\varphi({\vec{e}}_2) = {\vec{e}}_1\ .
$

La matrice $ M_{\mathcal B}(\varphi)$ de $ \varphi$ dans la base canonique $ {\mathcal B}$ est la matrice

$\displaystyle M_{\mathcal B}(\varphi) = \left(\begin{array}{cc}
1&1\\ 1&0
\end{array}\right)\ .
$

La matrice $ M_{{\mathcal B}'}(\varphi)$ dans la base $ {\mathcal B}'$ s'obtient quant à elle grâce au résultat ci-dessus:
$\displaystyle M_{{\mathcal B}'}(\varphi)$ $\displaystyle =$ $\displaystyle \left(\begin{array}{cc} 2&-3\\ -1&2\end{array}\right)
\left(\begi...
...&1\\ 1&0\end{array}\right)
\left(\begin{array}{cc}
2&3\\ 1&2
\end{array}\right)$  
  $\displaystyle =$ $\displaystyle \left(\begin{array}{cc} 2&-3\\ -1&2\end{array}\right)
\left(\begin{array}{cc} 3&5\\ 2&3\end{array}\right)$  
  $\displaystyle =$ $\displaystyle \left(\begin{array}{cc} 0&1\\ 1&1\end{array}\right)\ .$  

On aurait pu obtenir ce résultat différemment, en calculant directement

$\displaystyle \varphi({\vec{f}}_1)$ $\displaystyle = 2\varphi({\vec{e}}_1) + \varphi({\vec{e}}_2)$ $\displaystyle = 3{\vec{e}}_1 + 2{\vec{e}}_2$  
$\displaystyle \varphi({\vec{f}}_2)$ $\displaystyle = 3\varphi({\vec{e}}_1) + 2\varphi({\vec{e}}_2)$ $\displaystyle = 5{\vec{e}}_1 + 3{\vec{e}}_2\ .$  

Ensuite, puisque $ P{^{-1}}$ est la matrice de passage $ {\mathcal B}'\to{\mathcal B}$, on en déduit que

$\displaystyle {\vec{e}}_1 = 2{\vec{f}}_1 - {\vec{f}}_2\ ,\quad
{\vec{e}}_2 = -3{\vec{f}}_1 + 2{\vec{f}}_2\ ,
$

d'où
$\displaystyle \varphi({\vec{f}}_1)$ $\displaystyle = 3(2{\vec{f}}_1 -{\vec{f}}_2) + 2(-3{\vec{f}}_1 +2{\vec{f}}_2)$ $\displaystyle = {\vec{f}}_2$  
$\displaystyle \varphi({\vec{f}}_2)$ $\displaystyle = 5(2{\vec{f}}_1 -{\vec{f}}_1) + 3(-3{\vec{f}}_1 +2{\vec{f}}_2)$ $\displaystyle = {\vec{f}}_1 +{\vec{f}}_2\ ,$  

ce qui conduit au même résultat pour la matrice $ M_{{\mathcal B}'}(\varphi)$. On peut en fait vérifier que ce second calcul est tout à fait identique au premier, sous une autre forme.


\begin{definition}
Deux matrices $A,B\in{\mathcal M}_n(\mathbb{K})$\ sont dites ...
...elle que
\begin{displaymath}
A=P{^{-1}}B P\ .
\end{displaymath}\end{definition}
Deux matrices semblables représentent le même endomorphisme dans deux bases différentes. La matrice $ P$ intervenant dans la définition [*] est la matrice de passage correspondante: ses colonnes représentent les composantes des nouveaux vecteurs de base dans l'ancienne base.

Théorie du rang

On a déjà rencontré auparavant la notion de rang d'une application linéaire $ \varphi\in{\mathcal L}(E,F)$: rappelons qu'il s'agit de la dimension du sous-espace vectoriel $ {\rm Im}(\varphi)$ engendré par les images $ \varphi({\vec{e}})$ des élements $ {\vec{e}}$ de $ E$.

Le rang d'une application linéaire peut aussi être compris en termes matriciels.
\begin{definition}
\begin{enumerate}
\item
Soit ${\mathcal F}=\{{\vec{f}}_1,\dot...
...g de
la famille de vecteurs $\{c_1,\dots c_m\}$.
\end{enumerate}\end{definition}

EXEMPLE 3.18   Considérons par exemple la matrice

$\displaystyle A= \left(\begin{array}{ccccc}
1&-1&3&5&1\\
2&0&-1&3&1\\
3&-1&2&8&2
\end{array}\right)\ .
$

Par définition, le rang de $ A$ est donc la dimension du sous-espace vectoriel de $ {\mathbb{R}}^3$ engendré par les vecteurs colonne

$\displaystyle E_1 = \left(\begin{array}{c} 1\\ 2\\ 3\end{array}\right)\ ,\quad
...
...ay}\right)\ ,\quad
E_5 = \left(\begin{array}{c} 1\\ 1\\ 2\end{array}\right)\ .
$

Il s'agit d'une famille de 5 vecteurs dans un espace de dimension 3, elle est donc nécessairement liée. On sait par contre qu'on peut toujours en extraire une base. Cherchons quelles sont les relations linéaires entre ces vecteurs, c'est à dire les relations de la forme

$\displaystyle \lambda_1 E_1 + \lambda_2 E_2 + \lambda_3 E_3
+ \lambda_4 E_4 + \lambda_5 E_5 = 0
$

pour 5 scalaires $ \lambda_1,\dots\lambda_5$. Ceci équivaut au système linéaire homogène

\begin{displaymath}
\left\{
\begin{array}{lllllllllll}
\lambda_1 &-& \lambda_2 &...
...da_3 &+& 8\lambda_4 &+& 2\lambda_5 &=& 0\ .
\end{array}\right.
\end{displaymath}

En utilisant la méthode du pivot, résoudre ce système équivaut à échelonner la matrice $ A$ elle même ce qui donne dans un premier temps la matrice

\begin{displaymath}
\left(
\begin{array}{ccccc}
1 & -1 & 3 & 5 & 1 \\
0 & 2 & -7 & -7 & -1\\
0 & 2 & -7 & -7 & -1
\end{array}\right)\ ,
\end{displaymath}

puis, les deux dernières lignes étant équivalentes, la matrice échelonnée

\begin{displaymath}
\left(
\begin{array}{ccccc}
1 & -1 & 3 & 5 & 1 \\
0 & 2 & -7 & -7 & -1
\end{array}\right)\ .
\end{displaymath}

Ainsi, l'ensemble des solutions de ce système (c'est à dire l'ensemble des $ \lambda_1,\dots\lambda_5$) est un sous-espace vectoriel de dimension 3 de $ {\mathbb{R}}^5$: pour tous $ \lambda_3,\lambda_4,\lambda_5$, en prenant
$\displaystyle \lambda_2$ $\displaystyle =$ $\displaystyle (7\lambda_3 + 7\lambda_4 +\lambda_5)/2$  
$\displaystyle \lambda_1$ $\displaystyle =$ $\displaystyle (\lambda_3 -3\lambda_4 -\lambda_5)/2\ ,$  

on a bien

$\displaystyle \sum_1^5 \lambda_i E_i=0\ .
$

Ceci s'écrit, pour tous $ \lambda_3,\lambda_4,\lambda_5\in{\mathbb{R}}$

$\displaystyle (\lambda_3 -3 \lambda_4 -\lambda_5)E_1/2 +
(7\lambda_3 +7\lambda_4 +\lambda_5)E_2/2 +
\lambda_3E_3 + \lambda_4 E_4 + \lambda_5 E_5 = 0\ ,
$

ou encore, pour tous $ \lambda_3,\lambda_4,\lambda_5\in{\mathbb{R}}$

$\displaystyle \lambda_3 (E_1/2 + 7E_2/2 + E_3)
+ \lambda_4 (3E_1/2 +7E_2/2+E_4) + \lambda_5 (-E_1/2 + E_2/2 + E_5) =0\ ,
$

ce qui finalement équivaut aux 3 relations linéaires

\begin{displaymath}
\left\{
\begin{array}{lll}
E_3 &=& -E_1/2 - 7E_2/2\\
E_4 &=& -3E_1/2 -7 E_2/2\\
E_5 &=& E_1/2 - E_2/2
\end{array}\right.
\end{displaymath}

Ainsi, $ E_3$, $ E_4$ et $ E_5$ sont complètement déterminés par $ E_1$ et $ E_2$, qui forment une base du sous-espace engendré par ces 5 vecteurs colonne. Celui-ci est de dimension 2, donc $ {\rm rg}(A)=2$.

Il existe une relation entre le rang d'une application linéaire et celui de sa matrice.
\begin{theorem}
Soient $E,F$\ deux espaces vectoriels, et soit $\varphi\in{\math...
...\rm rg}(M(\varphi)_{{\mathcal B}_E,{\mathcal B}_F})
\end{equation}\end{theorem}
Notons que ceci implique que le rang d'une matrice est invariant par changement de bases, puisque le rang de $ \varphi$ ne dépend pas des bases choisies.

REMARQUE 3.7   Il est possible de montrer que si $ A$ est une matrice, et si $ {}^T\!A$ est sa transposée, leurs rangs sont égaux:

$\displaystyle {\rm rg}({}^T\!A) = {\rm rg}(A)\ .$ (3.5)

Cette propriété est parfois utile, comme dans l'exemple suivant.

EXEMPLE 3.19   On considère la famille de trois vecteurs de $ {\mathbb{R}}^5$

$\displaystyle {\vec{v}}_1 = (1,-1,3,5,1)\ ,\quad{\vec{v}}_2 = (2,0,-1,3,1)\ ,\quad
{\vec{v}}_3 = (3,-1,2,8,2)\ .
$

Le rang de la famille $ \{{\vec{v}}_1,{\vec{v}}_2,{\vec{v}}_3\}$ est égal au rang de la matrice

$\displaystyle B = \left(\begin{array}{ccc}
1&2&3\\
-1&0&-1\\
3&-1&2\\
5&3&8\\
1&1&2
\end{array}\right)\ .
$

Cette matrice est la transposée de la matrice $ A$ de l'exemple [*], donc $ {\rm rg}(B) = {\rm rg}(A) = 2$.

Bruno Torresani 2009-02-18