Subsections


Espaces vectoriels

La notion d'espace vectoriel est une notion centrale dans de nombreux problèmes de mathématiques, physique, chimie,.... En effet, la propriété de linéarité est commune, au moins en première approximation, à beaucoup de solutions de problèmes simples (problème de vibration de cordes ou ressorts, de propagation de la chaleur,...).

On peut résumer la propriété de linéarité de la façon suivante: si $ u$ et $ v$ sont deux solutions d'un problème donné, alors $ u+v$ est solution également, ainsi que $ \lambda u$ pour tout nombre (appelé scalaire) $ \lambda$.

Le cadre mathématique adapté à ce type de situation est le cadre des espaces vectoriels, qui est étudié dans ce chapitre. Les éléments des espaces vectoriels sont appelés vecteurs, notion qui généralise les vecteurs rencontrés en géométrie vectorielle. Pour bien distinguer les différents objets mathématiques manipulés, on notera dans ce chapitre les vecteurs avec une flèche (par exemple, $ {\vec{v}}$), notation qu'on oubliera ensuite.

Notions ensemblistes

On va dans ce chapitre manipuler des objets, et définir des opérations entre ces objets. Le langage adapté à la manipulation des objets est celui de la théorie des ensembles, dont on ébauche ici quelques aspects importants.

Ensembles

Il n'est pas nécessaire d'introduire la notion d'ensemble (qu'on nomme aussi parfois collection, famille ou regroupement), constitué d'éléments. Le nombre d'éléments d'un ensemble est appelé son cardinal. Le cardinal d'un ensemble $ A$ est noté $ \mathrm{Card}(A)$, ou $ \sharp A$.


Une relation importante entre deux ensembles est la relation d'inclusion. Un ensemble $ A$ est inclus dans un ensemble $ B$, relation que l'on note

$\displaystyle A\subset B\ ,
$

si tout élément de $ A$ est aussi élément de $ B$. On note ceci sous la forme

$\displaystyle \forall x\in A\ ,\quad x\in B\ .
$

$ A$ est alors un sous-ensemble de $ B$.

REMARQUE 1.1   Il existe un ensemble remarquable, qui est inclus dans tout ensemble: l'ensemble vide, noté $ \emptyset$. Tout ensemble $ A$ est également inclus dans lui même. On a donc pour tout ensemble $ A$,

$\displaystyle \emptyset\subset A\ ,\qquad A\subset A\ .
$

REMARQUE 1.2   Il est fondamental de bien saisir la différence entre les notions d'appartenance à un ensemble, et d'inclusion dans un ensemble. Par exemple, le nombre $ \pi$ appartient à l'ensemble $ {\mathbb{R}}$ des nombres réels, alors que l'ensemble $ \mathbb{Z}$ des nombres entiers est quant à lui inclus dans l'ensemble des nombres réels.

Par contre, le singleton $ \{\pi\}$, c'est à dire l'ensemble constitué de l'unique élément $ \pi$, est un sous-ensemble de $ {\mathbb{R}}$. On note cela

$\displaystyle \pi\in{\mathbb{R}}\ ,\qquad \{\pi\}\subset{\mathbb{R}}\ .
$

Deux ensembles $ A$ et $ B$ sont égaux si tout élément de $ A$ est élément de $ B$ (c'est à dire $ A\subset B$), et vice versa ( $ B\subset A$). Ainsi, on a la propriété fondamentale

$\displaystyle A=B\quad \Longleftrightarrow\quad A\subset B \hbox{ et } B\subset A\ .
$

Pour démontrer que deux ensembles sont égaux, on doit donc démontrer les deux relations d'inclusion, c'est à dire

Union, intersection

Etant donnés deux ensembles $ A$ et $ B$, leur union $ A\cup B$ est l'ensemble formé des éléments de $ A$ et des éléments de $ B$

$\displaystyle A\cup B = \left\{x: x\in A\ \hbox{\bf ou } x\in B\right\}\ .
$

Leur intersection est constituée des éléments communs à $ A$ et $ B$:

$\displaystyle A\cap B = \left\{x: x\in A\ \hbox{\bf et } x\in B\right\}\ .
$

Les opérations de réunion et d'intersection possèdent un certain nombre de propriétés importantes, listées ci-dessous. Les démontrer est un bon exercice. A défaut, on peut s'en convaincre en dessinant des ``patates'' (qu'on appelle diagrammes de Venn). Dans ces propriétés, $ E,F$ et $ G$ sont des ensembles.
  1. Union et intersection sont associatives: $ E\cup (F\cup G) = (E\cup F)\cup G$, et $ E\cap (F\cap G) = (E\cap F)\cap G$.
  2. Union et intersection sont commutatives: $ E\cup F = F\cup E$, et $ E\cap F = F\cap E$.
  3. Distributivité $ E\cup(F\cap G) = (E\cup F)\cap (E\cup G)$, et $ E\cap(F\cup G) = (E\cap F)\cup (E\cap G)$.


Etant donnés deux ensembles $ E$ et $ F$, on a parfois à considérer l'ensemble des éléments de $ E$ qui n'appartiennent pas à $ F$. Cet ensemble est appelé la différence ``$ E$ moins $ F$'', et est noté

$\displaystyle E\backslash F = \left\{x\in E,\ x\not\in F\right\}\ .
$

Lorsque $ F$ est un sous-ensemble de $ E$, $ E\backslash F$ est appellé le complémentaire de $ F$ dans $ E$, et on le note $ \complement_E F$ ou encore $ \complement F$ lorsqu'aucune confusion n'est possible.


Finalement, on utilise également la notion de différence symétrique de deux ensembles $ E$ et $ F$, notée $ E\Delta F$, qui est constituée des éléments de $ E$ n'appartenant pas à $ F$ et des éléments de $ F$ n'appartenant pas à $ E$:

$\displaystyle E\Delta F = (E\backslash F)\cup (F\backslash E)\ .
$

Produit Cartésien

Tout d'abord, distinguons les notions de paire et de couple. Une paire est un ensemble de deux objets. Un couple est lui aussi formé de deux objets, mais on distingue le premier (appelé première composante du couple) du second (appelé seconde composante du couple). Conventionnellement, on note $ \{a,b\}$ la paire constituée des objets $ a$ et $ b$, et $ (a,b)$ le couple constitué de ces mêmes objets. On a donc $ \{a,b\} = \{b,a\}$, alors que $ (a,b)\ne (b,a)$.

Etant donnés deux ensembles $ A$ et $ B$, le produit cartésien de $ A$ et $ B$, noté $ A\times B$, est l'ensemble des couples dont le premier élément appartient à $ A$ et le second appartient à $ B$:

$\displaystyle A\times B = \left\{(x,y)\ ,x\in A\ \hbox{et }y\in B\right\}\ .
$

Si $ A$ et $ B$ sont deux ensembles finis, de cardinaux respectifs $ n_A$ et $ n_B$, alors le cardinal de $ A\times B$ vaut $ n_A n_B$:

$\displaystyle \mathrm{Card}(A\times B) = \mathrm{Card}(A) . \mathrm{Card}(B)\ .
$

Etant donnés trois ensembles $ A$, $ B$ et $ C$, le produit Cartésien des ensembles $ A\times B$ et $ C$ sera noté $ A\times B\times C$ (et pas $ (A\times B)\times C$). Si $ a\in A$, $ b\in B$ et $ c\in C$, on notera $ (a,b,c)$ le couple $ ((a,b),c)$, que l'on appellera triplet.

On définira similairement les produits Cartésiens de 4 ensembles, 5 ensembles, et ainsi de suite. Un produit Cartésien de $ p$ ensembles sera formé de $ p$-uplets.

Applications, fonctions

Une application d'un ensemble $ A$ vers un ensemble $ B$ est un objet mathématique qui associe à tout élément $ x$ de $ A$ un unique élément $ y=f(x)$ de $ B$. $ A$ est l'ensemble de départ, et $ B$ est l'ensemble d'arrivée.

$\displaystyle f: \forall x\in A \longmapsto y=f(x)\in B\ .
$

$ y$ est l'image de $ x$, et $ x$ est l'antécédent de $ y$.


On utilisera dans la suite de ce cours les notions fondamentales suivantes:

  1. L'application $ f: E\to F$ est injective si tout $ y\in F$ a au plus un antécédent $ x\in E$.
  2. L'application $ f: E\to F$ est surjective si tout $ y\in F$ a au moins un antécédent $ x\in E$.
  3. L'application $ f: E\to F$ est bijective si elle est injective et surjective, en d'autres termes si tout $ y\in F$ a un et un seul antécédent $ x\in E$.

EXEMPLE 1.1  

REMARQUE 1.3   Rappelons ce qu'est une fonction. Etant donnés deux ensembles $ E$ et $ F$, une fonction $ f: E\to F$ associe à tout élément de $ E$ 1 ou 0 élément de $ F$: ainsi, tout élément de $ E$ n'a pas nécessairement une image par la fonction $ f$.

L'ensemble des éléments de $ E$ qui possèdent une image par la fonction est appelé ensemble de définition de la fonction $ f$, noté $ D_f$.

Ainsi, toute fonction $ f: E\to F$ n'est pas nécessairement une application. Par contre, la même fonction $ f$ devient une application, si on change l'ensemble de départ: $ f: D_f\to F$ est une application.

Un exemple de fonction se trouve en FIG. [*], représentée par un diagramme sagittal.

Figure: Diagramme sagittal d'une fonction$ f: E\to F$, qui devient application par restriction à son domaine de définition $ D_f$.
Image sagittal

L'espace vectoriel $ {\mathbb{R}}^n$

Un espace vectoriel est un ensemble dont les éléments, appelés vecteurs, constituent une généralisation abstraite de la notion usuelle (c'est à dire plus géométrique) de vecteur. A ce titre, les éléments d'un espace vectoriel peuvent être additionnés, et multipliés par des nombres.

Exemples

Commençons par quelques exemples simples d'espaces vectoriels ``classiques''.

EXEMPLE 1.2   L'exemple le plus simple d'espace vectoriel est la droite réelle $ {\mathbb{R}}$, c'est à dire l'ensemble des nombres réels, que l'on appelle dans ce contexte la droite vectorielle. On sait effectuer sur les réels les opérations suivantes:

EXEMPLE 1.3   Autre exemple: le plan vectoriel, défini comme l'ensemble des couples de réels

$\displaystyle {\mathbb{R}}^2 = \left\{(x,y), x,y\in{\mathbb{R}}\right\}
$

Les deux opérations précédentes sont encore bien définies:

Dans ces deux cas ci-dessus, l'addition est commutative ( $ {\vec{u}}+{\vec{v}}= {\vec{v}}+ {\vec{u}}$) et associative ( $ {\vec{u}}+ ({\vec{v}}+{\vec{w}}) = ({\vec{u}}+{\vec{v}})+{\vec{w}}$); il existe un vecteur nul $ {\underline{v}}0$, tel que pour tout $ {\vec{u}}$, $ {\underline{v}}0+{\vec{u}}={\vec{u}}$, et tout vecteur $ {\vec{u}}$ possède un opposé (ou inverse), que l'on note $ -{\vec{u}}$ (voir en FIG. [*]).

Figure: Commutativité (à gauche) et associativité (à droite) de l'addition
                

Quant à la multiplication par un scalaire, elle possède des propriétés voisines (mais pas identiques): elle est commutative ( $ \lambda(\mu{\vec{u}}) = \mu(\lambda{\vec{u}})$) et distributive par rapport à l'addition ( $ (\lambda+\mu){\vec{u}}=\lambda{\vec{u}}+\mu{\vec{u}}$, et $ \lambda ({\vec{u}}+{\vec{v}}) =\lambda{\vec{u}}+\lambda{\vec{v}}$). De plus, la multiplication par le scalaire 1 ne change rien ( $ 1.{\vec{u}}= {\vec{u}}$).


Ces propriétés (avec d'autres) sont en fait des propriétés ``génériques'', qui permettent de définir la notion d'espace vectoriel, comme on le verra.

Le cas de $ {\mathbb{R}}^n$

On définit l'espace $ {\mathbb{R}}^n$ de la façon suivante.
\begin{definition}
${\mathbb{R}}^n$\ est l'ensemble des $n$-uplets ${\vec{u}}...
...bda x_2,\dots,\lambda x_n)\ .
\end{equation}
\end{enumerate}
\end{definition}

Dans $ {\mathbb{R}}^n$, ces deux opérations possèdent les mêmes propriétés que celles que nous avons vues plus haut dans le cas de $ {\mathbb{R}}^2$. Elles font de $ {\mathbb{R}}^n$ un $ {\mathbb{R}}$-espace vectoriel, dont on donnera la définition précise plus loin.

Norme, produit scalaire et angle

En plus de sa structure d'espace vectoriel, $ {\mathbb{R}}^n$ est également équipé d'autres outils, comme la norme (qui associe à tout vecteur sa ``longueur''), et le produit scalaire (qui associe à toute paire de vecteurs un scalaire, décrivant leur ``ressemblance''), qui lui confèrent une structure d'espace Euclidien.


La norme d'un vecteur $ {\vec{u}}=(x_1,x_2,\dots x_n)$ de $ {\mathbb{R}}^n$ (qui représente donc sa ``longueur'') est définie par

$\displaystyle \Vert{\vec{u}}\Vert = \sqrt{x_1^2 +x_2^2 +\dots +x_n^2}$ (1.1)

Dans le cas de $ {\mathbb{R}}^2$, cette égalité correspond au théorème de Pythagore, si l'on identifie les deux composantes $ x_1,x_2$ du couple $ {\vec{v}}=(x_1,x_2)\in{\mathbb{R}}^2$ aux coordonnées Cartésiennes du point $ M$ du plan tel que $ \vec{OM}={\vec{v}}$.

La norme vérifie l'inégalité triangulaire: pour tous $ {\vec{u}},{\vec{v}}\in{\mathbb{R}}^n$,

$\displaystyle \Vert{\vec{u}}+{\vec{v}}\Vert \le \Vert{\vec{u}}\Vert + \Vert{\vec{v}}\Vert\ .$ (1.2)


Le produit scalaire de deux vecteurs est défini par

$\displaystyle {\vec{u}}\cdot {\vec{v}}= x_1 y_1 + x_2 y_2 +\dots + x_n y_n$ (1.3)

et vérifie la propriété suivante, qui est essentielle
\begin{proposition}[In\'egalit\'e de Cauchy-Schwarz]
\begin{equation}
\vert{\v...
... \le \Vert{\vec{u}}\Vert\,\Vert{\vec{v}}\Vert
\end{equation}
\end{proposition}
Interprétation: on a donc

$\displaystyle -1\le \frac{{\vec{u}}\cdot {\vec{v}}}{ \Vert{\vec{u}}\Vert\,\Vert{\vec{v}}\Vert}\le 1\ ,
$

et donc il existe $ \alpha\in[0,2\pi[$ tel que

$\displaystyle \frac{{\vec{u}}\cdot {\vec{v}}}{ \Vert{\vec{u}}\Vert\,\Vert{\vec{v}}\Vert} = \cos (\alpha)\ .
$

$ \alpha$ est l'angle entre les deux vecteurs $ {\vec{u}}$ et $ {\vec{v}}$.


Ces opérations munissent $ {\mathbb{R}}^n$ d'une structure d'espace Euclidien. Dans un premier temps, nous nous focaliserons essentiellement sur la structure d'espace vectoriel, laissant de côté les notions de norme et produit scalaire. Nous reviendrons sur ces notions plus tard, lorsque nous traiterons la diagonalisation des matrices.


Définitions: espace vectoriel

La notion centrale de ce chapitre est la notion d'espace vectoriel. On se limitera ici aux notions d'espaces vectoriels sur $ {\mathbb{R}}$ et sur $ \mathbb{C}$, qui sont les plus couramment utilisées. On parlera de $ {\mathbb{R}}$-espace vectoriel ou de $ \mathbb{C}$-espace vectoriel. Lorsque les propriétés étudiées sont vraies indifféremment dans les cas réel ou complexe, on parlera de $ \mathbb{K}$-espace vectoriel ( $ \mathbb{K}$ représentant génériquement $ {\mathbb{R}}$ ou $ \mathbb{C}$), ou d'espace vectoriel tout simplement.

Espace vectoriel


\begin{definition}[${\mathbb{R}}$-Espace vectoriel]
Un ${\mathbb{R}}$-espace ...
...quad&\forall{\vec{u}}\in E\ .
\end{eqnarray}
\end{enumerate}
\end{definition}

En sciences appliquées, en particulier en physique et en chimie, on est souvent amené à manipuler des nombres complexes. C'est pourquoi il est utile d'étendre la notion d'espace vectoriel aux nombres complexes. La définition d'un $ \mathbb{C}$-espace vectoriel est presque identique à la définition d'un $ {\mathbb{R}}$-espace vectoriel, la seule différence étant que la multiplication par un scalaire est cette fois la multiplication par un nombre complexe.


\begin{definition}[$\mathbb{C}$-Espace vectoriel]
Un $\mathbb{C}$-espace vect...
...quad&\forall{\vec{u}}\in E\ .
\end{eqnarray}
\end{enumerate}
\end{definition}

REMARQUE 1.4   On peut vérifier que tout $ \mathbb{C}$-espace vectoriel est automatiquement un $ {\mathbb{R}}$-espace vectoriel. La réciproque est fausse.

Exemples

Outre les exemples géométriques ( $ {\mathbb{R}}^n$) que nous avons vus plus haut, on utilise souvent d'autres exemples d'espaces vectoriels, dans bien des domaines.

Familles de vecteurs, sous-espaces vectoriels, dimension

Sous-espace vectoriel


\begin{definition}
Soit $E$\ un espace vectoriel (sur $\mathbb{C}$\ ou sur ${...
...it
un espace vectoriel (sur $\mathbb{C}$\ ou ${\mathbb{R}}$).
\end{definition}

EXEMPLE 1.4   Par exemple, considérons l'espace vectoriel $ \mathbb{C}^3$, et le sous-ensemble

$\displaystyle F =\left\{(x,y,z)\in\mathbb{C}^3\ ,2x + 3y - z =0\right\}\subset\mathbb{C}^3\ .
$

Figure: Le plan vectoriel dans $ {\mathbb R}^3$, d'équation $ 2x+3y-z=0$. On note qu'il passe par l'origine.
\includegraphics[width=6cm]{img/plan}

Il est possible de montrer que $ F$ est un sous-espace vectoriel de $ \mathbb{C}^3$, c'est à dire que tous les axiomes des définition [*] et [*] sont satisfaits. On le démontrera un peu plus loin, de façon plus simple.

EXEMPLE 1.5   Revenons sur l'exemple que nous avons évoqué un peu plus haut, du système homogène de deux équations linéaires à deux inconnues

$\displaystyle \bigg\{\begin{array}{lllll}
ax &+& by &=& 0\\
cx &+& dy &=& 0\ ,
\end{array}
$

Comme on l'a vu, les solutions de ce système forment un sous-ensemble de $ {\mathbb{R}}^2$. Montrons maintenant qu'il s'agit d'un sous-espace vectoriel de $ {\mathbb{R}}^2$. On a bien montré que l'ensemble des solutions est un sous-espace vectoriel de $ {\mathbb{R}}^2$, c'est donc un $ {\mathbb{R}}$-espace vectoriel.

Etant donnés un espace vectoriel $ E$ et un sous-ensemble $ F$, montrer que $ F$ est un sous-espace vectoriel de $ E$ demande de vérifier tous les axiomes de la définition [*]. Cela n'est en fait pas nécessaire, grâce au résultat suivant.


\begin{proposition}
Soit $E$\ un $\mathbb{K}$-espace vectoriel ($\mathbb{K}={\m...
...a\in\mathbb{K}&\implies \lambda{\vec{u}}\in F
\end{eqnarray}
\end{proposition}
Preuve: Ces conditions sont évidemment nécessaires. Pour prouver qu'elles sont suffisantes, remarquons que les axiomes ([*]) à ([*]) sont satisfaits dans $ E$, et comme $ F\subset E$, ils sont donc sautomatiquement satisfaits dans $ F$, à l'exception de l'existence de l'élément neutre ([*]) et de l'opposé ([*]), qu'il faut vérifier. Ces deux propriétés sont conséquence des hypothèses: en effet, pour tout $ {\vec{u}}\in F$, $ {\underline{v}}0 = 0.{\vec{u}}$, de sorte que $ {\underline{v}}0\in F$. De plus, pour tout $ {\vec{u}}\in F$, $ -{\vec{u}}= (-1).{\vec{u}}\in F$, ce qui conclut la démonstration. $ \spadesuit$

De façon plus générale, on déduit de ce résultat le corollaire
\begin{corollary}
% latex2html id marker 744
Soit $E$\ un $\mathbb{K}$-espace ...
...equation}
\lambda{\vec{u}}+\mu{\vec{v}}\in F
\end{equation}
\end{corollary}
Preuve: Il suffit de démontrer que ([*]) est équivalente aux équations ([*]) et ([*]), ce qui est immédiat. $ \spadesuit$

Revenons à l'exemple [*] ci-dessus. Pour montrer qu'un tel $ F$ est un sous-espace vectoriel de $ \mathbb{C}^3$, il suffit donc de montrer que $ F$ est non-vide, ce qui est assuré dès lors que l'on remarque que par exemple, $ {\underline{v}}0=(0,0,0)\in F$, et que pour tous $ {\vec{u}},{\vec{v}}\in F$ et $ \lambda,\mu\in \mathbb{C}$, ([*]) est satisfaite. Considérons donc $ {\vec{u}}=(x,y,z)\in F$ et $ {\vec{v}}=(x',y',z')\in F$, et calculons, pour des $ \lambda,\mu\in \mathbb{C}$ quelconques,

$\displaystyle \lambda{\vec{u}}+\mu{\vec{v}}= (\lambda x+\mu x',\lambda y+\mu y',\lambda z+\mu z')\ .
$

Alors, on voit facilement que

$\displaystyle 2 (\lambda x+\mu x')+ 3(\lambda y+\mu y') - (\lambda z+\mu z')
= \lambda (2x + 3y - z) + \mu (2x' + 3y' - z') = 0
$

car $ {\vec{u}},{\vec{v}}\in F$. Ceci prouve donc que ce $ F$ est bien un sous-espace vectoriel de $ \mathbb{C}^3$. Il s'agit d'un plan vectoriel.

Familles de vecteurs: familles libres, liées, génératrices

Soit $ E$ un espace vectoriel (réel ou complexe) et soient $ {\vec{u}}_1,{\vec{u}}_2,\dots {\vec{u}}_p\in E$ $ p$ vecteurs de $ E$. Si $ \lambda_1,\dots \lambda_p$ sont $ p$ scalaires, alors on dit que le vecteur

$\displaystyle \sum_{n=1}^p \lambda_n {\vec{u}}_n =
\lambda_1{\vec{u}}_1 + \lambda_2{\vec{u}}_2 +\dots + \lambda_p{\vec{u}}_p$ (1.5)

est une combinaison linéaire des vecteurs $ {\vec{u}}_1,{\vec{u}}_2,\dots {\vec{u}}_p$.


\begin{definition}
Soit $E$\ un $\mathbb{K}$-espace vectoriel ($\mathbb{K}={\...
...{u}}_p
= \sum_{k=1}^p \lambda_k{\vec{u}}_k\ .
\end{equation}
\end{definition}

On dit aussi que la famille $ \{{\vec{u}}_1,\dots {\vec{u}}_p\}$ engendre $ E$, et on note

$\displaystyle E = \hbox{\rm Vect}({\vec{u}}_1,\dots {\vec{u}}_p)\ .
$

Notons qu'il existe toujours une infinité de familles génératrices pour un espace vectoriel.

EXEMPLE 1.6   Reprenons l'exemple du plan vectoriel $ F$ de l'exemple [*]. Il est facile de voir que tout $ {\vec{v}}\in F$ est de la forme $ {\vec{v}}=(x,y,2x+3y)$. On peut alors écrire

$\displaystyle (x,y,2x+3y) = x(1,0,2) + y (0,1,3)\ ,
$

de sorte que les vecteurs $ {\vec{i}}= (1,0,2)\in F$ et $ {\vec{j}}= (0,1,3)\in F$ forment une famille génératrice de $ F$.

Considérons maintenant les vecteurs $ {\vec{k}}= (1,1,5)$ et $ {\vec{j}}$. Ces deux vecteurs forment ils une famille génératrice de $ F$ ?

Pour s'en assurer, soit $ {\vec{v}}=(x,y,2x+3y)\in F$, quelconque. La question est, ``existe-t-il $ \lambda,\mu\in \mathbb{C}$ tels que

$\displaystyle {\vec{v}}= \lambda{\vec{k}}+ \mu{\vec{j}}\ .
$

Cette équation vectorielle est équivalente au système de trois équations linéaires à deux inconnues ($ \lambda$ et $ {\underline{u}}$)

\begin{displaymath}
\left\{
\begin{array}{lllll}
\lambda &&&=&x\\
\lambda &+&\mu&=&y\\
5\lambda &+& 3\mu &=& 2x+3y
\end{array}
\right.
\end{displaymath}

Par substitution, ce système est équivalent à

\begin{displaymath}
\left\{
\begin{array}{lllll}
\lambda &&&=&x\\
&&\mu&=&y-x\\
&& 3\mu &=& 2x+3y -5x
\end{array}
\right.
\end{displaymath}

qui est lui même équivalent à

\begin{displaymath}
\left\{
\begin{array}{lllll}
\lambda &&&=&x\\
&&\mu&=&y-x
\end{array}
\right.
\end{displaymath}

Ainsi, pour tous $ x,y$, on a bien trouvé $ \lambda$ et $ \mu$ satisfaisant à la condition ci-dessus, donc la famille $ \{{\vec{k}},{\vec{j}}\}$ est bien une famille génératrice pour $ F$.

On vérifie aussi facilement que pour tout $ {\vec{v}}=(x,y,z)\in F$, on peut écrire par exemple $ {\vec{v}}= (x-z/5){\vec{i}}+ (y-z/5){\vec{j}}+ {\vec{k}}/5$, de sorte que la famille $ \{{\vec{i}},{\vec{j}},{\vec{k}}\}$ engendre $ F$ elle aussi.


\begin{definition}
Un espace vectoriel sur $\mathbb{C}$\ ou ${\mathbb{R}}$\ e...
...mension finie} si
il admet une famille g\'en\'eratrice finie.
\end{definition}
Par exemple, $ {\mathbb{R}}^n$ et $ \mathbb{C}^n$ sont de dimension finie. Par contre, on peut trouver beaucoup d'exemples d'espaces vectoriels de dimension infinie, comme des espaces vectoriels de suites ou de fonctions. On ne considèrera pas de tels exemples dans ce cours.


\begin{definition}
On dit que les $p$\ vecteurs ${\vec{u}}_1,{\vec{u}}_2,\dot...
...f lin\'eairement d\'ependants}\index{D\'ependance lin\'eaire}.
\end{definition}

EXEMPLE 1.7   Reprenons de nouveau l'exemple [*] ci-dessus. On peut vérifier que $ \{{\vec{i}},{\vec{j}}\}$ est une famille libre. Par exemple, supposons que $ {\vec{v}}=\alpha{\vec{i}}+\beta{\vec{j}}={\underline{v}}0$. Cette équation peut s'écrire $ (\alpha,\beta,2\alpha+3\beta)=(0,0,0)$, ce qui implique $ \alpha=\beta=0$. Ainsi, $ {\vec{i}}$ et $ {\vec{j}}$ sont linéairement indépendants.

En revanche, considérons maintenant la famille $ \{{\vec{i}},{\vec{j}},{\vec{k}}\}$. Soit $ {\vec{v}}=\alpha{\vec{i}}+\beta{\vec{j}}+\gamma{\vec{k}}$, et supposons $ {\vec{v}}={\underline{v}}0$. Ceci implique que $ (\alpha+\gamma,\beta+\gamma,2\alpha +3\beta+5\gamma)=(0,0,0)$, équation qui admet des solutions non-nulles: $ \alpha=\beta =-\gamma$. Donc la famille $ \{{\vec{i}},{\vec{j}},{\vec{k}}\}$ est liée.


\begin{proposition}
% latex2html id marker 809
Soit ${\vec{u}}_1,{\vec{u}}_2...
...c{u}}_n$,
alors $\lambda_k=\mu_k$\ pour tous $k=1,\dots p$.
\end{proposition}
Preuve: Soit $ {\vec{u}}_1,{\vec{u}}_2,\dots {\vec{u}}_p\in E$ une famille libre de $ p$ vecteurs dans $ E$, et supposons qu'il existe des nombres $ \lambda_1,\dots \lambda_p$ et $ \mu_1,\dots\mu_p$ tels que

$\displaystyle \lambda_1{\vec{u}}_1 + \lambda_2{\vec{u}}_2 +\dots + \lambda_p{\vec{u}}_p
= \mu_1{\vec{u}}_1 + \mu_2{\vec{u}}_2 +\dots + \mu_p{\vec{u}}_p\ .
$

Alors on en déduit que

$\displaystyle (\lambda_1-\mu_1){\vec{u}}_1 +(\lambda_2-\mu_2){\vec{u}}_2 +\dots +
(\lambda_p-\mu_p){\vec{u}}_1 =0\ ,
$

d'où, la famille $ {\vec{u}}_1,{\vec{u}}_2,\dots {\vec{u}}_p$ étant libre,

$\displaystyle \lambda_1-\mu_1=\lambda_2-\mu_2=\dots=\lambda_p-\mu_p=0\ ,
$

et donc $ \lambda_1=\mu_1,\dots\lambda_p=\mu_p$. $ \spadesuit$

EXEMPLE 1.8   Dans $ {\mathbb{R}}^2$, considérons deux vecteurs orthogonaux $ {\vec{i}}$ et $ {\vec{j}}$, comme dans la FIG. [*], et posons

$\displaystyle {\vec{i}}'=\frac1{\sqrt{2}}({\vec{i}}- {\vec{j}})\ ,\qquad
{\vec{j}}'=\frac1{\sqrt{2}}({\vec{i}}+ {\vec{j}})\ .
$

Figure: Un seul développementUne infinité de développements

La famille $ \{{\vec{i}},{\vec{j}}\}$ est une famille libre, alors que la famille $ \{{\vec{i}},{\vec{j}},{\vec{i}}',{\vec{j}}'\}$ est une famille liée. Ceci se traduit par le fait qu'un vecteur quelconque de $ {\mathbb{R}}^2$ s'écrit de façon unique comme combinaison linéaire de $ {\vec{i}}$ et $ {\vec{j}}$, alors qu'il existe une infinité de façons différentes de l'écrire comme combinaison linéaire de $ {\vec{i}}$, $ {\vec{j}}$, $ {\vec{i}}'$ et $ {\vec{j}}'$. En effet, considérons par exemple le vecteur $ {\vec{u}}= {\vec{i}}+ 2{\vec{j}}$. Cette expression constitue l'unique écriture de $ {\vec{u}}$ comme combinaison linéaire de $ {\vec{i}}$ et $ {\vec{j}}$. Par contre, on peut également écrire, pour tout $ \alpha\in{\mathbb{R}}$,

$\displaystyle {\vec{u}}$ $\displaystyle =$ $\displaystyle \alpha ({\vec{i}}+ 2{\vec{j}}) + (1-\alpha)({\vec{i}}+ 2{\vec{j}})$  
  $\displaystyle =$ $\displaystyle \alpha ({\vec{i}}+ 2{\vec{j}}) + (1-\alpha)\left(\frac{{\vec{i}}' + {\vec{j}}'}{\sqrt{2}}
+ 2 \frac{{\vec{j}}' - {\vec{i}}'}{\sqrt{2}}\right)$  
  $\displaystyle =$ $\displaystyle \alpha{\vec{i}}+ 2\alpha {\vec{j}}- \frac{1-\alpha}{\sqrt{2}}{\vec{i}}' +
\frac{3(1-\alpha)}{\sqrt{2}}{\vec{j}}'$  

Ceci étant vrai pour tout $ \alpha\in{\mathbb{R}}$, on obtient ainsi une infinité de décompositions possibles.


REMARQUE 1.5   Dans un $ \mathbb{K}$-espace vectoriel, la notion de dépendance linéaire ou indépendance linéaire d'une famille de vecteurs dépend évidemment de $ \mathbb{K}$. Par exemple, prenons $ E=\mathbb{C}$ qui, comme nous l'avons vu, peut être muni d'une structure de $ CC$-espace vectoriel et de $ {\mathbb{R}}$-espace vectoriel. Dans le $ {\mathbb{R}}$-espace vectoriel $ \mathbb{C}$, la famille de vecteurs $ \{1,i\}$ est une famille libre: en effet, il n'existe pas $ \lambda,\mu\in {\mathbb{R}}$, non simultanément nuls, tels que $ \lambda +i\mu=0$. Par contre, dans le $ \mathbb{C}$-espace vectoriel $ \mathbb{C}$, il s'agit d'une famille liée, car on peut trouver $ \lambda,\mu\in \mathbb{C}$, non simultanément nuls, tels que $ \lambda +i\mu=0$ (prendre $ \mu=i\lambda$). Pour préciser les choses, on parle parfois de famille $ \mathbb{K}$-libre ou $ \mathbb{K}$-liée ( $ \mathbb{K}={\mathbb{R}}$ ou $ \mathbb{C}$).

Bases, dimension

Clairement, toute famille libre n'est pas obligatoirement génératrice, et toute famille génératrice n'est pas obligatoirement libre. La notion de base représente en quelque sorte le ``juste compromis'' entre ces deux notions, comme on va le voir dans l'exemple qui suit.

EXEMPLE 1.9   Reprenons l'exemple du $ \mathbb{C}$-espace vectoriel $ \mathbb{C}^3$. Les vecteurs $ {\vec{e}}_1=(1,0,0)$, $ {\vec{e}}_2=(0,1,0)$ et $ {\vec{e}}_3=(0,0,1)$ forment une famille dont on vérifie facilement qu'elle est Il est clair que si l'on enlève un élément à cette famille, la famille résultante n'est plus génératrice: par exemple, tout $ {\vec{x}}\in\mathbb{C}^3$ ne peut pas s'écrire comme combinaison linéaire de $ {\vec{e}}_1$ et $ {\vec{e}}_2$ seuls. Par contre, si on ajoute n'importe quel vecteur à cette famille, la famille résultante ne sera pas libre, le nouveau vecteur pouvant s'exprimer comme combinaison linéaire des trois premiers.

Ainsi, la famille $ \{{\vec{e}}_1,{\vec{e}}_2,{\vec{e}}_3\}$ représente le bon compromis pour écrire les éléments de $ \mathbb{C}^3$ comme combinaisons linéaires. C'est ce que l'on appelle une base de $ \mathbb{C}^3$, en l'occurrence la base canonique de $ \mathbb{C}^3$.


\begin{definition}
Soit $E$\ un espace vectoriel. Une {\bf base}\index{Base}
...
...s{\vec{u}}_n\}$
qui est \\lq a la fois libre et g\'en\'eratrice.
\end{definition}
Dans le cas de $ {\mathbb{R}}^n$, la base canonique de $ {\mathbb{R}}^n$ est la famille constituée des vecteurs $ {\vec{e}}_j = (0,\dots ,0,1,0,\dots,0)$, pour $ j=1,\dots n$, le seul élément non-nul du vecteur étant le $ j$-ième.


Le théorème qui suit, que nous donnons sans démonstration, est un résultat fondamental.


\begin{theorem}[Th\'eor\\lq eme de la dimension]
Soit $E$\ un $\mathbb{K}$-espac...
...playmath}
\dim_\mathbb{K}(E)
\end{displaymath}
\end{enumerate}
\end{theorem}
Par exemple, la dimension de $ {\mathbb{R}}^n$ est égale à $ n$, la base canonique de $ {\mathbb{R}}^n$ ayant $ n$ éléments.

Pour illustrer ce résultat, il est utile de considérer un exemple simple.

EXEMPLE 1.10   Dans $ {\mathbb{R}}^3$, on considère les deux vecteurs $ {\vec{e}}_1=(1,1,0)$ et $ {\vec{e}}_2=(1,-1,0)$. On voit facilement qu'ils forment une famille libre, et qu'on peut toujours leur adjoindre une troisième vecteur, par exemple $ {\vec{e}}_3=(0,0,1)$ pour obtenir une famille génératrice.

Similairement, partant d'une famille génératrice de 4 vecteurs de $ {\mathbb{R}}^3$, on voit facilement qu'on peut lui enlever un vecteur, la famille résultante étant maintenant libre, et toujours génératrice.

REMARQUE 1.6   Notons que la dépendance de la dimension $ \dim_\mathbb{K}(E)$ d'un $ \mathbb{K}$-espace vectoriel est un aspect important. Prenons par exemple le cas de $ \mathbb{C}$. La dimension de $ \mathbb{C}$ change selon que $ \mathbb{C}$ est considéré comme $ \mathbb{C}$-espace vectoriel ou $ {\mathbb{R}}$-espace vectoriel. On peut facilement montrer que $ \dim_\mathbb{C}(\mathbb{C})=1$, alors que $ \dim_{\mathbb{R}}(\mathbb{C})=2$.

Ce résultat a de nombreuses conséquences ``pratiques''. Celle qui suit se démontre aisément.
\begin{corollary}
Dans un espace vectoriel de dimension $n$:
\begin{enumerate}...
... $n$\ vecteur ne peut \^etre
g\'en\'eratrice.
\end{enumerate}
\end{corollary}
Preuve: Considérons une famille de plus de $ n$ vecteurs, et supposons qu'elle soit libre; d'après le théorème de la dimension, elle peut être complétée pour former une base, mais celle-ci aurait alors plus de $ n$ vecteurs, ce qui est impossible. Donc la famille ne peut être libre. Considérons maintenant une famille de moins de $ n$ vecteurs, et supposons qu'elle soit génératrice. On peut alors en extraire une base, qui aurait alors moins de $ n$ vecteurs, ce qui est encore une fois impossible. La famille ne peut donc pas êtretre génératrice. $ \spadesuit$


Soit $ E$ un espace vectoriel de dimension $ n$, et soit $ \{{\vec{e}}_1,\dots{\vec{e}}_n\}$ une famille libre de $ n$ vecteurs de $ E$. Supposons qu'elle ne soit pas génératrice. Alors d'après le 2) du théorème [*], on peut la compléter pour former une base de $ E$. Mais celle-ci a alors plus de $ n$ éléments, ce qui est impossible. Donc la famille $ \{{\vec{e}}_1,\dots{\vec{e}}_n\}$ est nécessairement génératrice.

Similairement, soit $ \{{\vec{f}}_1,\dots{\vec{f}}_n\}$ une famille génératrice de $ E$, supposons qu'elle ne soit pas libre. Alors d'après le 1) du théorème [*], on peut lui enlever des éléments pour obtenir une base, mais celle-ci compte moins de $ n$ éléments, ce qui est impossible. Donc la famille $ \{{\vec{f}}_1,\dots{\vec{f}}_n\}$ est obligatoirement libre.

On a donc montré
\begin{corollary}
Soit $E$\ un espace vectoriel de dimension $n$. Alors
\begin...
...de $E$\ est n\'ecessairement
une base de $E$.
\end{enumerate}
\end{corollary}

Finalement, on déduit de la définition d'une famille génératrice et de la proposition [*] l'existence et l'unicité du développement d'un vecteur sur une base:
\begin{theorem}[Unicit\'e du d\'eveloppement sur une base]
Soit $E$\ un espace ...
...c}
x_1\\ x_2\\ \vdots\\ x_n\end{array}\right)
\end{displaymath}
\end{theorem}
Dans le cas simple de $ {\mathbb{R}}^n$ (ou $ \mathbb{C}^n$), dont on a vu plus haut la base canonique, il est facile de voir que les composantes d'un vecteur $ {\vec{v}}=(x_1,x_2,\dots,x_n)$ dans cette base canonique ne sont autres que les nombres $ x_1,x_2,\dots x_n$.

Dans un cas plus général, la détermination des composantes d'un vecteur sur une base demande un peu plus de travail.

EXEMPLE 1.11   Comment déterminer les composantes d'un vecteur par rapport à une base ? Prenons l'exemple de $ \mathbb{C}^2$, et de la base constituée par les deux vecteurs $ {\vec{e}}_1=(1,i)$ et $ {\vec{e}}_2 = (1,-i)$. Considérons un vecteur de $ \mathbb{C}^2$, par exemple $ {\vec{v}}=(2,3i)$. On cherche à écrire

$\displaystyle {\vec{v}}= x_1{\vec{e}}_1 + x_2{\vec{e}}_2\ ,
$

ce qui revient à résoudre le système

\begin{displaymath}
\left\{
\begin{array}{lll}
x_1 + x_2 &=& 2\\
ix_1 - ix_2 &=& 3i
\end{array}
\right.
\end{displaymath}

Ce système se résoud facilement, et conduit à $ x_1=5/2$ et $ x_2=-1/2$.

Dans des cas plus complexes, il est possible d'utiliser des techniques plus systématiques, comme par exemple la méthode du pivot de Gauss, décrite un peu pus loin.

Union et intersection d'espaces vectoriels

Soient $ F$ et $ G$ deux sous-espaces vectoriels d'un espace vectoriel $ E$. On considère la réunion de $ F$ et $ G$

$\displaystyle F\cup G = \left\{{\vec{v}}\in E\ ,\quad {\vec{v}}\in F\ \hbox{\bf ou}\ {\vec{v}}\in G\right\}\ .$ (1.6)

$ F\cup G$ est clairement un sous-ensemble de $ E$, par construction. Par contre, ça n'est pas un sous-espace vectoriel de $ E$ en général.

EXEMPLE 1.12   Prenons $ E=\mathbb{C}^2$, et

$\displaystyle F=\left\{(a,a),\ a\in\mathbb{C}\right\}\ ,\quad
G=\left\{(b,-b),\ b\in\mathbb{C}\right\}\ .
$

$ F$ et $ G$ sont deux sous-espaces vectoriels de $ E$ (de dimension $ dim_\mathbb{C}(F)=dim_\mathbb{C}(G)=1$). Par contre, $ F\cup G$ n'est pas un sous-espace vectoriel de $ E$, donc n'est pas un espace vectoriel. Par exemple, soient $ {\vec{u}}=(1,1)$ et $ {\vec{v}}=(1,-1)$, ils appartiennent tous deux à $ F\cup G$, mais $ {\vec{u}}+{\vec{v}}\not\in F\cup G$.

Considérons maintenant l'intersection $ F\cap G$ de deux sous-espaces vectoriels $ F$ et $ G$ de $ E$

$\displaystyle F\cap G = \left\{{\vec{v}}\in E\ ,\quad {\vec{v}}\in F\ \hbox{\bf et}\ {\vec{v}}\in G\right\}\ .$ (1.7)

Soient $ {\vec{u}},{\vec{v}}\in F\cap G$. Alors $ {\vec{u}},{\vec{v}}\in F$ et $ {\vec{u}},{\vec{v}}\in G$; donc, $ F$ et $ G$ étant des sous-espaces vectoriels de $ E$, $ {\vec{u}}+{\vec{v}}\in F$ et $ {\vec{u}}+{\vec{v}}\in G$, d'où $ {\vec{u}},{\vec{v}}\in F\cap G$. On a ainsi montré
\begin{theorem}
Soient $F$\ et $G$\ deux sous-espaces vectoriels d'un espace ...
...$E$.
Alors $F\cap G$\ est aussi un sous-espace vectoriel de $E$.
\end{theorem}

EXEMPLE 1.13   Si nous reprenons l'exemple précédent, nous voyons bien que

$\displaystyle F\cap G = \{(0,0)\}
$

est limité au seul vecteur nul de $ \mathbb{C}^2$... ce qui est bien un sous-espace vectoriel, de dimension 0.

Somme et somme directe d'espaces vectoriels

Etant donnés deux sous-espaces vectoriels $ F$ et $ G$ d'un espace vectoriel donné $ E$, il est possible de considérer l'ensemble formé des sommes d'éléments de $ F$ et $ G$. Il est facile de montrer que cet ensemble est en fait un espace vectoriel.


\begin{definition}
Soient $E_1$\ et $E_2$\ deux sous-espaces vectoriels d'un es...
...\mathcal E}= E_1\oplus E_2\ .
\end{equation}
\end{enumerate}
\end{definition}
Supposons que $ E_1$ et $ E_2$ soient deux sous-espaces vectoriels de $ E$, et soit $ {\mathcal E}=E_1+E_2$. Soit $ {\vec{v}}\in{\mathcal E}$. Alors il existe $ {\vec{v}}_1\in E_1$ et $ {\vec{v}}_2\in E_2$ tels que $ {\vec{v}}={\vec{v}}_1+{\vec{v}}_2$. Supposons qu'il existe un autre couple de vecteurs $ {\vec{u}}_1\in E_1$ et $ {\vec{u}}_2\in E_2$ tels que $ {\vec{v}}={\vec{u}}_1+{\vec{u}}_2$. Alors on a $ {\vec{u}}_1 - {\vec{v}}_1 = {\vec{u}}_2 - {\vec{v}}_2$, c'est à dire une égalité entre un vecteur de $ E_1$ et un vecteur de $ E_2$. A ce point, de deux choses l'une: soit $ E_1\cap E_2 = \{{\underline{v}}0\}$, auquel cas ces deux vecteurs sont nécessairement nuls. Soit $ E_1\cap E_2 \ne \{{\underline{v}}0\}$, et on peut avoir $ {\vec{u}}_1\ne{\vec{v}}_1$ et $ {\vec{u}}_2\ne{\vec{v}}_2$. On a donc montré
\begin{proposition}
Soit ${\mathcal E}= E_1+E_2$\ la somme de deux sous-espaces...
...isplaymath}
{\mathcal E}=E_1\oplus E_2\ .
\end{displaymath}
\end{proposition}


Qu'en est-il de la dimension de la somme de deux sous-espaces vectoriels de dimension finie ? Si $ F$ et $ G$ sont de dimension finie, disons $ m$ et $ n$, alors ils admettent chacun une base de respectivement $ m$ et $ n$ élements. L'union de ces deux bases est une famille génératrice de $ F+G$, qui est ainsi de dimension inférieure ou égale à $ m+n$. Si la somme $ F+G$ est une somme directe, c'est à dire si $ F\cap G=\{0\}$, alors l'union des deux bases est cette fois une base de $ F\oplus G$, et la dimension de $ F\oplus G$ est alors égale à $ m+n$. On a donc montré
\begin{proposition}
Soient $F$\ et $G$\ deux sous-espaces vectoriels de dimensi...
... = \dim_\mathbb{K}(F) + \dim_\mathbb{K}(G)\ .
\end{equation}
\end{proposition}

EXEMPLE 1.14   Prenons $ E={\mathbb{R}}^3$, et soient

$\displaystyle F = \left\{(x,y,z)\in{\mathbb{R}}^3,\ x+2y-z=0\right\}\ ,
$

$\displaystyle G = \left\{(x,y,z)\in{\mathbb{R}}^3,\ x=y=0\right\}\ .
$

On voit facilement que $ E\cap F=\{{\underline{v}}0\}$, donc la somme $ F+G$ est une somme directe. De plus, $ F$ est de dimension 2 (par exemple, une base de $ F$ est donnée par les vecteurs $ {\vec{e}}_1=(1,0,0)$ et $ {\vec{e}}_2 = (0,1,2)$), et $ G$ est de dimension $ 2$ (base: $ {\vec{e}}_3=(0,0,1)$).


\begin{definition}
Soient $E_1$\ et $E_2$\ deux sous-espaces vectoriels de l'es...
...
\begin{displaymath}
E = E_1\oplus E_2\ .
\end{displaymath}
\end{definition}
On a alors

$\displaystyle \dim_\mathbb{K}(E_1\oplus E_2) = \dim_\mathbb{K}(E_1) + \dim_\mathbb{K}(E_2) \ .
$

Dans l'exemple [*] ci-dessus, cette égalité est bien vérifiée.


\begin{proposition}
Soit $E$\ un espace vectoriel, et $F$\ un sous-espace vecto...
..., alors tous ces suppl\'ementaires
sont de m\^eme dimension.
\end{proposition}

EXEMPLE 1.15   Prenons $ E={\mathbb{R}}^2$, et soit

$\displaystyle F = \left\{(x,y)\in{\mathbb{R}}^2,\ 2x+3y=0\right\}\
$

une droite vectorielle. Alors, on peut vérifier que les supplémentaires de $ F$ sont toutes les droites vectorielles du plan $ {\mathbb{R}}^2$ différentes de $ F$.

Le pivot de Gauss

La méthode du pivot de Gauss (ou élimination de Gauss) est une technique simple et puissante de résolution de systèmes linéaires, de la forme

\begin{displaymath}\left\{
\begin{array}{lll}
a_{11}x_1 + a_{12}x_2 + \dots + ...
...1 + a_{m2}x_2 + \dots + a_{mn}x_n &=& b_m
\end{array}
\right.\end{displaymath} (1.8)

les $ a_{jk}$ et les $ b_\ell$ étant $ mn$ et $ m$ scalaires, respectivement, et $ x_1,\dots x_n$ étant les $ n$ inconnues.

Commençons par l'illustrer sur un exemple, avant de voir en quoi elle peut être utile pour résoudre des problèmes simples d'algèbre linéaire.

La base de la méthode du pivot de Gauss pour la résolution de systèmes linéaires est l'ensemble des trois propriétés fondamentales: La solution d'un système d'équations linéaires ne change pas si

  1. On permute l'ordre des équations
  2. On multiplie (terme à terme) une équation par un scalaire non-nul.
  3. On ajoute à une équation une combinaison linéaire quelconque des autres équations

La méthode, sur un exemple simple

Considérons le système linéaire de trois équations à trois inconnues

\begin{displaymath}\left\{
\begin{array}{llllllll}
x &+& 3y &+& 5z &= &0\qquad...
...\
3x &-& y &+& z &=& 2\qquad\qquad& (c)
\end{array}
\right.\end{displaymath} (1.9)

La méthode de Gauss consiste à substituer à ce système un autre système d'équations, équivalent, dans lequel on élimine par substitutions successives des variables. Par exemple, dans le cas qui nous intéresse, en remplaçant les deux dernières équations $ (b)$ et $ (c)$ par $ 2(a)-(b)$ et $ 3(a)-(c)$ respectivement (au sens de la soustraction des équations ``terme à terme''), on obtient

\begin{displaymath}
\left\{
\begin{array}{llllllll}
x &+& 3y &+& 5z &=& 0\qqu...
... & 10y &+&14 z &=& -2\qquad\qquad& (c')
\end{array}
\right.
\end{displaymath}

puis en substituant à $ (c')$ l'équation $ (c'')=5(b')-2(c')$, on obtient le système étagé suivant

\begin{displaymath}
\left\{
\begin{array}{llllllll}
x &+& 3y &+& 5z &= &0\qqu...
...
& & && 27 z &=& -11\qquad\qquad& (c'')
\end{array}
\right.
\end{displaymath}

qui est facile à résoudre: $ (c'')$ donne $ z=-11/27$, puis en substituant dans $ (b')$ on obtient $ y=(-3-11z)/4 = 10/27$, puis finalement $ (a)$ donne $ x=-3y-5z=25/27$.

Application à la question: ``une famille de vecteurs est-elle libre ?''

La méthode du pivot de Gauss possède de nombreuses applications. Par exemple, étant donnée une famille de vecteurs, elle peut permettre de dire si cette famille est une famille libre. En d'autres termes, étant donnés un certain nombre de vecteurs $ {\vec{v}}_1,{\vec{v}}_2,\dots{\vec{v}}_m$ de $ {\mathbb{R}}^n$ (ou $ \mathbb{C}^n$) (avec $ m\le n$, sans quoi la famille est automatiquement liée), existe-t-il des scalaires $ \alpha_1,\dots \alpha_m$ tels que

$\displaystyle \alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2 +\dots +\alpha_m{\vec{v}}_m ={\underline{v}}0\ ?$ (1.10)

S'il existe de tels scalaires, non simultanément nuls, alors la famille est liée. Sinon, la famille est libre.

Si l'on connait les composantes des vecteurs $ {\vec{v}}_1,\dots{\vec{v}}_m$ dans la base canonique, cette équation vectorielle peut s'écrire comme un système de $ n$ équations linéaires, que l'on peut résoudre par la méthode du pivot.

EXEMPLE 1.16   Dans $ {\mathbb{R}}^3$, considérons les vecteurs $ {\vec{v}}_1 =(1,2,3)$, $ {\vec{v}}_2=(1,-1,0)$ et $ {\vec{v}}_3 = (0,1,4)$, et cherchons une éventuelle relation de la forme $ \alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2+ \alpha_3{\vec{v}}_3={\underline{v}}0$. Cette équation vectorielle se ramène alors au système

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& \alpha_2&& &=...
... 0\\
3\alpha_1 && &+& 4\alpha_3 &=& 0
\end{array}
\right.
\end{displaymath}

Le pivot de Gauss permet de transformer ce système en

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& \alpha_2 &&&=...
...& 0\\
&&3\alpha_2 &-& 4\alpha_3 &=& 0
\end{array}
\right.
\end{displaymath}

puis

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& \alpha_2 &&&=...
...alpha_3 &=& 0\\
&&&& -5\alpha_3 &=& 0
\end{array}
\right.
\end{displaymath}

qui implique $ \alpha_1=\alpha_2=\alpha_3=0$. Le système $ \{{\vec{v}}_1,{\vec{v}}_2,{\vec{v}}_3\}$ est bien un système libre dans $ {\mathbb{R}}^3$ (et en est donc une base).

Une autre question reliée, qui peut également être traitée par élimination de Gauss: étant donnée une famille de vecteurs, trouver (s'il en existe) une relation linéaire entre ces vecteurs. Cette question se formule de façon identique à la précédente: il faut trouver les scalaires $ \alpha_1,\dots \alpha_m$ dans ([*]).

EXEMPLE 1.17   Dans $ {\mathbb{R}}^3$, considérons les vecteurs $ {\vec{v}}_1 =(1,1,1)$, $ {\vec{v}}_2=(2,-1,3)$ et $ {\vec{v}}_3 = (4,1,5)$, et cherchons une éventuelle relation de la forme $ \alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2+ \alpha_3{\vec{v}}_3={\underline{v}}0$. Cette équation vectorielle se ramène alors au système

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& 2\alpha_2 &+&...
...lpha_1 &+&3\alpha_2 &+& 5\alpha_3 &=& 0
\end{array}
\right.
\end{displaymath}

Le pivot de Gauss permet de transformer ce système en

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& 2\alpha_2 &+&...
...& 0\\
&-&\alpha_2 &-& \alpha_3 &=& 0
\end{array}
\right.
\end{displaymath}

et il n'est pas nécessaire d'aller plus loin pour voir que les deux dernières équations sont équivalentes, et donnent $ \alpha_3=-\alpha_2$, d'où $ \alpha_1=2\alpha_2$. La relation linéaire recherchée est donc, en prenant $ \alpha_2=1$,

$\displaystyle 2{\vec{v}}_1 + {\vec{v}}_2 -{\vec{v}}_3={\underline{v}}0\ ,
$

ce que l'on peut encore écrire

$\displaystyle {\vec{v}}_3 = 2{\vec{v}}_1 + {\vec{v}}_2\ ,
$

de sorte que tout $ {\vec{u}}\in{\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2,{\vec{v}}_3\}$ s'écrit comme combinaison linéaire de $ {\vec{v}}_1$ et $ {\vec{v}}_2$. Ainsi

$\displaystyle {\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2,{\vec{v}}_3\} = {\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2\}\ ,
$

qui est un sous-espace vectoriel de $ {\mathbb{R}}^3$ de dimension deux (car la famille $ \{{\vec{v}}_1,{\vec{v}}_2\}$ est une famille libre.

On verra plus bas comment caractériser ce sous-espace vectoriel.

Application à la question: ``une famille de vecteurs est-elle génératrice ?''

En d'autres termes, étant donnés un certain nombre de vecteurs $ {\vec{v}}_1,{\vec{v}}_2,\dots{\vec{v}}_m$ de $ {\mathbb{R}}^n$ (ou $ \mathbb{C}^n$) (avec $ m\ge n$, sans quoi la famille ne peut être génératrice), peut-on trouver pour tout $ {\vec{v}}$ des scalaires $ \alpha_1,\dots \alpha_m$ tels que

$\displaystyle {\vec{v}}= \alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2 +\dots +\alpha_m{\vec{v}}_m \ ?
$

Si l'on connait les composantes des vecteurs $ {\vec{v}}_1,\dots{\vec{v}}_m$, dans la base canonique, cette équation vectorielle peut s'écrire comme un système de $ n$ équations linéaires (inhomogène cette fois), que l'on peut résoudre par la méthode du pivot.

EXEMPLE 1.18   Dans $ \mathbb{C}^3$, considérons les vecteurs $ {\vec{v}}_1=(1,i,2)$, $ {\vec{v}}_2=(1,1,i)$ et $ {\vec{v}}_3=(3i,1,2)$. Soit $ {\vec{v}}=(x,y,z)\in\mathbb{C}^3$, quelconque, la question est de savoir si l'on peut écrire $ {\vec{v}}=\alpha_1{\vec{v}}_1 + \alpha_2{\vec{v}}_2 +\alpha_3{\vec{v}}_3$. Cette équation vectorielle est équivalente à un système inhomogène de trois équations linéaires

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& \alpha_2 &+& ...
...lpha_1 &+&i\alpha_2 &+& 2\alpha_3 &=& z
\end{array}
\right.
\end{displaymath}

Le pivot de Gauss permet de transformer ce système en

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 &+& \alpha_2 &+& ...
...-i)\alpha_2 &+& (6i-2)\alpha_3 &=& 2x-z
\end{array}
\right.
\end{displaymath}

puis en

\begin{displaymath}
\left\{
\begin{array}{lllllll}
\alpha_1 \!\!&\!+\!&\!\! \...
...(2\!-\!i)(x\!+\!iy)-(1\!+\!i)(2x\!-\!z)
\end{array}
\right.
\end{displaymath}

La troisième équation se simplifie en

$\displaystyle \alpha_3 = \frac{-3ix +(1+2i)y + (1+i)z}{4(3+i)}\ ,
$

d'où on déduit ensuite $ \alpha_2$ puis $ \alpha_1$ par

$\displaystyle \alpha_2 = \frac1{1+i}\left(x+iy-4i\alpha_3\right)\ ,\qquad
\alpha_1 = x -\alpha_2-3i\alpha_3\ .
$

Ainsi, pour tout $ {\vec{v}}\in\mathbb{C}^3$, on a bien pu l'exprimer comme combinaison linéaire de $ {\vec{v}}_1$, $ {\vec{v}}_2$, et $ {\vec{v}}_3$, ces trois vecteurs constituent donc une famille génératrice de $ \mathbb{C}^3$.

EXEMPLE [*] (SUITE) Comment caractériser le sous-espace vectoriel de $ {\mathbb{R}}^3$ engendré par les vecteurs $ \{{\vec{v}}_1,{\vec{v}}_2\}$ ? Il suffit de considérer un vecteur quelconque

$\displaystyle {\vec{u}}= \alpha{\vec{v}}_1 + \beta{\vec{v}}_2 = (\alpha+2\beta,\alpha-\beta,\alpha+3\beta)
\in {\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2\}\ .
$

En posant $ {\vec{u}}=(x,y,z)$, on a donc

\begin{displaymath}
\left\{
\begin{array}{lllll}
\alpha &+& 2\beta &=& x\\
...
...\beta &=& y\\
\alpha &+& 3\beta &=& z
\end{array}
\right.
\end{displaymath}

syst ème qui se met sous la forme

\begin{displaymath}
\left\{
\begin{array}{lllll}
\alpha &-& \beta &=& y\\
&& 3\beta &=& x-y\\
&& 4\beta &=& z-y
\end{array}
\right.
\end{displaymath}

d'où on déduit que $ 4(x-y) = 3(z-y)$, et donc l'équation de $ {\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2\}$

$\displaystyle {\mathrm Vect}\{{\vec{v}}_1,{\vec{v}}_2\} = \left\{(x,y,z)\in{\mathbb{R}}^3,\, 4x-y-3z=0\right\}\ .
$

Notons qu'on aurait obtenu exactement le même résultat en exprimant $ {\vec{u}}$ comme combinaison linéaire de $ {\vec{v}}_1,{\vec{v}}_2$ et $ {\vec{v}}_3$... au prix de calculs un peu plus longs.

Bruno Torresani 2009-02-18