Sous-sections


Repères dans un espace de Hilbert


Il existe des situations dans lesquelles on a intérêt, plutôt que d'utiliser des bases orthonormées, à utiliser des familles de fonctions qui sont complètes mais pas libres. On parle alors de familles surcomplètes, ou de repères. La famille sur laquelle l'on décompose le signal n'étant pas libre, les coefficients de la décomposition sont redondants, et la représentation n'est donc pas ``économique''. Cependant, on verra que cette représentation présente l'avantage d'être plus robuste, c'est à dire moins sensible aux perturbations, qu'une décomposition par rapport à une base.

Définitions


\begin{definition}
Une famille $\{f_\lambda,\lambda\in\Lambda\}$\ de vecteurs d'...
...{\em Bornes} du rep\\lq ere.
Si $A=B$, le rep\\lq ere est dit strict.
\end{definition}

EXEMPLE B..1   Considérons le plan $ {\mathbb{R}}^2$ , muni d'une base orthonormée $ \{e_1,e_2\}$ . Alors, en posant $ f_1=e_1, f_2=(-e_1+e_2\sqrt{3})/2$ et $ f_3=(-e_1-e_2\sqrt{3})/2$ , il est immédiat que $ \{f_1,f_2,f_3\}$ est un repère strict de $ {\mathbb{R}}^2$ : pour tout $ f\in{\mathbb{R}}^2$ , on a $ \sum_{n=1}^3 \vert\langle f,f_n\rangle\vert^2 = 3 \vert\vert f\vert\vert^2/2$ . Plus généralement, toute famille finie de vecteurs est un repère de l'espace qu'elle engendre.

On associe naturellement à un repère les deux opérateurs suivants: l'opérateur $ U: H\to \ell^2(\Lambda)$ , défini par

$\displaystyle (Uf)_\lambda = \langle f,f_\lambda\rangle\ ,$ (B.1)

et $ {\mathcal R}=U^* U: H\to H$ , défini par

$\displaystyle {\mathcal R}f=\sum_{\lambda\in\Lambda} \langle f,f_\lambda\rangle\,f_\lambda\ .$ (B.2)

Le résultat suivant est vérifié sans difficulté.
\begin{proposition}
${\mathcal R}$\ est born\'e, inversible et \\lq a inverse born\'e. Il est de
plus auto adjoint.
\end{proposition}
Preuve: $ {\mathcal R}$ est auto adjoint: en effet, pour tous $ f,g\in H$ , on a

$\displaystyle \langle{\mathcal R}^* f,g\rangle = \langle f,{\mathcal R}g\rangle...
...= \overline{\langle g,{\mathcal R}f\rangle} = \langle{\mathcal R}f,g\rangle\ .
$

$ {\mathcal R}$ est borné: Calculons, pour $ f\in H$

$\displaystyle \Vert{\mathcal R}f\Vert^2\! =\! \sup_{\Vert g\Vert=1}\left\vert\l...
...\sup_{\Vert g\Vert=1} B^2\Vert f\Vert^2\Vert g\Vert^2 = B^2\,\Vert f\Vert^2\ .
$

$ {\mathcal R}$ est injectif: soit $ f$ tel que $ {\mathcal R}f=0$ . Alors $ \langle{\mathcal R}f,f\rangle =0$ , et donc $ \Vert f\Vert=0$ , qui implique $ f=0$ .
$ {\mathcal R}$ est surjectif: pour tout $ f\in H$ , on a $ A\Vert f\Vert^2\le\langle{\mathcal R}f,f\rangle$ . $ {\mathcal R}$ est borné inférieurement, donc surjectif.
Par conséquent, $ {\mathcal R}$ est bijectif. Comme on a de plus pour tout $ f\in H$ , $ \Vert{\mathcal R}f\Vert\ge A\Vert f\Vert$ , on en déduit que $ {\mathcal R}^{-1}$ est borné également. $ \spadesuit$

$ {\mathcal R}$ étant auto adjoint, il résulte de ([*]) que son spectre est inclus dans l'intervalle $ [A,B]$ , ce que l'on écrit aussi

$\displaystyle A\le{\mathcal R}\le B\ .
$

$ {\mathcal R}$ étant inversible, on peut écrire, pour tout $ f\in{\mathcal H}$

$\displaystyle f=\sum_{\lambda\in\Lambda} \langle f,f_\lambda\rangle\,\tilde f_\lambda\ ,$ (B.3)

oú on a posé

$\displaystyle \tilde f_\lambda ={\mathcal R}^{-1}f_\lambda\ .$ (B.4)

Les $ \tilde f_\lambda$ possèdent des propriétés similaires à celles des $ f_\lambda$ . En particulier:
\begin{proposition}
La famille $\{\tilde f_\lambda,\lambda\in\Lambda\}$\ est un ...
... rep\\lq ere
dual} du rep\\lq ere $\{f_\lambda,\lambda\in\Lambda\}$.
\end{proposition}
Preuve: La proposition résulte de l'estimation suivante, qui est facilement vérifiée: pour tout $ f\in H$ ,

$\displaystyle \frac1{B}\,\Vert f\Vert^2 \le \sum_{\lambda\in\Lambda}\vert\langle f,\tilde f_\lambda\rangle\vert^2 \le \frac1{A}\,\Vert f\Vert^2\ .$ (B.5)

$ \spadesuit$

On a donc aussi l'égalité, pour tout $ f\in{\mathcal H}$

$\displaystyle f=\sum_{\lambda\in\Lambda} \langle f,\tilde f_\lambda\rangle\, f_\lambda\ ,$ (B.6)

REMARQUE B..1   Dans le cas d'un repère strict, c'est à dire dans le cas $ A=B$ , $ {\mathcal R}$ est un multiple de l'identité, de sorte que l'on a pour tout $ \lambda$ , $ \tilde f_\lambda= f_\lambda/A=$ . On a ainsi, pour $ f\in H$ ,

$\displaystyle f=\frac1{A}\, \sum_{\lambda\in\Lambda} \langle f, f_\lambda\rangle\, f_\lambda\ .$ (B.7)

Dans le cas général, il est nécessaire d'utiliser la formule ([*]) pour expliciter un $ f\in H$ à partir des coefficients $ \langle f,f_\lambda\rangle$ , ce qui n'est pas toujours facile car $ {\mathcal R}{^{-1}}$ ne possède pas de forme explicite en général. On verra un peu plus loin comment résoudre ce problème.

EXEMPLE B..2   Des exemples utiles de repères sont donnés par les repères trigonométriques. On sait que le système trigonométrique, formé des fonctions

$\displaystyle e_n(t) = e^{2int}\ ,\quad n\in\mathbb{Z}$ (B.8)

est une base de $ L^2([0,\pi])$ . Considérons le système de fonctions

$\displaystyle f_n(t) = e^{int}\ ,\quad n\in\mathbb{Z}\ .$ (B.9)

Soit $ f\in L^2([0,\pi])$ . Alors

$\displaystyle \langle f,f_{2n}\rangle =\langle f,e_{n}\rangle =\pi c_n(f)\ ,\quad\hbox{et}
$

$\displaystyle \langle f,f_{2n+1}\rangle =\langle g,e_{n}\rangle =\pi c_n(g)\ ,
$

$ g$ est définie par

$\displaystyle g(t) = f(t) e^{-it}\ .
$

L'égalité de Parseval donne alors

$\displaystyle \sum_n \vert\langle f,f_n\rangle\vert^2 = \pi^2 \sum_n (\vert c_n(f)\vert^2 + \vert c_n(g)\vert^2) =\pi \vert\vert f\vert\vert^2\ .$ (B.10)

Donc, la famille $ \{f_n,n\in\mathbb{Z}\}$ est un repère strict de $ L^2([0,\pi])$ , de borne $ A=B=\pi$ .

De tels repères, ou plutôt leurs analogues finis, sont utilisés par exemple en restauration d'images, c'est à dire pour reconstituer des images dont certains pixels sont manquants.

Figure: Comparaison d'une série de Fourier usuelle et d'une décomposition redondante: le cas d'une fonction linéaire. A gauche, la fonction, sa reconstruction à partir de 11 modes de Fourier $ e_n$ et 21 fonctions $ f_n$ ; au centre, même chose, avec 21 fonctions $ e_n$ et 41 fonctions $ f_n$ ; à droite, les erreurs de reconstruction.
Image frame1 Image frame2 Image frame3

Considérons maintenant l'opérateur $ U$ défini en ([*]). Il est possible de donner une caractérisation de l'image de $ H$ par $ U$ . Dans le cas d'une base orthonormée $ \{e_\lambda,\lambda\in\Lambda\}$ de $ {\mathcal H}$ , le théorème de Riesz-Fisher établit une correspondance bijective entre $ {\mathcal H}$ et $ \ell^2(\Lambda)$ . Dans le cas d'un repère, la suite $ Uf$ des coefficients $ \langle f,f_\lambda\rangle$ de $ f\in{\mathcal H}$ est bien dans $ \ell^2(\Lambda)$ . Il résulte de la définition que $ U$ est injectif, et que

$\displaystyle A\Vert f\Vert^2\le \Vert Uf\Vert^2 = \langle{\mathcal R}f,f\rangle \le B\Vert f\Vert^2\ .$ (B.11)

$ U$ n'est pas nécessairement surjectif. En fait, si les éléments du repère $ \{f_\lambda\}$ sont linéairement dépendants, $ Im(U)$ est strictement inclus dans $ \ell^2(\Lambda)$ . En effet supposons que la suite $ \alpha=\{\alpha_\lambda,\lambda\in\Lambda\}$ soit telle que $ \sum_\lambda f_\lambda=0$ . Alors on peut écrire, pour $ f\in H$ :

$\displaystyle \langle f,\sum_\lambda \alpha_\lambda f_\lambda\rangle =
\sum_\la...
...e \overline{\alpha_\lambda}=
\langle Uf,\alpha\rangle_{\ell^2(\Lambda)} = 0\ ,
$

de sorte que $ \alpha\in Im(U)^\perp$ . $ U$ étant injectif, il possède un inverse défini sur $ Im(U)$ , que l'on peut prolonger de façon arbitraire à $ Im(U)^\perp$ .

Parmi tous les inverses à gauche possibles, on utilise généralement le pseudo-inverse $ \tilde U{^{-1}}: \ell^2(\Lambda)\to H$ , défini par

$\displaystyle \tilde U{^{-1}}\left[ Im(U)^\perp\right]=0\ .$ (B.12)

Le résultat suivant donne une description plus ``géométrique'' de la situation.
\begin{proposition}
Etant donn\'e un rep\\lq ere dont les \'el\'ements sont
lin\'ea...
...t\vert\tilde U{^{-1}}\vert\vert\le 1/\sqrt{A}\ .
\end{equation}\end{proposition}
Preuve: Soit $ x\in\ell^2(\Lambda)$ . Il admet une unique décomposition $ x=x_1+x_2$ , avec $ x_1\in Im(U)$ et $ x_2\in Im(U)^\perp$ . On suppose $ x_2\ne 0$ . Soit $ V$ un inverse à gauche de $ U$ . Alors on a

$\displaystyle \frac{\Vert\tilde U{^{-1}}x\Vert}{\Vert x\Vert} = \frac{\Vert\til...
...ert} \le \Vert V\Vert\,\frac{\Vert x_1\Vert}{\Vert x\Vert} \le \Vert V\Vert\ .
$

Donc, $ \Vert\tilde U{^{-1}}\Vert\le\Vert V\Vert$ .
Soit $ x\in\ell^2(\Lambda)$ . Alors, il existe $ f\in H$ tel que $ x_1=Uf$ . On a alors, en utilisant ([*]),

$\displaystyle \Vert\tilde U{^{-1}}x\Vert = \Vert f\Vert \le\frac1{\sqrt{A}}\, \...
...Uf\Vert =
\frac1{\sqrt{A}}\,\Vert x_1\Vert\le\frac1{\sqrt{A}}\,\Vert x\Vert\ .
$

Calculons enfin $ (U^* U) \tilde U{^{-1}}x$ , pour $ x=x_1+x_2\in\ell^2(\Lambda)$ . Il est clair que $ U^*U\tilde U{^{-1}}x_1 = U^* x_1$ . On a aussi par définition $ \tilde U{^{-1}}x_2=0$ . Reste à montrer que $ U^* x_2=0$ . Soit $ f\in H$ . On a $ \langle f,U^*x_2\rangle = \langle U f,x_2\rangle =0$ . On a donc bien $ U^*U\tilde U{^{-1}}x_2 = U^* x_2$ , ce qui achève la preuve. $ \spadesuit$

L'opérateur $ U\tilde U{^{-1}}$ possède un statut particulier, comme le montre le corollaire suivant:
\begin{corollary}
$U\tilde U{^{-1}}$\ est le projecteur orthogonal sur l'image d...
...x_\lambda
\langle \tilde f_\lambda,f_\mu\rangle\ .
\end{equation}\end{corollary}
Preuve: Avec les mêmes notations que ci dessus, soit $ x=x_1+x_2\in\ell^2(\Lambda)$ (où $ x_1\in Im(U)$ ). On a $ U^* x_2=0$ , et il existe $ f\in H$ tel que $ x_1=Uf$ , et $ U\tilde U{^{-1}}x_1 = U(\tilde U{^{-1}}U)f = x_1$ . Donc il s'agit bien d'un projecteur orthogonal.
Par définition, on a $ U^* x=\sum_\lambda x_\lambda f_\lambda$ . Donc,

$\displaystyle U\tilde U{^{-1}}x = U {\mathcal R}{^{-1}}U^* x =
U\left(\sum_\lam...
...a\right) =
\sum_\lambda x_\lambda \langle \tilde f_\lambda,f_\lambda\rangle\ .
$

$ \spadesuit$

REMARQUE B..2   Utilité des décompositions redondantes: Les décompositions redondantes apportent une stabilité supplémentaire aux décompositions. En effet, soit $ f\in{\mathcal H}$ un vecteur fixé, et soit $ x=Uf$ . Supposons qu'une erreur $ \epsilon$ soit commise sur $ x$ : soient

$\displaystyle y=x+\epsilon\quad\hbox{et}\quad \tilde f=\tilde U{^{-1}}y =
f+\tilde U{^{-1}}\epsilon\ .
$

En notant $ \epsilon_1$ la projection de $ \epsilon$ sur $ U {\mathcal H}$ , et $ \epsilon_2$ sa projection sur $ (U{\mathcal H})^\perp$ , on voit immédiatement que $ \tilde U{^{-1}}\epsilon_2=0$ , et que donc

$\displaystyle \vert\vert f-\tilde f\vert\vert \le \vert\vert\epsilon_1\vert\vert/\sqrt{A}\ .
$

Ainsi, la composante $ \epsilon_2$ de l'erreur disparait lors de l'inversion de la décomposition. On voit donc que dans des situations où on se doute à l'avance qu'une erreur importante va être commise sur les coefficients, lors d'une étape de transmission par exemple, on a intérêt à utiliser des décompositions par rapport à des repères de préférence à des décompositions sur des bases, car une partie de l'erreur disparaitra lors de la resynthèse.

REMARQUE B..3   Dans un contexte de traitement du signal, des décompositions redondantes telles que des décompositions par rapport à des repères trouvent leur utilité pour le codage des signaux, dès que l'on s'attend à ce que le signal codé soit perturbé par un ``bruit''.

Inversion

La question qui se pose en pratique est la suivante: étant donnés les coefficients de $ f\in H$ par rapport à un repère $ \{f_n,n\in\Lambda\}$ , comment retrouver $ f$ à partir de ces coefficients ?

Nous connaissons déjà la réponse dans le cas d'un repère strict, puisque dans ce cas l'opérateur $ {\mathcal R}$ est un multiple de l'identité. La situation est un peu plus complexe dans le cas général, puisqu'il faut utiliser la relation

$\displaystyle f=\sum_{\lambda\in\Lambda} \langle f,f_\lambda\rangle\,{\mathcal R}^{-1}f_\lambda\ ,
$

et $ {\mathcal R}{^{-1}}$ n'est pas connu explicitement.

Considérons l'opérateur de repère $ {\mathcal R}$ . On sait que $ A\le{\mathcal R}\le B$ . Par conséquent, on a aussi

$\displaystyle \frac{2A}{A+B} \le \frac{2}{A+B}\,{\mathcal R}\le \frac{2B}{A+B}\ .
$

Posons

$\displaystyle T = 1 -\frac{2}{A+B}\,{\mathcal R}\ .
$

Un calcul immédiat montre que

$\displaystyle \vert\vert T\vert\vert \le \frac{B-A}{A+B} < 1\ .$ (B.13)

Par conséquent, l'opérateur $ 1-T$ est inversible, et la série de Neumann correspondante

$\displaystyle 1+T+T^2+T^3+\dots
$

est convergente. On peut donc écrire

$\displaystyle {\mathcal R}{^{-1}}= \frac{2}{A+B}\, \left(1+T+T^2+T^3+\dots\right)\ .$ (B.14)

Ceci conduit à l'algorithme d'inversion suivant: en posant

$\displaystyle \alpha_n = \langle f,f_n\rangle\ ,
$

on commence par évaluer

$\displaystyle f^{(1)} = \frac2{A+B}\,\sum_n \alpha_n f_n\ .
$

On sait alors que

$\displaystyle f-f^{(1)} = \frac{2}{A+B}\, \left(T+T^2+T^3+\dots\right)
\left(\sum_n\alpha_n f_n\right)= Tf\ ,
$

de sorte que

$\displaystyle \vert\vert f-f^{(1)}\vert\vert \le \vert\vert T\vert\vert\,\vert\vert f\vert\vert \le \frac{B-A}{A+B}\, \vert\vert f\vert\vert\ .
$

Si la précision est suffisante, c'est à dire si la constante $ (B-A)/(A+B)$ est assez faible, on se contentera de $ f^{(1)}$ comme approximation de $ f$ . Si tel n'est pas le cas, il faut pousser plus loin le développement, et considérer

$\displaystyle f^{(2)} = \frac{2}{A+B} (1+T)\, \left(\sum_n\alpha_n f_n\right)\ .
$

On a alors évidemment un ordre d'approximation supplémentaire:

$\displaystyle \vert\vert f-f^{(2)}\vert\vert \le \left(\frac{B-A}{A+B}\right)^2\, \vert\vert f\vert\vert\ .
$

REMARQUE B..4   L'algorithme d'inversion qu'on a vu ci-dessus a l'avantage d'être simple, mais n'est pas optimal. En pratique, il est souvent plus avantageux d'utiliser des méthodes classiques d'inversion, telles que des méthodes de gradient conjugué par exemple.

REMARQUE B..5   Il est possible de montrer que les bases orthonormées que nous avons vues plus haut peuvent être remplacées par des repères construits de la même manière. C'est en particulier le cas des bases trigonométriques locales (on construit facilement des repères trigonométriques locaux), et des ondelettes, pour lesquelles il est même plus facile de construire des repères ue des bases.

Bruno Torresani 2007-06-26