Sous-sections

INTRODUCTION; SIGNAUX NUMERIQUES


Le traitement du signal classique s'appuie fortement sur l'analyse harmonique, et en particulier l'analyse de Fourier. On donne ici les éléments essentiels de la théorie des séries de Fourier, avant d'appliquer les résultats essentiels au traitement des signaux numériques.


Séries de Fourier

Rappels sur les espaces $ L^p$ et $ \ell^p$

Commençons par introduire les espaces $ {\mathcal L}^p$ : soient $ a<b$ deux réels, et soit $ f$ une fonction: $ f: [a,b]\to\mathbb{C}$ . On dit que $ f\in{\mathcal L}^p([a,b])$ si

$\displaystyle \Vert f\Vert _p := \left(\int_a^b \vert f(t)\vert^p\,dt\right)^{1/p} <\infty\ .
$

L'application $ f\to\Vert f\Vert _p$ définit une seminorme sur $ {\mathcal L}^p([a,b])$ , seminorme qui peut être transformée en norme par un passage au quotient approprié. Etant données $ f,g\in {\mathcal L}^p([a,b])$ , on dira que $ f\sim g$ si $ \Vert f-g\Vert _p=0$ . Ceci définit une relation d'équivalence, et on peut alors définir $ L^p([a,b])$ par

$\displaystyle L^p([a,b]) = {\mathcal L}^p([a,b]) / \sim\ ,
$

c'est à dire en identifiant les fonctions qui diffèrent sur un ensemble de mesure nulle. On montre que la norme ainsi obtenue munit $ L^p([a,b])$ d'une structure d'espace de Banach.

Soit $ f: {\mathbb{R}}\to\mathbb{C}$ . On dira que $ f\in L^q_p([a,b])$ si la restriction de $ f$ à l'intervalle $ [a,b]$ appartient à $ L^q([a,b])$ , et si $ f$ est périodique dans le sens suivant: en posant $ T=b-a$ , et $ f_n(t)=f(t-nT)$ , on a $ f=f_n$ pour tout $ n$ .

On définit de façon analogue les espaces $ L^p({\mathbb{R}})$ .


On dit qu'une suite $ f=\{f_n,n\in\mathbb{Z}\}$ appartient à $ \ell^p(\mathbb{Z})$ si

$\displaystyle \Vert f\Vert _p := \left(\sum_{n=-\infty}^\infty \vert f_n\vert^p\right)^{1/p} <\infty\ .
$

$ \ell^p(\mathbb{Z})$ est lui aussi naturellement muni d'une structure d'espace de Banach par la norme $ \Vert.\Vert _p$ .


Les espaces $ L^p([a,b])$ et $ \ell^p(\mathbb{Z})$ possèdent des propriétés simples d'inclusion:
\begin{proposition}
Soit $1<p<\infty$.
\begin{enumerate}
\item Si $f\in L^p([a,b...
...bb{Z})$\ pour tout $q$
tel que $p\le q<\infty$.
\end{enumerate}\end{proposition}
Preuve : 1) Soit $ f\in L^p([a,b])$ , et soit $ S$ l'ensemble des points $ t$ tels que $ \vert f(t)\vert\ge 1$ . Sur $ S$ , on a alors $ \vert f(t)\vert^q \le \vert f(t)\vert^p$ pour tout $ q\le p$ . On a alors, en notant $ I=[a,b]$ ,

$\displaystyle \int_a^b \vert f(t)\vert^q\,dt = \int_S \vert f(t)\vert^q\,dt + \...
...t^q\,dt
\le \int_S \vert f(t)\vert^q\,dt + \vert I\backslash S\vert <\infty\ .
$

2) Le cas des suites est une conséquence directe du critère de Riemann. $ \spadesuit$

REMARQUE 1.1   Il est à noter que dans le cas des espaces $ L^p({\mathbb{R}})$ , il n'existe aucune relation d'inclusion de telle sorte.


On définit de la façon usuelle le produit simple des suites ( $ (fg)_n =f_ng_n$ ) et des fonctions ( $ (fg)(t) =f(t)g(t)$ ); on utilisera régulièrement le résultat suivant
\begin{proposition}[H\uml older]
\index{In \'egalit\'e de H\ölder}
Soient $1\le ...
...g\Vert _r\le \Vert f\Vert _p\,\Vert g\Vert _q\ .
\end{equation}\end{proposition}

La théorie $ L^2$

Considérons l'espace $ L^2_p([a,b])$ des fonctions périodiques de période $ b-a$ , de carré intégrable sur l'intervalle $ [a,b]$ (et donc sur tout intervalle de longueur $ b-a$ ), muni du produit scalaire

$\displaystyle \langle f,g\rangle = \int_a^b f(t)\overline{g}(t)\, dt\ .$ (1.1)

On considère les fonctions trigonométriques

$\displaystyle e_n: t\to e_n(t) = \frac1{\sqrt{b-a}}\, \exp\left(2i\pi\frac{nt}{b-a}\right)\ .$ (1.2)

On vérifie facilement que la famille de fonctions $ \{e_n,n\in\mathbb{Z}\}$ est un système orthonormal dans $ L^2_p([a,b])$ . Pour montrer qu'il s'agit d'une base orthonormale, il nous suffit donc de montrer que le système est complet.

Une première méthode consiste à utiliser la densité de $ C([a,b])$ dans $ L^2([a,b])$ . On peut alors utiliser le résultat d'approximation des fonctions continues par des polynômes trigonométriques (voir [7]) pour une démonstration):
\begin{proposition}[Weierstrass]
Soit $f\in C([a,b])$. Pour tout $\epsilon >0$, ...
...in{equation}
\vert f(t) -P(t)\vert\le\epsilon\ .
\end{equation}\end{proposition}

Supposons pour simplifier que $ [a,b]=[-\pi,\pi]$ (le cas général se traite de façon similaire). Soit $ f\in L^1([-\pi,\pi])$ , et supposons que $ f$ soit orthogonale à toutes les fonctions $ e_n$ : $ \int_{-\pi}^\pi f(t) e^{-int}dt=0$ , $ n=0,\pm 1,\pm 2,\dots$ . Soit $ g$ définie par $ g(t) = \int_{-\pi}^t f(s) ds$ . $ g$ est continue par construction, et vérifie $ g(\pi)=0$ . Si $ C$ est une constante complexe quelconque, une intégration par parties montre que $ \int_{-\pi}^\pi (g(t)-C) e^{-int}dt=0$ , $ n=1,2,\dots$ . Un choix adéquat de $ C$ permet à cette égalité d'être valide pour $ n=0$ également. On pose alors $ h(t) =g(t)-C$ . $ h\in C([-\pi,\pi])$ , et on sait d'après le résultat ci-dessus que pour tout $ \epsilon>0$ , il existe un polynôme trigonométrique $ P(t)$ tel que pour tout $ t\in [-\pi,\pi]$ , $ \vert h(t)-P(t)\vert\le\epsilon$ . Donc, on a

$\displaystyle \vert\vert h\vert\vert^2 = \int_{-\pi}^\pi \overline{h}(t)(h(t)-P...
...pi}^\pi \vert h(t)\vert\,dt\le \sqrt{2\pi}\epsilon\, \vert\vert h\vert\vert\ ,
$

d'où on déduit que pour tout $ \epsilon>0$ , $ \vert\vert h\vert\vert\le \sqrt{2\pi}\epsilon$ . Donc $ h(t)=0$ presque partout, $ g(t)=C=g(\pi)=0$ pour presque tout $ t$ , et donc $ f=0$ . On a ainsi, comme pour tout $ q\ge 1$ , $ L^q([-\pi,\pi]) \subset L^1([-\pi,\pi])$ , le résultat suivant
\begin{corollary}
Le syst\\lq eme trigonom\'etrique est complet dans $L^2_p([-\pi,\pi])$.
\end{corollary}

REMARQUE 1.2   En fait, on peut également utiliser directement la densité de $ C([a,b])$ dans $ L^2([a,b])$ .


Nous sommes donc en position d'utiliser les résultats précédents, ce qui conduit aux séries de Fourier. Pour tout $ f\in L^2([a,b])$ , on pose

$\displaystyle c_n = c_n(f) = \frac1{b-a}\,\int_a^b f(t)\, e^{-2i\pi nt/(b-a)}\, dt\ .$ (1.3)

Les nombres $ c_n(f)$ (qui existent puisque $ L^2([a,b])\subset L^1([a,b])$ sont appelés coefficients de Fourier de $ f$ , et on s'intéresse aux sommes partielles

$\displaystyle f_N(t) = \sum_{n=-N}^N c_n(f) e^{2i\pi{nt}/(b-a)}\ ,$ (1.4)

ainsi qu'à leur limite

$\displaystyle f_\infty(t) = \sum_{n=-\infty}^\infty c_n(f) e^{2i\pi{nt}/(b-a)}\ ,$ (1.5)

appelée série de Fourier de $ f$ .

Il résulte de la discussion précédente (et en particulier du théorème [*] de l'Appendice [*]) que si $ f\in L^2_p([a,b])$ , la suite $ c(f)=\{c_n(f),n\in\mathbb{Z}\}$ appartient à $ \ell^2(\mathbb{Z})$ , et la série de Fourier

$\displaystyle \sum_{n=-\infty}^\infty c_n(f) e^{2i\pi nt/(b-a)}$    

converge au sens de $ L^2$ . On a donc
\begin{theorem}
% latex2html id marker 657La famille des fonctions exponentiel...
... =
\frac1{b-a}\,\int_a^b f(t)\overline{g}(t)\, dt\ .
\end{equation}\end{theorem}

REMARQUE 1.3   Les séries de Fourier fournissent des décompositions des fonctions périodiques ou à support borné comme superpositions de ``briques'' élémentaires, les fonctions $ e_n$ . La variable $ n$ possède une signification ``physique'' essentielle: il s'agit d'une variable de fréquence, qui par exemple dans le cas où la fonction $ f$ étudiée représente un son, caractérise la ``hauteur'' du son. Les grands $ n$ (hautes fréquences) correspondent aus sons aigus, et les faibles valeurs de $ n$ aux sons graves.

Problèmes de convergence des séries de Fourier

La théorie $ L^2$ ne donne que des indications relativement limitées sur le comportement des coefficients de Fourier, et sur la convergence des séries de Fourier. Par exemple, la formule de Parseval implique que si $ f\in L^2_p([a,b])$ , alors $ \vert c_n(f)\vert\to 0$ quand $ n\to\infty$ . On sait également que la série de Fourier de $ f$ converge (fortement) vers $ f$ . Il est possible de démontrer également la convergence presque partout (c'est un théorème célèbre de L. Carleson), mais on n'a pas nécessairement convergence ponctuelle.

Il est utile de se poser de tels problèmes dans des cadres fonctionnels différents, par exemple dans le cadre $ L^1$ .

Commençons par le résultat important suivant, appelé Lemme de Riemann-Lebesgue..
\begin{theorem}
Soit $f\in L^1([a,b])$, et soit $\alpha\in{\mathbb{R}}$. Alors
\...
...a t}\,dt\longrightarrow 0\hbox{ quand }n\to\infty\ .
\end{equation}\end{theorem}
La démonstration utilise le résultat classique suivant
\begin{proposition}
$C^1([a,b])$\ est dense dans $L^1([a,b])$.
\end{proposition}
Preuve du Théorème [*]: Supposons dans un premier temps que $ f\in C^1([a,b])$ . Alors, par intégration par parties, on a

$\displaystyle \int_a^b f(t) e^{-in\alpha t}\,dt= -\frac1{in\alpha}
[f(b)e^{-in\...
...f(a)e^{-in\alpha a}] +
\frac1{in\alpha}\int_{a}^b f'(t) e^{-in\alpha t}\,dt\ ,
$

qui tend bien vers 0 quand $ n\to\infty$ . On utilise maintenant la densité de $ C^1([a,b])$ dans $ L^1([a,b])$ : si $ f\in L^1([a,b])$ , pour tout $ \epsilon>0$ , il existe $ g_\epsilon \in C^1([a,b])$ tel que $ \int_{a}^b \vert f(t)-g_\epsilon(t)\vert dt <\epsilon /2$ . Alors

$\displaystyle \int_a^b f(t) e^{-in\alpha t}\,dt
\le \int_{a}^b \vert f(t)-g_\ep...
...\vert dt
+ \left\vert\int_a^b g_\epsilon(t) e^{-in\alpha t}\,dt\right\vert\ .
$

Pour tout $ \epsilon$ , il existe $ N$ tel que la seconde intégrale soit plus petite que $ \epsilon/2$ pour $ \vert n\vert\ge N$ . Ceci complète la démonstration. $ \spadesuit$

Une conséquence importante de ce résultat est le résultat suivant de convergence ponctuelle. Pour simplifier, on se limitera dans cette section au cas particulier $ b=-a=\pi$ . Etant donné un point $ t_0$ , on notera

$\displaystyle f(t_{0+})=\lim_{t\to t_0,\,t\ge t_0} f(t)\ ,\quad
f(t_{0-})=\lim_{t\to t_0,\,t\le t_0} f(t)
$

quand ces limites existent.
\begin{theorem}[Dirichlet]
Soit $f\in L^1_p([-\pi,\pi])$. Soit $t_0$\ un point t...
... \to \frac1{2}\left(f(t_{0+}) + f(t_{0-}) \right)\ .
\end{equation}\end{theorem}
Preuve: Commençons par évaluer la somme partielle $ f_N(t_0)$ :
$\displaystyle f_N(t_0)$ $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_{-\pi}^\pi f(t)
\left(\sum_{n=-N}^N e^{in(t_0-t)}\right)\,dt$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_{-\pi}^\pi f(t)
\frac{\sin (N+1/2)(t_0-t)}{\sin (t_0-t)/2}\,dt$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_{-\pi}^\pi f(t_0+s)
\frac{\sin (N+1/2)s}{\sin s/2}\,ds$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_0^\pi \left(f(t_0+s) + f(t_0-s)\right)
\frac{\sin (N+1/2)s}{\sin s/2}\,ds$  

La même expression appliquée à la fonction constante $ f=1$ donne

$\displaystyle \frac1{\pi}\int_0^\pi
\frac{\sin (N+1/2)s}{\sin s/2}\,ds=1\ .
$

En posant $ \mu = (f(t_{0+}) + f(t_{0-}))/2$ , on a donc

$\displaystyle f_N(t_0)-\mu = \frac1{\pi}\int_0^\pi \phi(s) \sin (N+1/2)s\,ds\ ,$ (1.6)

où on a posé
$\displaystyle \phi(s)$ $\displaystyle =$ $\displaystyle \frac{f(t_0+s)-f(t_{0+})}{\sin s/2} +
\frac{f(t_0-s)-f(t_{0-})}{\sin s/2}$  
  $\displaystyle =$ $\displaystyle 2\left(\frac{f(t_0+s)-f(t_{0+})}{s} +
\frac{f(t_0-s)-f(t_{0-})}{s}\right)\frac{s/2}{\sin s/2}
\ .$  

Puisque $ f$ est supposée différentiable à droite et à gauche en $ t_0$ , $ \phi(s)$ admet une limite finie en $ s\to 0$ . Donc, il existe $ \alpha>0$ tel que $ \phi$ soit bornée sur $ ]0,\alpha]$ :

$\displaystyle \vert\phi(s)\vert\le C\quad\hbox{pour tout }s\in ]0,\alpha]\ .
$

$ \phi$ est donc intégrable sur $ ]0,\alpha]$ . Comme $ f\in L^1([-\pi,\pi])$ , $ \phi$ est également intégrable sur $ ]\alpha,\pi]$ , et donc sur $ [0,\pi]$ . Il suffit alors d'appliquer le théorème de Riemann-Lebesgue à ([*]) pour conclure. $ \spadesuit$

EXEMPLE 1.1   Prenons l'exemple de $ f\in L^2_p([-\pi,\pi])$ définie par $ f(t)=\chi_{[0,\pi]}(t) -\chi_{[-\pi,0]}(t)$ . Un calcul immédiat donne $ c_0(f)=0$ , et $ c_n(f)=(1-(-1)^n)/(in\pi)$ pour $ n\ne 0$ . On obtient également $ \sum_{-\infty}^{\infty}c_n(f)\exp\{int\}=0$ pour $ t=k\pi,k\in\mathbb{Z}$ , ce qui coïncide bien avec le résultat du théorème précédent.

REMARQUE 1.4   En particulier, si de plus $ f$ est continue en $ t_0$ , $ f_N(t_0)\to f(t_0)$ quand $ N\to\infty$ .

REMARQUE 1.5   Il est possible de prouver des versions plus ``fines'' de ce résultat, ainsi que des résultats de convergence uniforme des séries de Fourier. On pourra se référer à [9] pour plus de détails.

Le problème de l'extension

Le théorème de Riemann-Lebesgue montre en particulier que si $ f\in L^1_p([a,b])$ , alors $ \vert c_n(f)\vert\to 0$ quand $ n\to\pm\infty$ . En pratique, on s'intéresse non seulement à la convergence ponctuelle, mais aussi à la vitesse de convergence. Or cette dernière est directement liée à la régularité de $ f$ , comme le montre le lemme suivant.
\begin{lemma}
Soit $f\in C^r({\mathbb{R}})$, p\'eriodique de p\'eriode $b-a$;
al...
...aymath}
\vert c_n(f)\vert\le K \vert n\vert^{-r}\ .
\end{displaymath}\end{lemma}
Preuve: une intégration par parties donne

$\displaystyle c_n(f) = \frac1{b-a}\,\int_a^b f(t)\, e^{-2i\pi\frac{nt}{b-a}}\, dt
= \frac{-1}{2i\pi n} \int_a^b f'(t)\, e^{-2i\pi\frac{nt}{b-a}}\, dt\ ,
$

car $ f$ étant continue, on a en particulier $ f(b)=f(a)$ . Similairement, on a

$\displaystyle c_n(f)
= \frac1{b-a}\,\left(\frac{-(b-a)}{2i\pi n}\right)^r
\int_a^b f^{(r)}(t)\, e^{-2i\pi\frac{nt}{b-a}}\, dt\ .
$

Cette dernière intégrale étant bornée par hypothèse, on en déduit le lemme. $ \spadesuit$

Ceci permet d'estimer la vitesse de convergence des sommes partielles:

$\displaystyle \vert\vert f-f_N\vert\vert^2 = (b-a)\sum_{\vert n\vert>N} \vert c_n(f)\vert^2
\le 2(b-a)K^2\,\sum_{\vert n\vert>N} n^{-2r}\le K' N^{1-2r}\ .
$


Cependant, on utilise également les séries de Fourier pour développer des fonctions à support borné. Et il y a là une différence importante avec le cas des fonctions périodiques. En effet, le développement en série de Fourier d'une fonction à support borné n'est pas unique, comme on va le voir.

Soit $ f\in L^2({\mathbb{R}})$ , à support borné dans l'intervalle $ [a,b]$ . Soit $ f_p$ la fonction périodique de période $ b-a$ , qui coïncide avec $ f$ sur $ [a,b]$ , définie par

$\displaystyle f_p(t) = \sum_{k=-\infty}^\infty f(t-k(b-a))\ .
$

Il est clair que $ f_p\in L^2_p([a,b])$ . On peut donc la développer en série de Fourier, et écrire, puisque $ f = f_p \chi_{[a,b]}$

$\displaystyle f = \lim_{N\to\infty} f_N\ ,$ (1.7)

où la limite est toujours à prendre au sens de $ L^2$ (c'est à dire $ \lim_{N\to\infty} \vert\vert f-f_N\vert\vert =0$ ), et où

$\displaystyle f_N(t) = \left(\sum_{n=-N}^N c_n(f) e^{2i\pi nt/(b-a)}\right)\, \chi_{[a,b]}(t)\ ,$ (1.8)

et où les coefficients de Fourier $ c_n(f)=c_n(f_p)$ sont toujours définis par

$\displaystyle c_n(f) =\frac1{b-a}\,\int_a^b f(t) e^{-2i\pi nt/(b-a)}\,dt\ .$ (1.9)

La série de Fourier de la fonction $ f_p$ est unique. Cependant, le passage de $ f$ à $ f_p$ n'est pas la seule possibilité. Il existe de multiples alternatives, dont on va donner deux exemples ci dessous.

Considérons tout d'abord la fonction $ g$ , définie sur l'intervalle $ [2a-b,b]$ par

$\displaystyle g(t) =\left\{\begin{array}{ll}
f(t) &\hbox{ si }t\in [a,b]\\
f(2a-t) &\hbox{ si }t\in [2a-b,a]\ .
\end{array}\right.
$

$ g$ est une fonction symétrique par rapport à $ a$ , et on peut considérer sa périodisée, de période $ 2(b-a)$

$\displaystyle g_p(t) =\sum_{k=-\infty}^\infty g(t-2k(b-a))\ .
$

$ g_p$ admet un développement en série de Fourier

$\displaystyle g_p(t) = \sum_n c_n(g) e^{i\pi nt/(b-a)}\ ,
$

$\displaystyle c_n(g) = \frac1{2(b-a)}\,\int_{2a-b}^b g_p(t) e^{i\pi nt/(b-a)}\,dt\ .
$

Cependant, on peut aussi écrire, pour $ n\ne 0$ ,

$\displaystyle c_n(g) = e^{-in\pi a/(b-a)}\,\frac1{b-a}\,\int_a^b f(t)
\cos \left(\pi n\frac{t-a}{b-a}\right)\,dt\ ,
$

et

$\displaystyle c_0(g) = c_0(f)\ .
$

Posons maintenant

$\displaystyle A_n(f) = \frac2{b-a}\,\int_a^b f(t) \cos \left(\pi n\frac{t-a}{b-a}\right)\,dt\ .$ (1.10)

Il est clair que $ A_{-n}(f)=A_n(f)$ ; la série de Fourier de $ g_p$ s'écrit maintenant

$\displaystyle g_p(t) = \frac1{2}A_0 +\frac1{2}\sum_{n\ne 0} A_n(f)e^{i\pi n(t-a)/(b-a)}\ .
$

Ceci nous donne directement une autre série de Fourier pour la fonction $ f$ :

$\displaystyle f = \lim_{N\to\infty} f_N^{(C)}\ ,$ (1.11)

où les sommes partielles $ f_N^{(C)}$ sont définies par

$\displaystyle f_N^{(C)}(t) = \left(\frac1{2}A_0 +\sum_{n=1}^N A_n(f)\cos\left(\pi n\frac{t-a}{b-a}\right)\right)\chi_{[a,b]}(t)\ .$ (1.12)


Une autre possibilité consiste à considérer une extension non pas symétrique (comme l'est la fonction $ g$ ) de $ f$ , mais une extension antisymétrique $ h$ , définie par

$\displaystyle h(t) =\left\{\begin{array}{ll}
f(t) &\hbox{ si }t\in [a,b]\\
-f(2a-t) &\hbox{ si }t\in [2a-b,a]\ .
\end{array}\right.
$

Il est alors facile de vérifier que la même procédure conduit à un développement en série de sinus: on a

$\displaystyle f = \lim_{N\to\infty} f_N^{(S)}\ ,$ (1.13)

où les sommes partielles $ f_N^{(S)}$ sont définies par

$\displaystyle f_N^{(S)}(t) = \left(\sum_{n=1}^N B_n(f)\sin\left(\pi n\frac{t-a}{b-a}\right)\right)\chi_{[a,b]}(t)\ ,$ (1.14)

et où les coefficients $ B_n(f)$ sont donnés par

$\displaystyle B_n(f) = \frac2{b-a}\,\int_a^b f(t) \sin \left(\pi n\frac{t-a}{b-a}\right)\,dt\ .$ (1.15)


La question qui se pose alors est celle du choix de la série à utiliser. Dans certaines applications, par exemple pour le codage des signaux ou des images, on a intérêt à privilégier la vitesse de décroissance des coefficients du développement de $ f$ . Nous avons vu plus haut que celui-ci est directement lié à la régularité, non pas de $ f$ elle même, mais de la fonction périodique utilisée dans le développement, c'est à dire ici $ f_p$ , ou $ g_p$ , ou la fonction équivalente dans le cas du développement en série de sinus.

Or, même si $ f$ est une fonction continue, il est rare qu'elle soit telle que $ f(b)=f(a)$ . Donc $ f_p$ est discontinue, et les coefficients $ c_n(f)$ n'ont aucune raison de décroître assez vite quand $ n$ est grand. Par contre, si $ f$ est continue, alors il est facile de voir que $ g_p$ est continue également, de sorte que les coefficients $ A_n(f)$ ont toutes les chances de décroître plus rapidement que les coefficients $ c_n(f)$ .

C'est pourquoi on utilise souvent les séries de cosinus dans les codeurs de signaux comme ceux employés dans les standards de communication (comme JPEG ou MPEG par exemple).

EXEMPLE 1.2   Comme illustration de cet fait, prenons la fonction $ f(t)=\chi_{[0,\pi]}$ . Un calcul immédiat montre que $ c_n(f)=\delta_{n,0}$ . Par contre, les coefficients $ B_n(f)$ se comportent comme $ 1/n$ ; Le développement en série de sinus est donc très inapproprié dans ce cas, comme on peut le voir en FIG. [*], avec l'approximation par cosinus (qui est exacte, et identique à la série de Fourier usuelle, et ne comporte qu'un terme) et l'approximation par une série de sinus comportant 10 termes. La série de sinus convergera toujours vers 0 en $ t=0$ et en $ t=\pi$ .
Figure: Diverses séries de Fourier décrivant $ \chi_{[0,\pi]}$ : série de sinus, série de cosinus.
Image sin0

EXEMPLE 1.3   On considère l'exemple de la fonction

$\displaystyle f(t) = t(\pi -t)
$

définie sur $ [0,\pi]$ . Un calcul explicite montre que ses coefficients de Fourier sont donnés par

$\displaystyle c_n(f) = \frac1{\pi}\,\int_0^\pi f(t) e^{-2int}\,dt = -\frac1{2n^2}\ .
$

Par contre, on a aussi

$\displaystyle A_n(f) = -\frac{2}{n^2}\,(1+(-1)^n)\ ,
$

et

$\displaystyle B_n(f) = -\frac{4}{\pi n^3}\,(1-(-1)^n)\ .
$

Donc, dans ce cas particulier, le développement en série de sinus est le plus économique. Les figures [*] et [*] représentent les approximations obtenues avec ces 3 développements, respectivement $ f$ , $ f_{5}$ , $ f_{5}^{(S)}$ et $ f_{5}^{(C)}$ . La figure [*] représente l'erreur d'approximation dans les 3 cas: $ f-f_{5}$ , $ f-f_{5}^{(S)}$ et $ f-f_{5}^{(C)}$ .

Figure: Diverses séries de Fourier décrivant un arc de parabole: arc de parabole (tirets), et sa série de Fourier usuelle (trait plein).
Image exp

Figure: Diverses séries de Fourier décrivant un arc de parabole (suite): série de sinus (tirets) et série de cosinus (trait plein).
Image sincos
Figure: Diverses séries de Fourier décrivant un arc de parabole (suite): erreurs de reconstruction. Série de cosinus (trait plein), de sinus (tirets et pointillés) et deexponentielles (tirets)
Image errors

Convolution-Produit

Etant données deux fonctions périodiques $ f,g$ , on leur associe leur produit de convolution $ h=f*g$ , défini par

$\displaystyle (f*g)(t) =\int_a^b f(s) g(t-s)\,ds\ ,$ (1.16)

pour tout $ t$ tel que l'intégrale converge. On a le résultat suivant:
\begin{proposition}[Young]
Soient $f\in L^p_p([a,b])$\ et $g\in L^q_p([a,b])$, o...
... \le C_{pq}\,\Vert f\Vert _p\,\Vert g\Vert _q\ .
\end{equation}\end{proposition}

Considérons donc $ f\in L^2_p([a,b])$ , et $ h\in L^1_p([a,b])$ ; il résulte des inégalités d'Young que $ f*h\in L^2_p([a,b])$ . On peut donc calculer

$\displaystyle c_n(h*f) =\frac1{T}\int_a^b \int_a^b h(s)f(t-s)\,ds\,e^{-2i\pi nt/T}\,dt
=T\,c_n(f)\,c_n(h)\ .
$

Notons que ce résultat reste vrai si on suppose que $ h\in L^2_p([a,b])$ , grâce aux relations d'inclusion que nous avons vues.

D'un autre coté, supposons $ f,g\in L^2_p([a,b])$ . Alors, d'après l'inégalité de Cauchy-Schwarz, $ fg\in L^1_p([a,b])$ , et on peut calculer les coefficients de Fourier

$\displaystyle c_n(fg)$ $\displaystyle =$ $\displaystyle \frac1{T}\,\int_a^b f(t)g(t)e^{-2i\pi nt/T}\,dt$  
  $\displaystyle =$ $\displaystyle \frac1{T}\,\int_a^b f(t) \sum_{m=-\infty}^\infty c_m(g)
e^{-2i\pi (n-m)t/T}\, dt$  
  $\displaystyle =$ $\displaystyle \sum_{m=-\infty}^\infty c_m(g) c_{n-m}(f)\ .$  

On obtient donc un produit de convolution des suites $ c(f)$ et $ c(g)$ .
\begin{proposition}
Soient $f,g\in L^2_p([a,b])$. Les coefficients de Fourier $c...
...n-m}(g)\\
c_n(f*g) &=& (b-a)\,c_n(f)\,c_n(g)\ .
\end{eqnarray}\end{proposition}

Signaux numériques et TFD

Par définition, on appelle signal numérique (ou digital) une suite $ \{s_n\}$ de nombres réels , finie ou infinie. On considère tout d'abord le cas infini. Le cadre mathématique le plus couramment utilisé est le cadre des signaux d'énergie finie $ \ell^2(\mathbb{Z})$ .

Transformation de Fourier discrète

Les résultats obtenus plus haut (séries de Fourier) se transposent de façon immédiate au cas des signaux numériques. En effet, la théorie $ L^2$ des séries de Fourier permet de construire une isométrie bijective entre $ L^2_p([-\pi,\pi])$ et $ \ell^2(\mathbb{Z})$ . La transformation inverse porte le nom de transformation de Fourier discrète.
\begin{definition}
Soit $s=\{s_n\}\in\ell^2(\mathbb{Z})$. Sa transform\'ee de Fo...
...uation}pour tout $\omega$\ tel que la s\'erie soit convergente.
\end{definition}
La variable $ \omega$ est appelée ``fréquence'' (ou pulsation). Il résulte de la théorie des séries de Fourier que la TFD d'une suite de $ \ell^2(\mathbb{Z})$ est une fonction $ 2\pi$ -périodique, de carré intégrable sur $ [-\pi,\pi]$ , et que la transformation inverse est donnée par le calcul des coefficients de Fourier de $ S$ . Plus précisément, on a
\begin{theorem}
La transformation de Fourier discr\\lq ete est multiple d'une isom\...
...t s(\omega) e^{in\omega}\,d\omega
=c_{-n}(\hat f)\ .
\end{equation}\end{theorem}

REMARQUE 1.6   On verra plus loin, au moment de décrire la théorie de l'échantillonnage, l'utilité de cette transformation. Il est souvent nécessaire d'utiliser une variante, définie par

$\displaystyle \hat s(\omega) = \sum_{n=-\infty}^\infty s_n e^{-in\omega/\eta}\ ,
$

$ \eta$ est un réel strictement positif fixé (appelé fréquence d'échantillonnage). $ \hat s$ est alors $ 2\pi\eta$ -périodique, et on a également

$\displaystyle s_n = \frac1{2\pi\eta}\,
\int_{-\pi\eta}^{\pi\eta} \hat s(\omega) e^{in\omega/\eta}\,d\omega\ .
$

Filtrage des signaux numériques

Les opérations de filtrage sont les opérations de base du traitement du signal. Le filtrage est utilisé pour modifier le ``contenu fréquentiel'' des signaux.
\begin{definition}
Un filtre num\'erique\index{Filtre num\'erique}
est un op\'er...
...dex{Filtre num\'erique r\'ealisable}
s'il est causal et stable.
\end{definition}
Il est immédiat qu'un tel opérateur commute avec les translations entières: étant donnée $ s\in\ell^2(\mathbb{Z})$ , si on note $ s'$ une translatée de $ s$ :

$\displaystyle s'_n =s_{n-n_0}\ ,
$

il vient immédiatement

$\displaystyle (K_hs')_n = (K_hs)_{n-n_0}\ .
$

REMARQUE 1.7   Il est immédiat, d'après les inégalités d'Young, que si la réponse impulsionnelle $ h$ est de module sommable (i.e. $ h\in\ell^1(\mathbb{Z})$ ), le filtre $ K_h$ est automatiquement stable et continu $ \ell^2(\mathbb{Z})\to\ell^2(\mathbb{Z})$ .

La TFD simplifie considérablement les opérations de filtrage numérique: il est facile de vérifier (par un changement d'indice de sommation) que si $ h\in\ell^1(\mathbb{Z})$ ,

$\displaystyle \widehat{K_h s}(\omega)\! =\!\!\! \sum_{n=-\infty}^\infty\!\! \su...
...m_{k=-\infty}^\infty\!\! s_{k} e^{-ik\omega} = \hat h(\omega) \hat s(\omega)\ .$ (1.17)

La fonction $ m=\hat h$ est appelée fonction de transfert du filtre $ K_h$ . Par conséquent, les filtres numériques sont essentiellement utilisés pour modifier le contenu fréquentiel des signaux (on en verra des applications par la suite).

Plus généralement, partant d'une fonction de transfert $ m\in L^\infty([-\pi,\pi])$ , il est facile de voir que l'opérateur linéaire $ T: s\to s'$ défini par

$\displaystyle (Ts)_n = \frac1{2\pi}\int_{-\pi}^\pi e^{in\omega}
m(\omega) \hat s(\omega)\,d\omega
$

est un filtre numérique; sa réponse impulsionnelle est la TFD inverse de $ m$ .

REMARQUE 1.8   Dans ce cas, $ m\in L^\infty([-\pi,\pi])\subset L^2([-\pi,\pi])$ , de sorte que la réponse impulsionnelle $ h$ , TFD inverse de $ m$ , appartient automatiquement à $ \ell^2(\mathbb{Z})$ . Par contre, elle n'est généralement pas dans $ \ell^1(\mathbb{Z})$ , ce qui peut parfois poser des problèmes pratiques, comme on va le voir plus loin.

L'exemple le plus simple est celui du filtre passe-bas idéal, qui force à zéro toutes les fréquences supérieures (en valeur absolue) à une certaine fréquence de coupure $ \omega_0<\pi$ . Un tel filtre est défini par sa fonction de transfert

$\displaystyle m(\omega) =\chi_{[-\omega_0,\omega_0]}(\omega)\ .
$

Après TFD inverse, on obtient la réponse impulsionnelle suivante

$\displaystyle h_n =\frac{\omega_0}{\pi}\,\frac{\sin(n\omega_0)}{n\omega_0}\ .
$

Il est facile de voir que la réponse impulsionnelle de ce filtre n'appartient pas à $ \ell^1(\mathbb{Z})$ . Plus grave, ce filtre n'est pas réalisable, et ne peut donc pas être utilisé de façon exacte en pratique (on est obligé de tronquer les sommes infinies intervenant dans le calcul).

Un exemple de filtrage passe-bas utilisant un filtre idéal est décrit en FIG [*]: un signal (transitoire), et deux versions filtrées avec des fréquences de coupure différentes. On voit bien l'effet du filtrage qui atténue fortement les composantes les plus rapidement variables dans le signal. En particulier, dans le premier signal filtré (figure du milieu), les composantes très rapidement variables (donc les très hautes fréquences) ont été supprimées, mais des oscillations régulières subsistent. Par contre, dans le second exemple (figure du bas) obtenu avec une fréquence de coupure $ \omega_0$ inférieure à la précédente, ces oscillations ont été supprimées.

Figure: Exemple de filtrage passe-bas: un signal transitoire, et deux versions filtrées (filtre passe-bas idéal) avec des fréquences de coupure différentes.
Image filtsigs

Les exemples les plus simples de filtres sont les filtres à réponse impulsionnelle finie (filtres FIR), c'est à dire tels que la suite $ h$ soit de support fini: $ h_n\ne 0$ seulement si $ n\in n_1,\dots n_2$ . La fonction de transfert est alors un polynôme trigonométrique

$\displaystyle m(\omega)=\sum_{n=n_1}^{n_2} h_n e^{-in\omega}\ .
$

L'exemple le plus simple est celui du filtre passe-bas élémentaire, qui consiste simplement à effectuer des ``moyennes'' locales sur le signal d'entrée. Ce filtre est défini par $ h_0=h_1=1/2$ , et $ h_k=0$ sinon. Il est immédiat de voir que la fonction de transfert de ce filtre est la fonction $ \omega\to e^{-i\omega/2} \cos(\omega/2)$ , de sorte que $ \vert m(\omega)\vert^2=\cos^2\omega/2$ . multiplier la transformée de Fourier d'un signal par une telle fonction revient à l'atténuer au voisinage de $ \omega=\pm\pi$ , tout en la préservant au voisinage de $ \omega=0$ . C'est le propre d'un filtrage passe-bas, loin d'un filtre idéal toutefois. De même, le choix $ h_0=-h_1=1/2$ , et $ h_k=0$ sinon condiot à $ \vert m(\omega)\vert^2=\sin^2\omega/2$ , ce qui donne un filtre ``passe-haut'', qui atténue les basses fréquences tout en préservant les hautes fréquences.

Les filtres FIR ne sont en général pas suffisants, et il est nécessaire de recourir à des filtres à réponse impulsionnelle infinie (filtres IIR). Cependant, il est en pratique impossible d'implémenter des convolutions discrètes par des suites de longueur infinie. On a alors recours à une variante, appelée ``filtrage récursif''. L'idée de base du filtre récursif est de calculer de façon itérative une nouvelle valeur du signal filtré par filtrage FIR des valeurs passées du signal original et du signal filtré. Cette procédure est donc compatible avec des problématiques de ``temps réel''. Plus précisément, un filtre récursif associe à $ s$ la suite $ s'$ définie par

$\displaystyle s'_n = \frac1{\alpha_0}\left( \sum_{m=0}^M \beta_m s_{n-m} - \sum_{m=1}^N \alpha_m s'_{n-m}\ . \right)\ ,$ (1.18)

où les coefficients $ \alpha_k$ et $ \beta_k$ sont des nombres complexes fixés. Il s'agit donc d'une succession d'opérations causales.

La question est alors de trouver sous quelles conditions de telles opérations définissent un filtre continu sur $ \ell^2$ , ou tout du moins un filtre stable. Pour cela, remarquons que les signaux d'entrée $ s$ et de sortie $ s'$ du filtre sont reliés par une relation du type

$\displaystyle \sum_{m=0}^N \alpha_m s'_{n-m} = \sum_{m=0}^M \beta_m s_{n-m}\ .$ (1.19)

Il est facile de voir qu'après transformation de Fourier discrète, on aboutit à une relation du type

$\displaystyle \left(\sum_{m=0}^N \alpha_m e^{-im\omega}\right)\,\hat s'(\omega) = \left(\sum_{m=0}^M \beta_m e^{-im\omega}\right)\,\hat s(\omega)\ ,$ (1.20)

de sorte que la fonction de transfert $ m$ du filtre correspondant prend la forme d'une fraction rationnelle de deux polynômes trigonométriques

$\displaystyle m(\omega) = \frac{\sum_{m=0}^M \beta_m e^{-im\omega}} {\sum_{m=0}^N \alpha_m e^{-im\omega}} = H(e^{i\omega})\ ,$ (1.21)

pour une certaine fonction rationnelle $ H$ . Les propriétés du filtre dépendent bien évidemment des propriétés de $ m$ , et en particulier de son dénominateur. On peut facilement voir que si le dénominateur ne s'annulle pas (c'est à dire si les racines du dénominateur de la fonction $ z\in\mathbb{Z}\to H(z)$ n'appartiennent pas au cercle unité), la fonction $ m$ est bornée, et le filtre correspondant est continu sur $ \ell^2(\mathbb{Z})$ . On a donc
\begin{proposition}
% latex2html id marker 1058Soient $\alpha_0,\dots \alpha_N...
...lpha_m e^{-im\omega}}
\hat f(\omega)\,d\omega\ .
\end{equation}\end{proposition}

La fonction de transfert $ m$ du filtre correspondant est une fonction périodique, et peut être décomposée en série de Fourier. Cependant, celle-ci est (sauf dans certains cas triviaux) une série infinie, de sorte que le filtre considéré est bel et bien un filtre IIR. L'expression ([*]) montre donc qu'il est possible d'effectuer un filtrage IIR en n'utilisant qu'un nombre fini d'opérations. Cette remarque est d'une importance considérable en pratique.

Il est évident que le propriétés du filtre dépendent fortement des caractéristiques de la fonction de transfert $ m$ , et en particulier des zéros de son dénominateur. Ce dernier étant (tout comme le numérateur) un polynôme trigonométrique, c'est donc un polynôme dans la variable complexe $ z=e^{i\omega}$ , ce qui rend l'étude des zéros plus facile. Les zéros du numérateur et du dénominateur sont les racines de polynômes en $ z$ correspondants, ces dernières étant en général complexes. Ceci suggère d'utiliser des techniques de fonctions d'une variable complexe, et conduit naturellement à introduire un outil voisin de la TFD, à savoir la transformation en $ z$ .

La transformation en $ z$

La transformation en $ z$ associe à une suite une fonction d'une variable complexe $ z$ (on pourra se référer à [1,2,8] pour plus de précision sur la théorie des fonctions d'une variable complexe). Elle peut être vue comme un prolongement de la TFD dans le plan complexe, et ses propriétés en font un outil très utilisé par les ``signalistes'' (voir par exemple [4,8]).

Séries de Laurent, transformation en $ z$

Etant donné un signal numérique $ \{s_n,n\in\mathbb{Z}\}$ , il existe des cas où sa transformée de Fourier discrète n'est pas définie au sens classique. On a parfois recours à une alternative, la transformée en $ z$ , dont on décrit ci-dessous les propriétés essentielles, sans entrer dans les détails.
\begin{definition}
Soit $s=\{s_n,n\in\mathbb{Z}\}$\ un signal num\'erique. Sa tr...
... convergence
(\'eventuellement vide) $r_1< \vert z\vert < r_2$.
\end{definition}

On sait d'après des résultats généraux sur les séries de Laurent que $ S$ est holomorphe dans sa couronne de convergence. Inversement, étant donnée une fonction $ S$ holomorphe dans une couronne $ r_1<\vert z\vert<r_2$ , elle admet un unique développement en série de Laurent. De plus, on a le lemme classique suivant:
\begin{lemma}
Le rayon de convergence $\rho$\ de la s\'erie enti\\lq ere
$z\to\sum_...
...ho} = \lim\sup_{n\to\infty} \vert a_n\vert^{1/n}\ .
\end{displaymath}\end{lemma}
On en déduit immédiatement la couronne de convergence de la transformée en $ z$ d'un signal numérique:
\begin{corollary}
Soit $S$\ la transform\'ee en $z$\ de la s\'erie $s$.
Les born...
... \lim\sup_{n\to \infty} \vert s_{-n}\vert^{1/n}\ .
\end{equation}\end{corollary}

EXEMPLE 1.4   On dit qu'un signal numérique $ s$ est causal si $ s_n=0$ pour tout $ n<0$ . Inversement, $ s$ est dit anticausal si $ s_n=0$ pour tout $ n\ge 0$ . Supposons que $ s$ soit causal. Alors il est évident que $ r_2^{-1}=0$ , de sorte que la transformée en $ z$ de $ s$ est bien définie dans le domaine $ \vert z\vert>r_1$ , c'est à dire à l'extérieur d'un cercle de rayon $ r_1$ .

De même, si $ s$ est anticausal, $ r_1=0$ , et $ S(z)$ est bien défini à l'intérieur du cercle de rayon $ r_2$ .

Inversion de la transformation en $ z$

Il existe plusieurs techniques permettant d'inverser une transformation en $ z$ . La plus simple consiste à expliciter un développement en série de Laurent de la fonction $ S$ considérée. Le développement en série de Laurent étant unique, ceci fournit directement une transformée inverse.

EXEMPLE 1.5   Prenons l'exemple de la fonction

$\displaystyle S(z) =\frac{z}{z-z_0}\ ,\quad \vert z\vert<\vert z_0\vert\ ;
$

on peut alors écrire, pour $ \vert z\vert<\vert z_0\vert$ ,

$\displaystyle S(z) = \frac{z}{z-z_0}=-\frac{z}{z_0}\,\frac{1}{1-z/z_0}
=\frac{z...
...}^\infty\left(\frac{z}{z_0}\right)^n
=\sum_{n=-\infty}^{-1} z_0^{n}\,z^{-n}\ ,
$

ce qui, conjugué à l'unicité du développement en série de Laurent, fournit

$\displaystyle s_n =\left\{\begin{array}{ll}
z_0^n&\hbox{ pour }n<0\\
0&\hbox{ sinon }.
\end{array}\right.
$

Une alternative consiste à utiliser la TFD. Soit $ S$ la transformée en $ z$ d'un signal $ s$ , et soit $ r$ un nombre tel que $ r_1<r<r_2$ . Calculons

$\displaystyle \frac1{2\pi}\int_{-\pi}^\pi S\left(re^{i\theta}\right) e^{in\thet...
... r^{-m}\,\frac1{2\pi}\int_{-\pi}^\pi e^{i(n-m)\theta}\,d\theta
= r^{-n}s_n\ .
$

On peut donc écrire

$\displaystyle s_n = \frac{r^n}{2\pi}\int_{-\pi}^\pi S\left(re^{i\theta}\right)
e^{in\theta}\,d\theta\ .
$

Par un changement de variables complexes $ z=re^{i\theta}$ , on obtient donc
\begin{proposition}
Soit $s$\ un signal num\'erique, et soit $S$\ sa transform\'...
...\'e sur l'origine du plan complexe,
de rayon $r\in ]r_1,r_2[$.
\end{proposition}
On a généralement recours à la méthode des résidus pour calculer de telles intégrales.

Transformation en $ z$ et filtrage numérique

L'un des intérêts de la transformation en $ z$ est son comportement vis à vis des transformations simples, et en particulier des translations. Etant donnée une suite $ \{s_n,n\in\mathbb{Z}\}$ , et une suite filtres $ \{s'_n,n\in\mathbb{Z}\}$ donnée par $ s'_n = s_{n-k}$ , on voit immédiatement que leurs transformées en $ z$ sont reliées par $ S'(z) = z^k S(z)$ . Le corollaire immédiat est le comportement de la transformation en $ z$ vis à vis du filtrage numérique. Etant donné un signal numérique $ s$ et une filtre numérique de réponse impulsionnelle $ h$ , alors pour tout $ z$ à l'intérieur de l'intersection des couronnes de convergence des transformées $ S$ et $ H$ de $ s$ et $ h$ respectivement, on a

$\displaystyle S'(z) =\sum_n s'_nz^{-n} =\sum_n\sum_k h_k z^{-k} s_{n-k} z^{-(n-k)}\ ,
$

de sorte que l'on a

$\displaystyle S'(z) = H(z) S(z)\ .$ (1.22)

La fonction $ H$ est elle aussi appelée fonction de transfert du filtre.

En particulier, dans le cas d'un filtre récursif comme précédemment, on a

$\displaystyle S'(z) = \frac{\sum_{m=0}^M \beta_m z^{-m}}{\sum_{m=0}^N \alpha_m z^{-m}}
\,S(z)\ ,
$

c'est à dire que la transformée en $ z$ de $ h$ prend la forme d'une fraction rationnelle. Cette expression est à rapprocher de l'expression ([*]) obtenue avec la TFD.

Factorisation des filtres causaux d'ordre fini réels

On dit qu'un filtre causal $ K_h$ est d'ordre fini si $ K_h$ peut être réalisé comme un filtre récursif comme en ([*]). On impose que le filtre $ K_h$ soit causal (donc la couronne de convergence de $ H(z)$ est de la forme $ \vert z\vert>r_1$ ) et stable (donc le cercle unité est inclus dans la couronne de convergence). Par conséquent, les pôles de $ H$ se trouvent à l'intérieur du cercle unité.

On se limite ici aux filtres réels, c'est à dire tels que les coefficients $ \alpha_k$ et $ \beta_k$ sont réels. Dans ce cas, il est facile de voir que

$\displaystyle \overline{\hat h}(\omega) =\hat h(-\omega)\ ,
$

de sorte que le spectre prend la forme

$\displaystyle \vert\hat h(\omega)\vert^2 = H(z)H(z{^{-1}})\vert_{z=e^{i\omega}}\ .
$

Notons $ z_k$ les pôles de $ H$ (les zéros du dénominateur de $ H$ ) et $ \zeta_\ell$ les zéros de $ H$ . Il est immédiat que $ \vert\hat h(\omega)\vert^2$ est caractérisé par des facteurs de la forme

$\displaystyle (z-z_k)(z{^{-1}}-z_k)=1+z_k^2-z_k(z+z{^{-1}})\ ,\quad\hbox{et}\quad
(z-\zeta_k)(z{^{-1}}-\zeta_k)=1+\zeta_k^2-\zeta_k(z+z{^{-1}})\ ,
$

(avec $ z=e^{i\omega}$ ), et est donc une fonction (positive rationnelle) de

$\displaystyle w=\frac1{2}\,(z+z{^{-1}}) =\cos(\omega)\ .
$


Inversement, soit $ \omega\to W(\cos\omega)=N(\cos\omega)/D(\cos\omega)$ une fonction rationnelle positive. Notons $ w=\cos(\omega)$ , et $ w_k$ les zéros (dans le plan complexe) de $ D$ (le numérateur $ N$ se traite de façon identique). On voit facilement que l'équation en $ z$

$\displaystyle w_k=\frac1{2}\,(z+z{^{-1}})
$

possède deux solutions inverses l'une de l'autre, notées $ z_k$ et $ z_k{^{-1}}$ . Par convention, on choisit $ \vert z_k\vert<1$ . On peut alors poser

$\displaystyle d(z) = \prod_k (z-z_k)\ .
$

De même, en notant $ v_k$ les zéros de $ N$ , et $ \zeta_k$ et $ \zeta_k{^{-1}}$ les solutions et $ \zeta$ de

$\displaystyle v_k=\frac1{2}\,(\zeta+\zeta{^{-1}})
$

(sans nécessairement imposer $ \vert\zeta_k\vert<1$ ), on est naturellement conduit à introduire

$\displaystyle n(z) = \prod_k (z-\zeta_k)\ .
$

Il résulte de cette analyse que la fonction

$\displaystyle z\to \frac{n(z)}{d(z)}
$

est la fonction de transfert d'un filtre causal stable d'ordre fini.
\begin{proposition}
Soit $K_h$\ un filtre causal stable d'ordre fini. Alors son ...
...'ordre fini $K_h$\ dont le spectre co\uml \i ncide avec $A^2$.
\end{proposition}

REMARQUE 1.9   Le filtre $ K_h$ n'est pas unique, car il reste la liberté de choisir les zéros $ \zeta_k$ à l'intérieur ou à l'extérieur du disque unité pour former la fonction $ d$ . Choisir tous les zéros à l'intérieur du disque unité conduit aux filtres dits à phase minimale.

Un exemple est donné par la famille des filtres de Butterworth (dans leur version numérique), qui constituent des approximations de filtres passe-bas idéaux. En introduisant de nouveau la variable $ w=\cos(\omega)$ , les filtres de Butterworth sont caractérisés par une fonction de transfert telle que

$\displaystyle \vert\hat h(\omega)\vert^2 =W(w) = \frac{(w+1)^L}{(w+1)^L + c (1-w)^L}\ ,$ (1.23)

$ L$ est un nombre entier fixé, et $ c$ une constante positive. Un exemple d'une telle fonction $ W$ se trouve en FIG [*]
Figure: Module de la fonction de transfert $ \omega\to \vert m(\omega)\vert$ (en logarithme) pour un filtre de Butterworth numérique d'ordre $ L=10$ , avec une fréquence de coupure $ \omega_0=\pi/3$ ).
Image Butt10_LP_transfer
Il est facile de vérifier qu'une telle fonction $ W$ entre tout à fait dans les hypothèses de la Proposition [*]. Par conséquent, il est toujours possible de trouver un filtre causal d'ordre fini, de réponse impulsionnelle $ h$ , tel que l'équation ([*]) soit satisfaite.

Le nombre $ c$ contrôle en fait la fréquence de coupure, via la relation

$\displaystyle c=3\left(
\frac{1+\cos\omega_0}{1-\cos\omega_0}
\right)^L
$

(par exemple, $ c=3$ correspond à une fréquence de coupure égale à $ \omega_0=\pi/2$ ).

Figure: Position dans le plan complexe des 10 pôles de la fonction de transfert $ m$ pour un filtre de Butterworth d'ordre 10, pour une fréquence de coupure égale à $ \pi/3$ .
Image Butt10_LP_PZ
Par exemple, dans le cas $ L=2$ , on peut montrer que les (deux) racines complexes du dénominateur de la fonction de transfert $ H$ sont de la forme
$\displaystyle z_0$ $\displaystyle =$ $\displaystyle \frac{c^{1/2}-1 - i \sqrt{2} c^{1/4}}{c^{1/2}+1 + \sqrt{2} c^{1/4}}$  
$\displaystyle z_1$ $\displaystyle =$ $\displaystyle \frac{c^{1/2}-1 + i \sqrt{2} c^{1/4}}{c^{1/2}+1 + \sqrt{2} c^{1/4}}$  

(et sont donc complexes conjugués l'un de l'autre). On a représenté dans la FIG [*] les positions des pôles, c'est à dire des racines du dénominateur (croix) et des zéros (cercles) de $ H$ pour $ \omega_0=\pi/3$ . Comme on peut le voir, les pôles sont bien à l'intérieur du disque unité.


On peut similairement obtenir des filtres de Butterworth passe-bande, par exemple des filtres sélectionnant une bande de fréquences donnée.

Figure: Module de la fonction de transfert $ \omega\to \vert m(\omega)\vert$ (en logarithme) pour un filtre de passe-bande de Butterworth numérique d'ordre $ L=10$ , sélectionnant une bande de fréquence entre $ \pi/2$ et $ 3\pi/4$ .
Image Butt10_BP_transfer

Figure: Position dans le plan complexe des 2 zéros (d'ordre 5 chacun) et des 10 pôles de la fonction de transfert $ m$ pour un filtre passe-bande de Butterworth d'ordre 10, sélectionnant une bande de fréquences entre $ \pi/2$ et $ 3\pi/4$ .
Image Butt10_BP_PZ

Une application du filtrage numérique: filtrage adapté

Le problème de détection optimale est un problème classique du traitement du signal. On suppose que l'on a un signal de référence connu $ s\in\ell^2(\mathbb{Z})$ , et que l'on observe un signal $ x$ de la forme

$\displaystyle x_n = A s_{n-n_0} + b_n\ ,$ (1.24)

$ A\in\mathbb{C}$ et $ n_0\in\mathbb{Z}$ sont inconnus et à déterminer, et où $ b\in\ell^2(\mathbb{Z})$ est une perturbation (bruit, ou erreur de mesure), dont seul est connu le ``spectre''

$\displaystyle {\mathcal S}(\omega) = \vert\hat b(\omega)\vert^2\ .
$

Le problème est d'identifier $ A$ et $ n_0$ à partir de $ x$ , en utilisant des méthodes linéaires.

Pour cela, on considère une famille paramétrique de formes linéaires sur $ \ell^2(\mathbb{Z})$ , notées $ \varphi_\tau$ , $ \tau\in\mathbb{Z}$ , qui sont donc de la forme

$\displaystyle \varphi_\tau(x) = \langle x,\gamma^\tau\rangle$ (1.25)

pour une certaine fonction $ \gamma^\tau\in\ell^2(\mathbb{Z})$ . On peut donc écrire

$\displaystyle \varphi_\tau(x) = A \langle T_{n_0} s,\gamma^\tau\rangle +
\langle b,\gamma^\tau\rangle \ .
$

On a ici introduit l'opérateur de translation $ T_{n_0}$ , défini par $ (T_{n_0}y)_n = y_{n-n_0}$ . On cherche alors à trouver la famille de fonctions $ \gamma^\tau$ , telle que pour tout $ n_0$ , $ \langle T_{n_0} s,\gamma^{n_0}\rangle$ soit le plus grand possible (en module), tout en gardant le second terme (contribution du bruit) le plus petit possible.

Pour cela, calculons

$\displaystyle \langle T_{n_0} s,\gamma^{n_0}\rangle$ $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_{-\pi}^\pi
\widehat{T_{n_0}s}(\omega)
\overline{\widehat{\gamma^{n_0}}(\omega)}\,d\omega$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\int_{-\pi}^\pi
\frac{\widehat{T_{n_0}s}(\omega)}{\sq...
...sqrt{{\mathcal S}(\omega)}\overline{\widehat{\gamma^{n_0}}(\omega)}\,d\omega\ ,$  

de sorte que l'inégalité de Cauchy-Schwarz donne immédiatement

$\displaystyle \left\vert \langle T_{n_0} s,\gamma^{n_0}\rangle \right\vert\le
\...
...S}(\omega)\,\left\vert\widehat{\gamma^{n_0}}(\omega)\right\vert^2\,d\omega}\ .
$

Le second facteur donne en fait une estimation de la ``taille'' du bruit après calcul de $ \varphi_{n_0}(x)$ . On peut écrire

$\displaystyle \frac{\left\vert \langle T_{n_0} s,\gamma^{n_0}\rangle \right\ver...
...rac{\vert\widehat{T_{n_0}s}(\omega)\vert^2}{{\mathcal S}(\omega)}\,d\omega}\ .
$

Cette inégalité est une égalité si et seulement si les deux facteurs sont proportionnels, c'est à dire si

$\displaystyle \widehat{T_{n_0}s}(\omega) = K{^{-1}}{\mathcal S}(\omega) \widehat{\gamma^{n_0}}(\omega)
$

pour une certaine constante $ K$ , en d'autres termes, en supposant que la fonction $ \hat s/{\mathcal S}$ soit bornée,

$\displaystyle \widehat{\gamma^{n_0}}(\omega) = K e^{-in_0\omega}
\frac{\hat s(\omega)}{{\mathcal S}(\omega)}\ .
$

Donc, la famille de formes optimale (au sens de l'inégalité de Cauchy-Schwarz) $ \{\varphi_\tau,\ \tau\in\mathbb{Z}\}$ est définie par

$\displaystyle \varphi_\tau(y) = \langle y,\gamma^\tau\rangle
= \frac{K}{2\pi}\,...
...{\overline {\hat s(\omega)}}{{\mathcal S}(\omega)}\,\hat y(\omega)\,d\omega\ ,
$

ce qui définit un filtre numérique, de fonction de transfert

$\displaystyle m: \omega\to m(\omega)= K \frac{\hat s(\omega)}{{\mathcal S}(\omega)}\ .
$

On peut donc énoncer le résultat suivant.
\begin{proposition}
Soient $s\in\ell^2(\mathbb{Z})$\ et ${\mathcal S}\in L^\inft...
...mega} m(\omega)\,d\omega
= \gamma_0(n-n_0)\ .
\end{displaymath}\end{proposition}
Ainsi, la famille de transformations $ \varphi_\tau$ correspondante prend la forme d'un filtre numérique, de fonction de transfert $ m$ :

$\displaystyle \varphi_\tau (x) = \frac1{2\pi}
\int_{-\pi}^\pi e^{i(n-\tau)\omega} m(\omega)\hat x(\omega)\,d\omega\ .
$

Finalement, on montre aussi facilement que pour tout $ n_0\in\mathbb{Z}$ ,

$\displaystyle \vert\varphi_\tau(T_{n_0}x)\vert \le \vert\varphi_{n_0}(T_{n_0}x)\vert\ .
$

Ceci qui suggère, en présence d'une observation de la forme ([*]) avec un $ n_0$ inconnu, de rechercher les maxima de $ \varphi_\tau(x)$ pour estimer $ n_0$ . Une fois $ n_0$ estimé, on peut alors obtenir une estimation de l'amplitude inconnue $ A$ .

Un exemple de filtrage adapté est donné en figure [*]. Comme on le voit, le signal de sortie du filtre adapté présente un ``pic'', c'est à dire un maximum bien marqué à la position où le signal de départ décalé était présent.

Figure: Exemple de filtrage adapté. En haut, le signal original, au milieu le signal original bruité, en bas le signal de sortie du filtre adapté, qui présente un maximum bien marqué à la position du signal original.
Image mfilter


La transformation de Fourier en pratique: transformation de Fourier finie (TFF)

Les suites de longueur finie se prêtent au même type d'analyse que les suites infinies. On peut également leur associer une transformée de Fourier (qui est elle aussi une suite de longueur finie), et la transformation correspondante est de nouveau une isométrie (à une constante près). Plus précisément, à la suite finie $ u=\{u_n,n=0\dots N-1\}\in\mathbb{C}^N$ on associe la suite $ \hat u=\{\hat u_k,k=0,\dots N-1\}\in\mathbb{C}^N$ , définie par

$\displaystyle \hat u_k = \sum_{n=0}^{N-1} u_n e^{-2i\pi\frac{kn}N}\ .$ (1.26)

C'est alors un jeu d'enfant que de montrer des propriétés analogues aux propriétés que nous avons déjà vues: formule de Parseval et inversion. De fait, on a

$\displaystyle \sum_{k=0}^{N-1}\vert\hat u_k\vert^2 = N \sum_{n=0}^{N-1} \vert u_n\vert^2\ ,$ (1.27)

et

$\displaystyle u_n = \frac1{N}\, \sum_{k=0}^{N-1}\hat u_k e^{2i\pi\frac{kn}N}\ .$ (1.28)

REMARQUE 1.10   En d'autres termes, ceci est équivalent à dire que la famille des vecteurs

$\displaystyle e_k = \left( \frac1{\sqrt{N}},\frac1{\sqrt{N}} e^{2i\pi k/N},\dots \frac1{\sqrt{N}} e^{2i\pi k(N-1)/N}\right)$ (1.29)

est une base orthonormée de $ \mathbb{C}^N$ , et un a posé $ \hat u_k =\langle u,e_k\rangle/\sqrt{N}$ .


La relation plus précise entre la TFD et la TFF peut également se comprendre de la façon suivante, dans le cas des signaux de longueur finie.
\begin{proposition}
Soit $f\in\ell^2(\mathbb{Z})$, tel que $f_n=0$\ pour tout $n...
...\omega-2\pi k/N)}}\ ,\quad
\omega\ne 2\pi k/N\ .
\end{equation}\end{proposition}
Preuve: La preuve résulte de la définition de la TFD, de l'expression des nombres $ f_n$ à partir des $ \hat f_k$ et de la somme de la série géométrique. $ \spadesuit$


Dans le cas où le signal considéré $ s$ n'est pas à support fini, il est néanmoins facile d'obtenir une estimation de sa transformée de Fourier à partir d'un ``segment'' fini, et des estimations d'erreur grâce à la formule de Parseval.

Signaux numériques multidimensionnels

Nous nous sommes jusqu'à présent limités au cas des signaux unidimensionnels, en prenant principalement comme ``inspiration'' les signaux sonores. On a souvent à traiter des signaux de dimension supérieure, comme par exemple des images (dimension 2), des vidéos (dimension 2+1) ou même des signaux en bien plus grande dimension.


Un signal numérique $ d$ -dimensionnel est défini comme une suite à $ d$ indices

$\displaystyle x: n_1,n_2,\dots n_d\in\mathbb{Z}\to x_{n_1,,n_2,\dots n_d}\in\mathbb{C}\ .
$

Un exemple de signal bidimensionnel (image) est présenté en FIG. [*]. L'axe horizontal est l'axe $ n_1$ , et l'axe vertical est l'axe $ n_2$ . Un point $ (n_1,n_2)$ est appelé pixel. La valeur de l'image $ x_{n_1,n_2}$ au pixel $ (n_1,n_2)$ est représentée par un niveau de gris d'intensité proportionnelle à $ x_{n_1,n_2}$ .

Figure: Exemple d'images, en niveaux de gris
Image man

Comme dans le cas unidimensionnel, le modèle le plus classique est le modèle Hilbertien $ \ell^2(\mathbb{Z}^d)$ , c'est à dire celui des signaux dits d'énergie finie, tels que

$\displaystyle \sum_{n_1=-\infty}^\infty\sum_{n_2=-\infty}^\infty\dots
\sum_{n_d=-\infty}^\infty \vert x_{n_1,n_2,\dots n_d}\vert^2 <\infty\ .
$

Une bonne part des techniques que nous avons vues jusqu'à présent se transposent aisément au cadre multidimensionnel, en particulier les outils liés à l'analyse de Fourier.
\begin{definition}
La transformation de Fourier discr\\lq ete (TFD) $d$-dimensionne...
...(\xi_1,\xi_2,\dots ,\xi_d)$\ telles que cette
s\'erie converge.
\end{definition}
La TFD $ d$ -dimensionnelle possède des propriétés en tous points similaires à celles de son analogue unidimensionnelle. En particulier, on voit facilement que $ \hat x$ est bien définie dès que $ x\in\ell^1(\mathbb{Z}^d)$ . De même, la théorie $ L^2$ se transpose facilement
\begin{theorem}
La TFD $d$-dimensionnelle d\'efinit une isom\'etrie (\\lq a une
con...
...i_2 +\dots +n_d\xi_d)}\,
d\xi_1d\xi_2\dots d\xi_d\ .
\end{equation}\end{theorem}

REMARQUE 1.11   La transformée de Fourier discrète $ d$ -dimensionnelle d'un signal $ x$ est cette fois une fonction de $ d$ variables fréquentielles. Dans les cas $ d=2$ ou $ d=3$ , on parle de fréquence spatiale.

Pour fixer les idées, prenons le cas 2D. La représentation de Fourier représente un signal comme combinaison linéaire de sinusoïdes, oscillant à la fréquence $ \xi_1$ dans la direction 1, et $ \xi_2$ dans la direction 2. Comme dans le cas 1D, plus la fréquence est élevée, plus les oscillations sont rapides.


Le filtrage linéaire, que nous avons longuement étudiée dans le cas unidimensionnel, est l'opération fondamentale du traitement du signal. Il se généralise presque mot pour mot au cadre multidimensionnel.

Etant donnée une suite à $ d$ indices $ h$ , le filtre linéaire $ K_h$ de réponse impulsionnelle $ h$ est l'opérateur linéaire qui associe à tout signal numérique $ d$ -dimensionnel $ x$ le signal $ K_hx=h*x$ défini par

$\displaystyle (K_hx)_{n_1,\dots n_d} = \sum_{k_1,\dots k_d} h_{k_1,\dots k_d} x_{n_1-k_1,\dots n_d-k_d}\ ,$ (1.30)

pour tout $ d$ -uplet $ (n_1,\dots n_d)$ tel que la série converge. De nouveau il est clair que si $ h\in\ell^1(\mathbb{Z}^d)$ , $ K_hx$ est borné dès que $ x$ l'est, et $ K_hx\in \ell^2(\mathbb{Z}^d)$ dès que $ x\in \ell^2(\mathbb{Z}^d)$ .

Le lien avec la TFD est le même que dans le cas unidimensionnel. Supposant pour simplifier $ h\in\ell^1(\mathbb{Z}^d)$ , on montre facilement que

$\displaystyle \widehat{K_h x}(\xi_1,\dots,\xi_d) = \hat h(\xi_1,\dots,\xi_d) \hat x(\xi_1,\dots,\xi_d)$ (1.31)

de sorte que l'on peut exprimer le filtrage sous la forme

$\displaystyle (K_h x)_{n_1,\dots n_d} = \frac1{(2\pi)^d}\int_{[-\pi,\pi]^d} m(\...
...at x(\xi_1,\dots,\xi_d) e^{i(n_1\xi_1 +\dots +n_d\xi_d)}\,d\xi_1\dots d\xi_d\ .$ (1.32)

Exemples de filtres bidimensionnels: Pour illustrer ce que nous venons de voir, considérons le cas bidimensionnel.

  1. L'exemple le plus simple est celui du filtrage passe-bas idéal, que l'on peut cette fois concevoir de deux façons différentes:
  2. Filtrage ``passe haut'' idéal. En définissant la fonction de transfert comme

    $\displaystyle m_{PH}(\xi_1,\xi_2) = 1 - m_{PB}(\xi_1,\xi_2)\ ,
$

    $ m_{PB}$ est l'une des deux fonctions de transfert de filtres passe-bas vue ci-dessus, on obtient un filtre passe haut, qui ne conserve dans les images que les composantes rapidement variables.
  3. Filtres tensoriels: la technique du produit tensoriel permet de générer des filtres 2D à partir de filtres 1D. Soient $ m_1$ et $ m_2$ les fonctions de transfert de deux filtres 1D. On leur associe alors la fonction de transfert d'un filtre 2D comme suit:

    $\displaystyle m(\xi_1,\xi_2) = m_1(\xi_1)m_2(\xi_2)\ .
$

    On vérifie facilement que si $ m_1$ et $ m_2$ sont des fonctions de transfert de filtres passe bas, $ m$ définit aussi un filtre passe-bas. On peut de cette façon construire de multiples types de filtres.

Figure: Image de la Figure [*], filtrée par filtrage passe-bas.
Image blurredman

Représentation des signaux numériques

Nous nous sommes jusqu'à présent focalisés sur deux façons différentes de ``représenter'' des signaux numériques: la représentation temporelle (ou spatiale, dans les cas 2D ou 3D), où un signal est représenté par ses valeurs $ x_n$ , et la représentation fréquentielle, dans le domaine de la TFD.

Dans de nombreux domaines, on utilise maintenant d'autres types de représentations des signaux, exploitant l'analyse fonctionnelle élémentaire. L'idée est d'utiliser une modélisation des signaux comme éléments d'un espace de Hilbert (séparable), et les représenter par les coefficients de leur développement sur une base bien choisie.

Bases pour les signaux numériques

Les notions essentielles pour cette section sont rappelées dans l'Appendice [*]. On se focalise ici sur les bases orthonormales, et on donne quelques exemples de bases ``classiques''.
  1. Le cas $ {\mathcal H}=\mathbb{C}^N$ (ou $ {\mathbb{R}}^N$ ). On a vu dans la section [*] que les sinusoïdes $ e^k = (e_0^k,e_1^k,\dots,e_{N-1}^k)\in\mathbb{C}^N$ , où

    $\displaystyle e^k_n = \frac1{\sqrt{N}} \exp\{2i\pi kn/N\}
$

    forment une base orthonormée de $ \mathbb{C}^N$ . Ces bases sont en fait peu utilisées en pratique, car les signaux sont souvent à valeurs réelles, et on préfère alors éviter de manipuler des nombres complexes.

    On leur préfère alors les bases de $ {\mathbb{R}}^N$ appelées bases DCT (pour Discrete Cosine Transform). Ces dernières existent en huit versions différentes, les deux plus ``populaires'' étant:

  2. Bases ``composites'' de $ {\mathbb{R}}^{pN}$ . Lorsque l'on doit représenter un long signal, par exemple une seconde de son (ce qui représente habituellement 44100 valeurs par seconde), on ne peut pas se permettre de travailler dans des espaces vectoriels de si grande dimension, et on les ``coupe en morceaux'' de la façon suivante.

    Supposons que $ {\mathcal H}={\mathbb{R}}^{pN}$ , où $ p$ est un entier positif fixé. Le découpage consiste à écrire $ {\mathcal H}$ sous la forme de somme directe

    $\displaystyle {\mathcal H}= {\mathbb{R}}^N \otimes {\mathbb{R}}^N \otimes\dots\otimes{\mathbb{R}}^N\qquad p\ \rm {fois}\ ,
$

    en d'autres termes représenter un signal $ x\in{\mathbb{R}}^{pN}$ par $ p$ signaux de longueur $ N$ . Ces derniers peuvent ensuite être représentés par leurs coefficients sur une base usuelle de $ {\mathbb{R}}^N$ .

    Plus concrètement, soit $ \{e^0,e^1,\dots e^{N-1}\}$ une base orthonormale de $ {\mathbb{R}}^N$ . Pour tout $ j=0,\dots p-1$ , soit $ \phi_{jk}$ la copie du vecteur $ e^k$ définie par décalage de $ kN$ :

    \begin{displaymath}
\phi^{jk}_n = \left\{
\begin{array}{ll}
0&\hbox{ si } n\not\in I_j\\
e^k_{n-jN}&\hbox{ si } n\in I_j
\end{array}\right.
\end{displaymath}

    $ I_j$ est l'intervalle dans $ \mathbb{Z}$

    $\displaystyle I_j = \mathbb{Z}\cap [ jN,(j+1)N-1]\ .
$

    On a alors, pour tout $ x\in{\mathbb{R}}^{pN}$

    $\displaystyle x = \sum_{j=0}^{p-1} x {\bf 1}_{I_j}
= \sum_{j=0}^{p-1} \sum_{k=0}^{N-1}\langle x ,\phi^{jk}\rangle\phi^{jk}
$

    $ {\bf 1}_I$ étant l'indicatrice d'un segment $ I$ , et on montre facilement que

    $\displaystyle \langle \phi^{jk},\phi^{j'k'}\rangle = \delta_{jj'}\delta_{kk'}\ ,
$

    de sorte que $ \{\phi^{jk},\ j=0,\dots p-1,\ k=0\dots N-1\}$ est une base orthonormée de $ {\mathbb{R}}^{pN}$ .
  3. Bases de $ \ell^2(\mathbb{Z})$ : la base (orthonormale) de $ \ell^2(\mathbb{Z})$ la plus ``commune'' est la base de Krönecker $ \{\delta^n,n\in\mathbb{Z}\}$ , définie par

    \begin{displaymath}
\delta^n_k = \left\{
\begin{array}{ll}
0&\hbox{ si } k\ne n\\
1&\hbox{ si } k=n\ .
\end{array}\right.
\end{displaymath}

    Cette base n'est toutefois pas très pratique dans de nombreuses situations.
  4. Dans $ \ell^2(\mathbb{Z})$ , les fonctions exponentielles complexes intervenant dans les décompositions de Fourier des signaux numériques ne forment pas une base de $ \ell^2(\mathbb{Z})$ . En effet, ces fonctions ne sont pas elles mêmes de module carré sommable.
  5. Pour obtenir des bases trigonométriques de $ \ell^2(\mathbb{Z})$ , il faut ``localiser'' ces fonctions, comme on l'a fait ci-dessus dans le cas de $ \mathbb{C}^{pN}$ . En considérant comme précédemment une base orthonormale $ \{e^0,e^1,\dots e^{N-1}\}$ de $ \mathbb{C}^N$ , et en définissant pour tout $ j\in\mathbb{Z}$ et $ k=0,\dots N-1$ la suite $ \phi^{jk}$ par

    \begin{displaymath}
\phi^{jk}_n = \left\{
\begin{array}{ll}
0&\hbox{ si } n\not\in I_j\\
e^k_{n-jN}&\hbox{ si } n\in I_j
\end{array}\right.
\end{displaymath}

    on montre dans ce cas encore que la famille $ \{\phi^{jk},j\in\mathbb{Z},\ k=0,\dots N-1\}$ est une base orthonormée de $ \ell^2(\mathbb{Z})$

Repères

Il existe de nombreuses situations dans lesquelles les bases orthonormales que l'on sait construire ne sont pas bien adaptées aux traitements que l'on voudrait effectuer sur les signaux. En effet, les hypothèses d'orthonormalité sont souvent trop contraignantes, et ne permettent pas de générer des familles de signaux élémentaires sur lesquelles décomposer les signaux, qui possèdent les propriétés requises.

On peut alors avoir avantage à recourir à la notion de repère, décrite dans l'Annexe [*]. En quelques mots, les repères constituent une généralisation de la notion de famille génératrice de vecteurs, adaptable aux espaces de Hilbert de dimension infinie. Un repère dans un espace de Hilbert $ {\mathcal H}$ est une famille de vecteurs $ \{\varphi_\lambda,\lambda\in{\mathcal H}\}$ telle qu'il existe deux constantes strictement positives $ 0<A\le B<\infty$ vérifiant, pour tout $ x\in{\mathcal H}$ ,

$\displaystyle A \Vert x\Vert^2 \le \sum_{\lambda\in\Lambda} \vert\langle x,\varphi_\lambda\rangle\vert^2
\le B \Vert x\Vert^2 \ .
$

On montre facilement (voir l'Annexe [*]) que dans ces conditions, l'opérateur d'analyse

$\displaystyle U: x\in {\mathcal H}\longmapsto Ux = \{\langle x,\varphi_\lambda\rangle,\
\lambda\in\Lambda\}\in\ell^2(\Lambda)
$

est borné, et que son adjoint, l'opérateur de synthèse

$\displaystyle U^*: c\in\ell^2(\Lambda)\longmapsto U^*c = \sum_{\lambda\in\Lambda}
c_\lambda\varphi\lambda\in{\mathcal H}
$

l'est également, de sorte que l'opérateur de repère

$\displaystyle {\mathcal R}: x\in{\mathcal H}\longmapsto {\mathcal R}x = U^*U x ...
...bda\in\Lambda}
\langle x,\varphi_\lambda\rangle \varphi_\lambda\in{\mathcal H}
$

est borné, inversible à inverse borné.

De tels repères peuvent être utilisés pour représenter des signaux.

EXEMPLE 1.6   Repères de Gabor: Dans $ {\mathcal H}=\mathbb{C}^N$ : soit $ g\in\mathbb{C}^N$ , tel que $ g\ne0$ un signal de référence, normalisé de sorte que $ \Vert g\Vert=1$ . On lui associe la famille d'atomes de Gabor, copies translatées et modulées de $ g$ , définies par

$\displaystyle g^{k\ell}: n=0,\dots N-1\to g^{k\ell}_n = e^{2i\pi kn/N}g_{n-\ell}\ ,\quad
k,\ell = 0,\dots N-1\ ,
$

$ n-\ell$ est à prendre mpodulo $ N$ pour que ceci ait un sens.

On vérifie facilement que pour tout $ x\in\mathbb{C}^N$ , on a une formule de type ``formule de Parseval''

$\displaystyle \sum_{k=0}^{N-1}\sum_{\ell=0}^{N-1} \vert\langle x,g^{k\ell}\rangle\vert^2
= \Vert x\Vert^2\ ,
$

de sorte que la famille $ \{g^{k\ell},\ k,\ell= 0,\dots N-1\}$ est un repère strict de $ \mathbb{C}^N$ .

Par conséquent, on peut donc écrire tout $ x\in\mathbb{C}^N$ sous la forme

$\displaystyle x = \sum_{k=0}^{N-1}\sum_{\ell=0}^{N-1} G_x(k,\ell) g^{k\ell}\ ,
$

où les coefficients

$\displaystyle G_x(k,\ell) = \langle x,g^{k\ell}\rangle
= \sum_{n=0}^{N-1} x_n e^{-2i\pi kn/N}\overline{g}_{n-\ell}
$

forment la transformée de Gabor de $ x$ , aussi appelée transformée de Fourier à court terme de $ x$ . Notons qu'il s'agit de la transformée de Fourier de $ x$ , multipliée par une copie translatée de $ \overline{g}$ . Ainsi, si $ g$ est localisée autour de $ n=0$ , $ G_x(\cdot,\ell)$ représente une transformée de Fourier d'une copie de $ x$ , que l'on a ``localisée'' au voisinage de $ n=\ell$ .

EXEMPLE 1.7   Il est possible de développer une version de la transformation de Gabor adaptée aux signaux numériques infinis $ x\in\ell^2(\mathbb{Z})$ . Elle est cependant un peu plus complexe.

Bruno Torresani 2007-06-26