Sous-sections

SIGNAUX ALEATOIRES


On a souvent recours à des modèles de signaux faisant intervenir des quantités aléatoires. On peut trouver à cela deux justifications essentielles:

Le cadre mathématique adapté à cette situation est celui des processus aléatoires. L'objectif de ce court chapitre est d'aboutir à la représentation spectrale des processus stationnaires (puis à la représentation de Karhunen-Loève dans un cadre plus général), afin d'être en position d'utiliser les outils développés aux cgapitres précédents.

Définitions, propriétés simples

Dans cette section on désignera par $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ un espace probabilisé. On note par $ {\mathcal L}^0({\mathcal A})={\mathcal L}^0({\mathcal A},{\mathbb{P}})$ l'espace des variables aléatoires sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ , à valeurs réelles ou complexes. Etant données deux variables aléatoires $ X,Y\in{\mathcal L}^0({\mathcal A})$ , on dit que $ X\sim Y$ si $ X=Y$ presque surement. Ceci définit une relation d'équivalence, et on note

$\displaystyle L^0({\mathcal A}) = {\mathcal L}^0({\mathcal A})/\sim
$

l'espace quotient, c'est à dire l'espace des variables aléatoires différentes presque surement. Etant donnée une variable aléatoire $ X\in L^0$ , on en notera $ {{\mathbb{E}}\left\{X\right\}}$ l'espérance.

Premières définitions

Un signal aléatoire est en fait un processus stochastique, indexé par un espace discret ou continu. Plus précisément:
\begin{definition}
Soit $T\subset{\mathbb{R}}$\ une partie (continue ou discr\\lq e...
...lication
$t\to X_t(a)$\ est appel\'ee trajectoire du processus.
\end{definition}
Un sognal aléatoire sera aussi appelé processus aléatoire, processus stochastique, ou série chronologique. On introduit de même des signaux aléatoires multidimensionnels (pour lesquels $ T$ est une partie de $ {\mathbb{R}}^n$ ), mais on se limitera ici au cas unidimensionnel.
\begin{definition}
Etant donn\'es un signal al\'eatoire $\{X_t,t\in T\}$, et $n$...
...s
variables forme le syst\\lq eme de lois marginales du processus.
\end{definition}

Un théorème célèbre de Kolmogorov (le théorème d'extension qui porte son nom) montre que la connaissance du système de lois marginales est suffisante pour caractériser la distribution du processus.

Exemples

Les exemples suivants donnent une idée de la variété des situations que l'on peut rencontrer.

EXEMPLE 2.1   L'exemple le plus simple est celui d'un bruit blanc discret. On considère pour cela une famille $ \{W_0,\dots W_{N-1}\}$ de variables aléatoires indépendantes, identiquement distribuées, par exemple $ {\mathcal N}(0,\sigma^2)$ . Il s'agit d'un processus aléatoire indexé par $ \{0,1,\dots N-1\}$ , que l'on appelle bruit blanc discret Gaussien.

EXEMPLE 2.2   Partant de l'exemple précédent, et étant donnée une suite finie $ \{h_0,h_1,\dots h_{N-1}\}$ , on peut former la suite $ \{X_0,\dots X_{N-1}\}$ définie par le produit de convolution circulaire

$\displaystyle X_k = \sum_{n=0}^{N-1} h_n W_{(k-n){\mathrm {mod}}N}
$

On a alors par exemple $ {{\mathbb{E}}\left\{X_n\right\}}=0$ pour tout $ n$ , et aussi

$\displaystyle {{\mathbb{E}}\left\{X_kX_\ell\right\}} = \sum_n h_n h_{((k-\ell)+n){\mathrm {mod}}N}
$

EXEMPLE 2.3   On s'intéressera également à des processus à temps continu, c'est à dire au cas où $ T$ n'est pas dénombrable. Prenons par exemple $ T={\mathbb{R}}^+$ , et introduisons les temps $ t_0=0<t_1<t_2<\dots$ . Soient $ Z_0,Z_1,\dots$ une suite de variables aléatoires sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ ; on peut alors introduire le processus ``à sauts'' $ X$ défini par

$\displaystyle X_t = \sum_{n=0}^\infty Z_n \chi_{[t_n,t_{n+1}]}(t)\ .$ (2.1)

$ X$ est bien un processus aléatoire sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ ; ses trajectoires sont des fonctions constantes par morceaux, généralement discontinues (voir la notion de continuité presque sûre des trajectoires plus bas).

EXEMPLE 2.4   Un processus harmonique est un processus défini sur $ {\mathbb{R}}^+$ , de la forme

$\displaystyle X_t = A e^{-t/\tau}\cos(\omega t+\varphi)\ ,$ (2.2)

$ A,\omega$ et $ \tau$ sont des constantes, et où $ \varphi$ est une variable aléatoire uniformément distribuée sur $ [0,2\pi]$ . $ X$ est aussi un processus aléatoire sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ , indexé par $ {\mathbb{R}}^+$ .

Figure: 3 trajectoires de bruit blanc.
Image White
Figure: 3 trajectoires de bruit blanc filtré (filtrage passe-bas).
Image fWhite
En fait, on peut mettre l'accent sur deux classes de processus particulièrement intéressantes, car basées sur des hypothèses simplificatrices relativement réalistes dans de nombreux cas pratiques.
  1. Processus à accroissements indépendants: ce sont les processus tels que pour tous temps $ t_1<t_2<\dots <t_M$ , la famille de variables aléatoires $ \{X_{t_1},X_{t_2}-X_{t_1},X_{t_3}-X_{t_2},\dots X_{t_M}-X_{t_{M-1}}\}$ soit une famille de variables aléatoires indépendantes. On verra plus loin un exemple avec le processus de Wiener.
  2. Processus Gaussiens: toutes les mesures de probabilités du système de lois marginales sont Gaussiennes.
Notons que ces deux hypothèses ne sont pas exclusives (voir l'exemple du processus de Wiener). L'hypothèse de ``Gaussianité'' est particulièrement utile, car elle permet de caractériser les distributions de probabilités par leurs moments d'ordre 1 et 2.

Processus du second ordre

On se limitera dans ce cours au cas des processus du second ordre c'est à dire des processus tels que leur covariance est bien définie.
\begin{definition}
Un signal al\'eatoire $\{X_t,t\in T\}$\ est dit du second ord...
...rt X_{t+\delta}-X_t\vert^2\right\}}\to 0$\ quand $\delta\to 0$.
\end{definition}

REMARQUE 2.1   Soit $ X\in L^0({\mathbb{P}})$ , telle que $ {{\mathbb{E}}\left\{\vert X\vert^2\right\}}<\infty$ . Alors il résulte de l'inégalité de Cauchy-Schwarz que

$\displaystyle {{\mathbb{E}}\left\{\vert X\vert\right\}} =\int \vert X(a)\vert\,d{\mathbb{P}}(a) \le \sqrt{\int \vert X(a)\vert^2\,d{\mathbb{P}}(a)} <\infty\ .
$

Par conséquent, étant donné un signal aléatoire du second ordre $ X$ , on peut introduire sa moyenne

$\displaystyle \mu_t = {{\mathbb{E}}\left\{X_t\right\}}\ .$ (2.3)

On introduit également la covariance du processus

$\displaystyle C_X(t,s) = {{\mathbb{E}}\left\{(X_t-\mu_t)(\overline{X_s}-\overline{\mu_s})\right\}} =R_X(t,s)-\mu_t\overline{\mu_s}\ ,$ (2.4)

$\displaystyle R_X(t,s)={{\mathbb{E}}\left\{X_t\overline{X_s}\right\}}$ (2.5)

est l'autocorrélation. On a (de nouveau comme conséquence de l'inégalité de Cauchy-Schwarz), pour tous $ t,s\in T$

$\displaystyle \vert R_X(t,s)\vert \le \sqrt{\vert R_X(t,t)\vert}\,\sqrt{\vert R_X(s,s)\vert}\ ,
$

et de même pour $ C_X$ . Ces deux fonctions vérifient en outre la propriété suivante
\begin{proposition}
Les fonctions $C_X$\ et $R_X$\ sont semi-d\'efinies positives.
\end{proposition}
On rappelle qu'une fonction de deux variables $ F$ est semi-définie positive si pour tous $ t_1,\dots t_n\in T$ et $ \alpha_1,\dots\alpha_n\in\mathbb{C}$ , on a

$\displaystyle \sum_{k,\ell=1}^n \alpha_k\overline{\alpha}_\ell\, F(t_k,t_\ell)\ge 0\ ,$ (2.6)

en d'autres termes si la matrice $ n\times n$ $ \{F(t_k,t_\ell),k,\ell=1,\dots n\}$ est semi-définie positive pour tous $ t_1,\dots t_n$ . Elle est définie positive lorsque l'inégalité est stricte.

Preuve de la proposition: Il suffit de le prouver pour $ R_X$ (la preuve pour $ C_X$ est identique). On a

$\displaystyle \sum_{k,\ell=1}^n \alpha_k\overline{\alpha_\ell}\, R_X(t_k,t_\ell...
...E}}\left\{\left\vert\sum_{k=1}^n\alpha_k X_{t_k}\right\vert^2\right\}}\ge 0\ .
$

$ \spadesuit$

Les variables aléatoires $ X$ sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ telles que $ {{\mathbb{E}}\left\{\vert X\vert^2\right\}}<\infty$ engendrent un espace linéaire, noté $ {\mathcal L}^2({\mathcal A},{\mathbb{P}})$ . Soit $ L^2({\mathcal A},{\mathbb{P}})$ l'espace quotient de $ {\mathcal L}^2({\mathcal A},{\mathbb{P}})$ dans lequel on a identifié les variables aléatoires égales presque sûrement. $ L^2({\mathcal A},{\mathbb{P}})$ est naturellement muni d'un produit scalaire défini par

$\displaystyle (X\vert Y) ={{\mathbb{E}}\left\{X\overline{Y}\right\}}\ ,$ (2.7)

qui en fait un espace de Hilbert. Etant donné un processus du second ordre $ \{X_t,t\in T\}$ , supposé centré (c'est à dire tel que $ {{\mathbb{E}}\left\{X_t\right\}}=0$ pour tout $ t$ ), on notera $ {\mathcal M}_X$ le sous espace fermé de $ L^2({\mathcal A},{\mathbb{P}})$ engendré par les variables aléatoires $ X_t,t\in T$ .

Signaux aléatoires numériques

On se limitera ici au cas des processus du second ordre, indexés par $ \mathbb{Z}$ . Soit donc $ X=\{X_n,n\in\mathbb{Z}\}$ un processus du second ordre sur $ ({\mathcal A},{\mathcal F},{\mathbb{P}})$ , de moyenne $ \mu_X(n)={{\mathbb{E}}\left\{X_n\right\}}$ et de fonction de corrélation $ R_X$ .
\begin{definition}
Soit $X=\{X_n,n\in\mathbb{Z}\}$\ un signal num\'erique al\'ea...
...=C_X(n-m)\ ,\quad\forall n,m,\tau\in\mathbb{Z}
\end{displaymath}\end{definition}
Notons que dans ce cas, on a

$\displaystyle \vert R_X(n)\vert\le R_X(0)\ ,
$

et de même pour $ C_X$ .

On utilise parfois la notion de processus stationnaire au sens fort (ou strict): de tels processus sont tels que leur distribution est invariante par translation. De telles hypothèses sont toutefois souvent trop restrictives, et la stationnarité faible (c'est à dire en moyenne d'ordre deux) est généralement suffisante.

Filtrage de convolution de signaux stationnaires en m.o.d.

Les signaux aléatoires du second ordre stationnaires en m.o.d. restent du second ordre et stationnaires par filtrage numérique. En effet, soit $ h\in\ell^1(\mathbb{Z})$ , et soit $ X$ un signal numérique aléatoire du second ordre, stationnaire en m.o.d. Soit $ Y$ défini par

$\displaystyle Y_n =(K_hX)_n = \sum_k h_k X_{n-k}\ .
$

Alors $ Y$ est du second ordre:

$\displaystyle {{\mathbb{E}}\left\{\vert Y_n\vert^2\right\}} = \sum_{k,\ell} h_k...
...sum_{k,\ell} h_k\overline{h}_\ell C_X(\ell-k)
\le C_X(0)\,\Vert h\Vert _1^2\ .
$

De plus, on a

$\displaystyle \mu_Y(n) =\sum_k h_k\mu_X(n-k) =(h*\mu_X)(n) = \mu_X \sum_k h_k = \mu_Y(0)\ ,
$

et

$\displaystyle C_Y(n,m) =\sum_{k,\ell} h_k\overline{h}_\ell C_X(n-k,m-\ell) =
\sum_{k,\ell} h_k\overline{h}_\ell C_X(n-k-m+\ell) = C_Y(n-m)\ .
$

Ainsi, $ Y$ est également stationnaire en moyenne d'ordre deux. On verra plus loin d'autres exemples de filtrages.

Mesure spectrale et densité spectrale pour les processus stationnaires en m.o.d.

Soit donc $ X$ un processus stationnaire en m.o.d., que l'on suppose centré pour simplifier. Si tel n'est pas le cas, on peut toujours écrire $ X=Y+\mu_X$ et travailler sur le signal aléatoire centré $ Y$ . En corollaire de ce qui précède, la covariance $ C_X$ est une suite définie positive: pour tous $ n_1,\dots n_N\in\mathbb{Z}$ et $ \alpha_1,\dots\alpha_N\in\mathbb{C}$ , on a

$\displaystyle \sum_{k,\ell=1}^N \alpha_k\overline{\alpha}_\ell F(n_k-n_\ell)\ge 0\ .$ (2.8)

Un résultat général d'analyse fonctionnelle permet d'introduire la mesure spectrale de $ X$ :
\begin{theorem}[Herglotz]
Soit $\phi$\ une suite d\'efinie positive. Alors il ex...
...2\pi}\,\int_{-\pi}^\pi e^{in\omega}\,d\nu(\omega)\ .
\end{equation}\end{theorem}
Preuve: Commençons par calculer la quantité suivante (qui est toujours positive ou nulle), pour $ \omega\in [-\pi,\pi]$

$\displaystyle \sum_{j,k=1}^N \phi(j-k) e^{-i\omega(j-k)} =\sum_{n=1-N}^{N-1}
\phi(n)\,e^{-i\omega n} \left(N-\vert n\vert\right)\ ,
$

et posons

$\displaystyle \gamma_N(\omega) = \sum_{n=1-N}^{N-1} \phi(n)\,e^{-i\omega n}
\left(1-\frac{\vert n\vert}N\right)\ .
$

Il est clair que $ \gamma_N(\omega)\ge 0$ pour tout $ \omega$ , et que

$\displaystyle \int_{-\pi}^\pi\gamma_N(\omega)\,d\omega = 2\pi\,\phi(0)\ .
$

Soient $ d\nu_N$ les mesures définies par

$\displaystyle d\nu_N(\omega) =\gamma_N(\omega)\,d\omega\ .
$

Il s'agit de mesures bornées, définies sur un domaine compact. Par conséquent, il est possible d'extraire une sous-suite $ d\nu_{N'}$ qui converge faiblement vers une limite $ d\nu$ (c'est le théorème de Helly). De plus, pour tout $ m$ tel que $ \vert m\vert\le N'$ , on a

$\displaystyle \frac1{2\pi}\int_{-\pi}^\pi e^{im\omega}d\nu_{N'}(\omega)
=\left(...
...m\vert}N\right)\phi(m) \longrightarrow \phi(m)
\ \hbox{pour }
{N'\to\infty}\ .
$

Par définition de la convergence faible, on en déduit que

$\displaystyle \frac1{2\pi}\int_{-\pi}^\pi e^{im\omega}d\nu_{N'}(\omega)
\longri...
...1{2\pi}\int_{-\pi}^\pi e^{im\omega}d\nu(\omega)\ \hbox{pour }
{N'\to\infty}\ ,
$

ce qui prouve l'existence de $ \nu$ .

Pour ce qui est de l'unicité: soient $ \nu$ et $ \nu'$ deux limites; soit $ g\in C([-\pi,\pi])$ ; on sait que toute fonction continue est arbitrairement bien approximée par les polynômes trigonométriques; $ \nu$ et $ \nu'$ coïncidant sur les polynômes trigonométriques, on a bien

$\displaystyle \int_{-\pi}^\pi g(\omega)\,d\nu(\omega)
=\int_{-\pi}^\pi g(\omega)\,d\nu'(\omega)\ ,
$

pour tout $ g\in C([-\pi,\pi]$ , ce qui prouve que $ \nu'=\nu$ , et donc l'unicité. $ \spadesuit$

En appliquant ce résultat à la covariance d'un signal aléatoire du second ordre stationnaire en moyenne d'ordre deux, on obtient la représentation spectrale suivante (parfois appelée théorème de Wiener-Khintchin, ou théorème de Wold):
\begin{corollary}[Wiener-Khintchin]
Soit $X$\ un signal num\'erique al\'eatoire ...
...}\,\int_{-\pi}^\pi e^{in\omega}\,d\nu_X(\omega)\ .
\end{equation}\end{corollary}
La mesure spectrale $ \nu_X$ n'est pas nécessairement absolument continue par rapport à la mesure de Lebesgue. Si c'est le cas, on peut alors écrire

$\displaystyle d\nu_X(\omega) ={\mathcal S}_X(\omega)\,d\omega\ ,
$

$ {\mathcal S}_X\in L^\infty([-\pi,\pi])$ est appelé densité spectrale de $ X$ .

Quelques exemples

  1. L'exemple le plus simple est celui du bruit blanc Gaussien: les variables aléatoires $ X_n$ sont des variables aléatoires Gaussiennes indépendantes et identiquement distribuées $ {\mathcal N}(0,\sigma)$ . On a alors $ \mu_X=0$ et $ C_X(m,n)=\sigma^2\delta_{mn}$ , et $ X$ est stationnaire en m.o.d. L'unicité de la mesure spectrale montre facilement que

    $\displaystyle d\nu_X(\omega) =\sigma^2\,d\omega\ ,
$

    d'où $ X$ admet une densité spectrale $ {\mathcal S}_X$ constante. Ceci explique la terminologie: un bruit blanc est un signal qui ``contient'' toutes les fréquences en égale quantité (par analogie avec la lumière blanche).
  2. Bruit blanc filtré (signal MA): si $ X$ est le bruit blanc précédent, et si $ h\in\ell^1(\mathbb{Z})$ , on a déjà vu que $ Y=K_hX$ est toujours un processus du second ordre, stationnaire en m.o.d. Un calcul simple montre que $ Y$ admet une densité spectrale $ {\mathcal S}_Y$ de la forme

    $\displaystyle {\mathcal S}_Y(\omega) = \vert\hat h(\omega)\vert^2\ .
$

    Plus généralement, si $ X$ est un signal aléatoire du second ordre centré, stationnaire en moyenne d'ordre deux, de densité spectrale $ {\mathcal S}_X$ , alors le même calcul montre que $ Y$ est lui aussi du second ordre, centré et stationnaire en m.o.d., et tel que

    $\displaystyle {\mathcal S}_Y(\omega) = \vert\hat h(\omega)\vert^2\,{\mathcal S}_X(\omega)\ .
$

    Ainsi, comme dans le cas des signaux déterministes, un filtrage de convolution revient à ``modeler'' le contenu en fréquences d'un signal.
  3. Signal AR: Soit $ X$ un bruit blanc Gaussien comme ci-dessus, et soient $ \alpha_0,\dots \alpha_N$ des nombres complexes. Si il existe un processus $ Y$ solution de

    $\displaystyle \sum_{k=0}^N \alpha_k Y_{n-k} =X_n\ ,
$

    alors $ Y$ est stationnaire en moyenne d'ordre deux, et admet une densité spectrale de la forme

    $\displaystyle {\mathcal S}_Y(\omega) =\frac1{\left\vert\sum_k\alpha_ke^{-ik\omega}\right\vert^2}\ .
$

    On verra plus loin une condition suffisante pour l'existence d'un tel $ Y$ .
  4. Signal ARMA: Soit $ X$ un bruit blanc Gaussien comme ci-dessus, et soient $ \alpha_0,\dots \alpha_N$ des nombres complexes. Si il existe un processus $ Y$ solution de

    $\displaystyle \sum_{k=0}^N \alpha_k Y_{n-k} =\sum_{\ell=0}^M \beta_\ell X_{n-\ell}\ ,
$

    alors $ Y$ est stationnaire en moyenne d'ordre deux, et admet une densité spectrale de la forme

    $\displaystyle {\mathcal S}_Y(\omega) =\frac{\left\vert\sum_\ell\beta_\ell e^{-i\ell\omega}\right\vert^2}
{\left\vert\sum_k\alpha_ke^{-ik\omega}\right\vert^2}\ .
$

  5. Signal harmonique: On considère une variable aléatoire uniforme $ \phi$ sur l'intervalle $ [-\pi,\pi]$ (donc, de densité de probabilités $ \rho_\phi(\alpha) = \chi_{[-\pi,\pi]}(\alpha)/2\pi$ ), et on lui associe le signal aléatoire $ X$ défini par

    $\displaystyle X_n = Ae^{i(n\omega_0 +\phi)}\ ,
$

    $ A\in\mathbb{C}$ et $ \omega_0\in [-\pi,\pi]$ sont deux constantes. Il est facile de vérifier que $ X$ est du second ordre ( $ {{\mathbb{E}}\left\{\vert X_n\vert^2\right\}}=\vert A\vert^2$ pour tout $ n$ ) et centré. De plus,

    $\displaystyle {{\mathbb{E}}\left\{X_n\overline{X_m}\right\}} = \vert A\vert^2\,e^{i\omega_0(n-m)}\ ,
$

    de sorte que $ X$ est stationnaire en moyenne d'ordre deux. Finalement, on a

    $\displaystyle C_X(n) = \vert A\vert^2\,e^{in\omega_0} =\frac1{2\pi}\int_{-\pi}^\pi
e^{in\omega}\,d\nu_X(\omega)\ ,
$

    d'où on déduit que la mesure spectrale de $ X$ n'est autre que la mesure de Dirac $ \delta_{\omega_0}$ en $ \omega_0$ , à un facteur $ 2\pi \vert A\vert^2$ près. Les signaux harmoniques fournissent l'exemple le plus simple de signaux aléatoires stationnaires en moyenne d'ordre deux ne possédant pas de densité spectrale.

Le cas fini; application à la simulation de processus stationnaires en m.o.d.

La théorème de Wiener-Khinchin fournit une représentation spectrale pour la fonction d'autocovariance des signaux aléatoires stationnaires en moyenne d'ordre deux. La question suivante est: pouvons nous obtenir une représentation similaire (de type ``Fourier'') pour les signaux aléatoires eux mêmes ?

Nous allons voir dans la section suivante un tel théorème de représentation spectrale pour les signaux numériques infinis. Il est utile, pour motiver cette discussion, de faire une parenthèse avec le cas des signaux numériques aléatoires de longueur finie. Il est tout d'abord nécessaire d'adapter la définition de stationnarité à cette situation. Il faut pour cela tenir compte des conditions aux bords, que l'on suppose ici périodiques.
\begin{definition}
Soit $X=\{X_n,n=0,\dots N-1\}$\ un signal num\'erique al\'eat...
...n-m)\hbox{ mod} N)\ ,
\quad\forall n,m,\tau\ .
\end{displaymath}\end{definition}
Soit $ X$ un tel signal aléatoire, que l'on suppose de plus centré. Soit $ C_X$ son autocovariance, et soit $ {\mathcal S}_X$ le vecteur défini par

$\displaystyle {\mathcal S}_X(k) = \sum_{n=0}^{N-1} C_X(n)\, e^{-2i\pi kn/N}\ .$ (2.9)

On considère la transformée de Fourier finie de $ X$ : le vecteur aléatoire $ \{\hat X_0,\dots \hat X_{N-1}\}$ , défini par

$\displaystyle \hat X_k =\sum_{n=0}^{N-1} X_n\, e^{-2i\pi kn/N}\ .$ (2.10)

Soit $ C_X$ son autocovariance Un calcul simple montre que

$\displaystyle {{\mathbb{E}}\left\{\hat X_k\right\}} =0\ ,\quad\forall k=0,\dots N-1\ ,
$

et que

$\displaystyle {{\mathbb{E}}\left\{\hat X_k\overline{\hat X}_\ell\right\}} = N\,{\mathcal S}_X(k)\,\delta_{k\ell}\ .
$

Les composantes de $ \hat X$ sont donc décorrélées. Utilisant la transformée de Fourier finie inverse, on peut alors écrire

$\displaystyle X_n =\frac1{\sqrt{N}}\,\sum_{k=0}^{N-1} e^{2i\pi kn/N}\,Y_k\ ,$ (2.11)

où les variables aléatoires

$\displaystyle Y_k = \frac1{\sqrt{N}}\,\hat X_k =\frac1{\sqrt{N}}\,\sum_{n=0}^{N-1} X_n e^{-2i\pi kn/N}$ (2.12)

sont décorrélées:

$\displaystyle {{\mathbb{E}}\left\{Y_k\overline{Y}_\ell\right\}} ={\mathcal S}_X(k)\,\delta_{k\ell}\ .$ (2.13)

La représentation ([*]) porte parfois le nom de représentation de Cramèr en dimension finie.


Application à la simulation numérique de signaux aléatoires stationnaires: Lorsque l'on souhaite sinuler numériquement un signal aléatoire, on se place de facto dans une situation de dimension finie. Les ordinateurs proposent généralement des générateurs de nombres pseudo-aléatoires (par exemple, les fonctions de type rand sour UNIX), capables de fournir des séquences de nombres aléatoires aussi proches que possible de vecteurs identiquement distribués et décorrélés. Dans ces conditions, si on souhaite générer une réalisation d'un signal stationnaire en moyenne d'ordre deux, de spectre $ {\mathcal S}_X$ donné, on peut procéder comme suit: on génère tout d'abord une séquence de nombres pseudo-aléatoires $ \{W_0,W_1,\dots W_{N-1}\}$ , qui sont tels que

$\displaystyle {{\mathbb{E}}\left\{X_k\right\}}=0\ ,\qquad{{\mathbb{E}}\left\{W_k\overline{W}_\ell\right\}} =\delta_{k\ell}\ ,
$

puis on exploite la représentation de Cramèr en formant

$\displaystyle X_n =\frac1{N}\sum_{k=0}^{N-1} e^{2i\pi kn/N}\,\sqrt{{\mathcal S}_X(k)}\,W_k\ ;
$

il est alors facile de vérifier que $ {{\mathbb{E}}\left\{X_n\right\}}=0$ pour tout $ n$ , et que

$\displaystyle C_X(n-m)={{\mathbb{E}}\left\{X_n\overline{X}_m\right\}} =\frac1{N}\,\sum_{k=0}^{N-1} {\mathcal S}_X(k)\,
e^{2i\pi k(n-m)/N} \ ,
$

ce qui est bien le résultat recherché.

Représentation spectrale pour les processus stationnaires en moyenne d'ordre deux

Les sections précédentes nous ont donné une représentation spectrale (i.e. de type ``Fourier'') pour la covariance d'un signal numérique aléatoire stationnaire. La covariance est un objet déterministe. Nous allons maintenant obtenir une représentation spectrale pour le processus lui même.

On note $ {\mathcal M}_X\subset L^2({\mathcal A},{\mathbb{P}})$ le sous-espace de $ L^2({\mathcal A},{\mathbb{P}})$ engendré par les variables aléatoires $ X_k$ . Soit $ \psi$ l'application linéaire de $ {\mathcal M}_X$ dans $ L^2([-\pi,\pi],d\nu_X)$ définie par

$\displaystyle \psi(X_k) =\epsilon_k: \omega\to e^{ik\omega}\ .
$

Il est clair que $ \epsilon_k\in L^2([-\pi,\pi],d\nu_X)$ . De plus, on a

$\displaystyle \langle\epsilon_k,\epsilon_\ell\rangle =
\int_{-\pi}^\pi e^{i\omega(k-\ell)}\,d\nu_X(\omega) = 2\pi\,C_X(k-\ell)
=2\pi (X_k\vert X_\ell)\ .
$

Ainsi, $ \psi/\sqrt{2\pi}$ s'étend à une isométrie de $ {\mathcal M}_X$ sur $ L^2([-\pi,\pi],d\nu_X)$ . Une remarque importante est que $ L^2([-\pi,\pi],d\nu_X)$ est quant à lui engendré par les fonctions $ \epsilon_k$ . Ainsi, l'application $ \psi/\sqrt{2\pi}$ établit une isométrie bijective

$\displaystyle {\mathcal M}_X\leftrightarrow L^2([-\pi,\pi],d\nu_X)\ .
$

Soit maintenant $ A\subset [-\pi,\pi]$ un Borélien, et soit $ \chi_A$ l'indicatrice de $ A$ . A $ \chi_A$ correspond une variable aléatoire $ Z_A\in{\mathcal M}_X$ , telle que

$\displaystyle {{\mathbb{E}}\left\{Z_A\overline{Z}_B\right\}} =(Z_A\vert Z_B) =\frac1{2\pi}\,\nu_X(A\cap B)\ .
$

Ceci s'étend par linéarité aux fonctions simples de la forme $ \sum_{k=1}^K \alpha_k^K \chi_{A_k^K}$ où les $ A_k$ sont des Boréliens de $ [-\pi,\pi]$ . On a $ \psi{^{-1}}(\sum_{k=1}^K \alpha_k^K \chi_{A_k^K})
=\sum_{k=1}^K \alpha_k^K Z_{A_k^K}$ . Finalement, on sait que toute toute fonction $ \varphi\in L^2(d\nu_X)$ s'écrit comme limite de telles fonctions simples. Le résultat suivant montre que cette limite a également un sens dans $ {\mathcal M}_X$ .
\begin{theorem}[Cram\\lq er]
Soit $\varphi\in L^2(d\nu_X)$, et consid\'erons une su...
...equation}et la limite est ind\'ependante de la suite approximante.
\end{theorem}
En appliquant ce résultat au cas particulier $ \varphi=\epsilon_k$ , on obtient la représentation spectrale suivante:
\begin{corollary}
On a pour tout $k$
\begin{equation}
X_k =\int_{-\pi}^\pi e^{ik\omega}\,dZ(\omega)\ .
\end{equation}\end{corollary}
Ce résultat est précisément le résultat auquel on pouvait s'attendre sur la base de la représentation de Cramèr en dimension finie: le passage d'un vecteur à une suite infinie oblige à passer d'un espace de fréquences fini à un espace infini continu (l'intervalle $ [-\pi,\pi]$ ).


Remarque: L'objet que l'on a noté $ dZ(\omega)$ peut être étudié de façon rigoureuse. Il est utile de noter l'utilisation ``formelle'' qu'en font les ingénieurs: $ dZ(\omega)$ est traité comme une ``mesure aléatoire'', telle que

$\displaystyle {{\mathbb{E}}\left\{dZ(\omega)\right\}}=0\ ,
$

et

$\displaystyle {{\mathbb{E}}\left\{dZ(\omega)\overline{dZ(\omega')}\right\}} =
\frac1{2\pi}\,\delta(\omega-\omega') d\nu_X(\omega)\ .
$

Cette convention de notation permet notamment de retrouver facilement les propriétés d'isométrie, par exemple, pour toutes $ \varphi,\varphi'\in L^2([-\pi,\pi],d\nu_X)$ , on écrira formellement
$\displaystyle {{\mathbb{E}}\left\{Z(\varphi)\overline{Z(\varphi')}\right\}}$ $\displaystyle =$ $\displaystyle {{\mathbb{E}}\left\{\int_{-\pi}^\pi \varphi(\omega)dZ(\omega)\
\overline{\int_{-\pi}^\pi \varphi'(\omega')dZ(\omega')}\right\}}$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\,\int_{-\pi}^\pi \varphi(\omega)
\overline{\varphi'(\omega)}\,d\nu_X(\omega)$  
  $\displaystyle =$ $\displaystyle \frac1{2\pi}\,\langle\varphi,\varphi'\rangle\ .$  

Filtrage numérique

On a vu plus haut l'exemple des filtres de convolution, définis par une réponse impulsionnelle $ h\in\ell^1(\mathbb{Z})$ . On voit ici le cas plus général de filtres définis par leur fonction de transfert.

Soit $ m$ une fonction $ 2\pi$ -périodique bornée, que l'on appellera fonction de transfert. Pour tout un signal numérique aléatoire du second ordre $ X$ , centré et stationnaire en moyenne d'ordre deux, auquel on a associé la mesure $ dZ$ , on considère l'application $ Z'$ , qui à toute fonction $ \varphi\in L^2([-\pi,\pi],d\nu_X)$ associe

$\displaystyle Z'(\varphi) = \int_{-\pi}^\pi \varphi(\omega) dZ'(\omega)
=\int_{-\pi}^\pi m(\omega)\varphi(\omega) dZ(\omega)\ .
$

$ Z'$ définit un nouveau signal aléatoire $ Y$ , par

$\displaystyle Y_n = \int_{-\pi}^\pi e^{in\omega}m(\omega)\,dZ(\omega)\ .
$

On vérifie facilement que $ Y$ est lui aussi un signal numérique aléatoire du second ordre, centré, stationnaire en moyenne d'ordre deux, et de mesure spectrale

$\displaystyle d\nu_Y(\omega) = \vert m(\omega)\vert^2\,d\nu_X(\omega)\ .
$

L'opérateur linéaire $ T: X\to Y$ ainsi défini est un filtre numérique.

Retour sur les signaux AR

L'existence de la représentation spectrale permet de montrer, sous certaines conditions, l'existence de solutions aux équations de récursion comme

$\displaystyle \sum_{k=0}^N a_k Y_{n-k} = X_n\ ,$ (2.14)

$ X$ est un bruit blanc, et les $ a_k$ sont des nombres complexes, sujets à certaines conditions.
\begin{proposition}
% latex2html id marker 4136Soit $A$\ la transform\'ee en $...
...ne{X}_\ell\right\}} =0\ ,\quad\forall \ell >k\ .
\end{equation}\end{proposition}
Preuve: Sous les hypothèses ci-dessus, on note $ dZ_X$ la mesure spectrale de $ X$ . Pour cela, on considère donc $ A$ , la transformée en $ z$ de la suite $ \{a_k\}$ . $ A$ est donc un polynôme de degré $ N$ en $ z^{-1}$ . Si on suppose que les racines de $ A$ se trouvent à l'intérieur du disque unité ouvert, la transformée de Fourier discrète $ \hat a$ de $ a$ ne s'annulle jamais, de sorte que la fonction

$\displaystyle \hat b: \omega\to \hat b(\omega) = \frac1{\hat a(\omega)}
$

est bornée et donc de carré intégrable; elle admet une série de Fourier

$\displaystyle \frac1{\hat a(\omega)} = \sum_{-\infty}^\infty b_n e^{in\omega}\ ,
$

où la suite $ b=\{b_n,n\in\mathbb{Z}\}\in\ell^2(\mathbb{Z})$ . Le fait que les racines de $ A$ se trouvent toutes à l'intérieur du disque unité implique que la suite $ b$ est causale:

$\displaystyle b_k =0\quad \forall k<0\ .
$

On considère maintenant le signal aléatoire $ Y$ défini par

$\displaystyle Y_n =\frac{e^{in\omega}}{\hat a(\omega)}\,dZ_X(\omega)\ .
$

On peut alors écrire

$\displaystyle Y_n = \sum_{k=1}^\infty b_k X_{n-k}\ ,
$

de sorte que l'on a bien la propriété requise

$\displaystyle {{\mathbb{E}}\left\{Y_n \overline{X_{m}}\right\}} = b_{n-m} = 0\quad\forall m>n\ .
$

Quelques exemples d'application

On s'intéresse ici à quelques problèmes classiques de traitement du signal, faisant intervenir des modèles de signaux aléatoires.

Filtrage optimal et détection

Le problème posé est le suivant: soit $ s\in\ell^2(\mathbb{Z})$ un signal déterministe, supposé connu, et soit $ X$ un signal aléatoire du second ordre, centré et stationnaire en m.o.d., admettant une densité spectrale $ {\mathcal S}_X$ supposée connue elle aussi. On dispose d'observations de la forme

$\displaystyle Y_n = s_n + X_n\ ,
$

et on cherche à construire un filtre numérique $ T$ , de fonction de transfert $ m$ , tel que pour un certain $ n=n_0$ fixé, le rapport

$\displaystyle \rho =\frac{(Ts)_{n_0}}{\sqrt{{{\mathbb{E}}\left\{\vert(TX)_n\vert^2\right\}}}}
$

soit maximal. Cette dernière quantité est appelée rapport signal à bruit, et mesure effectivement l'importance relative du signal et du bruit en sortie du filtre. Le résultat est donné par
\begin{proposition}
Sous les hypoth\\lq eses ci-dessus, supposant que
$\hat s/\sqrt...
...o\\lq u $C\in\mathbb{C}$\ est une constante non nulle arbitraire.
\end{proposition}
Preuve: partant de

$\displaystyle (Ts)_{n_0} = \frac1{2\pi}\int_{-\pi}^\pi e^{in_0\omega}\,m(\omega)
\hat s(\omega)\,d\omega
$

et

$\displaystyle {{\mathbb{E}}\left\{\vert(TX)_n\vert^2\right\}} = \frac1{2\pi}\in...
...a)\,d\omega =
\frac1{2\pi}\,\left\Vert m\sqrt{{\mathcal S}_X}\right\Vert^2\ ,
$

on écrit, en utilisant l'inégalité de Cauchy-Schwarz
$\displaystyle \vert(Ts)_{n_0}\vert$ $\displaystyle =$ $\displaystyle \frac1{2\pi} \left\vert\int_{-\pi}^\pi
e^{in_0\omega} \frac{\over...
...cal S}_X(\omega)}}
\,\sqrt{{\mathcal S}_X(\omega)}m(\omega)\,d\omega\right\vert$  
  $\displaystyle \le$ $\displaystyle \frac1{2\pi}\,\left\Vert\frac{\hat s}{\sqrt{{\mathcal S}_X}}\right\Vert\,
\left\Vert m\sqrt{{\mathcal S}_X}\right\Vert\ ,$  

d'où on déduit la valeur optimale pour le rapport signal à bruit

$\displaystyle \rho\le \frac1{\sqrt{2\pi}}\,\left\Vert\frac{\hat s}{\sqrt{{\mathcal S}_X}}\right\Vert\ .
$

Finalement, l'inégalité de Cauchy-Schwarz est une égalité si et seulement si il existe une constante $ C$ telle que

$\displaystyle m(\omega)\sqrt{{\mathcal S}_X(\omega)} = C\,
e^{-in_0\omega}\,\frac{\overline{\hat s}(\omega)}{\sqrt{{\mathcal S}_X(\omega)}}\ ,
$

qui donne ([*]). $ \spadesuit$

On doit en particulier remarquer que

$\displaystyle \vert(Ts)_n\vert =\frac1{2\pi}\,\left\vert\int_{-\pi}^\pi e^{i(n-...
...s(\omega)\vert^2}{{\mathcal S}_X(\omega)}\,d\omega\right\vert \le (Ts)_{n_0}\ .$ (2.15)

Application: Le problème de détection se présente généralement de la façon suivante. On dispose d'observations de la forme

$\displaystyle Y_n = u_{n-\tau} +X_n\ ,$ (2.16)

$ u\in\ell^2(\mathbb{Z})$ est un signal déterministe connu, $ X$ est un signal aléatoire du second ordre, centré et stationnaire en m.o.d., admettant une densité spectrale $ {\mathcal S}_X$ connue elle aussi, et $ \tau$ est un décalage temporel inconnu, que l'on cherche à déterminer. En appliquant le résultat précédent, dans le cas $ s_n$ = $ u_{n-\tau}$ , et $ n_0=\tau$ , on obtient un filtre $ T$ de fonction de transfert

$\displaystyle m(\omega) = C\,\frac{\overline{\hat s}(\omega)}{{\mathcal S}_X(\omega)}\ ,$ (2.17)

(donc indépendante du paramètre inconnu $ \tau$ ), tel que pour tout $ n$

$\displaystyle \vert(Ts)_n\vert\le (Ts)_\tau\ ,$ (2.18)

et que la valeur maximale $ (Ts)_\tau$ soit la plus grande possible. L'algorithme de détection consistera à appliquer le filtre $ T$ sur le signal observé $ Y$ , et à rechercher la valeur $ n$ telle que $ \vert(TY)_n\vert$ soit la plus grande posible. Ce $ n$ sera alors un candidat pour le paramètre recherché $ \tau$ .

Débruitage d'un signal aléatoire: filtre de Wiener

Pour ce problème, on suppose que l'on dispose d'observations de la forme

$\displaystyle Y_n = X_n + B_n\ ,$ (2.19)

$ X$ et $ B$ sont deux signaux aléatoires du second ordre, centrés, stationnaires en m.o.d, possédant des densités spectrales $ {\mathcal S}_X$ et $ {\mathcal S}_B$ connues: $ X$ est le signal auquel on s'intéresse, et $ B$ est une perturbation (un bruit) dont on cherche à se débarrasser. On suppose en outre que $ X$ et $ B$ sont décorrélés:

$\displaystyle {{\mathbb{E}}\left\{X_n\overline{B}_m\right\}}=0\ ,\quad\forall n,m\in\mathbb{Z}\ .
$

On en déduit facilement que $ Y$ est centré, stationnaire en moyenne d'ordre deux.

On formule le problème de débruitage de la façon suivante: trouver un filtre $ T=K_h$ , de réponse impulsionnelle $ h\in\ell^2(\mathbb{Z})$ , tel que $ K_hY$ soit aussi proche que possible de $ X$ dans le sens suivant: on souhaite minimiser l'erreur

$\displaystyle e_n={{\mathbb{E}}\left\{\left\vert(K_hY)_n-X_n\right\vert^2\right\}}\ ,$ (2.20)

pour tout $ n\in\mathbb{Z}$ . Il résults de la stationnarité de $ X,B$ et $ Y$ que

$\displaystyle e_n=e_0\quad\hbox{ pour tout } n\in\mathbb{Z}\ .
$

Le problème peut se formuler dans un cadre Hilbertien. En considérant l'espace $ {\mathcal M}_Y\subset L^2({\mathcal A},{\mathbb{P}})$ engendré par les variables aléatoires $ Y_n$ , le problème d'optimisation revient à rechercher l'élement de $ {\mathcal M}_Y$ le plus proche de $ X_n$ , au sens de la norme de $ L^2({\mathcal A},{\mathbb{P}})$ . C'est un problème de projection orthogonale, dont la solution est caractérisée par les équations

$\displaystyle ((K_hY)_n-X_n\vert Y_m)=0\ ,\quad\hbox{pour tous }n,m\in\mathbb{Z}\ ,
$

ou encore

$\displaystyle \sum_k h_k C_Y(n-m-k) = {{\mathbb{E}}\left\{X_n\overline{Y}_m\right\}}\ .
$

En utilisant la décorrélation de $ X$ et $ B$ et la stationnarité, on aboutit au système d'équations suivant:

$\displaystyle \sum_k h_k \left(C_X(n-k)+C_B(n-k)\right) = C_X(n)\ .
$

Finalement, en utilisant l'expression des fonctions d'autocovariance à partir des densités spectrales, on aboutit au système d'équations

$\displaystyle \int_{-\pi}^\pi \left[\hat h(\omega) \left({\mathcal S}_X(\omega)...
...ht)
-{\mathcal S}_X(\omega)\right]e^{ik\omega}\,d\omega =0\ ,\quad\forall k\ .
$

On obtient ainsi
\begin{proposition}
Sous les hypoth\\lq eses ci-dessus, et en supposant que la fonc...
...de d\'ebruitage
est d\'efini par la fonction de transfert $m$.
\end{proposition}

Bruno Torresani 2007-06-26