Un processo è stazionario se la traslazione di una sua realizzazione, per un qualsiasi intervallo di tempo, produce un'altra sua possibile realizzazione, e se tutte queste realizzazioni hanno la stessa probabilità:
se
x
(
t
)
∈
P
⇒
{
x
(
t
−
t
0
)
∈
P
P
(
x
(
t
)
)
=
P
(
x
(
t
−
t
0
)
)
∀
t
0
{\displaystyle {\text{se }}x\left(t\right)\in {\mathcal {P}}\Rightarrow {\begin{cases}x\left(t-t_{0}\right)\in {\mathcal {P}}\\P\left(x\left(t\right)\right)=P\left(x\left(t-t_{0}\right)\right)\end{cases}}\quad \forall t_{0}}
Esempi
processi stazionari: sinusoide con fase variabile casuale, rumore termico
processi non stazionari: segnale numerico, segnale sample & hold, sinusoide con ampiezza variabile casuale, segnale determinato
Siccome per la densità di probabilità congiunta
f
X
{\displaystyle f_{\mathbf {X} }}
vale:
f
X
(
x
1
,
…
,
x
n
;
t
1
,
…
,
t
n
)
=
f
X
(
x
1
,
…
,
x
n
;
t
1
+
t
0
,
…
,
t
n
+
t
0
)
∀
t
0
{\displaystyle f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}\right)=f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};t_{1}+t_{0},\ldots ,t_{n}+t_{0}\right)\quad \forall t_{0}}
si può far coincidere il primo istante di tempo con l'origine (
t
0
=
−
t
1
{\displaystyle t_{0}=-t_{1}}
) eliminando una variabile temporale → le statistiche di ordine
n
{\displaystyle n}
dipendono da
n
−
1
{\displaystyle n-1}
variabili, che rappresentano la differenza di tempo rispetto al primo campione, che si può sempre assumere nell'origine. Ad esempio, per un processo stazionario in senso stretto di ordine
n
{\displaystyle n}
vale:
f
X
1
(
x
1
;
t
1
)
=
f
X
1
(
x
1
;
t
1
−
t
1
)
=
f
X
1
(
x
1
;
0
)
f
X
(
x
1
,
x
2
;
t
1
,
t
2
)
=
f
X
(
x
1
,
x
2
;
0
,
t
2
−
t
1
)
=
f
X
(
x
1
,
x
2
;
0
,
τ
)
⋮
f
X
(
x
1
,
…
,
x
n
;
t
1
,
…
,
t
n
)
=
f
X
(
x
1
,
…
,
x
n
;
τ
1
,
…
,
τ
n
−
1
)
{\displaystyle {\begin{array}{l}f_{X_{1}}\left(x_{1};t_{1}\right)=f_{X_{1}}\left(x_{1};t_{1}-t_{1}\right)=f_{X_{1}}\left(x_{1};0\right)\\f_{\mathbf {X} }\left(x_{1},x_{2};t_{1},t_{2}\right)=f_{\mathbf {X} }\left(x_{1},x_{2};0,t_{2}-t_{1}\right)=f_{\mathbf {X} }\left(x_{1},x_{2};0,\tau \right)\\\vdots \\f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}\right)=f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};\tau _{1},\ldots ,\tau _{n-1}\right)\\\end{array}}}
Stazionarietà in senso lato (WSS )
modifica
Se il processo è stazionario in senso stretto di ordine 1, la media
m
X
(
t
)
{\displaystyle m_{X}\left(t\right)}
è una costante e non dipende dal tempo:
m
X
(
t
)
=
m
X
{\displaystyle m_{X}\left(t\right)=m_{X}}
Dimostrazione
m
X
(
t
)
=
∫
x
f
X
(
x
;
t
)
d
x
=
∫
x
f
X
(
x
;
0
)
d
x
=
m
X
{\displaystyle m_{X}\left(t\right)=\int xf_{X}\left(x;t\right)dx=\int xf_{X}\left(x;0\right)dx=m_{X}}
Se il processo è stazionario in senso stretto di ordine 2, la funzione di autocorrelazione
R
X
(
t
1
,
t
2
)
{\displaystyle R_{X}\left(t_{1},t_{2}\right)}
dipende solo dalla differenza
τ
=
t
2
−
t
1
{\displaystyle \tau =t_{2}-t_{1}}
:
R
X
(
t
1
,
t
2
)
=
R
X
(
τ
)
=
E
[
X
(
t
)
X
∗
(
t
+
τ
)
]
{\displaystyle R_{X}\left(t_{1},t_{2}\right)=R_{X}\left(\tau \right)=E\left[X\left(t\right)X^{*}\left(t+\tau \right)\right]}
Dimostrazione
R
X
(
t
1
,
t
2
)
=
∫
x
2
x
2
∗
f
X
(
x
1
,
x
2
;
t
1
,
t
2
)
d
x
1
d
x
2
=
∫
x
1
x
2
∗
f
X
(
x
1
,
x
2
;
0
,
τ
)
d
x
1
d
x
2
=
R
X
(
τ
)
{\displaystyle R_{X}\left(t_{1},t_{2}\right)=\int x_{2}x_{2}^{*}f_{X}\left(x_{1},x_{2};t_{1},t_{2}\right)dx_{1}dx_{2}=\int x_{1}x_{2}^{*}f_{X}\left(x_{1},x_{2};0,\tau \right)dx_{1}dx_{2}=R_{X}\left(\tau \right)}
Un processo è stazionario in senso lato se la media
m
X
(
t
)
{\displaystyle m_{X}\left(t\right)}
è una costante, e la funzione di autocorrelazione
R
X
(
t
1
,
t
2
)
{\displaystyle R_{X}\left(t_{1},t_{2}\right)}
dipende solo da
τ
{\displaystyle \tau }
:
{
m
X
(
t
)
=
m
X
R
X
(
t
1
,
t
2
)
=
R
X
(
τ
)
{\displaystyle {\begin{cases}m_{X}\left(t\right)=m_{X}\\R_{X}\left(t_{1},t_{2}\right)=R_{X}\left(\tau \right)\end{cases}}}
La stazionarietà in senso lato non implica la stazionarietà in senso stretto.
Un processo è ciclostazionario se la traslazione di una sua realizzazione, per multipli di una costante finita
T
{\displaystyle T}
detta periodo di stazionarietà , produce un'altra sua possibile realizzazione, e se tutte queste realizzazioni hanno la stessa probabilità:
∃
T
:
se
x
(
t
)
∈
P
⇒
{
x
(
t
−
i
T
)
∈
P
P
(
x
(
t
)
)
=
P
(
x
(
t
−
i
T
)
)
∀
i
∈
Z
{\displaystyle \exists T:{\text{se }}x\left(t\right)\in {\mathcal {P}}\Rightarrow {\begin{cases}x\left(t-iT\right)\in {\mathcal {P}}\\P\left(x\left(t\right)\right)=P\left(x\left(t-iT\right)\right)\end{cases}}\quad \forall i\in \mathbb {Z} }
Esempi
processi ciclostazionari: segnale numerico, segnale sample & hold, sinusoide con ampiezza variabile casuale, segnale determinato periodico, processi stazionari
processi non ciclostazionari: segnale determinato non periodico
Ciclostazionarietà in senso stretto
modifica
Un processo è ciclostazionario in senso stretto se la densità di probabilità congiunta
f
X
{\displaystyle f_{\mathbf {X} }}
è periodica di periodo
T
{\displaystyle T}
:
f
X
(
x
1
,
…
,
x
n
;
t
1
,
…
,
t
n
)
=
f
X
(
x
1
,
…
,
x
n
;
t
1
−
i
T
,
…
,
t
n
−
i
T
)
∀
i
∈
Z
{\displaystyle f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};t_{1},\ldots ,t_{n}\right)=f_{\mathbf {X} }\left(x_{1},\ldots ,x_{n};t_{1}-iT,\ldots ,t_{n}-iT\right)\quad \forall i\in \mathbb {Z} }
Ciclostazionarietà in senso lato
modifica
Un processo è ciclostazionario in senso lato se la media
m
X
(
t
)
{\displaystyle m_{X}\left(t\right)}
è periodica, e la funzione di autocorrelazione
R
X
(
t
1
,
t
2
)
{\displaystyle R_{X}\left(t_{1},t_{2}\right)}
è periodica rispetto a
t
1
{\displaystyle t_{1}}
e
t
2
{\displaystyle t_{2}}
:
{
m
X
(
t
)
=
m
X
(
t
−
i
T
)
R
X
(
t
1
,
t
2
)
=
R
X
(
t
1
−
T
,
t
2
−
i
T
)
∀
i
∈
Z
{\displaystyle {\begin{cases}m_{X}\left(t\right)=m_{X}\left(t-iT\right)\\R_{X}\left(t_{1},t_{2}\right)=R_{X}\left(t_{1}-T,t_{2}-iT\right)\end{cases}}\quad \forall i\in \mathbb {Z} }
La stazionarietà implica la ciclostazionarietà, ma non viceversa → l'operazione di stazionarizzazione serve per trasformare un processo ciclostazionario in un processo stazionario: si aggiungono tutte le replice mancanti all'interno del periodo di ciclostazionarietà
T
{\displaystyle T}
, tramite la nuova variabile casuale
θ
{\displaystyle \theta }
che corrisponde al ritardo casuale uniforme. Questa operazione modifica il processo stesso e può essere fatta solo se ha senso nel sistema considerato: tipicamente si può fare se il sistema che lo processa è stazionario (tempo invariante).