Teoria dei segnali: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Riga 5:
*[[Teoria dei segnali/Segnali in frequenza|Segnali in frequenza]]
 
==*[[Teoria dei segnali/Analisi dei segnali|Analisi dei segnali==]]
 
 
===Matematica aggiuntiva}
 
====La delta di Dirac}
la funzione generalizzata \emph{delta di Dirac}
\begin{equation}
\delta(a) \conv f(x) = \delta(-a) \conv f(x) = f(a)
\end{equation}
gode delle seguenti proprietà:
\begin{itemize}
\item
la sua convoluzione con una funzione trasla questa funzione nel suo punto di applicazione $a$, \\
$f(x) \conv \delta(x - b) = f(x - b)$
\item
è una funzione pari, \\
$\delta(a) = \delta(-a)$
\item
l'integrale di una funzione moltiplicata per una delta è pari al valore della funzione nel punto di applicazione della delta, \\
$\intI f(x) \delta(x-a) dx = f(a)$
\item
sottende area unitaria, \\
$\intI \delta(x) dx = 1$
\item
ha durata infinitesima, \\
$\lim_{\epsilon \rightarrow 0^{+}} \intI \rect{x}{\epsilon} \delta(x) dx = 1$
\item
ha la \emph{proprietà campionatrice}, \\
$f(x) \delta(x - a) = f(a) \delta(x - a)$
\item
corrisponde alla derivata della funzione gradino unitario, \\
$\int _{-\infty} ^{t} \delta(t) dt = \gra{t} \phantom{15}
\delta(t) = \frac{d \gra{t}}{dt}$
\end{itemize}
 
====Funzioni goniometriche}
\begin{equation}
\sin(x) = \frac{\e{jx} - \e{-jx}}{2j}
= \frac{1}{2} j \e{-jx} - \frac{1}{2} j \e{jx}
\end{equation}
\begin{equation}
\cos(x) = \frac{\e{jx} + \e{-jx}}{2}
\end{equation}
 
====La funzione seno cardinale}
la funzione \emph{seno cardinale}
\begin{equation}
\sinc(x) = \frac{ \sin \pi x}{\pi x}
\end{equation}
 
\begin{itemize}
\item
ha valore massimo unitario nell origine \\
$\sinc(0) = 1$
\item
ha zeri in corrispondenza di multipli interi di $x$ \\
$\sinc(x) = 0$ per $x \in \Int \not= 0$
\item
la pendenza della funzione negli zeri è inversamente proporzionale ad $x$ \\
$\left. \frac{d \sinc(x)}{dx} \right|_{x \in \Int \not= 0} = \frac{1}{x}$
\end{itemize}
 
====Convoluzione e Correlazione}
L'operazione di \emph{convoluzione} tra due funzioni
\begin{equation}
f(x) \conv g(x) = \intI f(\tau) g(x - \tau) d\tau
\end{equation}
gode della proprietà associativa, distributiva rispetto alla somma e commutativa,
inoltre
se $z(x) = f(x) \conv g(x)$ allora
$z(x-x_{0}) = f(x-x_{0}) \conv g(x)$
e se due segnali hanno durata limitata
la loro convoluzione ha al più durata pari alla somma delle due durate
 
L'operazione di \emph{convoluzione circolare} tra due vettori numerici
di uguale dimensione $N$
è simile alla convoluzione tra due funzioni ed è definita come
\begin{equation}
a[n] \cconv{N} b[n] = \frac{1}{N} \sum_{k = 0}^{N-1} a[k] b[n - k] dk
\end{equation}
dove si considerano i vettori \emph{ciclici},
ovvero $a[n] = a[n+N]$ e $b[-n]=b[N-n]$
 
L'operazione di \emph{correlazione} tra due funzioni
\begin{equation}
f(x) \conv g(-x) = \intI f(\tau) g(x + \tau) d\tau
\end{equation}
non gode della proprietà commutativa
 
 
 
 
===Segnali sinusoidali}
un ritardo di fase di una sinusoide corrisponde ad un ritardo di tempo dipendente dalla frequenza
\begin{equation}
\cos(2 \pi f t + \theta) =
\cos \left( 2 \pi f \left(t + \frac{\theta}{2\pi f} \right) \right)
\end{equation}
 
 
===Banda di segnali}
La \emph{banda} $\B$ di un segnale indica l'intervallo di frequenze positive
(\emph{intervallo di banda} $\iB$) in cui lo spettro di ampiezza non è nullo;
 
Un segnale è \emph{passa basso} se il suo spettro di ampiezza è concentrato attorno alle basse frequenze,
è \emph{passa banda} se il suo spettro di ampiezza è concentrato attorno ad una frequenza $f_{b}$ diversa da 0,
è \emph{passa alto} se il suo spettro di ampiezza è piccolo nelle basse frequenze ed elevato per valori di frequenza infinitamente grandi
(i segnali passa banda non esistono in natura)
per i segnali naturali si definisce la \emph{banda a -3 dB}
rispetto alla frequenza principale $f_{b}$ del segnale
(ovvero la frequenza nulla per i segnali passa basso, oppure la frequenza per cui si ha il massimo dello spettro di ampiezza)
come l'intervallo $\iB$ di frequenze positive per cui
\begin{equation}
10 \log \frac{\mid X(f \in \iB) \mid ^{2}}{\mid X(f_{p}) \mid ^{2}} < -3
\end{equation}
ovvero tutte le frequenze per cui lo spettro di ampiezza è minore di un fattore
$\sqrt{2}/2$ rispetto allo spettro nella frequenza principale
 
 
===Densità spettrale di energia e di potenza===
 
====Teorema di Parseval}
Per un segnale $x(t)$ ad energia finita il \emph{teorema di Parseval} afferma che
\begin{equation}
\intI x^{2}(t) dt = \intI \mid X(f) \mid ^{2} df
\end{equation}
questo teorema è molto usato quando lo spettro di ampiezza del segnale è molto più regolare del segnale stesso e quindi la valutazione dell'integrale presenta meno problemi
 
====Densità spettrale di energia}
la grandezza $\dsE = \mid X(f) \mid ^{2}$ è detta
\emph{densità spettrale di energia}
ed ha le seguenti proprietà
\begin{itemize}
\item
è una funzione reale a valori sempre positivi: \\
$\dsE_{x(t)}(f) \in \Re \rightarrow \Re \geq 0$
\item
la densità spettrale di potenza di un segnale reale è una funzione pari: \\
$\dsE_{x(t)}(f)=\dsE_{x(t)}(-f) \phantom{5} \mbox{se $x(t) \in \Re \rightarrow \Re$}$
\item
l'energia di un segnale è l'area sottesa alla densità spettrale di potenza: \\
$E_{x(t)} = \intI \dsE_{x(t)}(f) df$
\item
due segnali che hanno lo stesso spettro di ampiezza e diverso spettro di fase
hanno uguale densità spettrale di energia e quindi stessa energia; \\
$\dsE_{x(t)} = f\left( \mid X(f) \mid \right)$
\end{itemize}
 
====Densità spettrale di potenza}
la \emph{densità spettrale di potenza} $\dsP(f)$
è definita come limite della densità spettrale di energia del segnale troncato su un intervallo diviso per la durata dell'intervallo che tende all'infinito
ed ha le seguenti proprietà
\begin{itemize}
\item
è una funzione reale a valori sempre positivi: \\
$\dsP_{x(t)}(f) \in \Re \rightarrow \Re \geq 0$
\item
la densità spettrale di potenza di un segnale reale è una funzione pari: \\
$\dsP_{x(t)}(f)=\dsP_{x(t)}(-f) \phantom{5} \mbox{se $x(t) \in \Re \rightarrow \Re$}$
\item
la potenza di un segnale è l'area sottesa alla densità spettrale di potenza: \\
$P_{x(t)} = \intI \dsP_{x(t)}(f) df$
\end{itemize}
 
 
===Energia mutua}
L'energia della somma di due segnali non è in generale pari alla somma delle energia dei segnali,
\begin{displaymath}
E_{x_{1}(t)+x_{2}(t)} = \intI x_{1}^{2}(t) dt + \intI x_{2}^{2}(t) dt
+ 2 \intI x_{1}(t)x_{2}(t) dt
\end{displaymath}
dove l'ultimo integrale è detto \emph{energia mutua} e per i due segnali è
\begin{equation}
E_{x_{1}x_{2}} = \intI x_{1}(t)x_{2}(t) dt = x_{1}(t) \conv x_{2}(-t) \mid _{0}
\end{equation}
l'energia mutua di due segnali corrisponde al valore della loro correlazione in 0
 
Se due segnali hanno energia mutua nulla,
allora sono detti \emph{segnali ortogonali};
 
====Teorema di Parseval generalizzato}
Il \emph{teorema di Parseval generalizzato} afferma che
\begin{equation}
\intI x_{1}(t) x_{2}(t) dt = \intI X(f) Y^{*}(t) df
\end{equation}
quindi due segnali sono ortogonali
se sono disgiunti nel tempo oppure in frequenza
(ma non solo in questo caso)
 
 
===Riassunto delle trasformate di Fourier}
\begin{itemize}
\item
Trasformata continua
\begin{displaymath}
\TCF{x(t)} = X(f) = \int_{-\infty}^{+\infty} x(t) e^{-j(2 \pi f)t} dt
\end{displaymath}
 
\begin{displaymath}
\TCFI{X(f)} = x(t) = \int_{-\infty}^{+\infty} X(f) e^{j(2 \pi f)t} dt
\end{displaymath}
 
\item
Trasformata serie
\begin{displaymath}
X(k f_{p}) = \TSF{x(t+pT_{p})} = \frac{1}{T_{p}} \int_{-T/2}^{+T/2} x(t) \e{-j(2 \pi f_{p}k) t} dt
\end{displaymath}
 
\begin{displaymath}
x(t + pT_{p}) = \TSFI{X(k f_{p})} = \sum_{k=-\infty}^{+\infty} X(kf_{p}) \e{j(2 \pi f_{p}k) t}
\end{displaymath}
 
\item
Trasformata discreta
\begin{displaymath}
X(f + pf_{s}) = \TDF{x(n T_{s})}
= \sum_{n=-\infty}^{+\infty} x(n T_{s}) \e{-j(2 \pi f) n T_{s}}
\end{displaymath}
\begin{displaymath}
x(n T_{s}) = \TDFI{X(f+if_{s})}
= T_{s} \int_{[f_{s}]} X(f) \e{j(2 \pi f) n T_{s}} df
\end{displaymath}
 
Trasformata discreta di una sequenza finita
\item
\begin{displaymath}
X[k + pN] = \TFF{x[n + pN]}
= \sum _{n=0} ^{N-1} x[n] \e{-\frac{j 2 \pi n}{N} k}
\end{displaymath}
\begin{displaymath}
x[n + pN] = \TFFI{X[k + pN]}
= \frac{1}{N} \sum _{k=0} ^{N-1} X[k] \e{\frac{j 2 \pi k}{N} n}
\end{displaymath}
\end{itemize}
 
 
===Relazioni tra le trasformate}
la trasformata continua di un segnale periodicizzata per la frequenza di campionamento è uguale alla trasformata discreta del segnale campionato
\begin{equation}
\TDF{x(nT_{s})} = \sum _{k=-\infty} ^{+\infty} \left. \TCF{x(t)} \right|
_{f + kf_{s}}
\end{equation}
 
la trasformata finita di $N$ campioni di un segnale è uguale alla trasformata discreta valutata in $N$ multipli della frequenza di campionamento corrispondenti
\begin{equation}
\TFF{\left. x(nT_{c})} \right|_{n = 0 \cdots N-1} =
\left. \TDF{x(nT_{c})} \right|_{f = \frac{k}{NT_{c}}}
\end{equation}
con $k=0 \cdots N-1$
 
la trasformata serie di un segnale periodicizzato è uguale alla trasformata continua del segnale base valutata per multipli della frequenza fondamentale
\begin{equation}
\TSF{ \sum_{i=-\infty}^{+\infty} x(t - iT_{p}) } =
\frac{1}{T_{p}} \left. \TCF{x(t)} \right|_{f = kf_{p}}
\end{equation}
 
la trasformata discreta di un segnale campionato è uguale alla periodicizzazione della trasformata continua del segnale
\begin{equation}
\TDF{\left. x(t) \right|_{t=nT_{c}}} =
f_{c} \sumI{k} X(f-kf_{c})
\end{equation}
\`E possibile valutare la trasformata discreta di un segnale $x(nT_{c})$ periodicizzando la trasformata continua di un altro segnale $y(t)$
tale che i campioni dei due segnali coincidano, $y(nT_{c}) = x(nT_{c})$
 
La trasformata continua di un segnale periodico è uguale alla sua trasformata serie con al posto dei coefficenti della serie
delle delte di Dirac centrate nelle frequenze armoniche con energia pari ad essi
\begin{equation}
\TCF{x(t+iT_{p})} = \TSF{x(t+iT_{p})} \sumI{k} \delta(f - kf_{p})
\end{equation}
 
====Formule di somma di Poisson}
la relazione
\begin{equation}
\sum_{i=-\infty}^{+\infty} x(t - iT_{p}) =
\sum_{k=-\infty}^{+\infty} \frac{1}{T_{p}}
X\left(\frac{k}{T_{p}}\right) \e{j \frac{2\pi k}{T_{p}} t}
\end{equation}
è la \emph{prima formula di Poisson};
mentre l'espressione duale
\begin{equation}
\sum_{i=-\infty}^{+\infty} x(nT_{c})\e{j2\pi i f T_{c}} =
\frac{1}{T_{p}} \sum_{k=-\infty}^{+\infty}
X\left(f - \frac{k}{T_{c}}\right)
\end{equation}
è la \emph{seconda formula di Poisson}
ovvero
 
===Segnali sinusoidali}
\begin{displaymath}
\cos \big( 2 \pi f_{p} t + \theta \big)
\end{displaymath}
ritardare il segnale di un tempo $t_{r}$
introduce uno sfasamento aggiuntivo $\Delta\theta = -2 \pi f t_{r}$
 
 
===Segnali lineari a tratti}
\`E possibile valutare la trasformata di un segnale lineare a tratti
calcolando la derivata del segnale,
quindi la trasformata della derivata
ed utilizzare il teorema dell'integrazione
 
Per trovare la derivata si percorre il segnale da sinistra a destra,
in corrispondenza di una discontinuità si trova una delta di dirac di area pari all'ampiezza della discontinuità,
positiva se la funzione è crescente e negativa se è decrescente;
in corrispondenza di un tratto lineare si trova una $\rect{t}{\cdot}$ di altezza pari alla pendenza del tratto
 
 
 
 
 
 
 
 
==Sistemi a tempo continuo}
 
===Descrizione generale}
\`E possibile descrivere un sistema monodimensionale
con un funzionale $S\{\cdot\}$ che ad un segnale in ingresso $x(t)$
fa corrispondere un segnale in uscita $y(t)$:
in generale $y(t)=S\{x(t),t\}$.
 
un sistema è
\begin{itemize}
\item
\emph{stazionario} o \emph{tempo-invariante} se $y(t-t_{0}) = S\{x(t-t_{0})\}$
\item
\emph{causale} se $y(t) = S\{x(t)u(-t), t\}$
\item
\emph{senza memoria} se $y(t_{0}) = S\{x(t_{0})\}$
\item
lineare se $y(t) = S\{x_{1}(t),t\} + S\{x_{2}(t),t\}$ per
$x(t) = x_{1}(t) + x_{2}(t)$
\end{itemize}
 
Un sistema che è anche stazionario può essere descritto da una funzione detta
\emph{caratteristica ingresso-uscita} tale che $y(t) = g(x(t))$.
 
 
 
===Sistemi stazionari lineari}
Si dicono \emph{sistemi lineari stazionari} (SLS) (......)
 
La \emph{risposta in frequenza} di un SLS è definita come
\begin{equation}
H(f) = \frac{Y(f)}{X(f)}
\end{equation}
 
è può essere ricavata anche:
\begin{itemize}
\item
come variazione del modulo e della fase di un oscillazione sinusoidale in ingresso
\begin{equation}
H(f) = \left. \frac{y(t)}{x(t)} \right|_{x(t) = \e{j 2 \pi f t}}
\end{equation}
poiché la \emph{risposta ad una cosinusoide} $x(t) = A\cos(2 \pi f_{p} t + \phi)$ è
\begin{equation}
y(t) = \big( A \cdot \mid H(f) \mid \big)
\cos\big(2 \pi f_{p} t + \phi + \angle H(f) \big)
\end{equation}
questa definizione si presta ad una valutazione sperimentale della risposta in frequenza di un SLS,
è sufficente mandare in ingresso al sistema oscillazioni sinusoidali a frequenze differenti e misurare modulo e fase dell'uscita rispetto all'ingresso, ricavando $H(f)$ per ogni frequenza desiderata
 
\item
come trasformata di Fourier della risposta impulsiva
\begin{equation}
H(f) = \TCF{h(t)}
\end{equation}
 
\item
come trasformata della derivata della \emph{risposta al gradino} $h_{g}(t)$
\begin{equation}
h_{g}(t) = \left. \frac{y(t)}{x(t)} \right|_{x(t) =
\left\{ \begin{array}{cl}
0 & \mbox{per $t < 0$} \\
1 & \mbox{per $t \geq 0$} \\
\end{array} \right. }
\end{equation}
\begin{equation}
H(f) = \TCF{\frac{d h_{g}(t)}{dt} }
\end{equation}
\end{itemize}
 
 
====Proprietà}
Un sistema lineare stazionario è:
\begin{itemize}
\item
\emph{Causale}
se la sua risposta impulsiva è nulla per valori del tempo negativi:
\begin{displaymath}
h(t) = 0 \phantom{20} \mbox{per $t<0$}
\end{displaymath}
\item
\emph{Stabile BIBO}
se la sua risposta impulsiva è assolutamente integrabile
\begin{displaymath}
\intI \mid h(t) \mid dt < +\infty
\end{displaymath}
\end{itemize}
 
===Sistemi non lineari}
\`E possibile studiare più facilmente un sistema che ha una caratteristica non lineare se è possibile approssimare $g( )$ nell'intorno di un punto di equilibrio $t_{E}$.
Supponiamo che si ottenga un'approssimazione accettabile limitandosi al termine quadratico della serie di Taylor, quindi
\begin{equation}
y(t) = \left. g(x(t_{E})) + \frac{dg}{dx} \right|_{x = x(t_{E})}
\end{equation}
 
 
===Filtri===
Un filtro ideale è un sistema lineare stazionario che ha funzione di trasferimento
pari ad $1$ in un intervallo di banda $\iB_{p}$ detto \emph{banda passante del filtro}
e nulla altrove (\emph{banda oscura del filtro} $\iB_{o}$)
\begin{equation}
H(f) = \left\{ \begin{array}{cl}
1 & \mbox{per $f \in \iB_{p}$} \\
0 & \mbox{per $f \in \iB_{o}$} \\
\end{array} \right.
\end{equation}
 
i principali filtri ideali sono:
\begin{itemize}
\item
\emph{filtro ideale passa basso} a banda $\B$ è
\begin{equation}
H_{LP}(f) = \left\{ \begin{array}{cl}
1 & \mbox{per $f \leq \B$} \\
0 & \mbox{per $f > \B$} \\
\end{array} \right.
\end{equation}
 
\item
\emph{filtro ideale passa alto} a banda $\B$ è
\begin{equation}
H_{HP}(f) = \left\{ \begin{array}{cl}
1 & \mbox{per $f \geq \B$} \\
0 & \mbox{per $f < \B$} \\
\end{array} \right.
\end{equation}
 
\item
\emph{filtro ideale passa banda} a frequenza $f_{b}$ e banda $\B$ è
\begin{equation}
H_{BP}(f) = \left\{ \begin{array}{cl}
1 & \mbox{per $\mid f-f_{b} \mid \leq \B$} \\
0 & \mbox{altrove} \\
\end{array} \right.
\end{equation}
\end{itemize}
 
 
====Filtri reali}
Un filtro che ha risposta in frequenza assolutamente integrabile
\begin{displaymath}
\intI H(f) df < +\infty
\end{displaymath}
per essere fisicamente realizzabile deve soddisfare la \emph{condizione di Paley}:
la sua risposta in frequenza deve essere tale che
\begin{equation}
\intI \frac{\big| \ln |H(f)| \big|}{1 + (2 \pi f)^{2}} df < \infty
\end{equation}
cioè può essere nulla solo per un insieme di misura nulla (solo in punti isolati)
e può crescere o decrescere al massimo quanto un esponenziale al quadrato (???)
 
====Distorzioni sul segnale}
Un filtro \emph{non introduce distorzioni} sul segnale in uscita rispetto al segnale in ingresso se ha
risposta in ampiezza costante e risposta in fase lineare, ovvero
\begin{equation}
H(f) = A \e{-j 2 \pi f t_{r}} \phantom{2} h(t) = A \delta(t - t_{r})
\end{equation}
un filtro di questo tipo introduce un ritardo $t_{r}$ sul segnale e varia l'ampiezza del segnale di un fattore costante $A$
 
si hanno delle \emph{distorsioni lineari} del segnale
quando nello spettro del segnale in uscita non sono presenti delle componenti frequenziali che c'erano nello spettro del segnale in ingresso;
si hanno delle \emph{distorsioni non lineari} del segnale
quando nello spettro del segnale in uscita sono presenti delle componenti frequenziali che non c'erano nello spettro del segnale in ingresso
(ad esempio se il sistema è non lineare oppure tempovariante)
 
Se il segnale in ingresso è a banda limitata,
allora è sufficente che il filtro abbia guadagno costante e risposta in fase lineare nella banda del segnale,
ovvero i punti corrispondenti alle frequenze appartenenti alla banda del segnale
devono appartenere ad una retta parallela all'asse delle frequenze nella la risposta in ampiezza
e ad una retta passante per l'origine nella risposta in fase
 
====Effetto di un filtro sul segnale}
Se il segnale in ingresso ad un filtro $h(t)$ è $x(t)$ ed il segnale in uscita è $y(t)$ si hanno le seguenti relazioni
\begin{equation}
\left\{ \begin{array}{l}
\mid Y(f) \mid \phantom{1} = \phantom{1} \mid X(f) \mid \cdot \mid H(f) \mid \\
\angle Y(f) = \angle X(f) + \angle H(f) \\
\end{array} \right.
\end{equation}
\begin{equation}
\dsP_{y(t)} = \dsP_{x(t)} \mid H(f) \mid^{2}
\end{equation}
\begin{equation}
\dsE_{y(t)} = \dsE_{x(t)} \mid H(f) \mid^{2}
\end{equation}
che è detta \emph{relazione fondamentale del filtraggio}
 
===Modulatori e demodulatori}
Sono usati per alzare la frequenza di un segnale per poterlo trasmettere in un mezzo che blocca le basse frequenze;
sono sistemi lineari ma non tempo-invarianti
 
====Modulazione DSB}
un \emph{modulatore coerente DSB} (duble side band) è un sistema che moltiplica un segnale per una cosinusoide a frequenza elevata $f_{pM}$,
se il segnale in ingresso è passa-basso a banda $\B_{x}$ e la \emph{frequenza portante} $f_{pM}$ è sufficentemente elevata
il segnale in uscita è un segnale passa-banda centrato alla frequenza della cosinusoide
\begin{equation}
y(t) = x(t) \cos(2 \pi f_{pM})
\end{equation}
\begin{displaymath}
Y(f) = X(f) \conv \frac{\delta(f-f_{pM}) + \delta(f-f_{pM}) }{2}
= \frac{X(f-f_{pM}) + X(f+f_{pM})}{2}
\end{displaymath}
 
Un \emph{demodulatore coerente DSB} compie l'operazione inversa al modulatore ricreando il segnale passa-basso originario,
moltiplicando il segnale modulato per una cosinusoide alla stessa frequenza del modulatore e quindi filtrando il segnale in banda base
\begin{equation}
x(t) = y(t) \cos(2\pi f_{pM} t) \conv 2\B_{x} \sinc (\B_{x}t)
\end{equation}
\begin{displaymath}
X(f) = \left( Y(f) \conv \frac{\delta(f-f_{pM}) + \delta(f+f_{pM})}{2} \right)
\rect{f}{2\B_{x}}
\end{displaymath}
 
====Modulazione SSB}
la modulazione DSB raddoppia la banda utilizzata dal segnale,
è possibile però utilizzare in teoria la metà della banda senza perdere informazione in quanto un modulatore DSB trasmette anche una replica identica della banda del segnale che può essere eliminata con il filtraggio,
oppure si può usare un \emph{modulatore SSB}
\begin{equation}
y(t) = x(t) 2\cos(2 \pi f_{pM} t) \pm
\left( x(t) \conv \TCFI{-j \sgn{f}} \right) 2 \sin(2 \pi f_{pM} t)
\end{equation}
scegliendo nella formula il segno $+$ si ha un \emph{modulatore SSB UB} (upper band, ovvero trasmette solo la banda modulata a frequenza maggiore);
scegliendo nella formula il segno $-$ si ha un \emph{modulatore SSB LB} (lower band, ovvero trasmette solo la banda modulata a frequenza minore)
 
 
 
 
 
==Campionamento dei segnali==