Differenze tra le versioni di "Fondamenti di automatica/Sistemi lineari tempoinvarianti"

m
Bot: Sostituzione automatica (-\x24(.*?)\x24 +<math>\1</math>); cosmetic changes
 
m (Bot: Sostituzione automatica (-\x24(.*?)\x24 +<math>\1</math>); cosmetic changes)
\vedilibro{rif:k}{25, sezione 2-3: Differential equations}
Trattiamo solo sistemi modellizzabili con equazioni differenziali lineari a coefficenti costanti
\vedilibro{rif:a2}{34, sezione 2.4: Equazioni differenziali lineari di ordine $<math>n$</math>};
 
In generale un sistema lineare tempoinvariante SISO rappresentato con equazioni diffrenziali avrà uno stato interno descritto da equazioni del tipo
<math>
x^{(n)}(t) + a_{n-1}x^{(n-1)}(t) + \cdots + a_{1}x'(t) + a_{0}x(t) = b u(t)
</math>
dove $<math>x(t)$</math> è la funzione di stato,
i coefficenti $<math>a_{0..n}$</math> sono numeri reali e
$<math>u(t)$</math> è la funzione di ingresso
L'uscita del sistema è data in generale come funzione lineare dello stato e dell'ingresso
<math>
 
La soluzione generale dell'equazione sarà composta da
una componente data dalla soluzione dell'equazione omogenea associata (dove $<math>u(t) = 0$</math>)
più una componente detta soluzione particolare che sarà dello stesso tipo di $<math>u(t)$</math>
 
Per ottenere una soluzione unica,
è necessario conoscere tante condizioni ($<math>n$</math>) su $<math>x(t)$</math> o sulle sue derivate pari al grado dell'equazione
 
==== Sistemi di equazioni differenziali ====
\`E possibile scomporre sempre una o più equazioni differenziali in un sistema di equazioni differenziali del primo ordine
\vedilibro{rif:k}{26, sezione 2-3-3: First-order differential equations}
x'(t) = ax(t) + bu(t)
</math>
dove $<math>a$</math> e $<math>b$</math> sono scalari reali
che ha soluzione
\vedilibro{rif:a2}{108, sezione 3.16: Sistemi lineari non omogenei a coefficenti costanti}
</math>
 
=== Diagramma analogico ===
\`E possibile rappresentare un sistema in una forma a blocchi detta
\emph{diagramma analogico}
\begin{itemize}
\item
Amplificatore con guadagno $<math>k$</math>: $<math>G(s)=k$</math>
\item
Integratore $<math>G(s) = 1/s$</math>
\item
Sommatore
<math>
x^{(n)}(t) = -a_{n-1}x^{(n-1)}(t) - \cdots -a_{1}x'(t) -a_{0}x(t) +
b_{n}u^{(n)}(t) + \cdots + b_{1}u'(t) + b_{0}u(t)
</math>
è possibile utilizzare un sommatore per ottenere $<math>x^{(n)}(t)$</math>,
$<math>n$</math> integratori in serie per ottenere $<math>x^{(n-1 \cdots 1)}$</math> e $<math>x(t)$</math>,
dei guadagni $<math>a_{n-1} \cdots a_{0}$</math> e $<math>b_{n} \cdots b_{0}$</math> per ottenere i termini a secondo membro dell'equazione;
si porta nel sommatore le uscite degli integratori moltiplicate per i relativi coefficenti
e si manda l'ingresso $<math>u(t)$</math> nel sommatore
(anch'esso moltiplicato per i suoi coefficenti)
 
Un sistema rappresentato in questo modo, portato in variabili di stato, viene ad essere espresso in forma canonica di controllabilità.
Per ricavare rapidamente il diagramma dall'equazione differenziale,
si esprimono le derivate $<math>f^{(i)}(t)$</math> con $<math>s^{i}f(t)$</math>,
quindi si divide per $<math>s$</math> più volte per portarle tutte a denominatore,
si raccoglie $<math>1/s$</math> e
si ottiene un equazione che rappresenta la struttura del circuito
 
 
=== Variabili di stato ===
Un sistema MIMO lineare tempoinvariante si descrive facilmente utilizzando le matrici
 
Un sistema può essere descritto da un'equazione differenziale
o da un sistema di equazioni differenziali
in cui le funzioni incognite $<math>x_{1}(t) \cdots x_{n_{x}}(t)$</math> sono dette \emph{variabili di stato} e sono
il minimo numero di variabili tali che la conoscenza di queste ad un istante $<math>t_{0}$</math> è sufficente a determinarelo stato del sistema per ogni istante successivo
 
i valori $<math>x_{1}(t_{0}) \cdots x_{n_{x}}(t_{0})$</math> rappresentano le \emph{condizioni iniziali del sistema}
 
Un sistema lineare può essere espresso utilizzando le matrici
\right.
</math>
dove le matrici $<math>A,B,C,D$</math> sono tali che
$<math>A \in \Re^{n_{x} \times n_{x}}$</math>,
$<math>B \in \Re^{n_{x} \times n_{u}}$</math>,
$<math>C \in \Re^{n_{y} \times n_{x}}$</math>,
$<math>D \in \Re^{n_{y} \times n_{u}}$</math>;
la matrice $<math>A$</math> è detta \emph{matrice di stato}
 
Lo stato in funzione del tempo (o movimento dello stato)
x(t) = e^{A(t-t_{0})} x(t_{0}) + \int _{t_{0}} ^{t} e^{A(t-k)} B u(k) dk
</math>
dove $<math>\Phi = e^{A(t-t_{0})}$</math> è la \emph{matrice di transizione dello stato}
di un sistema lineare
 
quando l'ingresso è costante
 
Se la matrice $<math>A$</math> è invertibile allora lo stato di equilibrio è unico e corrisponde allo stato e all'uscita
<math>
\left\{ \begin{array}{l}
\end{array} \right.
</math>
la matrice $<math>D - CA^{-1}B$</math> rappresenta il \emph{guadagno statico del sistema}
\vedilibro{rif:b}{70}
che nel caso di sistemi SISO si indica con $<math>\rho$</math>
e costituisce il rapporto tra l'uscita e l'ingresso quanto tutte le variabili del sistema, ingresso e stato, sono costanti
 
==== Soluzione del sistema in variabili di stato ====
L'unico passo non banale nella soluzione di un sistema in variabili di stato
consiste nella valutazione della matrice di transizione dello stato
$<math>\Phi = e^{A(t-t_{0})}$</math>
\vedilibro{rif:c}{485, Computation of state transition matrix}
che è possibile risolvere utilizzando la trasformata di Laplace o portando la matrice $<math>A$</math> in forma diagonale
 
Se consideriamo il sistema a ingresso nullo $<math>x'(t) = Ax(t)$</math>
e trasformiamo entrambi i membri,
si ottiene $<math>s X(s) - x(t_{0}) = A X(s)$</math>,
ovvero $<math>X(s) = (sI-A)^{-1} x(t_{0})$</math>;
e quindi antitrasformando si trova che
<math>
</math>
 
Utilizzando le trasformazioni lineari e portando la matrice di stato in forma diagonale o a blocchi di Jordan, la valutazione di $<math>e^{A(t-t_{0})}$</math> è più semplice
 
==== Matrici ====
Alcuni richiami sulle matrici \dots
\vedilibro{rif:k}{245, sezione 5-7: Characteristic equation, eigenvalues, eigenvectors}
\vedilibro{rif:r}{Richiami di algebra lineare: autovalori e Autovettori}
 
gli \emph{autovalori} di una matrice $<math>A$</math> sono le radici $<math>\lambda_{i}$</math> dell'equazione
<math>
| \lambda I - A | = 0
radici multiple corrispondono ad autovalori con molteplicità algebrica maggiore di uno
 
ad ogni autovalore $<math>\lambda_{i}$</math> corrisponde un \emph{autovettore} $<math>v_{i}$</math> tale che
<math>
(\lambda_{i} - A)v_{i} = 0
</math>
per ogni autovalore di molteplicità algebrica $<math>n>1$</math> esistono $<math>n-1$</math> autovettori generalizzati che si determinano ripetendo $<math>n-1$</math> volte il l'equazione precedente sostituendo a 0 l'opposto dell'ultimo autovettore trovato.
<math>
(\lambda_{i} - A)v_{i} = -v_{i-1}
Si dice \emph{molteplicità geometrica} di un autovalore il numero di autovettori linearmente indipendenti ad esso associati
% !!!!!!!!!!!!!!!!
corrispondenti alla dimensione del nullo di A ($<math>N(A)$</math>) (?)
 
Il \emph{rango di una matrice} $<math>r\{A\}$</math> è pari al numero di righe linearmente indipendenti,
valgono le seguenti proprietà:
\vedilibro{rif:r}{6, Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\begin{itemize}
\item
$<math>r\{A\}$</math> è uguale al numero di colonne o righe linearmente indipendenti
\item
$<math>r\{A\}$</math> è uguale al rango della matrice trasposta di $<math>A$</math>: $<math>r\{A\} = r\{A^{T}\}$</math>
\item
$<math>r\{A\}$</math> è minore del numero di colonne e del numero di righe della matrice
\item
se la matrice è quadrata ($<math>A \in M^{n \times n}$</math>) e il suo rango è massimo ($<math>r\{A\} = n$</math>), allora è invertibile
\item
il rango è inveriante rispetto a pre o post moltiplicazioni per matrici non singolari (come le matrici in una similitudine)
 
 
==== Cambiamento di coordinate ====
Le matrici $<math>A$</math>,$<math>B$</math>,$<math>C$</math>,$<math>D$</math>
(matrici rappresentative del sistema)
rappresentano una trasformazione lineare (similitudine) dallo spazio di $<math>x$</math> e $<math>u$</math> a quello di $<math>x'$</math>
\vedilibro{rif:ag}{125, Capitolo 4: Trasformazioni lineari e matrici}
\vedilibro{rif:r}{Richiami di algebra lineare: Rango, operatori lineari, trasformazioni}
\vedilibro{rif:b}{61, sezione 3.2.2: Rappresentazioni equivalenti}
 
Applicando una trasformazione $<math>M$</math> al sistema
\vedilibro{rif:c}{472}
si ottiene
\right.
</math>
dove $<math>M$</math> è una matrice quadrata e $<math>x_{M}(t)$</math> è un nuovo vettore di stato tale che $<math>x(t) = Mx_{M}(t)$</math>
 
Una matrice quadrata $<math>M$</math> rappresenta la stessa trasformazione lineare di una matrice $<math>M'=T^{-1}MT$</math> se $<math>T$</math> non è singolare
\vedilibro{rif:ag}{210, Sezione 6-9: Matrici simili} ,
due matrici simili hanno stesso polinomio caratteristico e stessi autovalori
 
\`E possibile scegliere $<math>M$</math> in modo da rendere $<math>M^{-1}AM$</math> in una forma che consenta di effettuare meglio calcoli,
\vedilibro{rif:ag}{224, sezione 7.9: Diagonalizzazione di matrici Hermitiane o anti-Hermitiane}
diagonale
\vedilibro{rif:b}{63, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
(si indica con $<math>\Lambda$</math>)
o in forma di Jordan
\vedilibro{rif:b}{65, sezione 3.2.3: Matrice della dinamica diagonalizzabile}
(<math>J</math>)
($J$)
 
La matrice $<math>\Lambda$</math> è diagonale e gli elementi sulla diagonale sono gli autovalori di $<math>A$</math>
 
La matrice a blocchi di Jordan è diagonale,
tranne degli 1 al di sopra degli elementi della diagonale
(che corrispondono ad autovettori linearmente dipendenti),
e gli elementi sulla diagonale sono gli autovalori di $<math>A$</math>
e gli $<math>1$</math> sulla diagonale superiore sono in corrispondenza degli autovettori generalizzati che sono linearmente dipendenti (???)
 
Per portare una matrice in forma diagonale o di Jordan si usa la trasformazione
T_{diag} = [ v_{1} , v_{2} , \cdots , v_{n}]
</math>
dove $<math>v_{1 \cdots n}$</math> sono gli autovettori (intesi come vettori-colonna) della matrice
(si può costruire $<math>T$</math> anche con gli autovettori sinistri messi per righe)
 
==== Esponenziale di una matrice ====
Per ogni matrice quadrata $<math>A \in \Re^{n \times n}$</math> e ogni scalare $<math>t \geq 0$</math> è definita la \emph{matrice esponenziale}
\vedilibro{rif:b}{591, appendice A.5: Esponenziale}
 
Per il \emph{teorema di Cayley-Hamilton}
\vedilibro{rif:a2}{98, sezione 3.11: Il teorema di Cayley-Hamilton},
qualunque matrice quadrata $<math>A$</math> soddisfa la sua equazione caratteristica
(il suo polinomio caratteristico eguagliato a zero)
<math>
</math>
e quindi la serie necessaria per il calcolo dell'esponenziale si riduce ad una somma finita,
in quanto tutte le potenze da $<math>A^{n}$</math> in poi possono essere espresse come combinazione lineare di $<math>A^{0} \cdots A^{n-1}$</math>
<math>
e^{At} = h_{0}(t)I + h_{1}(t)At + h_{2}(t)\frac{A^{2}t^{2}}{2!} + \cdots
+ h_{n-1}(t)\frac{A^{n-1}t^{n-1}}{(n-1)!}
</math>
dove i coefficenti $<math>h_{0}(t) \cdots h_{n-1}(t)$</math> si possono ricavare utilizzando il \emph{determinante di Vandermonte}
<math>
\left( \begin{array}{ccccc}
1 & \lambda_{1} & \lambda_{1}^{2} & \cdots & \lambda_{1}^{n-1} \\
1 & \lambda_{2} & \lambda_{2}^{2} & \cdots & \lambda_{2}^{n-1} \\
1 & \lambda_{3} & \lambda_{3}^{2} & \cdots & \lambda_{3}^{n-1} \\
\vdots & \vdots & \vdots & \vdots & \vdots \\
1 & \lambda_{n} & \lambda_{n}^{2} & \cdots & \lambda_{n}^{n-1} \\
\end{array} \right)
\left[ \begin{array}{c}
\left[ \begin{array}{c}
e^{\lambda_{1}t} \\
e^{\lambda_{2}t} \\
e^{\lambda_{3}t} \\
\vdots \\
e^{\lambda_{n}t} \\
\end{array} \right]
</math>
 
Oppure se la matrice è in forma diagonale e
$<math>\lambda_{1} \cdots \lambda_{n}$</math>
sono i suoi autovalori (e quindi gli elementi della diagonale principale)
allora
\begin{array}{ccccc}
\eLt & t\eLt & \frac{t^{2}}{2!} \eLt & \cdots & \frac{t^{k-1}}{(k-1)!} \eLt \\
0 & \eLt & t\eLt & \cdots & \frac{t^{k-2}}{(k-2)!} \eLt \\
0 & 0 & \eLt & & \\
\vdots & \vdots & \vdots & \ddots & \vdots \\
0 & 0 & 0 & 0 & \eLt \\
\end{array} \right)
</math>
 
==== Forma canonica di controllo ====
Dato un sistema in variabili di stato di definisce \emph{forma canonica di controllo}
\vedilibro{rif:b}{125, sezione 4.5.1: Forma canonica di raggiungibilità}
il sistema simile al sistema dato $<math>x' = Ax + Bu$</math> in cui
<math>
A =
</math>
 
Dove si suppone che $<math>n_{z} = n_{p}$</math> (eventualmente si aggiungono coefficenti nulli)
 
Questa forma è tale che per qualunque valore di $<math>a_{0..n}$</math> il sistema risulta controllabile;
può essere ricavata direttamente dal diagramma analogico applicato all'equazione differenziale che descrive il sistema (????)
 
==== Forma canonica di osservabilità ====
Dato un sistema in variabili di stato di definisce \emph{forma canonica di osservabilità}
\vedilibro{rif:b}{125, sezione 4.5.2: Forma canonica di osservabilità}
il sistema simile al sistema dato $<math>x' = Ax + Bu$</math> in cui
<math>
A =
</math>
 
Dove si suppone che $<math>n_{z} = n_{p}$</math> (eventualmente si aggiungono coefficenti nulli)
 
Questa forma è tale che per qualunque valore di $<math>a_{0..n}$</math> il sistema risulta osservabile
 
 
=== Funzione di trasferimento ===
La \emph{funzione di trasferimento ingresso-uscita} $<math>G(s)$</math> di un sistema lineare SISO
\vedilibro{rif:k}{78, sezione 3-2: Impulse response and transfer function of linear systems}
\vedilibro{rif:b}{99, capitolo 4: Funzione di trasferimento}
Y(s) = G(s) U(s)
</math>
dove $<math>U(s)$</math> e $<math>Y(s)$</math> rappresentano la trasformata di Laplace dell'ingresso $<math>u(t)$</math> e dell'uscita $<math>y(t)$</math>;
è in generale esprimibile da un rapporto di polinomi in $<math>s$</math>, ma sono possibili varie forme
\vedilibro{rif:b}{106, sezione 4.3: Rappresentazioni e parametri della funzione di trasferimento}
 
\begin{itemize}
\item
$<math>p_{1}, p_{2}, \ldots, p_{n_{p}}$</math> sono detti \emph{poli} della funzione di trasferimento;
\item
$<math>z_{1}, z_{2}, \ldots, z_{n_{z}}$</math> sono gli \emph{zeri};
\item
$<math>n_{p}$</math> è il numero dei poli e $<math>n_{z}$</math> il numero degli zeri
\item
$<math>T$</math> e $<math>\tau$</math> sono gli inversi dei poli e degli zeri non nulli (detti anche \emph{costanti di tempo}) $<math>T_{i} = 1/p_{i}$</math> e $<math>\tau_{i} = 1/z_{i}$</math>
\item
$<math>g$</math> è il \emph{grado del sistema}, il numero di poli nulli
\item
$<math>\rho$</math> rappresenta qui il \emph{guadagno generalizzato}
\vedilibro{rif:b}{70, sezione 3.2.5: Equilibrio}
\vedilibro{rif:b}{106, sezione 4.3.1: Guadagno}
 
Il denominatore della funzione di trasferimento
$<math>s^{n_{p}} + a_{n_{p}-1}s^{n_{p}-1} + \cdots + a_{1}s + a_{0}$</math> rappresenta il polinomio caratteristico del sistema;
 
Gli zeri di un sistema rappresentano gli ingressi $<math>e^{z_{1 \cdots n_{z}}t}$</math> per cui il sistema ha uscita nulla,
questa è detta \emph{proprietà bloccante degli zeri}
\vedilibro{rif:b}{155, sezione 6.2.2: Proprietà bloccante degli zeri}
 
Poiché i coefficenti $<math>a_{n_{p}} \cdots a_{0}$</math> e $<math>b_{n_{z}} \cdots b_{0}$</math> sono reali,
i poli e gli zeri di un sistema
(che sono considerati talvolta le radici dei polinomi a numeratore e a denominatore della funzione di trasferimento, talvolta i loro opposti)
\vedilibro{rif:k}{568}
se non ha poli o zeri negativi (instabili) o immaginari puri (eccetto siano nulli);
in questo caso la variazione di fase totale tra la pulsazione nulla e infinita è $<math>(n_{p} - n_{z})\pi/2$</math>,
il valore della funzione di trasferimento non è mai zero o infinito per pulsazioni limitate non nulle
 
\vedilibro{rif:b}{102, sezione 4.2.4: Cancellazioni e stabilità}
 
==== La trasformata di Laplace ====
\`E definita per funzioni reali $<math>f(t)$</math> la \emph{trasformata di laplace}
\vedilibro{rif:b}{598, appendice B.3: Trasformata di Laplace}
\vedilibro{rif:k}{28, sezione 2-4: Laplace Transform}
\LaplaceTrasf{\cdot}
come funzione della variabile complessa $<math>s = \sigma + j \omega$</math> secondo la formula
<math>
F(s) = \int _{0^{-}} ^{+\infty} f(t) e ^{-st} dt
</math>
 
$<math>f(t)$</math> deve essere definita almeno per $<math>t \geq 0$</math>
 
il minimo valore di $<math>s$</math>, indicato con $<math>\sigma_{0}$</math> per cui la trasformata esiste è detta ascissa di convergenza.
 
L'operazione trasforma una funzione in un altro spazio
\vedilibro{rif:r}{Richiami di geometria: Vettori - Spazi vettoriali}
le cui basi sono le funzioni $<math>e^{st}$</math> ovvero
$<math>e^{\sigma + j \omega} = e^{\sigma} (\cos{j \omega} + j \sin{\omega} )$</math>
\vedilibro{rif:r}{Richiami di numeri complessi}
; sono quindi trasformabili tutte le funzioni che possono essere espresse come somma di funzioni sinusoidali esponenzialmente smorzate, che includono le funzioni esponenziali semplici, lineari e sinusoidali
F(s) e ^{st} ds
</math>
dove $<math>\sigma_{1}$</math> è un qualsiasi valore maggiore di $<math>\sigma_{0}$</math>
 
 
\subsubsection{Teorema del valore finale}
Se $<math>f(t)$</math> ha trasformata $<math>F(s)$</math> razionale (o anche solo se esiste il limite a primo membro) con grado del denominatore maggiore del grado del numeratore e poli negativi o nulli, allora
\vedilibro{rif:b}{603}
<math>
</math>
 
===== Teorema del valore iniziale =====
Se $<math>f(t)$</math> ha trasformata $<math>F(s)$</math> razionale (o anche solo se $<math>f(0^{+})$</math> esiste) con grado del denominatore maggiore del grado del numeratore, allora
\vedilibro{rif:b}{603}
<math>
f(0^{+}) = \lim_{s \rightarrow \infty} sF(s)
</math>
$<math>\sigma_{0}$</math> deve essere minore di 0 altrimenti $<math>F(s)$</math> non è definita in 0 e il teorema non è applicabile
 
 
=== Risposta impulsiva ===
La risposta impulsiva di un sistema è definita come l'uscita $<math>g_{i}(t)$</math> del sistema quando si ha in ingresso una delta di Dirac $<math>u(t) = \delta(t)$</math> su un singolo ingresso $<math>u_{i}$</math>
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato};
si definnisce
</math>
 
Si definisce anche la \emph{risposta al gradino} $<math>g_{gr}(t)$</math>,
la cui derivata è la risposta impulsiva,
come la risposta del sistema ad un ingresso a gradino unitario
g_{gr-i}(t) = C\int_{t_{0}}^{t}e^{At -\tau}B_{i}d\tau = C A^{-1}\big(e^{At} - I\big)B_{i}
</math>
dove $<math>\int_{0}^{t}e^{A\tau}d\tau = A^{-1}(e^{At} - I)$</math> per analogia con gli scalari
 
 
=== Risposta in frequenza ===
Se si restringe la funzione di trasferimento di un sistema sui valori di $<math>s$</math> immaginari puri positivi, si ottiene
la \emph{risposta in frequenza del sistema} $<math>G(j\omega)$</math>
\vedilibro{rif:b}{154, capitolo 6: Risposta in frequenza}
che rappresenta l'uscita del sistema quando ha in ingresso una sinusoide
 
Essa è definita per tutti i valori della pulsazione $<math>\omega$</math> positivi che non siano poli immaginari puri di $<math>G(s)$</math>
 
Quindi se $<math>u(t) = \sin \omega t$</math>, allora si ha che
<math>
y(t) = |G(j\omega)| \sin (\omega t + \angle G(j\omega) )
</math>
 
La risposta in frequenza è una funzione a immagine complessa $<math>\Im \rightarrow \Comp$</math>;
il modulo della risposta in frequenza rappresenta la variazione del modulo dell'uscita in funzione della pulsazione dell'ingresso;
la fase della risposta in frequenza rappresenta la variazione della fase dell'uscita in funzione della pulsazione dell'ingresso
se si vuole valutare la risposta in frequenza per pulsazioni lontane dai poli e dagli zeri,
è possibile trascurare poli e zeri a pulsazioni elevate
(tali che $<math>1 + \tau j\omega \approx 1$</math>)
e semplificare l'espressione di poli e zeri a pulsazioni inferiori
(tali che $<math>1 << \tau j\omega$</math>)
ottenendo la risposta in frequenza semplificata
<math>
(T_{L-g}j\omega) }
</math>
che è valida per pulsazioni $<math>1/\tau_{l}, 1/T_{L} << \omega << 1/\tau_{l+1}, 1/T_{L+1}$</math>;
 
Se si vuole valutare il modulo a frequenze maggiori di un numero pari di poli e zeri ($<math>l = L + g$</math>);
ovvero in corrispondenza di un tratto a guadagno costante,
è possibile semplificare anche $<math>\omega$</math> dall'espressione della risposta in ampiezza,
ottenendo la forma ulteriormente semplificata
<math>
 
 
==== La trasformata di Fourier ====
La \emph{trasformata di Fourier} $<math>\FourierTrasf{f(t)}$</math>
\vedilibro{rif:b}{617, appendice B.5: Trasformata di Fourier}
è definita come la trasformata di laplace per funzioni reali $<math>f(t)$</math> ma prendendo come base le funzioni sinusoidali
<math>
F(j\omega) = \int _{-\infty} ^{+\infty} f(t) e ^{-j\omega t} dt
</math>
l'operazione inversa $<math>\invFourierTrasf{F(j\omega)}$</math> è
<math>
f(t) = \frac{1}{2\pi} \int_{-\infty}^{+\infty} F(j\omega) e^{j\omega t} d\omega
 
 
=== Passaggio tra le varie rappresentazioni ===
\vedilibro{rif:b}{129, figura 4.16: Rappresentazioni dei sistemi dinamici e relazioni corrispondenti}
 
Se si considera il sistema espresso in variabili di stato in forma canonica
e si applica la trasformata di Laplace a entrambi i membri delle due equazioni,
con alcuni passaggi (poiché $<math>det\{(sI-A)\})$</math> non è identicamente nullo per ogni $<math>s$</math>) si ottiene:
\vedilibro{rif:b}{99, sezione 4.2.1: Definizione e proprietà della FdT}
<math>
</math>
in questo caso, poiché il sistema in variabili di stato è in generale MIMO,
la funzione di trasferimento è una matrice con termini che sono funzioni razionali fratte con al denominatore il polinomio caratteristico della matrice $<math>A$</math>
 
Conoscendo le matrici $<math>B, C, D$</math> è possibile ricavare dalla funzione di trasferimento ingresso-uscita anche
la \emph{funzione di trasferimento ingresso-stato}
 
 
====Dalle variabili di stato alla risposta impulsiva}
Conoscendo le matrici rappresentative del sistema $<math>A, B, C, D$</math>,
la risposta impulsiva
\vedilibro{rif:b}{68, sezione 3.2.4: Risposta all'impulso e movimento forzato}
34 907

contributi