Implementazioni di algoritmi/Metodo Monte Carlo: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
categoria, link, accento, serve forse rilettura |
m virgolette, ortografia |
||
Riga 4:
Il metodo è usato per trarre stime attraverso simulazioni.
Si basa su un [[algoritmo]] che genera una serie di numeri tra loro incorrelati, che seguono la [[distribuzione di probabilità]] che si suppone abbia il fenomeno da indagare.
Esempio:
Si voglia stimare il rendimento mensile di un [[titolo azionario]].
Riga 17:
Con un modello di [[regressione lineare]] cercheremo di stimare la [[media]] a un mese.
Successivamente, si andranno a generare attraverso
Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare la media generale di tutte le medie sperimentali ottenute.
I dati ottenuti forniscono stime tanto migliori quanto maggiore è la numerosità delle prove fatte.
Il metodo è molto usato in varie discipline. Tra le possibili applicazioni: [[fisica statistica]] e [[ingegneria]], dove si presta molto bene a risolvere problemi legati, ad esempio, alla [[fluidodinamica]]; in [[economia]] e [[finanza]] per prezziare [[derivati]]; in [[informatica]], per simulare
È molto potente se usato in combinazione con altri metodi non parametrici come il resampling.
Riga 32:
<math> X = \frac{\sum_{i=1}^k X_i}{k} </math>
in quanto è ovviamente E[X] = θ.
Supponiamo di avere n variabili aleatorie indipendenti, X<sub>1</sub>, ..,X<sub>n</sub> aventi la stessa distribuzione. Sia σ<sup>2</sup> la varianza della variabile X<sub>i</sub> e θ il valore atteso
E[X<sub>i</sub>] = θ
Riga 71:
<math>P \{ X - z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} < \theta < X + z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} \} = 1 - \alpha </math>
Che afferma che la probabilità che la media θ sia compresa
<math> [X - z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}}, X + z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} ] </math>
Riga 111:
<math> (n -1)E[S^2] = n \sigma^2 + n \theta^2 - \sigma^2- n \theta^2 = (n -1) \sigma^2 </math>
Supponiamo ora di avere n variabili aleatorie indipendenti X<sub>1</sub>, X<sub>2</sub>, …, X<sub>n</sub> aventi la stessa funzione di distribuzione ''F'' e di volere stimare il parametro θ(''F'') (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione di distribuzione ''F''). Sia g(X<sub>1</sub>, X<sub>2</sub>, …, X<sub>n</sub>) lo stimatore proposto per θ(''F''); se questo non corrisponde al valore medio, il metodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si può stimare
<math> EQM(F) = E_F[(g (X_1, X_2, ... , X_n) - \theta(F))^2] </math>
Dove il pedice ''F'' significa che il valore
Un metodo per stimare tale quantità è quello del bootstrap, utilizzando la funzione di distribuzione empirica ''F''<sub>e</sub>(x) definita da:
Riga 126:
Va rilevato, da un punto di vista operativo, che il dimensionamento della simulazione si supera facilmente grazie alla crescente disponibilità di potenza di calcolo.
In altre parole, procedendo all'uso del metodo su calcolatore, sarà
[[categoria:statistica]]
|