Implementazioni di algoritmi/Metodo Monte Carlo: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Twice25 (discussione | contributi)
categoria, link, accento, serve forse rilettura
m virgolette, ortografia
Riga 4:
Il metodo è usato per trarre stime attraverso simulazioni.
Si basa su un [[algoritmo]] che genera una serie di numeri tra loro incorrelati, che seguono la [[distribuzione di probabilità]] che si suppone abbia il fenomeno da indagare.
L’incorrelazioneL'incorrelazione tra i numeri è assicurata da un test [[chi quadrato]].
Esempio:
Si voglia stimare il rendimento mensile di un [[titolo azionario]].
Riga 17:
 
Con un modello di [[regressione lineare]] cercheremo di stimare la [[media]] a un mese.
Successivamente, si andranno a generare attraverso l’algoritmol'algoritmo Monte Carlo una serie di medie “sperimentali”"sperimentali" che saranno ricavate da una distribuzione normale (perché si è ipotizzato che i rendimenti seguano questa distribuzione) con media pari alla media stimata e scarto quadratico medio pari allo scarto quadratico medio campionario a un mese.
 
Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare la media generale di tutte le medie sperimentali ottenute.
I dati ottenuti forniscono stime tanto migliori quanto maggiore è la numerosità delle prove fatte.
 
Il metodo è molto usato in varie discipline. Tra le possibili applicazioni: [[fisica statistica]] e [[ingegneria]], dove si presta molto bene a risolvere problemi legati, ad esempio, alla [[fluidodinamica]]; in [[economia]] e [[finanza]] per prezziare [[derivati]]; in [[informatica]], per simulare l’illuminazionel'illuminazione naturale; ecc…
 
È molto potente se usato in combinazione con altri metodi non parametrici come il resampling.
Riga 32:
<math> X = \frac{\sum_{i=1}^k X_i}{k} </math>
 
in quanto è ovviamente E[X] = &theta;. Qual’èQual'è il valore più appropriato di k?
Supponiamo di avere n variabili aleatorie indipendenti, X<sub>1</sub>, ..,X<sub>n</sub> aventi la stessa distribuzione. Sia &sigma;<sup>2</sup> la varianza della variabile X<sub>i</sub> e &theta; il valore atteso
E[X<sub>i</sub>] = &theta;
Riga 71:
<math>P \{ X - z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} < \theta < X + z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} \} = 1 - \alpha </math>
Che afferma che la probabilità che la media &theta; sia compresa nell’intervallonell'intervallo
 
<math> [X - z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}}, X + z \left ( \frac{\alpha}{2} \right ) \frac{\sigma}{\sqrt{n}} ] </math>
Riga 111:
<math> (n -1)E[S^2] = n \sigma^2 + n \theta^2 - \sigma^2- n \theta^2 = (n -1) \sigma^2 </math>
 
Supponiamo ora di avere n variabili aleatorie indipendenti X<sub>1</sub>, X<sub>2</sub>, …, X<sub>n</sub> aventi la stessa funzione di distribuzione ''F'' e di volere stimare il parametro &theta;(''F'') (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione di distribuzione ''F''). Sia g(X<sub>1</sub>, X<sub>2</sub>, …, X<sub>n</sub>) lo stimatore proposto per &theta;(''F''); se questo non corrisponde al valore medio, il metodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si può stimare l’errorel'errore quadratico medio che si commette quando si usa questo stimatore:
 
<math> EQM(F) = E_F[(g (X_1, X_2, ... , X_n) - \theta(F))^2] </math>
 
Dove il pedice ''F'' significa che il valore d’aspettazioned'aspettazione viene calcolato rispetto alla funzione di distribuzione ''F'' che per il momento è incognita.
 
Un metodo per stimare tale quantità è quello del bootstrap, utilizzando la funzione di distribuzione empirica ''F''<sub>e</sub>(x) definita da:
Riga 126:
 
Va rilevato, da un punto di vista operativo, che il dimensionamento della simulazione si supera facilmente grazie alla crescente disponibilità di potenza di calcolo.
In altre parole, procedendo all'uso del metodo su calcolatore, sarà sufficentesufficiente generare una serie di prove di ampiezza sicuramente ridondante per assicurarsi la significatività della stima.
 
[[categoria:statistica]]