Informatica 5 Liceo Scientifico Scienze Applicate/Jacobi Risoluzione Sistemi Lineari: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Riga 1:
{{Informatica 5 Liceo Scientifico Scienze Applicate}}
== Risoluzione di un sistema di equazioni lineari con JacopiJacobi ==
 
Siamo partiti a risolvere un sistema lineare con il metodo della sostituzione adatto per piccoli sistemi e calcolato manualmente, siamo passati a risolverlo numericamente con Cramer e poi abbiamo visto una soluzione tramite Gauss. In tutti i casi precedenti abbiamo trovato l'esatta soluzione del problema. Ora ci spostiamo in una nuova dimensione delle tecniche risolutive e illustriamo il metodo di Carl Gustav Jacob Jacobi (Potsdam, 10 dicembre 1804 – Berlino, 18 febbraio 1851) . Pensiamo di essere nel 1825 e prendiamo carta e penna<br />
Riga 71:
|}
 
guardando i valori mi accorgo che c'e' stata una convergenza sui valori assunti dalle incognite , incredibile ma queste sono le soluzioni del sistema di equazioni iniziali , calcolandole con cramerCramer si ha infatti<br />
 
 
Riga 82:
x3= 0.27586
 
Ora JacopiJacobi come metodo per risolvere il problema propone di scomporre la matrice A dei coefficienti delle incognite nella matrice D (che deve essere invertibile) che contiene solo i coefficienti sulla diagonale e nella matrice N in cui ci sono tutti i coefficienti della A invertiti di segno esclusi quelli della diagonale , cioe'<br />
 
A = D - N<br />
Riga 99:
 
 
ci fermiamo nel calcolo quando x(k) e' vicino a x(k+1) ammesso che ci sia la convergenza, naturalmente i matematici che sono precisi il vicino lo traducono con una espressione matematica che prende il nome di norma ( di norme ce ne sono piu' di una , vengono costruite in modo tale da garantire proprieta' particolari (funzione positiva, omogeneita', rispetto diseguaglianza triangolare) . Ora una norma (che prende il nome di norma euclidea) per stabilire quanto diversi/uguali sono due vettori x e y e' la seguente
<br />
 
Riga 111:
Interessante data una matrice A e' sapere prima di procedere con jacobi se ci sara' convergenza , ci sono alcune dimostrazioni che dicono c'e' convergenza se la matrice A e' una matrice diagonale dominante per righe, un'altra dimostrazione dice c'e' convergenza se l'autovalore max di inv(D)*N e' minore in modulo di 1 (raggio spettrale minore di uno).<br />
 
Altra cosa interessante da sapere e' la velocita' di convergenza del metodo, cioe' quante iterazioni dobbiamo fare. Oltre alla tecnica di JacopiJacobi c'e' ne sono altre similari (Gauss-Siedel ,SOR etc) che partono da una scomposizione della matrice A diversa da quella operata da JacopiJacobi e che assicurano la convergenza in casi in cui non c'e con il metodo di JacopiJacobi e altre volte garantiscono una velocita' di convergenza maggiore di JacopiJacobi. Non tutti i sistemi di equazioni lineari convergono con questi metodi iterativi.<br />
In generale se la matrice e' densa e di dimensione contenuta si usano i metodi diretti (Cramer , eliminazione di Gauss) che consentono la risoluzione esatta del sistema di equazioni e non presentano problemi di convergenza e terminano in un numero finito di passi; se la matrice e' sparsa o di grandi dimensioni si usano quelli indiretti (Jacobi, Gauss-Siedel , del Sovrarilassamento SOR etc ) che sono piu' veloci computazionalmente ma che possono presentare problemi di convergenza
[[Categoria:Informatica 5 Liceo Scientifico Scienze Applicate|Informatica Teorica]]