Filosofia dell'informatica/La nascita dell'informatica: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
→‎Claude Shannon: inserita immagine
Riga 40:
 
=== Claude Shannon ===
[[File:ClaudeShannon MFO3807.jpg|thumb|Claude Shannon]]
Claude Shannon (1916-2001) è il padre della [[w:teoria dell'informazione]], una disciplina dell'informatica e delle telecomunicazioni il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e alla trasmissione di informazioni su un canale fisico di comunicazione.
 
La grandezza che misura la quantità di dati prende il nome di [[w:Entropia (teoria dell'informazione)|entropia]] ed è solitamente espressa come numero di bit necessari per immagazzinare o trasmettere l'informazione. Ad esempio, se un alfabeto ha un'entropia pari a 4 bit, allora, preso un numero sufficiente di parole costruite con tale alfabeto, in media sono necessari 4 bit per rappresentare ogni lettera. L'applicazione dei concetti fondamentali della teoria dell'informazione include la compressione senza perdite dei file. L'impatto della teoria dell'informazione, che si pone a metà strada tra la matematica applicata, la statistica, la fisica applicata, le telecomunicazioni e l'informatica, è stato fondamentale nelle missioni spaziali, nell'invenzione del compact disc, dei telefonini, di Internet, nello studio della linguistica e in numerosissimi altri campi.
 
Shannon nel 1932 iniziò gli studi presso l'Università del Michigan, dove, nel 1936, conseguì due lauree: in matematica e in ingegneria elettronica. Shannon si iscrisse quindi al Massachusetts Institute of Technology, dove frequentò, tra l'altro, il laboratorio nel quale, sotto la direzione di [[w:Vannevar Bush|Vannevar Bush]], si lavorava alla realizzazione dell'[[w:analizzatore differenziale]], un calcolatore analogico. Nel 1938 conseguì il titolo di ''Master of Science'' in ingegneria elettronica presentando la tesi ''[[w:Un'analisi simbolica dei relè e dei circuiti]]''. In questo studio Shannon dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori - cioè dispositivi che possono essere in uno di due stati - segue esattamente le regole dell'[[w:algebra di Boole]], se si fanno corrispondere i due valori di verità - VERO e FALSO - della logica simbolica allo stato APERTO o CHIUSO di un interruttore. Pertanto un circuito digitale può essere descritto da un'espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra. Shannon definì così un potente metodo, ancora oggi usato, per l'analisi e la progettazione dei sistemi digitali di elaborazione dell'informazione.
 
Nel 1948 pubblicò il saggio ''[[w:Una teoria matematica della comunicazione]]'', un importante trattato scientifico che poneva la base teorica per lo studio dei sistemi di codificazione e trasmissione dell'informazione. In questo lavoro si concentrò sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente. Fu in questa ricerca che Shannon coniò la parola ''[[w:Bit (informatica)|bit]]'', per designare l'unità elementare d'informazione. La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare le informazioni in modo da poterle trasferire e collegare tra loro. Nel 1949 pubblicò un altro notevole articolo, ''[[w:La teoria della comunicazione nei sistemi crittografici]]'', con il quale praticamente fondò la teoria matematica della crittografia. Shannon è inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).