Differenze tra le versioni di "Filosofia dell'informatica/L'intelligenza artificiale"

 
==Le origini del pensiero meccanico==
Il campo di ricerca e gli studi che ruotano attorno alla tematica dell'Intelligenza Artificiale hanno una storia molto recente. Possiamo indicare il 1956 come anno in cui nasce tale disciplina anche se troviamo ampie e chiare anticipazioni, se pur a livello concettuale, nelle tesi di Alan Turing. Quest'ultimo, analizzando il comportamento adottato dall'uomo nell'effettuare un calcolo, giunge alla conclusione che tutto ciò può essere riprodotto meccanicamente da una macchina, si pensi al suo celebre saggio, "una macchina può pensare?", all'interno del quale tramite un test si propone la possibilità di verificare se una macchina possa essere pensata come intelligente o no.
La disciplina dell'intelligenza artificiale ,dunque, ruota attorno ai tentativi dell'uomo di realizzare dispositivi in grado di aiutarlo, se non di sostituirlo, non solo in discipline di carattere pratico ma anche teorico, quali l'elaborazione di calcoli complessi, il controllo e la pianificazione, la consulenza specializzata in alcune prestazioni professionali . L’i. artificiale è caratterizzata dall’interesse per gli aspetti di: percezione dell’ambiente, per es. attraverso l’elaborazione di segnali provenienti da sensori di vario tipo per estrarre gli elementi utili alle decisioni o alla comprensione; interazione con l’ambiente, per es. attraverso interfacce uomo-macchina basate su meccanismi di comprensione del linguaggio naturale, dei manoscritti, di segnali vocali o di immagini; apprendimento, con conseguente modifica del comportamento nel tempo; rappresentazione della conoscenza, sia per una efficace interazione con l’ambiente, sia per facilitare l’analisi, sia per un’efficace soluzione dei problemi di decisione; risoluzione di problemi, anche di tipo non strutturato e tale da richiedere l’elaborazione di informazioni in forma simbolica; realizzazione di processi decisionali ovvero traduzione di decisioni aggregate in decisioni operative e, in particolari ambiti, attuazione delle decisioni. Tuttavia affiancano l'IA una serie paradossi che vedono l'inconciliabilità del concetto di "macchina" con quello di "intelligenza" , per penetrare in fondo a tale paradossalità e tentarne la risoluzione è bene analizzare la varie tappe che portarono alla realizzazione di una macchina che possiamo considerare intelligente : il calcolatore.
Le radici concettuali riguardanti la possibilità di ridurre il ragionamento ad un calcolo e, la possibilità di costruire una macchina, che fosse in grado di realizzare questo calcolo, risalgono a Leibnitz. Concretamente questo progetto fu messo su carta da Babbage che tuttavia, non ebbe mai la possibilità di realizzarlo. "Mark I" fu il primo esempio di calcolatore che aveva tutte le caratteristiche indicate da Babbage. Era una macchina a programma, le istruzioni per eseguire un calcolo, una volta codificate in forma binaria su un nastro di carta perforato, potevano essere effettuate sequenzialmente in modo automatico, cioè senza l'intervento umano. Il suo inventore fu il fisico Howard Aiken il quale tuttavia solo ad uno scherzo del destino deve la sua fama. Sembra infatti che prima di Aiken, l'ingegnere Konrad Zuse avesse realizzato un calcolatore automatico, che usava una rappresentazione completamente binaria noto come "Z3" il quale andò distrutto a causa dei bombardamenti degli alleati sulla Germania. In questo contesto il conflitto mondiale assume una notevole importanza, proprio l'incalzare della guerra e la necessità di cogliere di sorpresa il nemico con innovazioni tecnologiche sempre migliori ed efficienti stimolò i più a fare ricerche ed introdurre innovazioni. Si pensi Robert Wiener il quale contribuisce alla sostituzione del calcolatore analogico con quello digitale più veloce e preciso nei calcoli. Wiener , in particolare, può essere considerato il padre della cibernetica ovvero, usando le parole dello stesso, " lo studio del controllo e della comunicazione negli animali e nelle piante". Ancora al contesto della seconda Guerra Mondiale ricolleghiamo la venuta di "Colossus" ,il più grande calcolatore automatico mai realizzato, completamente elettronico con valvole al posto dei relè meccanici, che contribuì nella decrittazione dei codici militari Tedeschi. Alla realizzazione di Colossus contribuì Alan Turing affiancato dal matematico Max Newman. Alan Turing negli anni a seguire partecipò alla realizzazione di altri calcolatori ad esempio dell'ACE e del MADM ma la vera svolta si ebbe negli Stati Uniti con ENIAC, il più grande calcolatore mai costruito alla cui realizzazione partecipò il matematico John von Neuman. Egli ideò un calcolatore di nuova concezione, che sarebbe rimasta sostanzialmente immutata fino ad oggi, concepito non soltanto come un recipiente di dati ma come un sistema capace di elaborare e manipolare quei dati. All'ENIAC seguirono l'EDSAC e l'EDVAC, questi calcolatori avevano due caratteristiche fondamentali : erano capaci di manipolare non solo simboli numerici ma anche simboli generali, e l'istruzione di "salto condizionato", con il quale si dà al calcolatore una capacità discriminativa. La macchina in questo caso non si limita a seguire le istruzioni ma valuta esse stessa quale ordine di esecuzione adottare. Queste due capacità presenti nei calcolatori fecero si che si iniziasse a parlare di "pensiero meccanico" .Un valido esempio di queste proprietà è rappresentato dai nuovi programmi per l'EDSAC in particolare è da tenere presente in questo contesto quello ideato da Anthony Oettinger. Quest'ultimo aveva ideato programmi in grado di apprendere basando la propria capacità di agire sull'esperienza e sulla capacità memorizzare tali esperienze,(quindi un tipo di apprendimento mnemonico), di conseguenza, nel momento in cui tale programma si ritrova ad agire lo farà in maniera automatica, avendo memorizzato il comportamento da adattare. Queste procedure permettevano alla macchina di scegliere tra varie alternative a seconda dei risultati ottenuti in precedenza, di conseguenza esse "organizzavano sensatamente" l'informazione.
Durante questo periodo, dunque, si facevano spazio una molteplicità di programmi che imitavano prestazioni umane o erano in competizione con esse. Ricordiamo in questo contesto oltre Oettinger, il matematico, informatico statunitense Shannon, ma, il programma che ebbe maggiore impatto fu quello proposto da Rochester, il quale si era proposto di simulare su IBM 701 (il primo calcolatore commerciale prodotto dalla IBM), la teoria sviluppata dallo psicologo Donald Hebb, per il quale l'apprendimento consisteva nel rafforzamento delle connessioni tra neuroni, ripetutamente attivati. Tutto ciò portò allo snodarsi di una duplice direzione che l'intelligenza artificiale avrebbe potuto prendere : da un lato il coinvolgimento del calcolatore elettronico nelle ricerche neurologiche, dove esso può essere utilizzato per controllare teorie per il funzionamento del cervello, dall'altro l'utilizzo del calcolatore per "funzioni superiori" che tuttavia non includano la simulazione della struttura biologica celebrale.
All'origine dell'intelligenza artificiale vi è lo studio del comportamento decisionale nei giochi. Shannon aveva iniziato a fare questo tipo di ricerche concentrandosi sul gioco degli scacchi. Un calcolatore elettronico che possedesse questo tipo di programma doveva essere programmato in modo tale che potesse in qualche modo anticipare le mosse avversarie e di conseguenza conoscere tutte le possibili mosse e le risposte relative a quest'ultime. Shannon tentò di realizzare tutto ciò tramite l'applicazione della teoria del minimax. Il minimax, nella teoria delle decisioni, è un metodo per minimizzare la massima (minimax) perdita possibile; in alternativa, per massimizzare il minimo guadagno (maximin). Fu scoperto nella teoria dei giochi in caso di gioco a somma zero con due giocatori, sia nel caso di mosse alternative (turni) che di mosse simultanee, venendo successivamente esteso a giochi più complessi e al supporto decisionale in presenza di incertezza.Una versione semplice dell'algoritmo si può vedere in giochi come il tic-tac-toe (tris) dove è possibile vincere, perdere o pareggiare.
Se il giocatore A può vincere con una sola mossa, la mossa migliore è quella vincente.
Se il giocatore B sa che una data mossa porterà A a poter vincere con la sua prossima mossa, mentre un'altra lo porterà a pareggiare, la migliore mossa del giocatore B è quella che lo porterà alla patta.
Verso la fine del gioco è facile capire quali sono le mosse migliori; l'algoritmo minimax trova la mossa migliore in un dato momento cercandola a partire dalla fine del gioco e risalendo verso la situazione corrente. Ad ogni passo l'algoritmo assume che il giocatore A cerchi di massimizzare le sue probabilità di vincere, mentre B cerchi di minimizzare le probabilità di vittoria di A, per esempio massimizzando le proprie chances di vittoria.
Nel caso di Shannon questa teoria trova una difficoltà insormontabile nell'esplosione combinatoria delle mosse possibili. Tali considerazioni furono riprese e migliorate da un altro studioso Samuel, il quale utilizzò la dama per sperimentare la capacità di apprendere delle macchine. Il programma di Samuel risolveva il problema di Shannon applicando un tipo di "apprendimento mnemonico" , già visto in Oettinger, tramite cui la macchina memorizzava mosse e situazioni già compiute che davano la possibilità di svolgere un analisi più approfondite delle possibili mosse. Un'altra impostazione veniva invece adottata da Simon, egli aveva abbandonato l'idea della studio di una strategia ottimale ed impeccabile che considera la sola astratta razionalità, per introdurre l'aspetto psicologico nello studio della scelta . L'agente è infatti condizionato da una serie di fattori che non gli permettono di mettere in atto strategie ottimali ma solo strategie parziali, di conseguenza la sua programmazione nel gioco degli scacchi non era basata sui perfezionamenti della funzione di valutazione di Shannon ma sulle strategie soddisfacenti che egli aveva considerato il cuore dei processi umani di soluzione di problemi. Ad affiancare Simon fu il fisico Allen Newell con cui abbandonò il progetto del programma per gli scacchi per concludere quello di un dimostratore automatico di teoremi della logica enunciativa.
 
==Il seminario di Dartmouth==
1

contributo