Filosofia dell'informazione/Cibernetica: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Corretto: "cerebrali"
Corretto: "riguardo agli"
 
Riga 1:
{{Filosofia dell'informazione}}
 
Tra il 1960 e il 1970, le precedenti linee di ricerca utilizzate nella cibernetica classica furono abbandonate; si verificarono in quegli anni, infatti, i primi successi di una nuova disciplina, la quale riassunse l’ambizione della stessa cibernetica e il suo battersi per lo studio pianificato di organismi e macchine, sebbene su basi completamente differenti: l’Intelligenza Artificiale (AI). Nonostante ciò, molti tipici programmi di ricerca cibernetici furono ripresi, includendo il tentativo di riformulare la materia. L’obiettivo dell’AI può essere definito funzionalmente tramite la nozione di feedback negativo, nonostante molti filosofi argomentassero che quest’ultima non adempisse realmente alle condizioni necessarie per considerarla uno schema comportamentale appropriato: una definizione tale è infatti esclusivamente relativa ad un osservatore esterno, il quale attribuisce un obiettivo al sistema, tuttavia essa non dice nulla riguardo l’obiettivoall’obiettivo del sistema in questione. È infatti opportuno puntualizzare che il segnale di feedback in sé rappresenta uno scopo già esistente nell’ambiente esterno, il quale guida un determinato comportamento del sistema: nel caso di “oggetti non esistenti”, che possono ciononostante rappresentare il contenuto di credenze o desideri del sistema, l’approccio cibernetico non sembra avere nulla da dire. I pionieri della AI criticano inoltre la capacità di simulazione dei processi cognitivi dei sistemi proposti dalla cibernetica, la quale puntò su ciò con l’intento di riprodurre comportamenti teleologici artificiali, come creare deduzioni o risolvere problemi, al fine di studiare le procedure d’azione del sistema, realizzate da uno specifico programma teleologicamente orientato. In questo caso, furono utilizzate strutture simbolo degli scopi perseguiti, detentrici di informazioni riguardo gliagli scopi perseguiti; alcune di esse erano atte ad organizzare il comportamento del sistema in complesse gerarchie, selezionando metodi per testare il raggiungimento dei singoli scopi. Due esempi sono il giocare a scacchi e il provare teoremi, attività riguardanti l’ambito di compiti preferito dalla prima AI: in essi, la risoluzione dei problemi costruisce una rappresentazione interna dello spazio del problema e lavora a strategie finalizzate a trovare una soluzione, o obiettivo; in questi casi, non è necessario per l’attività teleologica essere guidata da uno stato finale che realmente esiste nell’ambiente esterno (Phiylyshyn 1984).
Come ritiene la simulazione dei processi cognitivi, l’introduzione dei concetti di algoritmi, che sottolinea il concetto di programma, rappresenta un importante progresso, portando allo sviluppo della Scienza Cognitiva. Suggerito dalla nozione di algoritmo o, più precisamente, della macchina di Touring, è una critica posizione filosofica di materialismo riduzionista all’interno del problema mente-corpo, ovvero il funzionalismo, introdotto da Putnam con il suo articolo Menti e macchine (1960). Putnam argomentò che vi è la possibilità di studiare gli stati mentali non riferendoli direttamente a stati cerebrali, ma sulle basi della loro organizzazione funzionale, che riguarda le loro interazioni reciproche e con input sensoriali e output comportamentali.
Il declino della ricerca sui network neurali divenne generalizzato dopo una pubblicazione di Minsky e Papert del 1969, la quale dimostrava le difficoltà effettive riscontrate dai Perceptron nel discernere anche stimoli visuali molto semplici. Nonostante questi primi fallimenti, molti ricercatori continuarono a lavorare sui network neurali; il lavoro di Rosenblatt giustificò tale continuità nei primi anni ‘80, grazie allo sviluppo dei grandi computer, permettendo la finallora impossibile simulazione di complessi network neurali. David Rumelhart e diversi collaboratori pubblicarono inoltre una serie di documenti basati sui trattamenti paralleli distribuiti approcciati all’informazione, mostrando come un algoritmo d’insegnamento basato sulla correzione dell’errore renda possibile superare le principali limitazioni dei network neurali riportate da Minsky e Papert. A partire dal 1980, le ricerche sui network neurali differirono fortemente dall’originale realizzazione di Perceptron, e proposero modelli con un’architettura molto più vicina al cervello umano rispetto ai modelli algoritmici proposti dall’AI e dalla Scienza Cognitiva. Anche la costruzione di robot mobili arrivò molto presto al proprio declino, dovuto alla predominanza dell’interesse in AI nelle procedure di ragionamento, pianificazione e problem solving. Rodney Brooks ha puntualizzato i limiti di entrambe la robotica AI e la robotica cibernetica, come ad esempio la sottovalutazione della possibilità di decomporre comportamenti in semplici moduli o il mancato riconoscimento del potenziale comunicativo digitale e la sua grande flessibilità di computazione analogica. Il nuovo progetto proposto da Brooks apparve come una radicale alternativa all’approccio della robotica AI: esso si basava infatti su livelli distinti di controllo funzionale, agenti progressivamente sull’ambiente senza essere supervisionati da un controllo centralizzato e da un centro di pianificazione dell’azione, come nel caso invece della robotica AI. Un esempio ne è il robot Allen, primo membro di questa generazione di nuove “creature”, capace di evitare ostacoli nel suo cammino e continuando invece a perseguire un obiettivo assegnatogli. Nonostante tale approccio fosse limitato dalla difficoltà di combinare un numero crescente di moduli elementari per ottenere comportamenti più complessi, esso riuscì a portare alla luce molti aspetti trascurati dalla prima AI e dal funzionalismo radicale, come lo sviluppo cognitivo.