Filosofia dell'informatica/L'intelligenza artificiale

Indice del libro

La cibernetica

modifica

La cibernetica e le sue origini sono riconducibili alla figura di Norbert Wiener, considerato come padre e fondatore di questa disciplina. Nasce come una scienza interessata allo “studio del controllo e della comunicazione negli animali e nelle macchine”. Wiener mira di fatti a focalizzare l’attenzione sulla capacità degli esseri umani di produrre ed elaborare informazioni. All’interno del suo saggio “Introduzione alla cibernetica”, pubblicato nel 1950, cerca di far distinzione, in maniera quanto più chiara possibile, tra le diverse circostanze nelle quali, dopo l’avvento della macchina, l’individuo si ritrova calato; gli undici capitoli che compongono l’opera sono un percorso graduale attraverso cui ci si va ad interrogare sul rapporto uomo-macchina e su come questi possano divenire, causa i progressi della tecnica e della scienza, soggetti interagenti all’interno di un sistema comunicativo. L’indagine che viene condotta dalla cibernetica non sfocia in un’analisi sull’uomo che si avvale degli stessi principi utilizzabili per le macchine, Wiener sottolinea come sia fondamentale ricalcare tale connotazione ai fini di non privare l’uomo della propria natura. Il matematico statunitense plasma la cibernetica nel campo dello studio circa il sistema comunicativo societario; partendo da questa base si arriva a prendere in considerazione le modalità di comunicazione di una macchina che si fondano sui concetti di immissione ed emissione, dopo aver recepito i dati esterni questi vengono elaborati ai fini di produrre un effetto sul mondo esterno stesso. Tali dinamiche non sono nient’altro che una riproduzione, quanto più fedele possibile, dei processi umani compiuti durante la comunicazione. È una scienza che va a connotarsi nel panorama scientifico, ma che nel contempo andrà ad appartenere anche a quello artistico data la vastità di nozioni di cui dispone, lo stesso Wiener la definirà come una tecnica “che non si può confinare in una stanza”.

L'Intelligenza Artificiale

modifica

L'Intelligenza Artificiale consiste nella costruzione di macchine "pensanti", ossia capaci di aiutare o assistere l'uomo nel risolvere compiti teorici o pratici. La sua nascita ufficiale risale al 1956. Già Alan Turing, uno dei padri dei moderni computer, affrontò i principali problemi che hanno dato luogo a diverse interpretazioni del programma di ricerca dell'IA. Con l'avvento della sua macchina, Turing discusse le obiezioni di una "macchina intelligente" dovute all'incompatibilità della nozione di "automatismo" con quella di "intelligenza".

Tra i diversi campi di studio dell'IA, si è sviluppata la robotica, il cui scopo principale è quello di sostituire l'uomo in alcune attività produttive. I robot della prima generazione hanno capacità di memoria, mentre quelli della seconda vengono progettati per interagire con l'ambiente esterno. Nel 1956 Allen Newell e Herbert Simon e Shaw hanno creato il Logic Theorist, un programma capace di imitare il problem solving di un essere umano.

Il Logic Theorist ha avuto un ruolo protagonista nel seminario estivo organizzato da Minsky, Rochester, Shannon e McCarty. L'obiettivo di tale incontro era quello di esaminare che ogni aspetto dell'apprendimento può essere specificato, affinché sia possibile costruire una macchina che la simuli. Il seminario si tenne nel Dartmouth College. Qui i fondatori dell'IT discussero con McCarthy sul fatto che la programmazione dell'LT non fosse scritta in linguaggio macchina, bensì di un livello superiore. Esso fu considerato come il miglior progetto in stato di realizzazione avanzato tra quelli discussi a Dartmouth.

Le origini del pensiero meccanico

modifica

Il campo di ricerca e gli studi che ruotano attorno alla tematica dell'IA hanno una storia molto recente. Possiamo indicare il 1956 come anno in cui nasce tale disciplina anche se troviamo ampie e chiare anticipazioni, se pur a livello concettuale, nelle tesi di Alan Turing. Quest'ultimo, analizzando il comportamento adottato dall'uomo nell'effettuare un calcolo, giunge alla conclusione che tutto ciò può essere riprodotto meccanicamente da una macchina, si pensi al suo celebre saggio, "una macchina può pensare?", all'interno del quale tramite un test si propone la possibilità di verificare se una macchina possa essere pensata come intelligente o no.

La disciplina dell'IA,dunque, ruota attorno ai tentativi dell'uomo di realizzare dispositivi in grado di aiutarlo, se non di sostituirlo, non solo in discipline di carattere pratico ma anche teorico, quali l'elaborazione di calcoli complessi, il controllo e la pianificazione, la consulenza specializzata in alcune prestazioni professionali. L’IA è caratterizzata dall'interesse per gli aspetti di: percezione dell’ambiente, per es. attraverso l’elaborazione di segnali provenienti da sensori di vario tipo per estrarre gli elementi utili alle decisioni o alla comprensione; interazione con l’ambiente, per es. attraverso interfacce uomo-macchina basate su meccanismi di comprensione del linguaggio naturale, dei manoscritti, di segnali vocali o di immagini; apprendimento, con conseguente modifica del comportamento nel tempo; rappresentazione della conoscenza, sia per una efficace interazione con l’ambiente, sia per facilitare l’analisi, sia per un’efficace soluzione dei problemi di decisione; risoluzione di problemi, anche di tipo non strutturato e tale da richiedere l’elaborazione di informazioni in forma simbolica; realizzazione di processi decisionali ovvero traduzione di decisioni aggregate in decisioni operative e, in particolari ambiti, attuazione delle decisioni. Tuttavia affiancano l'IA una serie paradossi che vedono l'inconciliabilità del concetto di "macchina" con quello di "intelligenza", per penetrare in fondo a tale paradossalità e tentarne la risoluzione è bene analizzare la varie tappe che portarono alla realizzazione di una macchina che possiamo considerare intelligente: il calcolatore.

Le radici concettuali riguardanti la possibilità di ridurre il ragionamento ad un calcolo e di costruire una macchina, che fosse in grado di realizzare questo calcolo, risalgono a Leibniz. Concretamente questo progetto fu messo su carta da Babbage che tuttavia, non ebbe mai la possibilità di realizzarlo. "Mark I" fu il primo esempio di calcolatore che aveva tutte le caratteristiche indicate da Babbage. Era una macchina a programma, le istruzioni per eseguire un calcolo, una volta codificate in forma binaria su un nastro di carta perforato, potevano essere effettuate sequenzialmente in modo automatico, cioè senza l'intervento umano.

Il suo inventore fu il fisico Howard Aiken il quale tuttavia solo ad uno scherzo del destino deve la sua fama. Sembra infatti che prima di Aiken, l'ingegnere Konrad Zuse avesse realizzato un calcolatore automatico, che usava una rappresentazione completamente binaria noto come "Z3" il quale andò distrutto a causa dei bombardamenti degli alleati sulla Germania. In questo contesto il conflitto mondiale assume una notevole importanza, proprio l'incalzare della guerra e la necessità di cogliere di sorpresa il nemico con innovazioni tecnologiche sempre migliori ed efficienti stimolò i più a fare ricerche ed introdurre innovazioni. Si pensi Robert Wiener il quale contribuisce alla sostituzione del calcolatore analogico con quello digitale più veloce e preciso nei calcoli. Wiener, in particolare, può essere considerato il padre della cibernetica ovvero, usando le parole dello stesso, "lo studio del controllo e della comunicazione negli animali e nelle piante". Ancora al contesto della seconda Guerra Mondiale ricolleghiamo la venuta di "Colossus" ,il più grande calcolatore automatico mai realizzato, completamente elettronico con valvole al posto dei relè meccanici, che contribuì nella decrittazione dei codici militari Tedeschi. Alla realizzazione di Colossus contribuì Alan Turing affiancato dal matematico Max Newman. Alan Turing negli anni a seguire partecipò alla realizzazione di altri calcolatori ad esempio dell'ACE e del MADM ma la vera svolta si ebbe negli Stati Uniti con ENIAC, il più grande calcolatore mai costruito alla cui realizzazione partecipò il matematico John von Neuman. Egli ideò un calcolatore di nuova concezione, che sarebbe rimasta sostanzialmente immutata fino ad oggi, concepito non soltanto come un recipiente di dati ma come un sistema capace di elaborare e manipolare quei dati. All'ENIAC seguirono l'EDSAC e l'EDVAC, questi calcolatori avevano due caratteristiche fondamentali: erano capaci di manipolare non solo simboli numerici ma anche simboli generali, e l'istruzione di "salto condizionato", con il quale si dà al calcolatore una capacità discriminativa. La macchina in questo caso non si limita a seguire le istruzioni ma valuta esse stessa quale ordine di esecuzione adottare.

Queste due capacità presenti nei calcolatori fecero si che si iniziasse a parlare di "pensiero meccanico". Un valido esempio di queste proprietà è rappresentato dai nuovi programmi per l'EDSAC in particolare è da tenere presente in questo contesto quello ideato da Anthony Oettinger. Quest'ultimo aveva ideato programmi in grado di apprendere basando la propria capacità di agire sull'esperienza e sulla capacità memorizzare tali esperienze (quindi un tipo di apprendimento mnemonico), di conseguenza, nel momento in cui tale programma si ritrova ad agire lo farà in maniera automatica, avendo memorizzato il comportamento da adattare. Queste procedure permettevano alla macchina di scegliere tra varie alternative a seconda dei risultati ottenuti in precedenza, di conseguenza esse "organizzavano sensatamente" l'informazione.

Durante questo periodo, dunque, si facevano spazio una molteplicità di programmi che imitavano prestazioni umane o erano in competizione con esse. Ricordiamo in questo contesto oltre Oettinger, il matematico, informatico statunitense Shannon, ma, il programma che ebbe maggiore impatto fu quello proposto da Rochester, il quale si era proposto di simulare su IBM 701 (il primo calcolatore commerciale prodotto dalla IBM), la teoria sviluppata dallo psicologo Donald Hebb, per il quale l'apprendimento consisteva nel rafforzamento delle connessioni tra neuroni, ripetutamente attivati. Tutto ciò portò allo snodarsi di una duplice direzione che l'IA avrebbe potuto prendere: da un lato il coinvolgimento del calcolatore elettronico nelle ricerche neurologiche, dove esso può essere utilizzato per controllare teorie per il funzionamento del cervello, dall'altro l'utilizzo del calcolatore per "funzioni superiori" che tuttavia non includano la simulazione della struttura biologica cerebrale.

All'origine dell'IA vi è lo studio del comportamento decisionale nei giochi. Shannon aveva iniziato a fare questo tipo di ricerche concentrandosi sul gioco degli scacchi. Un calcolatore elettronico che possedesse questo tipo di programma doveva essere programmato in modo tale che potesse in qualche modo anticipare le mosse avversarie e di conseguenza conoscere tutte le possibili mosse e le risposte relative a quest'ultime. Shannon tentò di realizzare tutto ciò tramite l'applicazione della teoria del minimax. Il minimax, nella teoria delle decisioni, è un metodo per minimizzare la massima (minimax) perdita possibile; in alternativa, per massimizzare il minimo guadagno (maximin). Fu scoperto nella teoria dei giochi in caso di gioco a somma zero con due giocatori, sia nel caso di mosse alternative (turni) che di mosse simultanee, venendo successivamente esteso a giochi più complessi e al supporto decisionale in presenza di incertezza.Una versione semplice dell'algoritmo si può vedere in giochi come il tic-tac-toe (tris) dove è possibile vincere, perdere o pareggiare. Se il giocatore A può vincere con una sola mossa, la mossa migliore è quella vincente. Se il giocatore B sa che una data mossa porterà A a poter vincere con la sua prossima mossa, mentre un'altra lo porterà a pareggiare, la migliore mossa del giocatore B è quella che lo porterà alla patta. Verso la fine del gioco è facile capire quali sono le mosse migliori; l'algoritmo minimax trova la mossa migliore in un dato momento cercandola a partire dalla fine del gioco e risalendo verso la situazione corrente. Ad ogni passo l'algoritmo assume che il giocatore A cerchi di massimizzare le sue probabilità di vincere, mentre B cerchi di minimizzare le probabilità di vittoria di A, per esempio massimizzando le proprie chances di vittoria.

Nel caso di Shannon questa teoria trova una difficoltà insormontabile nell'esplosione combinatoria delle mosse possibili. Tali considerazioni furono riprese e migliorate da un altro studioso Samuel, il quale utilizzò la dama per sperimentare la capacità di apprendere delle macchine. Il programma di Samuel risolveva il problema di Shannon applicando un tipo di "apprendimento mnemonico", già visto in Oettinger, tramite cui la macchina memorizzava mosse e situazioni già compiute che davano la possibilità di svolgere un'analisi più approfondite delle possibili mosse. Un'altra impostazione veniva invece adottata da Simon, egli aveva abbandonato l'idea della studio di una strategia ottimale ed impeccabile che considera la sola astratta razionalità, per introdurre l'aspetto psicologico nello studio della scelta . L'agente è infatti condizionato da una serie di fattori che non gli permettono di mettere in atto strategie ottimali ma solo strategie parziali, di conseguenza la sua programmazione nel gioco degli scacchi non era basata sui perfezionamenti della funzione di valutazione di Shannon ma sulle strategie soddisfacenti che egli aveva considerato il cuore dei processi umani di soluzione di problemi. Ad affiancare Simon fu il fisico Allen Newell con cui abbandonò il progetto del programma per gli scacchi per concludere quello di un dimostratore automatico di teoremi della logica enunciativa.

Il seminario di Dartmouth

modifica

La conferenza di Dartmouth si riferisce al Dartmouth Summer Research Project on Artificial Intelligence, svoltosi nel 1956, e considerato come l'evento ufficiale che segna la nascita del campo di ricerca. L'evento viene proposto nel 1955 da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in un documento informale di 17 pagine noto come 'proposta di Dartmouth'. Il documento introduce per la prima volta il termine di intelligenza artificiale, e motiva la necessità della conferenza con la seguente asserzione:[1]

« Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli. »
(Proposta di Dartmouth, p. 1.)

Il documento discute poi quelli che gli organizzatori considerano i temi principali del campo di ricerca, tra cui le reti neurali, la teoria della computabilità, la creatività e l'elaborazione del linguaggio naturale.

Oltre ai quattro autori della proposta di Dartmouth, la conferenza ebbe altri sei partecipanti: Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert Simon. Durante la conferenza, Newell e Simon presentarono il Logic Theorist, il primo programma esplicitamente progetto per imitare le capacità di problem solving degli esseri umani.

Pro e contro il logicismo, la Visione Artificiale

modifica

Nel 1958 il ricercatore John McCarthy delineò un programma, l'Advice Taker, che avrebbe dovuto essere in grado di elaborare piani e ricavare conseguenze sulla base di un corpo di conoscenze adeguatamente esteso. In seguito Cordell Green, uno studente di McCarthy, implementò l'Advice Taker in un programma, il QA3, in grado di rispondere a diverse domande su domini specifici. Green introdusse una nuova procedura di deduzione automatica, ideata da J.Alan Robinson, il principio di risoluzione: un calcolo logico senza assiomi, avente come obiettivo non la simulazione di processi umani, ma risultati logici di tipo euristico.

Durante gli anni '70 gran parte della ricerca dell'IA si interessò alla formulazione teorica del ragionamento automatico legato ai problemi logici del buon senso, al fine di creare programmi che permettono ai computer di ragionare in modo parzialmente o addirittura completamente automatico.

Gran parte della ricerca sulla deduzione automatica si concentrò sui cosiddetti raffinamenti della risoluzione. Ma a seguito degli insoddisfacenti risultati ottenuti, l’attenzione si spostò sulle procedure euristiche, ispirate ai metodi umani di risoluzione dei problemi. L’impossibilità di utilizzare le prestazioni di QA3 in presenza di problemi complessi mise in evidenza il cosiddetto frame problem, formulato da McCarthy e Patrick Hayes, derivante dai cambiamenti che in un mondo reale possono verificarsi durante l’esecuzione di un piano e che la nostra mente risolve tramite lo sfumato ragionamento del buon senso, caratteristica precipua della logica grigia umana. I due ricercatori posero una netta differenziazione tra i problemi derivanti dal controllo delle inferenze, definiti euristici e i problemi relativi alla rappresentazione della conoscenza, tramite un linguaggio formale, definiti come epistemologici. Per McCarthy la corretta impostazione dei problemi epistemologici può essere preliminare alla soluzione di altri; occorre quindi chiarire prima gli aspetti della logica necessari per catturare il carattere non monotono del ragionamento del buon senso.

Marvin Minsky lanciò un pesante attacco alle tesi logiciste, che a suo avviso non erano in grado di affrontare il carattere olistico della conoscenza umana. Un'idea dominante nel pensiero di Minsky è quella di rendere un computer in grado di gestire non solo dati numerici, ma anche simboli di tipo linguistico per la comprensione di forme di ragionamento basate su analogie e sul senso comune. Secondo Minsky la logica usata nei calcolatori non è adatta a descrivere i processi di pensiero adottati dagli uomini nelle comuni situazioni quotidiane. Egli ricorre pertanto al concetto di frame, un sistema di riferimento capace di fornire al programma una gamma di informazioni che trattano una classe di oggetti o di situazioni. Quando si trova di fronte a un problema da risolvere, il programma seleziona un frame e tenta di applicarlo alla soluzione del problema; se l'esito è negativo, prova con un altro frame, e così via.

Un dibattito tra due scuole di pensiero, dichiarativisti e proceduralisti, divise, sempre negli anni '70, il mondo dell’IA. La tesi dichiarativista, sostenuta in particolare dai logicisti, per la quale la conoscenza è in primo luogo sapere che, e consiste quindi nell'utilizzo di un insieme di fatti e regole per inferirne altri e la tesi proceduralista, per cui la conoscenza è prima di tutto sapere come, e consiste pertanto nel disporre di procedure per l’uso della conoscenza stessa.

Una risoluzione a questi dibattiti fu fornita dalla visione artificiale ideata da David Marr, per il quale sono le caratteristiche fisiche degli oggetti e non le conoscenze del sistema sugli oggetti, a guidare dal basso la loro identificazione nei primi due stadi della percezione visiva (visione primaria). La visione, affermò Marr: "è un processo che a partire da immagini del mondo esterno produce una descrizione utile allo spettatore e non ingombra di informazioni non pertinenti".

Vecchi e nuovi progetti

modifica

Nel 1975, Newell e Simon, ritenendo che un sistema intelligente dovesse essere in grado di trasformare espressioni simboliche in altre, formularono l'ipotesi del sistema fisico di simboli. Partendo da questo presupposto, Newell indagò l'architettura generale dell'intelligenza studiando i sistemi di produzione e arrivando alla creazione di SOAR, architettura basata su un meccanismo di apprendimento detto chunking. Simon, invece, si concentrò sulla simulazione del comportamento umano tramite protocolli verbali, contribuendo alla fondazione del programma BACON. Un passo in avanti fu svolto da Douglas Lenat, interessato alle capacità di apprendimento di una macchina, che avviò, nel 1984, il programma CYC.

Intensificandosi le ricerche sull'IA, nacque, come vera e propria disciplina, la scienza cognitiva che vide coinvolti Zenon Pylyshyn e Philip Johnson-Laird, sostenitori della possibilità di giungere alla conoscenza per via computazionale attraverso strutture di simboli e interessati all'indagine sui limiti dei processi cognitivi. Pylyshyn, distingue i processi cognitivi in penetrabili e non-penetrabili dove i primi sono quelli percettivi, basati su credenze e conoscenze, e i secondi sono quelli superiori, adibiti alla soluzione dei problemi. Johnson-Laird, invece, elaborò la struttura dei modelli mentali. Fu proprio grazie alla nascita di questa disciplina che furono formulate numerose teorie sulle reti neurali favorendo il confronto e il dibattito tra filosofi e psicologi cognitivi. Si iniziò a discutere sulla identità mente-cervello - condivisa dai filosofi - secondo cui ci sarebbe corrispondenza tra uno stato mentale ed uno cerebrale; questa fu ampiamente criticata da Putman, tramite l'ipotesi del funzionalismo. Newell diede un apporto significativo: introdusse il livello della conoscenza ai due già individuati dall'IA, quello fisico (hardware) e quello dei simboli; ed individua la mente come un dispositivo sintattico che imita il funzionamento della realtà; in questo senso, ciò che causa un evento fisico non è il contenuto di una rappresentazione, ma è la struttura fisica di simboli stessa.

Alla fine degli anni '80 si sono ormai consolidate diverse posizioni, tra cui le più influenti vennero riassunte in cinque punti da David Kirsh:

  1. l'importanza delle regole e della rappresentazione della conoscenza;
  2. il disembodiment, mero studio della cognizione senza tener conto del rapporto mente-corpo;
  3. il carattere linguistico dell'attività cognitiva;
  4. lo studio dei processi cognitivi astratti dal contesto naturale;
  5. l'invariabilità dell'architettura durante l'intero processo di cognizione.

Con l'adesione o meno a queste teorie, i contributi più significativi videro la fondazione dell'IA distribuita, importante per il suo approccio cooperativo - dovuto alla nascita dei sistemi di blackboard- e per il suo approccio sociale. Significativo fu anche l'intervento di Rodney Brooks, il quale contrapponeva all'approccio robotico dall'alto un'architettura della sussunzione, permettendo così la costruzione di robot mobili e automatizzati, in grado di agire in tempo reale in caso di situazioni non previste. Questo fu possibile grazie all'approccio denominato scomposizione di comportamento, dove l'agente è diviso in moduli di controllo specifici e interconnessi tra loro così che si attivino o inibiscano a vicenda, adattando il modello del mondo ai propri scopi. Un altro approccio significativo, un approccio dal basso, fu dato da John Holland, fondatore degli algoritmi genetici, capaci di generare una "prole" di regole per la soluzione di un problema; questi furono inseriti nei sistemi classificatori permettendo di incrementare la conoscenza tramite un processo di aggiunta di nuove stringhe di informazioni finalizzate ad una determinata azione.

La nuova IA

modifica

Accanto all'IA classica o simbolica, che alla fine del '900 si avvia a compiere cinquant'anni di storia, si è sviluppata un'IA "nuova", la cui filosofia è sintetizzata molto bene nel volume di Pfiefer e Scheier intitolato Understanding intelligence

Uno dei principali esiti di questa nuova IA è costituito dalla robotica, che ai tempi di Brooks si è trovata a dover affrontare problemi non facili: uno di questi riguarda il sistema di controllo in robot basati sull'architettura della sussunzione, che consiste nell'assegnare ad ogni comportamento un modulo di controllo. Tale architettura incontra difficoltà nell'integrare efficacemente i moduli man mano che questi vengono aggiunti per ottenere prestazioni più complesse del robot. Da tali difficoltà è partita la robotica evolutiva, che ha usato gli algoritmi genetici come procedura automatica per sviluppare in modo evolutivo il sistema di controllo di un robot nel corso della sua interazione con l'ambiente esterno. Obiettivo della nuova robotica evolutiva è l'autonomia estesa dal livello del comportamento a quello della progettazione e fabbricazione; lo scopo è, in sostanza, costruire riducendo al massimo l'intervento dell'uomo.

Già alcune ricerche indipendenti da Brooks avevano sperimentato sistemi di rappresentazione della conoscenza "ibridi". Successivamente, nel 1998, al simposio della American Association for the Artificial Intelligence, viene proposto un Manifesto della robotica cognitiva basato sull'idea di robot ibridi, con i quali si intendono architetture in grado di manifestare robustezza e azione in tempo reale e di usare sistemi di pianificazione e rappresentazione della conoscenza. In effetti, la nuova robotica ha dovuto fare i conti con lo slogan di Brooks "Intelligenza senza rappresentazione" e con la difficoltà sollevata da Kirsh, consistente nello sviluppare le capacità dei robot da un livello reattivo ad uno che prevede attività più complesse di interazione con l'ambiente.

Tuttavia, lo stesso Brooks è tornato su questa difficoltà, proponendo un nuovo slogan, ossia "Intelligenza senza ragione", ma precisando che la sua precedente critica alle rappresentazioni era diretta contro quelle com'erano concepite dall'IA e la robotica classiche e non contro le rappresentazioni come "modelli parziali del mondo". Tali conclusioni sono rilevanti su due fronti: in primo luogo per la nuova robotica con vocazione etologica; in secondo luogo per la robotica umanoide: essa prevede la realizzazione di robot umanoidi, concepiti per essere in grado di interagire ed eventualmente cooperare con gli essere umani. In virtù di tali compiti ambiziosi, nascono non poche controversie riguardo al rapporto tra esseri umani e robot. I robot umanoidi hanno posto il problema di come dotarli di una morfologia somigliante a quella degli esseri umani, come ad esempio dar loro capacità di mimica facciale e manifestazioni di emozioni. Un esempio di un robot umanoide è il robot Kismet, in grado di manifestare sia semplici espressioni facciali sia elementari convenzioni sociali.

Un progetto di ricerca della nuova IA, critico nei confronti dell'IA simbolica e del connessionismo, è stato la "modellistica neurale sintetica" di G. Edelman. Con diversi collaboratori egli aveva già costruito automi a reti neurali simulati. Gli automi neurali di Edelman incorporano i principi del "darwinismo neurale", teoria secondo la quale l'apprendimento è il risultato di un processo evoluzionistico di selezione di gruppi diversi di neuroni durante lo sviluppo dell'organismo e la sua interazione con l'ambiente. Le macchine sono da lui considerate un controllo di questa teoria. Inoltre, nel campo della nuova IA non mancano anche posizioni che tentano di esplorare un "terreno intermedio" tra sistemi connessionisti e quelli simbolici. Ad esempio, Thornton ha sostenuto un approccio "ibrido" nel quale si integrano reciprocamente le esigenze evolutive poste dalla vita artificiale e quelle rappresentazionali dell'IA classica.

Frequente è anche la discussione circa l'incompatibilità tra spiegazione classica e spiegazione dinamicista della cognizione. Sarebbe,in ogni caso, preferibile non fare dell'IA vecchia e nuova dei paradigmi contrapposti. In modo particolare, ad insistere sulla contrapposizione del loro paradigma "subsimbolico" con quello "simbolico" dell'IA sono stati soprattutto i connessionisti degli anni '80. Tale contrapposizione sembrava inizialmente derivare dal libro pubblicato da Minsky e Papert, che avevano ingiustamente cancellato le reti neurali dal mondo della ricerca. Ma, in realtà, James McClelland ha dichiarato di non credere che l'evento decisivo per l'arresto della ricerca sulle reti neurali sia stato il libro succitato, ma piuttosto egli riteneva che "non si era pronti" per tale ricerca.

Un caso diverso da quello delle reti neurali è quello della traduzione automatica, i cui finanziamenti furono interrotti nella metà degli anni '60; essa fu ripresa qualche anno dopo quando si individuò una strada più promettente per affrontarla, che permise di ricollegare la traduzione automatica ai nuovi studi sul linguaggio naturale.

L'eredità di Alan Turing, 50 anni dopo

modifica

Alan Turing è comunemente considerato uno dei padri del'intelligenza artificiale e dello studio computazionale della mente. Particolare è il suo approccio verso tale tema, va sicuramente ricordato il suo gioco dell'imitazione: Sperimentare una macchina elettronica in grado di giocare a questo gioco e ingannare l'esaminatore. L'esaminatore avrà a disposizione un terminale video e una tastiera che farà da tramite con i due partecipanti: un essere umano e una macchina calcolatrice. L'esaminatore porrà delle domande ai due partecipanti che dovranno rispondere in modo da agevolare (nel caso dell'essere umano) e ingannare (nel caso della macchina di Turing) il più possibile l'esaminatore. Da qui la domanda non è più le macchine possono pensare? - ma - può una macchina battere un uomo nel gioco dell'imitazione? . Dato che il funzionamento della mente umano non è stato del tutto dimostrato essere diverso da quello realizzato dai calcolatori (ad eccezione delle teorie formulate da Lucas e Penrose che vanno a confutare la teoria dell'I.A.) resta aperta una seconda possibilità: la simulazione. Secondo questa possibilità i calcolatori non devono essere considerati come meccanismi in grado di duplicare la mente umana bensì come strumenti per analizzare e le proprietà della mente umana in modo da simularla. È chiaro che la complessità di alcuni processi mentali potrebbe essere tale da rendere impossibile l'idea di riprodurre ( o simulare) tale funzionamento all'interno di un supporto meccanico o di qualsiasi altro sistema diverso da quello nervoso. Hans Moravec sostiene che i computer saranno in grado di simulare il funzionamento della mente umano; c'è da dire che probabilmente un giorno le macchine saranno più intelligenti e produttive degli esseri umani fino ad affrontate problemi di convivenza uomo/macchina, il contributo di opere letterarie quali cinema, libri ecc. ci avverte sulle possibili conseguenze negative che l'intelligenza artificiale dei robot possa dare alla vita dell'uomo. Prendendo l'opera cinematografica Io, Robot di Alex Proyas, che si ispira alle tre leggi della robotica di Asimov si capisce quanto possa essere deleteria e distruttiva la presenza di robot ribelli all'interno di una società gestita autonomamente dalla tecnologia.

La posizione di Federico Faggin

modifica

Il fisico italiano Federico Faggin, capo progetto dei primi microprocessori e fondatore della Synaptics, ditta sviluppatrice dei primi Touchpad e Touchscreen, si sta occupando dal 2011 allo studio della consapevolezza, tramite la Federico and Elvia Faggin Foundation, fondazione no-profit da lui creata. La questione della consapevolezza è fortemente legata al dibattito sull'intelligenza artificiale.

In un articolo del dicembre 2015, pubblicato da "Mondo digitale"[2], Faggin inizia, infatti, la sua riflessione chiedendosi se sarà davvero possibile - come ritengono molti suoi colleghi - costruire delle macchine pienamente in grado di riprodurre azioni e pensieri umani, fino a superare l'intelligenza degli esseri umani stessi. Faggin ammette che dei successi nel campo delle IA sono stati raggiunti (giocare a scacchi e sconfiggere un avversario di medio livello, svolgere in un tempo brevissimo calcoli molto complessi, ecc.) ma che essi si riducono paradossalmente al campo dei problemi di grande difficoltà, mentre l'IA resta impotente di fronte a quelli ritenuti "semplici" dagli esseri umani (il riconoscimento di un volto, ecc.).

Malgrado la potenza e la velocità di calcolo sempre maggiori dei moderni computer, essi restano incapaci di riprodurre il pensiero umano. Questo perché, secondo Faggin, il cervello umano ha sviluppato, nel corso dei secoli, un pattern recognition in grado di trovare delle scorciatoie in breve tempo quando ci si trova di fronte a problemi immediati, come un pericolo imminente (una pantera semicoperta dai cespugli). Questa capacità di risolvere operazioni "matematiche" di natura sconosciuta viene definita da Faggin "forza sottile", che non siamo in grado di programmare nei computer, dotati, invece di "forza bruta" (rapidità nello svolgere calcoli matematici espliciti). Il cervello umano opererebbe, quindi, una sorta di catalogazione dei problemi, dunque dei dati ricevuti, in grado di rendere più immediata la risoluzione di quelli più imminenti o più abituali. Ciò significa che il cervello umano è in grado di "pesare" i dati ricevuti, ovvero di capirne il significato. L'uomo ha, dunque, consapevolezza di sé, di ciò che pensa, di ciò che sa e di ciò che non sa. Ed è proprio questa consapevolezza a renderlo vivo e, quindi, assolutamente diverso da un computer, che non è vivo.

Per Faggin la consapevolezza non è un epifenomeno dei processi neurologici, come ritengono molti scienziati, ma un qualcosa di realmente esistente. La sua opinione è che siccome non si è mai riusciti a comprendere scientificamente la consapevolezza, la si è ritenuta non esistente. Essa non potrà mai essere compresa finché si continuerà ad applicare uno studio riduzionistico ad un sistema olistico quale è l'uomo e quale è la cellula stessa. Come dimostrato dalla meccanica quantistica, infatti, l'universo è un sistema olistico, in cui le parti non sono separate dal tutto, e il tutto non si limita alla semplice somma delle parti, ma l'Uno (inteso come totalità dell'esperienza, interna e esterna) è costantemente in comunicazione con se stesso e può, quindi, avere autoconoscenza di sé. Questa è la grande differenza dell'uomo con i computer, che, in quanto sistemi riduzionistici, raggiungono la consapevolezza del migliore dei transistor che lo compongono e in essi ogni parte non è connessa con il tutto: ogni parte svolge il suo ruolo senza essere consapevole del lavoro delle altre.

Le IA non potranno, dunque, equiparare l'intelletto umano finché saranno basate su sistemi riduzionistici, in quanto dotati di una consapevolezza inferiore non per grado, ma per qualità. Degli sviluppi interessanti potrebbero aversi con l'utilizzo di computer quantistici - e quindi non più basati sulla meccanica classica - ma la possibilità reale di raggiungere le capacità dell'uomo si avrà solo con la realizzazione di computer dotate di cellule animali, in particolare umane, ipotesi molto lontana dal presente. Per tale motivo, Faggin ritiene che lo sviluppo di computer sempre più potenti non dovrebbe creare preoccupazione sulla possibilità di una loro "ribellione" all'uomo, ma sulla possibilità reale di finire nelle mani di uomini malvagi che li userebbero per i loro fini, perché, in quanto inconsapevoli, i computer si limitano ad eseguire i comandi per i quali sono stati programmati.

Riferimenti bibliografici

modifica
  • N. Wiener, The Human Use of Human Beings, 1950; tr. it. Introduzione alla cibernetica, Torino 1970, nuova ed. 2012.
  • A. Turing, Intelligenza meccanica, a c. di G. Lolli, Torino 1994.
  • V. Somenzi - R. Cordeschi, La filosofia degli automi, Torino 1994.
  • L'eredità di Alan Turing. 50 anni di Intelligenza artificiale, Milano 2005.
  • T. Numerico, Alan Turing e l'intelligenza delle macchine, Milano 2005.
  • B. Giolito, Intelligenza artificiale. Una guida filosofica, Roma 2007.
  • Intelligenza artificiale. Mannuale per le discipline della comunicazione, a c. di E. Burattini - R. Cordeschi, Roma 2008.

  1. Proposta di Dartmouth, tradotta in Italiano da Gianluca Paronitti (PDF), su dif.unige.it (archiviato dall'url originale il 12 gennaio 2015).
  2. http://mondodigitale.aicanet.net/2015-6/articoli/01_sara_possibile_fare_un_computer_consapevole.pdf