Utente:Luigi Catalani/sandbox/concetti fondamentali: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1:
{{Filosofia dell'informatica}}
Per tracciare il perimetro filosofico sull'informatica, occorre prendere le mosse dalla definizione dei suoi concetti più importanti e dall'individuazione dei suoi elementi teorici più caratterizzanti. A partire da questa analisi sarà possibile mettere a fuoco gli ambiti disciplinari e i personaggi di cui si tratterà nel corso del libro.
 
==Informatica e scienze dell'informazione==
L’informatica è l’ambito di ricerca che si occupa dei processi di gestione ed elaborazione (reperimento, digitalizzazione, organizzazione e memorizzazione) dell’informazione per mezzo dei calcolatori elettronici. L’informaticaIn altre parole, l’informatica è la scienza della rappresentazione e dell’elaborazione automatica dell’informazione.
 
Le ''scienze dell’informazione'' sono tutte le discipline che si occupano dei processi e dei sistemi di reperimento, conservazione, trasformazione e trasmissione dei dati informativi. L’informatica obbliga a trasformare i dati informativi in oggetti computabili e in sistemi formali, costruiti cioè in base a precisi schemi e secondo specifiche regole.
Line 6 ⟶ 9:
Occupandosi anche dell’applicazione dell’informazione nelle organizzazioni, del loro uso nelle interazioni delle persone e dell’organizzazione di sistemi informazionali, l’informatica analizza l’interazione tra persone e computer (''Human Computer Interaction'': HCI) e il modo in cui le persone generano e usano le informazioni. Perciò le tecnologie della comunicazione e dell’informazione (ICT) sono correlate ai temi della cibernetica, delle scienze cognitive e dell’intelligenza artificiale.
 
I ''fondamenti teorici'' dell’informatica si ritrovano nel pensiero di [[w:Gottfried Leibniz|Gottfried Leibniz]], [[w:Thomas Hobbes|Thomas Hobbes]], [[w:Georges Boole|Georges Boole]] e [[w:Gottlob Frege|Gottlob Frege]], e più direttamente nei lavori di [[w:Charles Babbage|Charles Babbage]], [[w:Vannevar Bush|Vannevar Bush]], [[w:Alan Turing|Alan Turing]] e [[w:John von Neumann|John von Neumann]].
 
==L'idea del Computer e la filosofia==
Il Computer è un dispositivo automatico, che esegue algoritmi per risolvere problemi in base a dati e istruzioni. Un computer si può analizzare a tre livelli: la struttura fisica (hardware), le strutture algoritmiche (software) e la ''teoria della computabilità'', che studia il modo di eseguire calcoli in maniera meccanica e discute la natura e i limiti delle procedure implementabili dal computer.
 
L’''idea'' di costruire una macchina che esegue ragionamenti rigorosi, logicamente fondati e universalmente accettabili risale almeno a [[w:Raimondo Lullo|Raimondo Lullo]], che già nel XIV secolo sosteneva la necessità di definire un meccanismo per provare verità irrefutabili, e trova un primo fondamento concettuale in Thomas Hobbes, che considerava il ragionamento una manipolazione meccanica di simboli. I primi tentativi di costruzione di un calcolatore meccanico e una rigorosa definizione teorica risalgono al 1700, con Pascal e Leibniz.
Nel 1800, Charles Babbage progettò e costruì parzialmente il primo tentativo di calcolatore meccanico universale.
 
I primi computer furono analogici. Tra il 1930 e il 1950, nuovi progressi scientifici e tecnici permisero il passaggio a calcolatori elettromeccanici e poi elettronici. Il modello astratto di macchina universale introdotto da Alan Turing nel 1936 e l’analisi dell’attività dei neuroni in termini di logica dei circuiti elettrici, sono il punto di svolta nello sviluppo teorico del computer e delle sue implicazioni filosofiche. Il primo computer digitale risale al 1939. La seconda generazione di computer digitali fu caratterizzata dall’uso di diodi e transistor. L’introduzione del microchip ha portato all’avvento del personal computer.
Il primo computer digitale risale al 1939.
La seconda generazione di computer digitali fu caratterizzata dall’uso di diodi e transistor.
L’introduzione del microchip ha portato all’avvento del personal computer.
 
Lo sviluppo del computer ha prodotto almeno tre effetti in filosofia: ha stimolato diversi progetti di ricerca interdisciplinari tra scienze cognitive e intelligenza artificiale, dando nuovo impulso alla filosofia della mente, del linguaggio e della conoscenza; ha suggerito l'applicazione di modelli computazionali ai tradizionali problemi filosofici; ha prodotto nuovi paradigmi concettuali e una nuova area filosofica: la cosiddetta ''filosofia dell'informazione'', elaborata da [[w:Luciano Floridi|Luciano Floridi]].
 
L’attuale centralità dell’informatica deve essere ricondotta al passaggio dal modello anal''analogico'' al modello ''digitale'' nella codifica dei dati, unito alle possibilità offerte dallo sviluppo della tecnologia, la cui evoluzione è stata caratterizzata da tre percorsi: l’estensione del digitale dai soli linguaggi naturali e formali al mondo delle immagini e dei suoni, lo sviluppo delle rappresentazioni grazie al miglioramento delle interfacce grafiche, l’integrazione in un unico ''network'' dei vari domini di informazioni esistenti.
 
Analogico e digitale sono modi di codificare, elaborare e comunicare informazioni in un sistema. Un sistema è detto analogico se i valori dei suoi segnali sono continui (infiniti) in un dato intervallo; è detto digitale se tali valori sono misurati mediante un sistema numerale finito e discreto. Digitale deriva dall’inglese ''digit'' (dal latino ''digitus'', dito) e indica ciò che si conta con un insieme finito e discreto, come le dita di una mano. In un sistema digitale i segnali sono rappresentati attraverso la numerazione binaria; il ''bit'' - la più piccola unità di informazione di un sistema computazionale - è una contrazione dell’espressione ''binary digit''.
Riga 36:
Possiamo distinguere tre nozioni di ''ontologia'': l'ontologia filosofica (lo studio dell’essere e dell’ente in quanto ente e deduzione delle categorie ontologiche); l'ontologia classificatoria (che può essere descrittiva o formale); l'ontologia informatica (la codificazione formale di una classificazione concettuale quale base di un software). Le ontologie in ambito informatico si configurano come un patrimonio di competenze semantiche trasferite dall’uomo alla macchina.
 
Lo sviluppo di Internet ha ulteriormente radicalizzato l’esigenza di una proficua comunicazione tra sistemi di organizzazione e classificazione (database) eterogenei: si vedano i recenti sviluppi del semantic web, termine coniato dal suo ideatore, [[w:Tim Berners-Lee|Tim Berners-Lee]], con cui si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, files, immagini, e così via) siano associati ad informazioni e dati (''metadati'') che ne specifichino il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e all'elaborazione automatica.
 
Con tale nuova interpretazione del contenuto dei documenti, saranno possibili ricerche molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.
Riga 54:
In generale, una ''macchina'' è un sistema (naturale o artificiale, concreto o astratto) composto di meccanismi in grado di compiere un determinato lavoro, cioè di produrre un effetto prestabilito nell’ambiente in cui si trova o di trasformare un determinato impulso (una forza) per favorire la produzione di tale effetto. Di conseguenza, un meccanismo è un sistema le cui trasformazioni interne generano un risultato esterno prestabilito.
 
In filosofia, l’idea moderna di macchina è radicata nel pensiero cartesiano e nei precedenti tentativi di sostituire la forza vitale con una qualche forza fisica, nell’intento di giustificare l’origine del movimento. Con [[w:Cartesio|Cartesio]], il modello meccanico è applicato a tutti i fenomeni fisici, compreso, per la prima volta, l’uomo: la divisione tra ''res cogitans'' e ''res extensa'' è il primo passo verso un’analisi scientifica, materiale, analitica dell’uomo.
In modo simile, nella monadologia leibniziana, ogni corpo organico è una macchina divina, un automa naturale ben al di là di tutti gli automi artificiali. Il concetto di macchina è utilizzato da Leibniz come una metafora per indicare il grado di complessità di una monade, la cui origine e il cui termine (fine) dipendono da Dio: così l’universo non è altro che un singolo sistema meccanico composto di parti fisiche la cui interazione è completamente determinata dal progetto divino.
 
Riga 61:
 
==Cibernetica, intelligenza artificiale==
La Cibernetica è la scienza che studia i sistemi dotati di strutture cicliche (''loop'') di controllo; tali sistemi sono specificati definendo la loro organizzazione interna e la loro capacità di comunicazione intersistemica. Secondo la classica definizione di [[w:Norbert Wiener|Norbert Wiener]], la cibernetica è "lo studio del controllo e della comunicazione negli animali e nelle macchine".
 
La storia della cibernetica è delineata dall’intreccio delle varie discipline che hanno contribuito allo sviluppo dei suoi principi teorici - ingegneria, biologia, filosofia, psicologia, logica, neuroscienze, sociologia ed economia - e alla costruzione di alcune macchine che incorporano tali principi. La spiccata interdisciplinarietà è legata all’intento di unificare i vari approcci sotto principi astratti comuni.
 
L’intelligenza artificiale (IA) si propone di riprodurre con programmi per calcolatore, o con robot mobili, comportamenti che, se osservati negli esseri umani, o più in generale negli organismi viventi, verrebbero definiti "intelligenti". La nascita ufficiale dell’IA risale al 1956, quando negli Stati Uniti, a Dartmouth (New Hampshire), si svolse un seminario organizzato da [[w:John McCarthy|John McCarthy]], [[w:Marvin Minsky|Marvin Minsky]], [[w:Nathaniel Rochester|Nathaniel Rochester]] e [[w:Claude Shannon|Claude Shannon]].
 
Da sempre l’IA si è presentata sotto un duplice profilo: quello di disciplina ingegneristica, con l’obiettivo di costruire macchine in grado di assistere l’uomo, e magari di competere con esso; e quello di disciplina psicologica, con l’obiettivo di costruire macchine le quali, riproducendo da vicino caratteristiche essenziali dell’attività umana, gettino nuova luce su alcuni tradizionali enigmi della mente, come il problema del rapporto mente-corpo.
Riga 85:
 
==Teoria della computabilità==
La Teoria della computabilità studia la nozione di calcolo effettuabile per mezzo di un algoritmo, ossia di un calcolo eseguibile in modo meccanico. Essa è nata nel corso degli anni ‘30 del secolo scorso nell’ambito delle ricerche sulla logica e sui fondamenti della matematica a opera di autori quali Alan Turing, [[w:Kurt Gödel|Kurt Gödel]] (1906-1978). La scuola formalista di [[w:David Hilbert|David Hilbert]] (1862-1943) si pose il problema di stabilire se tutti i problemi matematici fossero in linea di principio risolubili per mezzo di un algoritmo.
 
Con lo sviluppo dei calcolatori digitali, la teoria della computabilità ha assunto il ruolo di disciplina dei fondamenti per l’informatica teorica, estendendo la propria influenza all’Intelligenza Artificiale, alle scienze cognitive, alla linguistica. I risultati di teoria della computabilità coinvolgono temi filosofico-scientifici quali i risultati di limitazione della logica, i limiti dei calcolatori digitali e dei processi di calcolo, la natura degli stati mentali, il rapporto mente-corpo.
Riga 92:
''Enciclopedia filosofica'' a cura del Centro studi filosofici di Gallarate, Bompiani 2006, s.v.: Informatica, Computer, Internet,
Cibernetica, Intelligenza artificiale, Analogico/digitale, Etica informatica/etica dell'informazione.
 
[[Categoria:Filosofia dell'informatica|I concetti fondamentali]]
{{Avanzamento|75%}}