Filosofia dell'informatica/Teorie filosofiche del digitale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Le prime tre sezioni sono diventati nuovi capitoli
Riga 1:
{{Filosofia dell'informatica}}
 
==La filosofia digitale==
La filosofia digitale è un indirizzo filosofico contemporaneo sviluppato negli ultimi decenni e promosso da [[w:Edward Fredkin|Edward Fredkin]], [[w:Gregory Chaitin|Gregory Chaitin]], [[w:Stephen Wolfram|Stephen Wolfram]] e altri studiosi che si muovono in un'area di ricerca tra fisica, matematica, informatica e metafisica, e che pongono il bit alla base della realtà e spiegano l'evoluzione della realtà come un processo computazionale<ref>http://www.digitalphilosophy.org/</ref>.
 
===Edward Fredkin===
Il fisico statunitense Edward Fredkin, nato nel 1934, è un pioniere della filosofia digitale (o fisica digitale). I suoi principali contributi sono nella computazione reversibile e negli automi cellulari. La sua invenzione più importante fu la porta di Fredkin.
 
Fredkin lascia il California Institute of Technology dopo un anno e si unisce all'USAF e diventa pilota di jet. La sua carriera in ambito informatico parte nel 1956 quando l'Air Force gli affida un lavoro al MIT Lincoln Laboratory. Nei primi anni '60 lavora alla BBN Technologies dove scrive l'assemblatore PDP-1. Nel 1968 ritorna all'accademia, iniziando come professore al MIT. Dal 1971 al 1974 fu direttore del progetto MAC. Al California Institute of Technology trascorre un anno lavorando con Richard Feynman, e diventa professore di fisica alla Boston University per 6 anni. Fredkin fondò la Information International Inc. In campo informatico fu inventore della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell'[[Intelligenza artificiale]]. Di recente ha sviluppato Slat, un modello di computazione basato sulle leggi di conservazione fondamentali della fisica.
 
Fredkin è un fautore del pancomputazionalismo, una teoria filosofica secondo la quale tutti i processi fisici della natura sono forme di calcolo o elaborazione delle informazioni ad un livello più elementare della realtà fisica. Ne deriva che la natura della realtà non è né materiale, né spirituale bensì è fondata su un'immaterialitá peculiare, che può definirsi informazionale. Il divenire della realtà è dunque concepito come un processo computazionale. Dal punto di vista teoretico, il pancomputazionalismo prende spunto da alcune tra le più importanti concezioni filosofiche del passato: l'atomismo, il determinismo, il meccanicismo, il monismo, il naturalismo, il realismo filosofico, il riduzionismo e l'empirismo scientifico.
 
"Esistono tre grandi domande filosofiche: cos'è la vita? Cosa sono la coscienza, il pensiero, la memoria e simili? Come funziona l'universo? Il punto di vista informazionale le concerne tutt'e tre."<ref>E. Fredkin in R. Wright, Three scientists and Their Gods, cit., p. 9.</ref>
 
I contributi più significativi offerti da Fredkin alla filosofia digitale consistono in queste idee fondamentali: ogni cosa nella realtà fisica deve avere una rappresentazione informativa digitale; tutti i cambiamenti nella natura fisica sono la conseguenza dei processi informativi digitali; la natura è finita e digitale. Perfino la tradizionale visione dell'anima giudaico-cristiana trova la sua controparte statico/dinamica nella visione dell'anima profilata dalla filosofia digitale.
 
===Gregory Chaitin===
Gregory John Chaitin nasce a Chicago nel 1947. Figlio di emigranti argentini è considerato uno dei fondatori della filosofia digitale. A partire dagli anni sessanta ha contribuito alla teoria algoritmica dell'informazione che si occupa della complessità dei programmi ed è conosciuto per di più per le sue ricerche sulla complessità algoritmica e per i teoremi limitativi. All'età di quarantotto anni incassa la laurea honoris causa dall'università pubblica statunitense con sede a Oronto, in Maine e nel 2002 riceve il titolo di professore onorario dall'Università di Buenos Aires in Argentina. Al presente Gregory Chaitin è un professore ospite presso il dipartimento di Computer Science dell'Università di Auckland in Nuova Zelanda e presidente onorario della commissione scientifica del Valparaíso Complex System Institute (Cile). Chaitin ha pubblicato molteplici libri e diversi articoli, alcuni di questi reperibili integralmente anche in rete. È stimato come programmatore, come matematico, come fisico e come filosofo digitale.
 
Dopo le tesi di Kurt Gödel, i matematici sono diventati consapevoli del fatto che la loro materia peccava di diverse limitazioni. Gregory Chaitin ha scovato nel simbolo della costante numerica Omega il concetto chiave per confermare l'incompletezza della sua disciplina. Chaitin cercando di calcolare le probabilità che ha un programma informatico generato casualmente di fermarsi (il problema della fermata di Alan Turing) si è reso conto che quel numero è definito ma non può essere calcolato. Omega, evocativamente chiamato anche '''numero di Chaitin''' rappresenta la somma delle probabilità che ha quel programma di arrestarsi.
 
Il computer, afferma Chaitin, è un nuovo meraviglioso concetto filosofico e matematico; un'idea rivoluzionaria, un congegno pratico, capace di modificare la società. A parer di Chaitin l'universo è scritto in un linguaggio informatico e i suoi caratteri sono i bit. Il filosofo mostra una visione moderna dell'idea Pitagorica la quale identifica nel numero il principio di tutte le cose. Tutto è algoritmo. La metafisica permette a Chaitin di giungere con la sua filosofia digitale all'esattezza e all'essenzialità degli oggetti. La sostanza di un oggetto è il suo contenuto di informazione algoritmica. Leibniz architetta il codice binario e Chaitin lo fa elevare a linguaggio dell'universo.
 
===Stephen Wolfram===
Nato a Londra il 29 agosto 1959, è un matematico e fisico e, inoltre, viene definito come uno dei maggiori esponenti della filosofia digitale. Si è occupato in particolare di automi cellulari e di sistemi complessi. È inoltre il fondatore di Wolfram Research Inc.
 
Viene considerato fin da piccolo un enfant prodige nell'ambito delle discipline scientifiche, infatti, all'età di 13 anni,inizia a maturare un forte interesse per i fenomeni relativi alla complessità della natura e, all'età di soli 17 anni, viene ammesso al St.John's College dell'università di Oxford. A 20 anni consegue il dottorato di ricerca in fisica delle particelle e a 21 è insignito del Genius Award della Fondazione McArthur in riconoscimento dei risultati presentati nei suoi lavori sulla fisica e sulla computazione.
 
Nel 1986 realizza la prima versione di un linguaggio di programmazione e di un ambiente per il calcolo simbolico e numerico di grande efficacia:il programma Mathematica. L'ultima versione, la settima, è stata rilasciata alla fine del 2008.
 
Dal 1993 al 2002, Wolfram lavora al libro ''A New Kind of Science'', un libro di 1.200 pagine, risultato della "parte migliore di vent'anni di vita, come dichiarerà lui stesso. All'interno dell'opera egli discute l'idea secondo la quale da input semplici seguono output semplici; da input complessi seguono output complessi, una legge che sembrava essere alla base della computer science. Al principio dei suoi studi si innesta una riflessione sugli automi cellulari che riescono a generare forme complesse a partire da regole semplici. L'analisi di diversi sistemi, mediante alcune simulazioni al computer, ha portato Wolfram alla conclusione che un limitato numero di regole ripetute all'infinito possa portare alla produzione di risultati complessi, confutando la teoria secondo cui regole semplici originino forme semplici e viceversa. Inoltre, è possibile dichiarare che attraverso gli automi cellulari sia possibile rendere comprensibile diversi fenomeni complessi, come ad esempio la forma di un fiocco di neve, di un guscio di una conchiglia, delle venature di una foglia, del manto maculato di un leopardo o striato di una zebra, mettendo in discussione le basi che caratterizzano alcune discipline scientifiche.
 
===Seth Lloyd===
Seth Lloyd (2 agosto 1960) è un fisico ed informatico statunitense.
 
[[File:Seth Lloyd.jpg|thumb|left|Seth Lloyd]]
Si diploma nel 1978, alla Phillips Academy. Nel 1982 si laurea in fisica alla Harvard University. Dopo alcuni titoli conseguiti con diverse università, viene, nel 1994, assunto dalla facoltà di ingegneria al MIT.
Ricopre ad oggi due incarichi: insegna ingegneria dei sistemi al MIT, e fisica dei computer quantistici e complessità informatica al Santa Fe Institute.
Il suo contributo a livello scientifico riguarda lo studio della complessità e dei sistemi relativi in riferimento all'indagine su di essi condotta per mezzo degli strumenti informatici. Al MIT si occupa infatti prevalentemente di ricerca per lo sviluppo dei computer quantistici.
La fama di Lloyd nel campo informatico è strettamente collegata ad una sua tesi (esposta in ''Programming the Universe''), secondo la quale l'universo è un enorme computer quantistico, creando, come ogni computer, un programma informatico di cui noi facciamo parte. Ne deriva che l'universo è il più grande elaboratore di informazioni.
Un articolo molto noto di Lloyd (''Computational Capacity of the Universe'') fornisce i numeri per capire come L'Universo, fin dalla sua nascita, abbia elaborato costantemente informazioni. In questo articolo vengono esposti i calcoli effettuati dal fisico, indispensabili per la comprensione della sua teoria.
L'Universo, stando ai calcoli di Lloyd, ha computato dalla sua nascita 10 alla 120 operazioni logiche elementari, per un totale di 10 alla 90 bit… che sarebbe la quantità di informazione contenuta in tutta la materia dell'universo.
Nella già citata opera ("Programming the Universe") scrive: "Prima del Big Bang? Nulla. Non esisteva né il tempo, né lo spazio. Nessuna energia, nessun bit. L'informazione dell'Universo neonato era pari a zero bit […] Un miliardesimo di secondo dopo il Big Bang, l'Universo conteneva già 10 alla 50, cioè tanti bit quanti sono gli atomi della Terra. Il Big Bang è stato anche un '''Bit Bang'''."
Due, potremmo dire,
sono le peculiarità della teoria di Lloyd: la prima è che l'Universo informatico e quello fisico coincidono: entrambi sono due modi complementari per descrivere la stessa cosa (la realtà). La seconda è che l'Universo non è solo un computer, ma un "computer quantistico". Da ciò ne consegue che i bit dell'Universo sono in realtà qubit. Su questo punto trovò il sostegno di molti fisici, tra cui David Deutsch.
 
===Eric Steinhart===
Eric Steinhart è professore di [[w:Filosofia|filosofia]] alla William Paterson University. Lavora principalmente sulla [[w:Metafisica|metafisica]] utilizzando metodi e strumenti analitici e logici contemporanei. Di formazione informatica e matematica, Steinhart ha lavorato come progettista di software per diversi anni, brevettando alcuni dei suoi [[w:Algoritmo|algoritmi]].
 
Nel suo saggio '''''Digital Metaphysic''''', parte della raccolta '''''The Digital Phoenix: How Computers Are Changing Philosophy''''', contrappone e mette in relazione la metafisica digitale con la metafisica materialista. Steinhart incolpa la scienza di oggi di ridurre tutta la realtà ai suoi costituenti materiali in quanto l'unica cosa reale è la materia. Il filosofo non abbraccia questa tesi, ma propone che i fondamenti della realtà siano computazionali: "''la realtà ultima è una macchina di calcolo massicciamente parallela abbastanza universale da consentire la realizzazione di qualsiasi mondo fisicamente possibile''". Questo sistema di idee viene identificato come '''''metafisica digitale'''''.
Questa tesi è stata avanzata per la prima volta da [[w:Gottfried_Wilhelm_von_Leibniz|Gottfried Wilhelm von Leibniz]] il quale descrive all'interno della sua [[w:Monadologia|Monadologia]] il mondo come un sistema di automi.
 
La metafisica digitale pone come fondamento ultimo della realtà uno '''''spazio-tempo computazionale''''', costituito da calcolatori universali che interagiscono fra loro. Tali interazioni danno vita ai fenomeni fisici, fornendo ''spiegazioni proceduralmente efficaci'' di come si comporta la natura.
Tale tesi presuppone una natura finita in quanto una realtà finitaria è molto più facile da comprendere, mentre l'infinito comporta paradossi. La natura, essendo coerente in sé stessa, non ammette alcun paradosso e di conseguenza non può contenere infiniti: natura, spazio e tempo hanno un'estensione finita.
Steinhart mette in evidenza l'esistenza di varie teorie fisiche, ciascuna delle quali determina un mondo fisicamente possibile. Ciò non vuol dire che esistano vari mondi attuali, ma che sono possibili altri sistemi di leggi fisiche. Per il filosofo la realtà metafisica è struttura di tutti i mondi fisicamente possibili, mentre la realtà fisica è la struttura di una sola specie di questi mondi.
 
La metafisica digitale si sposa sia con l'argomento teologico di Dio, sia con la cosmologia atea. La visione di Dio si basa sul modello del [[w:Plotino|Neoplatonismo plotiniano]], mentre nella versione atea Dio viene sostituito da uno spazio-tempo computazionale eterno in cui la realtà materiale si è verificata.
 
===Kevin Kelly===
[[w:Kevin Kelly|Kevin Kelly]] nasce in [[w:Pennsylvania|Pennsylvania]] nel 1952. Compie i suoi studi presso la Westfield High School, Westfield NJ, dopodiché si iscrive all'Università del Rhode Island che abbandona dopo un anno. Intraprende la carriera di fotografo indipendente viaggiando ed esplorando diverse parti remote dell'Asia tra il 1972 e il 1979<ref>''Kevin Kelly, la sua biografia è disponibile sul sito'': http://kk.org/biography</ref>.
 
[[File:Kevin Kelly, Wired (25163989050).jpg|thumb|left|Kevin Kelly]]
Kevin Kelly ha saputo unire in una miscela filosofica ambiti apparentemente distanti tra loro: etici, tecnologici, antropologici e religiosi. Scrittore, fotografo e ambientalista, è stato co-fondatore della nota rivista [[w:Wired|Wired]]<ref>http://tg1live.blog.rai.it/2009/02/23/wired-la-bibbia-della-rivoluzione-digitale-sbarca-in-italia/.</ref>.
 
Divenne noto soprattutto grazie al suo primo libro ''Out of Control: The New Biology of Machines, Social Systems, and the Economic World''<ref>Il libro è disponibile sul sito dell'autore: http://kk.org/mt-files/books-mt/ooc-mf.pdf''</ref> pubblicato nel 1994. Questo libro fu uno dei testi che gli attori della celebre saga [[w:Matrix|Matrix]] dovettero leggere obbligatoriamente per entrare nella logica del film.
 
Il suo articolo pubblicato su Wired ''God Is the Machine. In the beginning there was 0. And there was 1. A Mind-bending meditation on the transcendent power of digital computation''<ref>L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.</ref>, permette di collocarlo nell'ambito della filosofia digitale. Partendo da un esempio tratto dalle conclusioni scientifiche usate nel determinare la materia identificandola al di sotto del livello di [[w:Quark_(particella)|quark]] e [[w:Muone|muoni]], in cui racchiudere il mondo incorporeo, Kelly afferma che la filosofia digitale è entrambe le cose, ovvero indica il mondo fisico come digitale ovvero 1 e 0 ("La filosofia digitale dice questo: il mondo fisico è digitale, 1 e 0").
 
Kelly arriva ad "idealizzare" l'intera struttura genetica e la vita stessa come un processo informazionale e la materia costituita come un groviglio di bit, paragonando la sequenza di un intero DNA umano compresso in un CD da 3 gigabyte a quella di tre atomi, due di idrogeno e uno di ossigeno, mescolati nel "magico bicchiere della filosofia digitale"<ref>''Longo Giuseppe O.; Vaccaro Andrea - "Bit Bang. La nascita della filosofia digitale"'' Apogeo Education, Milano 2013</ref>. Infine unendo gli insegnamenti "esoterici" della fisica quantistica con la "nuova scienza del digitalismo" arriva a teorizzare una sorta di "dottrina mistica della computazione universale", prendendo spunto da argomenti di carattere teologico attraverso uno dei passi più noti della [[w:Bibbia|Bibbia]]:
 
"Dopo aver strappato via tutte le esteriorità e gli abbellimenti materiali, quello che rimane è lo stato di pura esistenza: qui/non qui, sono/non sono. Nel Vecchio Testamento, quando Mosè chiede al Creatore: "Chi sei tu?", questi, in vero, dice: "Sono". È un bit. Un bit onnipotente. Sì. Uno. Esisto. L'affermazione più semplice possibile"<ref>L'articolo completo sul sito: http://www.wired.com/2002/12/holytech/.</ref>
 
Mediante questo articolo arriva ad una "seconda Rivelazione" espressa in un nuovo linguaggio identificato come una nuova Creazione e una nuova evoluzione, includendo anche una sua eterna Triade di principi:
 
# la computazione può descrivere ogni cosa'';
# ogni cosa può computare;
# nonostante la computazione possa "incarnarsi" in ogni cosa, la sua natura rimane unica e identica a sé stessa.
 
Con queste conclusioni, secondo Kelly, non ci sono più forme di computazione: a prescindere dalla materia del dispositivo che la sorregge o la veicola, la computazione è sempre equivalente a sé stessa, immutabile e universale. L'articolo termina con una domanda rivolta a tutti noi: "If the universe in all ways acts as if it was a computer, then what meaning could there be in saying that it is not a computer?" ("Se l'universo agisce in tutti i modi come se fosse un computer, allora che senso potrebbe esserci nel dire che non è un computer?").
 
Rendere l'essere umano capace di confrontarsi con questa domanda in modo più adeguato è forse proprio [[w:Quello_che_vuole_la_tecnologia|''What Technology Wants'']], come recita il titolo dell'ultimo libro di Kelly<ref>Kevin Kelly, ''Quello che vuole la tecnologia'', Codice Edizioni, Torino, 2011.</ref>.
 
===Jürgen Schmidhuber===
[[w:Juergen Schmidhuber|Jürgen Schmidhuber]], nato a Monaco di Baviera nel 1963, è il direttore dell'Istituto di Intelligenza Artificiale (Idsia) di Lugano e del Laboratorio di robotica cognitiva dell'Università di Monaco. Il nome dell'informatico tedesco è legato soprattutto alla filosofia digitale e all'Intelligenza Artificiale (AI).
 
Tra i suoi contributi, una posizione di rilievo è sicuramente occupata dalla '''"teoria algoritmica della bellezza"''' '''(Schmidhuber's Beauty Postulate)'''. Ogni soggetto, di fronte a una serie di paesaggi, volti, opere d'arte, indica come "il più bello" il più semplice da decodificare e memorizzare. Questo principio di origine matematica è strettamente legato alla "teoria algoritmica dell'informazione" di Chaitin.
 
Molto nota è anche la legge secondo cui la distanza temporale tra una scoperta tecnologica rivoluzionaria e un'altra decresce '''esponenzialmente'''. Schmidhuber, pur conservando dunque il criterio dell'esponenzialità, rovescia la '''"legge di Moore"''', per cui invece il ritmo del progresso tecnologico cresce in maniera esponenziale.
 
Il contributo più importante per la filosofia digitale è però la cosiddetta '''"ipotesi di Schmidhuber"''', esposta nel saggio del 1997 ''A Computer Scientist's View of Life, the Universe, and Everything''. Il nucleo della trattazione è il seguente: "''Molto tempo fa, il Grande Programmatore scrisse un programma che lanciò tutti gli Universi possibili nel suo Grande Computer. Qui "possibili" significa "computabili''"<ref>J. Schmidhuber, A Computer Scientist's View of Life, the Universe, and Everything, in C. Freksa (ed.), Lecturs Notes in Computer Science, Springer, 1337,1997, p.201</ref>.
 
Anche il nostro Universo gira su questo Grande Computer e il suo stato può essere descritto mediante un numero finito di bit. Nonostante questa regolarità, Schmidhuber riconosce anche l'esistenza di deviazioni. Queste deviazioni spingono molti a ritenere che il mondo sia parzialmente casuale e quindi incomputabile.
Tuttavia, secondo Schmidhuber, la nostra incapacità di decodificare lo stato del nostro Universo non influenza le possibilità del Grande Programmatore, che può invece esaminarlo in qualsiasi momento.
 
Negli ultimi anni, Schmidhuber si è dedicato all'evoluzione del sistema di riconoscimento vocale di Google, sfruttando le reti neuronali ricorrenti da lui sviluppate.
 
==La filosofia dell'informazione==
Il mondo durante l'ultimo secolo ha vissuto una vera e propria rivoluzione, che ha richiesto una nuova analisi filosofica ben rappresentata da [[w:Norbert Wiener|Norbert Wiener]] e [[w:Luciano Floridi|Luciano Floridi]], due intellettuali che, nonostante l'intervallo cronologico e il differente approccio teorico, hanno lasciato entrambi una traccia vengono citati nella stessa discussione non necessariamente come tesi ed antitesi del dibattito.
 
===L'informazione da Norbert Wiener a Luciano Floridi===
Diverso è il contesto storico in cui hanno lavorato, infatti Wiener ha assistito e collaborato alla nascita della rivoluzione. Wiener, coniatore del termine cibernetica, come Alan Turing ed altri ha lavorato con l'incoraggiamento inventivo della seconda guerra mondiale, che senza dubbio, in quanto momento di bisogno, è stata madre di nuove invenzioni. Partendo dal lavoro di un cannone "intelligente", Wiener ha preso buoni spunti che poi ha sviluppato nel periodo post bellico quando è iniziato a nascere il dibattito sull'intelligenza e l'autonomia intellettiva delle macchine. Questo periodo produttivo ha fatto nascere in Wiener i semi della meditazione sulla "'''teoria dell'informazione'''". Da affermato materialista affermò che "'''l'informazione è entropia'''" o meglio che l'informazione, chiave della nuova rivoluzione, "è fisica, ma non è né materia né energia". L'entropia, o meglio il quantitativo di informazione persa, secondo la seconda legge della termodinamica fu rinominato "'''informazione di Shannon'''". Da ciò ne venne che gli esseri viventi sono oggetti informazioni e che l'informazione è sempre in movimento. Il male secondo questa teoria era l'entropia, la perdita di informazioni. Lo scopo dell'uomo é quello, secondo tale teoria, in quanto ente informazionale, di svilupparsi come persona, ovvero di "impegnarsi in differenti modalità del processare informazioni". Nello sviluppare la sua teoria, con una lucida analisi degli eventi Wiener predisse in modo quasi profetico le conseguenze di quello stava creando con i suoi colleghi nel campo dell'informatica. Predisse che le macchine presto avrebbero rimpiazzato gli operai e poi gli impiegati e che presto sarebbero entrate, con le varie veloci invenzioni nel mondo quotidiano. Questa automatizzazione del mondo spaventò fortemente Wiener che fu quasi preso come estremista e catastrofico. ma nel suo mettere in guardi il mondo Wiener si raccomandò di non lasciare mai alle macchine il "potere" di giudicare. Era completamente cosciente che il mondo stava per diventare una società globale alla cui base vige la comunicazione.
 
Quando, negli anni novanta, le visioni di Wiener stavano diventando realtà si affaccia sul dibattito filosofico Luciano Floridi che, di stampo quasi Kantiano col suo '''costruttivismo''', dà una nuova proposta filosofica dell'informazione. Il costruttivismo sostenuto da Floridi crede che il mondo esterno sia inconoscibile e che esso si presenti a noi sotto forma di modelli. Ogni modello è costruito secondo un livello di astrazione. Ogni ente è una struttura di dati e ciò include anche gli esseri umani e tutti gli oggetti informazioni interagiscono in un universo fondamentalmente buono. Secondo l'assunto platonico secondo il quale ogni essere è nella stessa misura in cui è buono, Floridi formula la sua metafisica in una vera e propria '''etica dell'informazione'''. La quale "etica" ha dovuto combattere contro le critiche scettiche verso la definizione di moralità di macchine sprovviste di menti. Floridi dopo aver stabilito che le macchine sono agenti (in quanto interagiscono, hanno autonomia ed adattabilità) le definisce agenti morali in quanto possono produrre bene o male (identificato anche da Floridi come l'entropia) e dopo aver definito la differenza tra imputabilità e responsabilità può concludere estendendo l'etica alle macchine. A causa della differenza storica le due teorie possono sembrare sotto molti aspetti inconciliabili, ma punti di comunione si possono trovare nel fatto che Floridi stesso abbia definito la sua teoria non di opposizione alle altre, bensì complementare, includendo con le annesse contraddizioni anche quella di Wiener. La differenza sostanziale è che Wiener fu considerato da molti suoi contemporanei un visionario, magari anche paranoico, mentre Floridi, pur nella sua analisi brillante, descrive un cambiamento già avvenuto.
 
===La rivoluzione dell'informazione secondo Luciano Floridi===
 
==== L'informazione ====
 
Secondo Luciano Floridi il rapido sviluppo della tecnologia ha trasformato il mondo stimolando nuove idee, modellando concetti e causando problemi inediti. Tra questi, quello principale, è quello dell'informazione.
 
Analizzando l'opera curata da Terrel Baynum e James Moore ''The Digital Phoenix'' (''La Fenice Digitale''), Floridi analizza i problemi riguardanti la Filosofia dell'Informazione, una nuova disciplina filosofica che riguarda l'indagine critica della natura concettuale e dei principi basilari dell'informazione, e l'elaborazione di una metodologia teoretica, informazionale e computazionale applicabile ai problemi filosofici.
 
[[File:Luciano floridi.jpg|thumb|left|Luciano Floridi]]
I problemi dell'informazione secondo Floridi sono 5 e riguardano l'analisi del concetto di informazione e le sue dinamiche, la sua semantica, l'intelligenza, la sua natura e i suoi valori. Attraverso la sua analisi il filosofo conclude che vi è una differenza netta tra intelligenza naturale (IN) e intelligenza artificiale (IA) e che solo la (IN) processa e identifica informazioni, anche se va detto che ci sono dei casi in cui la (IN) processa e identifica anche solo dati come fa la (IA).
 
L'informazione è vasta e varia e quindi vi sono infiniti modelli, essa inoltre è una cosa naturale che può esserci anche se manca l'informatore che informa o l'informato che viene informato dall'informatore. Per Floridi la filosofia dell'informazione è in continuo mutamento.
 
Fino al 1996 siamo tutti vissuti in una società in cui Internet non era la tecnologia caratterizzante e il modello "uno molti" o dal centro alla periferia, come veniva definito da [[w:Marshall McLuhan|Marshall McLuhan]], dominava. La storia è piena di successioni temporali che vanno dal sociale al politico, dal naturale al circolare, dalla relazione con la religione alla relazione con la scienza. La storia è il succedersi di cronografie che per il sol fatto di dipendere da successioni temporali, accumulano e trasmettono informazioni per il futuro. Senza tali sistemi di trasmissione non vi sarebbe storia, cosicché storia è sinonimo di '''età dell'informazione'''. Dato che la preistoria è considerata "l'età dell'evoluzione umana che precede la comparsa di qualsiasi documento scritto", si potrebbe sostenere che l'umanità abbia vissuto in diversi tipi di '''società dell'informazione''', dall'invenzione dell'aratro all'invenzione della scrittura. Quest'ultima in particolare, secondo alcuni studiosi ha segnato una vera e propria '''rivoluzione dell'informazione''', ma una delle spiegazioni più accreditate del termine riguarda un contesto recente, dove il benessere e il progresso umano hanno cominciato a dipendere dalla gestione efficace ed efficiente del ciclo di vita dell'informazione.
 
Il ciclo di vita dell'informazione include delle fasi: occorrenza, trasmissione, processo, gestione e uso. Immaginiamo che questo ciclo sia come un vero e proprio indicatore del tempo, come può esserlo un orologio, e indichiamone un arco temporale: dall'età del bronzo alla fine del secondo millennio d.C. L'arco temporale rappresenta la quantità di tempo che l'evoluzione dei cicli di vita dell'informazione ha richiesto per generare la società dell'informazione. Questo ha permesso un'evoluzione delle tecnologie dell'informazione e della comunicazione (ICT) da sistemi di registrazione a sistemi di comunicazione, in particolare dopo Gutenberg e l'invenzione della stampa, e quindi sistemi per produrre informazioni, in particolare dopo Turing e la diffusione dei computer. Grazie a tale evoluzione, la società dipende fortemente da beni intangibili basati sull'informazione, da settori orientati ad essa (istruzione) a servizi intensificati grazie ad essa (commercio).
 
Nel 2003 una ricerca ha stimato che l'umanità abbia accumulato, nel corso della sua storia fino alla commercializzazione del computer, circa 12 exabyte (1018 byte). Il termine Exaflood è un neologismo coniato per qualificare questo tsunami di dati che da un lato ha portato alla "democratizzazione" dell'informazione, grazie all'immagazzinamento su supporti magnetici, dall'altro ha portato alla creazione di un ciclo che si autoalimenta, dato che i computer sono le principali fonti di produzione di questi dati.
 
Le ICT stanno modificando un mondo con un'ampiezza tale da aver creato concrete e significative opportunità di enormi benefici, ma portano con sé anche rischi significativi, generando questioni riguardanti la natura della realtà e della sua conoscenza, la responsabilità nei confronti delle generazioni future, l'organizzazione della società stessa. La società dell'informazione è come un albero che ha sviluppato i suoi rami in modo molto più ampio, rapido e caotico, di quanto non abbia fatto con le sue radici concettuali, etiche e culturali. La nostra capacità di comprendere le '''tecnologie dell'informazione''' e della comunicazione è scarsa come nell'analogia dell'albero dalle radici deboli, vi è il rischio che una crescita della superficie pregiudichi la fondazione fragile alla base. Da ciò nasce l'esigenza, da parte di qualunque avanzata società dell'informazione, di dotarsi di una valida '''filosofia dell'informazione''', al fine di estendere e rafforzare la nostra comprensione. Per la stessa comprensione del mondo e delle interazioni con esso, nonché della comprensione di noi stessi e della nostra identità, le ICT e l'informatica hanno dato luogo a una '''quarta rivoluzione'''. Le prime tre vengono definite le "rivoluzioni scientifiche":
 
*[[w:Niccolò Copernico|Copernico]] e la cosmologia [[w:Sistema eliocentrico|eliocentrica]]: la Terra e indirettamente l'umanità non è più immobile al centro dell'universo;
*[[w:Charles Darwin|Darwin]] e la teoria sulla [[w:Origine delle specie|origine delle specie]]: l'umanità non è separata e diversa dal regno animale, ma ogni forma di vita si è evoluta nel tempo per mezzo di progenitori comuni. In tal modo l'uomo non è più al centro del regno biologico;
*[[w:Sigmund Freud|Freud]] e la teoria della [[w:Psicoanalisi|psicoanalisi]]: la mente umana non è più considerata isolata e interamente trasparente a sé stessa, ma è anche inconscia e soggetta al meccanismo di difesa della repressone.
La scienza ha fondamentalmente due modi di modificare la nostra comprensione: uno estroverso, riguardante il mondo, l'altro introverso, riguardante noi stessi. Le rivoluzioni scientifiche hanno avuto un forte impatto su entrambi i punti di vista: nel modificare la comprensione del mondo esterno, hanno mutato anche la concezione di chi siamo.
 
Se Copernico, Darwin e Freud sono gli esponenti delle prime tre, sicuramente uno scienziato rappresentativo della quarta rivoluzione è Alan Turing. L'umanità oggi non è un insieme di entità isolate quanto piuttosto si preferisce parlare di inforg, organismi informazionali interconnessi con agenti biologici e artefatti ingegnerizzati, in un ambiente globale chiamato per convenzione: '''infosfera'''. Quest'ultima, essendo l'insieme dei processi, servizi ed entità informazionali, non va confusa con la visione tipica della fantascienza di un'umanità di cyborg. Uno scenario simile è si realizzabile, ma tutt'ora troppo lontano sia su un profilo tecnico sia su un profilo etico.
 
Ciò che la quarta rivoluzione ha portato alla luce è la natura informazionale degli agenti umani, cioè la rappresentazione, sotto molti aspetti simile a quella di alter ego espressa da R. L. Stevenson nella sua opera, nella quale l'individuo necessita di un richiamo alla distinzione tra applicazioni che migliorano e applicazioni che aumentano.
 
Le prime, come pacemaker, occhiali o arti artificiali, sono applicazioni interfacciate interamente con la componente ergonomica. Le seconde, come l'habitat o la stessa realtà, sono applicazioni interfacciate con la componente comunicativa tra diversi mondi possibili. Ad esempio il mondo esterno, che condiziona l'agente che ne è parte, e il mondo caldo e scuro, pieno di acqua e sapone della lavastoviglie. Le ICT non sono applicazioni né che migliorano né che aumentano, ma apportano trasformazioni radicali, cioè "costruiscono". In un sistema simile, si preferisce utilizzare il neologismo "riontologizzare", per far riferimento al fatto che tale forma non si limita soltanto a costruire, ma soprattutto ad apportare una trasformazione radicale della sua natura intrinseca. In altre parole le ICT non stanno ricostruendo il mondo ma lo stanno riontologizzando.
 
La quarta rivoluzione è proprio questo, una dislocazione ed una ridefinizione dell'essenza della nostra natura e del ruolo che rivestiamo dell'universo. Se prima la nostra prospettiva sulla natura ultima della realtà, vale a dire la nostra metafisica, era materialistica, cioè basata su processi e oggetti fisici, ora diviene informazionale. Un simile passaggio sta a significare che gli oggetti e i processi perdono la propria connotazione fisica e sono tipizzati, cioè l'esemplare di un oggetto(copia di un file musicale) conta quanto il suo tipo (il tuo file musicale, di cui la mia copia è un esemplare). Porre minore enfasi sulla natura fisica di un oggetto implica che il diritto di uso sia giudicabile almeno tanto importante quanto quello di proprietà.
 
"L'essere è l'essere interagibile", definendo con questa espressione il passaggio, da un essere immutabile o un essere potenzialmente oggetto di percezione, a un essere potenzialmente soggetto a interazione, anche se indiretta. In tal senso, in tempi recenti, molti paesi hanno seguito la pratica degli Stati Uniti di riconoscere, come bene (digitale), il software. Data la premessa, non dovrebbe essere troppo difficile accettare che anche beni virtuali possano rappresentare investimenti importanti. In Cina, ad esempio sono sempre più famosi i cosiddetti negozi di beni virtuali, dove in stanze claustrofobiche, i lavoratori sono costretti a racimolare e creare beni su [[w:World of Warcraft|World of Warcraft]] o altri MMORPG, per poi essere venduti ad altri giocatori.
 
Quando un giocatore si iscrive ad un MMORPG, cioè ad un gioco di ruolo multigiocatore di massa, al momento della registrazione si accettano anche gli EULA, cioè i contratti di licenza di un software commerciale. Questi non permettono la vendita di tali beni virtuali, come se la proprietà di un documento digitale creato per mezzo di un software non ci appartenga. Questo "mercato nero" dei beni virtuali è in crescente aumento, per questo motivo società come la SONY, tramite la licenza SOE (Sony Online Entertainment), hanno deciso di creare un servizio ufficiale di aste che fornisca ai giocatori metodi legali e sicuri di acquisto e vendita di tali beni. Una volta che la proprietà dei beni virtuali sia stata legalizzata, il passo successivo sarà l'emergere di controversie giudiziarie relative a tale proprietà. Un esempio è quanto accaduto in Pennsylvania, dove un avvocato ha patrocinato una causa contro l'editore di Second Life, un simulatore di vita virtuale, per avergli confiscato un valore i 10mila dollari di terra virtuale.
 
Una delle questioni più sottili per la salvaguardia dei beni virtuali è proprio la stipulazione di assicurazioni che garantiscano la protezione dei beni. World of Wacraft ne è un chiaro esempio, essendo il più grande MMORPG con oltre 12 milioni di giocatori sottoscritti ad un abbonamento mensile. I suoi utenti, che hanno speso milioni e milioni di ore per costruire, arricchire e perfezionare le loro proprietà digitali, saranno ben disposti a spendere qualche dollaro per assicurarle. Le ICT stanno creando un mondo nella quale le nuove generazioni trascorreranno la maggior parte del loro tempo; invece di individui concepiti come entità uniche e insostituibili, abbiamo cominciato ad essere prodotti di massa, dal momento che le nostre vetrine di acquisto diventano le nostre "finestre" di acquisto e dato che anche il modo in cui viviamo la realtà si è spostato dalle strade al web, anche la nostra identità personale comincia ad essere erosa. Per questo ci troviamo di fronte ai meccanismi di personalizzazione che i social ci offrono. Usiamo ed esibiamo talmente tante informazioni che ci riguardano che anche l'anonimato diviene impossibile e processi, come questi appena descritti, sono parte di un più profondo slittamento metafisico causato dalla rivoluzione dell'informazione.
 
L'ubiquità computazionale, di cui si sente parlare oggi, è proprio il sottile distacco che c'è tra il qui analogico e il là digitale. Un distacco così sottile che potremmo considerare nullo, tant'è che diviene impercettibile distinguere i due ambiti. La crescente informatizzazione dell'intero ambiente sociale suggerisce che sarà difficile comprendere come fosse la vita prima dell'era informazionale e, in un futuro prossimo, la differenza tra online e offline scomparirà. L'infosfera sarà in tal modo sincronizzata, delocalizzata e correlata, cessando di essere considerata un modo di fare riferimento allo spazio del informazione per divenire sinonimo di realtà.
 
==== Il linguaggio dell'informazione ====
La definizione di informazione, nella sua declinazione generale (DGI), si esplica nella relazione tra dati e contenuto significante, passibile cioè di interpretazione. Un'informazione sussiste se include un certo numero di dati ben formati (ossia espressi secondo una sintassi in accordo con la configurazione scelta) e dotati di significato (conformi alla semantica del sistema di riferimento).
 
La comprensione di un'informazione può darsi sia da una disposizione dei dati sia da una loro assenza o cancellazione. Tale concetto è assimilabile al fenomeno del "silenzio assenso", dove l'assenza di elementi conoscibili fornisce un'informazione tanto quanto i dati derivabili dall'esistenza di un suono.
 
Il carattere problematico della comprensione di un dato sta nel definirsi "mancanza di uniformità", infatti, citando una frase di [[w:Donald Mac-CrimmonMacKay|Donald Mac-CrimmonMacKay]] "l'informazione è una distinzione che fa la differenza". Questo concetto è esprimibile con un esempio: supponiamo di avere un foglio totalmente bianco e successivamente disegnarvi un puntino. La variazione avuta nel sistema rappresenterà un'informazione rispetto allo stato precedente.
 
I dati possono essere classificati come '''analogici''' (se trasmessi e codificati in una modalità continua) o '''digitali''' (se suscettibili di variazioni discrete, cioè oscillanti tra modalità differenti: questi sono detti anche dati binari poiché il segnale si declina tramite i due valori del bit 0 ed 1). I dati possono inoltre essere primari, secondari, metadati, operativi, derivati.
 
Per quanto riguarda il significato dei dati, se questi vengono considerati semanticamente validi a prescindere dal soggetto che ne potrebbe usufruire, si parla di '''informazione ambientale''' che, a sua volta, può assumere carattere istruttivo, ovvero descrittivo o necessitante di una data azione.
 
Il discriminante tra questo tipo di informazione e quella di carattere fattuale sta nel riscontrare in quest'ultima uno stato di cose, una dichiarazione dell'effettiva situazione, e nel suo designarsi come informazione o vera o falsa.<ref>[http://www.infodem.it/libro.asp?id=4131, "Luciano Floridi, ''La rivoluzione dell'informazione'', Codice edizioni, Torino, 2010, pp. 23-44]</ref>
 
====L'informazione matematica====
Le informazioni sono quantificabili: possono essere codificate, immagazzinate, sommate. Queste e altre proprietà vengono considerate sotto un punto di vista matematico dalla '''TMC''' (teoria matematica della conoscenza) ideata da [[w:Claude Shannon|Claude Shannon]].
 
Principalmente, essa si occupa di codificare le informazioni, in modo da evitare il deficit dei dati conosciuto anche con il termine di "incertezza": esso si presenta quando un dispositivo può produrre più simboli che il destinatario non può conoscere prima della loro trasmissione.
 
Nella codificazione giocano un ruolo importante ridondanza e rumore: la prima riguarda la trasmissione matematica (in bit) di un certo dato, la seconda il carico delle informazioni inviate non volutamente.
 
L'informazione considerata da Shannon prende anche il nome di '''"entropia"''', dal suggerimento di [[w:John von Neumann|John von Neumann]]. Essa indica:
* la quantità di informazione prodotta da un simbolo,
* il conseguente deficit generato da essa,
* il valore informativo di essa.
 
Le informazioni però, oltre ad avere un valore matematico, presentano anche un valore semantico che non viene trattato dalla TMC: questo ambito riguarda il campo dell'informazione semantica.<ref>[http://www.infodem.it/libro.asp?id=4131, L. Floridi, ''La rivoluzione dell'informazione'' cit., pp. 45-58.]</ref>
 
====L'informazione semantica====
Prendendo in considerazione il significato semantico, è giusto presentare la differenza fra contenuto semantico fattuale e informazione semantica fattuale. Il primo può essere costituito di dati non riducibili al vero mentre il secondo è composto rigorosamente da verità: è importante perciò che l'informazione semantica fattuale sia vera laddove il contenuto può essere falso.
 
Il contenuto informativo prende in considerazione il significato, nonché le relazioni che un'informazione può istituire. Nonostante ciò - come precedentemente detto - non sia ambito della TMC, esso e l'informazione semantica hanno in comune un aspetto: il '''PRI''' (principio di relazione inversa). Esso si occupa delle relazioni inverse che possono riguardare le probabilità. Infatti l'informazione semantica traduce come tale la relazione tra informazione e probabilità, la quale induce allo scandalo delle premesse e al paradosso di Bar-Hillel-Carnap.
 
Le premesse (e quindi che probabilità) possono corrispondere sia la vero che al falso nei riguardi di un fatto. Quindi, nonostante esse potrebbero non includere in sé i giusti termini per la conclusione cui si fa riferimento, risultano ugualmente necessarie per la formulazione di essa: è questo lo scandalo. Sta di fatto che più possibilità vi sono rispetto ad un fatto, meno informazioni giuste si hanno su di esso.
 
Di conseguenza, meno possibilità vi sono rispetto ad un fatto, più informazioni giuste si hanno su di esso. Logicamente parlando, questo assunto è traducibile nella relazione p=1. In matematica però esso può procedere anche in p=0. La problematica è proprio in questo: 0 indica o una situazione o impossibile o contraddittoria, ed è quello che il paradosso di Bar-Hillel-Carnap sottolinea. Per evitare di intaccare il sistema matematico (che in tal modo ammetterebbe una realtà contraddittoria), la soluzione può trovarsi facendo ritorno all'ambito semantico: infatti un'informazione è definita semantica quando fa riferimento al vero, alla realtà effettiva, la quale esclude a priori aspetti di contraddittorietà.<ref>[http://www.infodem.it/libro.asp?id=4131, L. Floridi, ''La rivoluzione dell'informazione'' cit., pp. 59-73.]</ref>
 
====L'informazione fisica====
Il processo informativo porta con sè un forte dispendio energetico ed è soggetto alle leggi fisiche della termodinamica.
Il processo informativo quindi è causa di entropia. La domanda sulla quale occorre interrogarci è : Sarebbe possibile evitare questo dispendio energetico, anche solo teoricamente? Maxwell, studioso, mediante il "demone di Maxwell" ci fornisce una sua risposta.
Ci invita a fare un piccolo esperimento mentale, "la teoria del calore": immaginiamo un omino (poi nominato demone di Maxwell) il quale si trova tra due caselle. Questo omino è capace, socchiudendo la porticina che divide le due caselle, di spostare le molecole più lente da una parte e quelle più veloci dall'altra. Questo processo tuttavia, attraverso l'elaborazione dei dati, il calcolo del momento in cui aprire la porticina, la localizzazione delle molecole, causa entropia, dispendio energetico.
L'informatico Bennet, inoltre, esorcizza il demone: la cancellazione della memoria, la quale richiede comunque energia, è il prezzo irreversibile da pagare da parte del demone di Maxwell. Questa conclusione però non è legge, infatti uno scettico potrebbe ancora immaginare un demone nel quale la memoria non venisse cancellata, in continua espansione. Si arriverebbe quindi ad un pareggio.
Se si trattasse di Computer Quantistici? Si potrebbe vedere vinta l'entropia? La risposta è no, ma elaboriamola. I computer quantistici, almeno teoricamente, potrebbero avere la possibilità di sovrapporre stati differenti, chiamati QUBIT.
In questo caso si avrebbe un dispendio di tempo molto minore e si potrebbe presentare un nuovo sistema informativo, capace di rendere semplici calcoli molto complessi. Purtroppo i problemi di costruzione potrebbero rivelarsi insormontabili.
Secondo alcuni studiosi si arriverebbe alla realizzazione della realtà come ente costituito da Bit. Questa teoria può sposarsi con la Metafisica dell'informazione, per la quale l'universo viene visto come un grande computer capace di produrre Bit.
Questo da un lato non può ritenersi veritiero perché il solo universo non basterebbe e dall'altro perché si ricadrebbe nel "demone di Laplace" e il suo determinismo, superato a partire dal diciannovesimo secolo con teorie informative, che durano tutt'oggi (basti pensare a Wiener e la sua metafisica) meno deterministiche e basate sul principio di incertezza.
 
====L'informazione biologica====
L'informazione biologica può assumere svariati significati a seconda che si riferisca al soggetto e al suo codice genetico, al rapporto di elaborazione dati del soggetto rispetto all'esterno o alla produzione di informazione che, mediante la comunicazione, passa dal sogetto in questione ad altri. Qui ci occuperemo semplicemente dell'informazione biologica in relazione all'organismo e dell'informazione neurale (l'organismo in quanto cervello). Innanzitutto occorre distinguere l'informazione biologica fisica, che fornisce informazioni come realtà, istruttiva, che fornisce informazioni per la realtà e semantica, che fonisce informazioni sulla realtà.
E' possibile poi ritrovare due diversi aggettivi per l'informazione biologica o genetica: attributivo e predicativo. Esempio calzante quello di Luciano Floridi: un'informazione attributiva è quella medica, di per sè non curativa; un'informazione predicativa è quella digitale, in quanto è tale poiche digitale. Che tipologia di informazione è quella biologica o genetica?
I geni, protagonisti del codice genetico sono istruzioni e le istruzioni sono informazioni predicative che insieme a elementi indispensabili dell'ambiente circostante controllano e guidano lo sviluppo degli organismi.
Dunque in questo senso, predicativo e procedurale, possiamo riassumere la tipologia dell' informazione biologica o genetica.
Quando si tratta invece del rapporto fra cervello e mondo esterno occorre partire dal concetto di sistema nervoso: una rete che gestisce informazioni e che produce da azioni reazioni a vantaggio dell'organismo che ne è soggetto.
I protagonisti di questa rete sono i neuroni e le cellule gliali. I neuroni sono molti ma è possibile schematizzarli in "neuroni sensori","neuroni motori" e "interneuroni", collocati tra i primi due tipi di neuroni.
La "sinapsi" è l'incontro fra due neuroni dove è scambiato il segnale elettrochimico. Questa architettura di rete prevede un sistema nervoso centrale e un sistema nervoso periferico, interfaccia tra il corpo e il mondo esterno.
Il centro di questa architettura è certamente il cervello, nel quale sono presenti 100 miliardi di neuroni.
Dilemma informatico, ancora oggi, è il processo che arriva all'informazione semantica di alto livello: Luciano Floridi fa l'esempio della luce rossa lampeggiante e la nostra comprensione della batteria che si sta scaricando. Questo processo non può essere ancora interamente spiegato e rappresenta la meraviglia dei percorsi scientifici, sui quali è necessario ancora lavorare.
 
====L'informazione economica====
 
====L'etica dell'informazione====
 
==L'etica informatica==
La tecnologia informatica ha provocato una rivoluzione non solo tecnologica ma anche sociale ed etica, per cui è stato necessario fondare un'Etica Informatica, in cui si delineano i tradizionali problemi etici riformulati a causa dell'impatto dell'Information Technology).
 
===I teorici dell'etica informatica===
 
*[[w:Norbert Wiener|Norbert Wiener]]: fondatore della cibernetica oltre che autore di saggi sull'aspetto etico dell'information technology.
*[[w:Donn Parker|Donn Parker]] (SRI International, California): dopo aver esaminato gli usi "illeciti" e "immorali" da parte degli informatici di professione, rielaborò nel 1968 l'articolo ''Rules of Ethics in Information Processing'' dirigendo il primo codice di condotta professionale per l'[[w:Association for Computing Machinery|Association for Computing Machinery]].
*[[w:Joseph Weizenbaum|Joseph Weizenbaum]]: informatico del [[W:Massachusetts Institute of Technology|Massachusetts Institute of Technology]], è il creatore di [[w:ELIZA|ELIZA]], un software che simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum approfondì poi gli aspetti filosofici legati alla creazione dell'Intelligenza artificiale scrivendo ''Computer Power and Human Reason'', nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale possano sostituire l'uomo.
*Walter Maner: solo alla metà degli anni '70 alla Old Dominion University viene coniato il termine "etica informatica" per indicare "quel campo dell'etica professionale applicata che riguarda i problemi etici aggravati, trasformati o creati dall'IT" (si fa riferimento tuttavia a tradizioni etiche come quella utilitarista o razionalista. Alla fine degli anni '70 creò un certo interesse per la nuova disciplina inaugurata organizzando numerosi corsi, seminari e conferenze oltre a pubblicare con la collaborazione di Terrell Ward Bynum lo '''Starter Kit In Computer Ethic''', contenente dispense e consigli pedagogici per gli addetti ai lavori. Conteneva inoltre alcune ragioni fondamentali per integrare un corso di etica informatica, un elenco di obiettivi oltre a vaste discussioni su temi come: Privacy, reati informatici fino a trattare temi più complessi come codici professionali o dipendenza informatica.
*[[w:James Moor|James Moor]]: negli anni '80, dopo la progressiva diffusione delle problematiche relative al campo etico, si ebbe un'esplosione dell'attività dell'etica informatica. Esempi sono ''What is Computer Etics?'', un articolo di James Moor pubblicato nel 1985 sulla rivista "Metaphilosophy", nel quale l'autore definisce l'etica informatica come disciplina che ha a che fare con il "vuoto politico" (come utilizzare al meglio le nuove tecnologie) e la "confusione concettuale". Per Moor uno dei compiti centrali dell'etica informatica è quello di formulare politiche che possano dirigere la nostra azione, in quanto la tecnologia informatica è logicamente malleabile. In questa ottica la rivoluzione informatica si distingue in due momenti: l'introduzione della tecnologia (sviluppo e raffinazione) e la penetrazione della tecnologia (integrazione nelle principali attività umane, arrivando a modificare concetti come il denaro, l'istruzione, il lavoro...).
*Deborah Johnson: con la pubblicazione di ''Computer Ethics'', il primo manuale della disciplina, definisce l'etica informatica con un approccio simile a Maner (filosofia applicata), tuttavia non crede che i computer abbiano creato nuovi problemi, ma solo una rielaborazione di questioni già note.
*[[w:Terrell Bynum|Terrell Bynum]]: nonostante la definizione di Moor sia la più ampia, Bynum propone un approccio che include etica applicata e sociologia informatica coinvolgendone le teorie e concetti: "L'etica informatica identifica e analizza l'impatto della tecnologia informatica sui valori umani e sociali come la salute, la proprietà, il lavoro, le opportunità, la libertà, la democrazia, la conoscenza, ecc.". Progettò inoltre con Maner la prima conferenza internazionale sull'etica informatica, tenutasi nel 1991, che vide convenire partecipanti da 7 paesi e 32 stati degli USA.
*[[w:Simon Rogerson|Simon Rogerson]]: negli anni '90 ci fu una diffusione di interesse per l'etica informatica sopratutto in Europa e Australia, soprattutto grazie a pionieri come Rogerson, fondatore del Centre for Computing and Social Responsibility (CCSR) inaugurando insieme a Terrell Bynum una serie di conferenze internazionali (ETHICOMP). Lo stesso Rogerson ha promosso l'esigenza di una "Seconda Generazione" degli studi sull'etica informatica, fondata sulla costruzione/elaborazione dei fondamenti concettuali e sullo sviluppo dei contesti teorici nei quali possono emergere azioni pratiche, minimizzando gli effetti imprevisti dell'IT.
*[[w:Donald Gotterbarn|Donald Gotterbarn]]: autore dell'ultima stesura del codice di etica e condotta professionale all'ACM per stabilire gli standard di licenza per i progettisti software, ha definito l'etica informatica come una branca dell'etica professionale per la sua applicazione in codici di condotta per gli addetti ai lavori.
 
===I temi dell'etica informatica===
Le principali questioni Sociali ed Etiche che riguardano i luoghi di lavoro sono :
*''Sicurezza Logica'' : Suddivisa in 5 aspetti:
#Privacy e riservatezza dei dati,
#Integrità (Garanzia che i dati ne programmi siano modificati senza adeguata autorizzazzione)
#Prestazione inalterata
#Coerenza
#Controllo dell' accesso alle risorse
 
*''Proprietà del Software'':Un'altra questione sociale relativa a opinioni comuni sulla totale libertà dell'Informazione o sulla commercializzazione di esse ( per sostenere i programmatori e incentivare la produzione di software di qualità) sottoforma di:
#''Copyright''
#''Segreti di fabbrica''
#''Brevetti''
 
*''Responsabilità professionale'':I professionisti responsabili,venendosi a trovare continuamente in una serie di rapporti professionali devono essere a conoscenza dei possibili conflitti di interesse ed evitarli.Negli Stati Uniti organizzazioni professionali come "'''ACM'''" e "'''IEEE'''" hanno stabilito dei codici etici ,delle direttive sui ''curricola'' e requisiti di accreditamento oltre a includere nel codice imperativi morali come :"evitare di danneggiare gli altri" o "essere degni di fiducia".
 
===Computer Ethics===
La diffusione così capillare del computer nella vita e nelle attività umane non poteva non chiamare in causa l'etica.
 
Il primo scienziato a riflettere sugli aspetti etici e sociali legati ai computer è stato Norbert Wiener, padre della cibernetica. La prima volta che fu usato il termine ''computer Ethics'' fu nel 1978, quando Walter Maner la definì come il campo di indagine che affronta i problemi etici creati, trasformati o aggravati dall'information techonology. Si arriva cosi al 1985, considerato l'anno di fondazione della Computer Ethics intesa come disciplia.
 
Cosa sia e cosa comprenda la Computer Ethics (l'etica dell'informazione), non è scontato. La mappatura dei temi che possono essere compresi sotto questa etichetta sono svariati e spaziano dalla Governance di Internet al tele-lavoro, dal digital divide ai temi della privacy e della criminalità informatica.
 
Il "principio unificante" della legge che governa l'uso e la diffusione delle tecnologie dell'informazione e che permette anche di inquadrare le complesse tematiche dell'etica delle tecnologie dell'informazione, è il seguente: "L'importanza dell'informazione in un'organizzazione, nell'economia e nella stessa società, è direttamente proporzionale al livello di complessità dei processi da conoscere e gestire e, inversamente proporzionale al livello di fiducia tra agenti coinvolti in tali processi".
 
Potremmo chiamare il primo tipo di complessità "complessità tecnica" e il secondo "complessità politica". Potremmo dire che le tecnologie dell'informazione nel momento stesso in cui forniscono soluzioni sempre più performanti nel "dominare" la complessità tecnica e quella politica, suscitano sfide e problemi etico-sociali sempre più complessi.
 
Per avere un quadro esaustivo degli aspetti dell'informazione trattati dalla Computer Etics, si può fare riferimento alla mappatura proposta da Norberto Patrignani, che li colloca su diversi livelli, da quelli più fisici fino alla noosfera, la sfera delle idee.<ref>Ovviamente, come tutti i modelli, esso rappresenta una semplificazione della complessità del mondo reale.</ref> I livelli verticali rappresentano le diverse aree della realtà potenzialmente influenzate dai computer (dal pianeta al mondo delle idee come detto prima); i domini orizzontali, invece, rappresentati da ellissi con dimensioni approssimativamente proporzionali alla loro importanza, costituiscono una panoramica delle principali aree di criticità o di attenzione della Computer Ethics.
 
Le questioni identificate con la computer Ethics possono essere affrontate a livello individuale, professionale e sociale. Un ruolo speciale spetta ai computer professional, nella definizione dei loro codici etici di condotta e nel fornire, al pubblico in generale ed ai decisori pubblici, tutte le informazioni sulle potenzialità, sui rischi e limiti delle tecnologie dell'informazione. In italia, ad esempio, diverse università hanno introdotto corsi di Computer Ethics, il che contribuirà alla formazione di figure esperte e capaci valutare con attenzionele implicazioni sociali ed etiche della tecnologia dell'informazione.
 
===Computer Ethics e software libero===
[[w:Richard Stallman|Richard Stallman]] con la sua battaglia, traccia una definitiva cesura tra il software libero ed il software proprietario, è opportuno quindi analizzare in questa sede le peculiari differenze tra le due visioni del mondo dell’informatica per avere un quadro generale più chiaro. Il software proprietario<ref>https://it.wikipedia.org/wiki/Software_proprietario</ref> rappresenta una modalità di diffusione e gestione del software chiusa, infatti per procedere ad una eventuale ispezione, modifica o adattamento richiede l'intervento di chi ha la proprietà del codice sorgente. Il software proprietario può essere soggetto a ritiro e non essere più fruibile in futuro, ciò realizza una vera e propria dipendenza dal fornitore che di solito provvede a brevettare il sistema di dati che lancia sul mercato.
Il software libero<ref>https://it.wikipedia.org/wiki/Software_libero</ref> al contrario può essere soggetto ad ispezione, modificato, riusato e diffuso. Può essere modificato e migliorato da chiunque sappia farlo, anche esterno alla comunità degli utenti.
Il software libero è dunque una risorsa comune i dati sono accessibili in un formato standard, infatti rende di pubblico dominio il codice sorgente consentendo la modifica ed il riuso. Dunque è sicuramente rilevabile una differenza etica tra le due visioni del mondo informatico, considerato che il software libero colma le lacune conseguenti al Digital Divide promuovendo possibili scenari di sviluppo sociale, attraverso l’adattabilità ai contesti locali e culturali, inoltre il trasferimento delle conoscenze tecnologiche tramite la descrizione del codice sorgente, stimola la cooperazione con la comunità internazionale di utenti e programmatori.
Pertanto il software libero incrementa la crescita economica, poiché la modifica autonoma del codice sorgente può favorire la nascita di una industria ICT che conosce le esigenze locali, con un abbattimento considerevole dei costi di hardware e software.
 
===Etica e responsabilità nell'era del postumano===
Il crescente e progressivo sviluppo delle tecnologie consente all'uomo di oggi di modificare se stesso volontariamente sia per scopi terapeutici che migliorativi. In questa nuova prospettiva si colloca il [[w:Transumanesimo|'''postumanesimo''']], la cui etica apre a scenari totalmente inediti. Il postumanesimo ha come obiettivo il trascendimento dei limiti biologici umani, attingendo a piene mani dalla rivoluzione GNR (Genetica, Nanotecnologia, Robotica) in corso per migliorare le capacità fisiche e cognitive individuali auspicando una prossima era postumana.
 
A ciò si aggiunge un cambio di paradigma da un punto di vista più strettamente teorico. I sostenitori del postumano, infatti, mettono in discussione alcuni punti fermi della tradizione religiosa come la ''sacralità della natura'', (che si identifica con la ''sacralità della vita'') e sostengono l'abbattimento della dicotomia '''naturale - artificiale''', categorie ormai obsolete poiché il naturale sfocia nell'artificiale senza soluzione di continuità, come suo effetto consequenziale. Lo stesso concetto di identità è profondamente cambiato: l'Homo sapiens lascia spazio all''''Homo technologicus''', un uomo che costruisce degli strumenti che retroagiscono su egli stesso cambiandolo in profondità. L'uomo è un essere in continuo divenire (a differenza di quanto sostiene il [[w:Fissismo|fissismo]]) che oggi più che nei secoli scorsi, modifica se stesso e il proprio corpo in maniera totalmente volontaria e consapevole. Gli interventi non si limitano alla sfera individuale ma riguardano tutta la specie umana se comportano una manipolazione del genoma. L'uomo, in questo modo, prende in mano le redini della propria evoluzione che d'ora in avanti non sarà più soltanto biologica ma biotecnologica.
 
La prospettiva post-umana individuale è interessata anche al campo della '''ciborganica''' e della '''robotica'''.
Il '''cyborg''' è una creatura formata dall'inserimento di protesi artificiali in un organismo animale : occhi , orecchie e pelle artificiale sono solo alcuni dei tanti esempi possibili. Le protesi non hanno unicamente una funzione terapeutica (in caso di menomazioni etc.) ma anche quella di estendere e potenziare capacità tipicamente umane come il movimento, la sensibilità, la cognizione. Alcuni dispositivi in particolare, quelli che collegano il cervello al computer, sono ancora in via di sviluppo. Questi ultimi puntano alla cura di alcune malattie neuro-degenerative, dunque apportando un notevole beneficio terapeutico, ma pongono questioni etiche inedite come quella sull'identità e sul confine tra uomo e macchina.
Se in un cyborg si parte da una base fondamentalmente organica e successivamente si sostituiscono alcuni componenti con i corrispondenti artificiali, nei '''robot''' la base è completamente artificiale. A differenza dei cyborg, nei quali le componenti artificiali sono dei correttivi o dei potenziamenti della natura, nei robot si punta all'imitazione di funzioni tipicamente umane come quelle percettive, emotive, intellettuali, relative all'apprendimento etc.
 
Gli esponenti del postumano riflettono anche sulle conseguenze sociali della futura società.
Le modificazioni genetiche e somatiche dovrebbero riguardare in primo luogo una piccola parte di individui, quelli più ricchi, capaci di far fronte a spese particolarmente esose. Successivamente, con il decrescere del prezzo degli interventi, tutti avranno la possibilità di migliorarsi e potenziarsi. A causa di ciò, è alto il rischio di una nuova [[w:Eugenetica|eugenetica]] per combattere le malattie ereditarie che potrebbe diventare una pratica piuttosto comune.
 
===Etica, diritto e decentramento nel web===
La logica che domina la rete è definita '''logica del decentramento'''. Essa influenza la produzione di ''informazioni'', consentendo agli utenti/agenti, tramite un modello a partecipazione orizzontale<ref>Si rimanda al concetto di sussidiarietà digitale, M. Durante, "''Il futuro del web: etica, diritto, decentramento''", pp. 234-235 </ref>, di contribuire alla realizzazione di un'opera comune. Tale logica è, almeno in parte, determinata dalla particolare topologia della rete. L'informazione si presenta come presupposto fondamentale nella capacità di rappresentarsi il mondo, nell'assumere certe decisioni e tenere determinati comportamenti. Si rendono allora necessarie delle forme di controllo che, '''temperando''' la logica del decentramento, garantiscano l'attendibilità dell'informazione e tutelino gli utenti, che su tali informazioni indirizzeranno le proprie azioni. In tale prospettiva si muovono ''l'etica del computer'', che tenta di proporre soluzioni ai problemi determinati dallo sviluppo della tecnica, elaborando ed adottando dei ''codici etici di comportamento'', ed il ''diritto'', che tenta di tradurre tali proposte in norme.
Il giurista Lawrence Lessig, partendo da una riflessione circa il copyright, giunge a definire il rapporto tra tecnica dell'informazione e diritto nei termini di un conflitto tra forme di potere, tra un'istanza che tende a distribuire potere (caratterizzata da una struttura orizzontale priva di autorità regolatrici) ed una che tende a concentrarlo (caratterizzata da una struttura verticale in cui ogni livello è regolato da quello superiore). Da questo punto di vista, considerando gli effetti che la distribuzione di potere produce in termini di creatività e progresso, Lessig rileva la necessità di un contemperamento delle due istanze, definito dal grado di libertà da concedere ai soggetti perché non risulti ridotta la loro capacità contributiva e creativa ed allo stesso tempo perché la logica del decentramento non produca esiti anarchici, uno spazio privo di ogni controllo o tutela. Una ulteriore forma di controllo sulla rilevanza ed attendibilità delle informazioni in rete è inscritta nella stessa logica della rete. Pur in mancanza di un' ''autorità'' o di un ''centro di controllo'', gli utenti, attraverso la propria attività di raccolta e condivisione, possono determinare il grado di attendibilità delle informazioni. Questo tipo di controllo è collegabile alla nozione, sviluppata da [[Luciano Floridi]], di ''ontic trust''<ref>M. Greco - G. Paronitti - M. Taddeo - L. Floridi, "Etica Informatica"</ref>. Floridi suggerisce che la società dell'informazione digitale ha bisogno di porre, a proprio fondamento, un patto che costituisca la base necessaria di un impegno reciproco, tra agenti ed utenti, in vista della necessità di risolvere le problematiche definite dall'infittirsi delle relazioni nell'''infosfera''<ref>L. Floridi definisce l'''infosfera'' "ecosistema semantico, proprio della società dell'informazione, costituito dalla totalità dei documenti, degli agenti e delle loro operazioni".</ref>. Questo patto, definito ''ontico'' perché tutela l'esistenza di un'entità informazionale, presenta caratteri tali da poter essere avvicinato alla figura giuridica del ''trust'', per cui un soggetto detiene e gestisce i beni di una persona a vantaggio di altri soggetti. Elemento essenziale di tale patto è la ''fiducia'', l'affidamento reciproco nella capacità di cura, da cui nasce una mutua responsabilità.
 
===Cyber-sicurezza===
 
===Trasparenza e sorveglianza nell'era tecnologica===
Giovanni Ziccardi,nel suo testo "Internet controllo e libertà" analizza l'impatto delle nuove tecnologie nella società moderna,districandosi anche tra tematiche come la sorveglianza e la trasparenza. Si parla dei presunti metodi di controllo,adoperati da alcuni organi privati o governativi,che tramite queste nuove tecnologie avrebbero commesso degli illeciti a livello legale,andando a sorvegliare,su scala mondiale,le comunicazioni che avvenivano sulla rete.
In questo caso,viene notato,un utilizzo distorto di questa nuova tecnologia,che tramite strumenti,come i ''droni'' o le ''microspie'' andrebbe a minare la sicurezza della sfera privata del cittadino. Il quale già di per sé,tende a svalutarla tramite la diffusione di dati personali (sulle varie piattaforme dei ''social network'') o dei suoi spostamenti (tramite le modalità GPS presenti sui vari ''smartphone''). Infatti,viene fatto notare dall'autore,la quasi impossibilità di eliminare un dato dalla rete,vista la ormai enorme capacità d'archiviazione.
L'ipotesi che si viene a creare è quindi quella di una società,sempre sotto sorveglianza,ma questo funzione fin quando viene mantenuto il segreto su tali operazioni,nel contesto attuale,soprattutto in vista della nascita di molti siti votati ad attività di ''leaking'' (come ad esempio Wikileaks),quindi,risulta sempre più difficile il mantenimento del segreto,dato che basterebbe una semplice chiavetta USB per la diffusione di qualsiasi informazione ''online''.
Questo,lascia le porte aperte ad un quadro sociale che richiede la massima trasparenza sulle informazioni che potrebbero essere di danno verso la vita degli individui,non importa quanto grandi esse possano essere e le conseguenze che potrebbero scatenare tali rivelazioni. In ultima analisi,Ziccardi propone una rivalutazione di queste nuove tecnologie,le quali dovrebbero diventare accessibili a tutti e garantire la tutela della ''privacy'',con un aiuto,anche da parte delle varie istituzioni.
 
==Riflessioni sul web e sul digitale==
Line 486 ⟶ 204:
===Nicholas Carr. La gabbia di vetro: le conseguenze dell'automazione sull'uomo===
 
====''Internet ci rende stupidi?'' (2010)====
 
====''La gabbia di vetro'' (2014)====