Utente:Luigi Catalani/sandbox/concetti fondamentali: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 5:
L’informatica è l’ambito di ricerca che si occupa dei processi di gestione ed elaborazione (reperimento, digitalizzazione, organizzazione e memorizzazione) dell’informazione per mezzo dei calcolatori elettronici. In altre parole, l’informatica è la scienza della rappresentazione e dell’elaborazione automatica dell’informazione.
 
Le '''scienze dell’informazione''' sono tutte le discipline che si occupano dei processi e dei sistemi di reperimento, conservazione, trasformazione e trasmissione dei dati informativi. L’informatica obbliga a trasformare i dati informativi in oggetti computabili e in sistemi formali, costruiti cioè in base a precisi schemi e secondo specifiche regole.
 
Occupandosi anche dell’applicazione dell’informazione nelle organizzazioni, del loro uso nelle interazioni delle persone e dell’organizzazione di sistemi informazionali, l’informatica analizza l’interazione tra persone e computer (''Human Computer Interaction'': HCI) e il modo in cui le persone generano e usano le informazioni. Perciò le tecnologie della comunicazione e dell’informazione (ICT) sono correlate ai temi della cibernetica, delle scienze cognitive e dell’intelligenza artificiale.
 
I '''fondamenti teorici''' dell’informatica si ritrovano nel pensiero di [[w:Gottfried Leibniz|Gottfried Leibniz]], [[w:Thomas Hobbes|Thomas Hobbes]], [[w:Georges Boole|Georges Boole]] e [[w:Gottlob Frege|Gottlob Frege]], e più direttamente nei lavori di [[w:Charles Babbage|Charles Babbage]], [[w:Vannevar Bush|Vannevar Bush]], [[w:Alan Turing|Alan Turing]] e [[w:John von Neumann|John von Neumann]].
 
==L'idea del Computer e la filosofia==
Il Computer è un dispositivo automatico, che esegue algoritmi per risolvere problemi in base a dati e istruzioni. Un computer si può analizzare a tre livelli: la struttura fisica (hardware), le strutture algoritmiche (software) e la '''teoria della computabilità''', che studia il modo di eseguire calcoli in maniera meccanica e discute la natura e i limiti delle procedure implementabili dal computer.
 
L’'''idea''' di costruire una macchina che esegue ragionamenti rigorosi, logicamente fondati e universalmente accettabili risale almeno a [[w:Raimondo Lullo|Raimondo Lullo]], che già nel XIV secolo sosteneva la necessità di definire un meccanismo per provare verità irrefutabili, e trova un primo fondamento concettuale in Thomas Hobbes, che considerava il ragionamento una manipolazione meccanica di simboli. I primi tentativi di costruzione di un calcolatore meccanico e una rigorosa definizione teorica risalgono al 1700, con Pascal e Leibniz.
Nel 1800, Charles Babbage progettò e costruì parzialmente il primo tentativo di calcolatore meccanico universale.
 
I primi computer furono analogici. Tra il 1930 e il 1950, nuovi progressi scientifici e tecnici permisero il passaggio a calcolatori elettromeccanici e poi elettronici. Il modello astratto di macchina universale introdotto da Alan Turing nel 1936 e l’analisi dell’attività dei neuroni in termini di logica dei circuiti elettrici, sono il punto di svolta nello sviluppo teorico del computer e delle sue implicazioni filosofiche. Il primo computer digitale risale al 1939. La seconda generazione di computer digitali fu caratterizzata dall’uso di diodi e transistor. L’introduzione del microchip ha portato all’avvento del personal computer.
 
Lo sviluppo del computer ha prodotto almeno tre effetti in filosofia: ha stimolato diversi progetti di ricerca interdisciplinari tra scienze cognitive e intelligenza artificiale, dando nuovo impulso alla filosofia della mente, del linguaggio e della conoscenza; ha suggerito l'applicazione di modelli computazionali ai tradizionali problemi filosofici; ha prodotto nuovi paradigmi concettuali e una nuova area filosofica: la cosiddetta '''filosofia dell'informazione''', elaborata da [[w:Luciano Floridi|Luciano Floridi]].
 
L’attuale centralità dell’informatica deve essere ricondotta al passaggio dal modello '''analogico''' al modello '''digitale''' nella codifica dei dati, unito alle possibilità offerte dallo sviluppo della tecnologia, la cui evoluzione è stata caratterizzata da tre percorsi: l’estensione del digitale dai soli linguaggi naturali e formali al mondo delle immagini e dei suoni, lo sviluppo delle rappresentazioni grazie al miglioramento delle interfacce grafiche, l’integrazione in un unico ''network'' dei vari domini di informazioni esistenti.
 
Analogico e digitale sono modi di codificare, elaborare e comunicare informazioni in un sistema. Un sistema è detto analogico se i valori dei suoi segnali sono continui (infiniti) in un dato intervallo; è detto digitale se tali valori sono misurati mediante un sistema numerale finito e discreto. Digitale deriva dall’inglese ''digit'' (dal latino ''digitus'', dito) e indica ciò che si conta con un insieme finito e discreto, come le dita di una mano. In un sistema digitale i segnali sono rappresentati attraverso la numerazione binaria; il ''bit'' - la più piccola unità di informazione di un sistema computazionale - è una contrazione dell’espressione ''binary digit''.
Riga 31:
Se da un lato l’avvento dei computer ha accelerato il processo di espansione delle conoscenze, dall’altro l’informatica ha fornito soluzioni ai problemi sorti dalla gestione del sapere, procurando gli strumenti atti a ordinare e rendere accessibile ogni singola parte dell’enciclopedia universale.
 
L’organizzazione del sapere o della conoscenza è la disciplina che si occupa di come la conoscenza prodotta e accumulata dall’uomo possa essere strutturata. Le unità di conoscenza fondamentali sono i '''concetti''': la rete dei concetti e delle loro relazioni va formando strutture di conoscenza via via più complesse. La conoscenza umana viene espressa, trasmessa e conservata in supporti materiali, i '''documenti'''. Un sistema efficace per sintetizzare le strutture della conoscenza in schemi e prospetti è la catalogazione o indicizzazione dei documenti, che può essere descrittiva, quando ne descrive le caratteristiche formali, o semantica, che ne fa emergere gli argomenti trattati in modo primario. I sistemi per l’organizzazione della conoscenza (''Knowledge Organization Systems'': KOS) sono di diversi tipi: parole-chiave, vocabolari controllati (thesauri), schemi di classificazione, ontologie.
 
==Ontologia e web semantico==
Possiamo distinguere tre nozioni di '''ontologia''': l'ontologia filosofica (lo studio dell’essere e dell’ente in quanto ente e deduzione delle categorie ontologiche); l'ontologia classificatoria (che può essere descrittiva o formale); l'ontologia informatica (la codificazione formale di una classificazione concettuale quale base di un software). Le ontologie in ambito informatico si configurano come un patrimonio di competenze semantiche trasferite dall’uomo alla macchina.
 
Lo sviluppo di Internet ha ulteriormente radicalizzato l’esigenza di una proficua comunicazione tra sistemi di organizzazione e classificazione (database) eterogenei: si vedano i recenti sviluppi del semantic web, termine coniato dal suo ideatore, [[w:Tim Berners-Lee|Tim Berners-Lee]], con cui si intende la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, files, immagini, e così via) siano associati ad informazioni e dati ('''metadati''') che ne specifichino il contesto semantico in un formato adatto all'interrogazione, all'interpretazione e all'elaborazione automatica.
 
Con tale nuova interpretazione del contenuto dei documenti, saranno possibili ricerche molto più evolute delle attuali, basate sulla presenza nel documento di parole chiave, ed altre operazioni come la costruzione di reti di relazioni e connessioni tra documenti secondo logiche più elaborate del semplice collegamento ipertestuale.
Riga 42:
==Internet==
Internet è il sistema globale di comunicazione e interazione costituito dal collegamento di numerose reti di computer in grado di scambiarsi informazioni per mezzo di vari protocolli, cioè di regole standard che consentono di instaurare e controllare lo scambio di dati online.
Internet è la combinazione di tre spazi, ciascuno con una propria architettura: lo spazio fisico, quello digitale e quello semantico ('''cyberspazio''').
 
Come infrastruttura fisica, Internet è una rete di computer, detti ''hosts'', i quali contengono dati e servizi, che si scambiano grazie alla condivisione di vari protocolli, come il TCP/IP. Ogni ''host'' è identificato da un indirizzo (''IP address'') unico a livello globale.
Lo spazio fisico implementa i protocolli telecomunicativi e determina una piattaforma di memoria globale, uno spazio digitale, risultato della coesione di tutti gli spazi di memoria che ciascun host rende disponibile pubblicamente.
La totalità dei servizi e dei documenti registrati nella memoria del network compone uno spazio funzionale-semantico detto ''cyberspazio'': una realtà non fisica ma concettuale, esperibile e navigabile attraverso percorsi sia lineari sia ipertestuali.
 
==Ipertesto==
Riga 60:
L’opera di Alan Turing in materia d’Intelligenza Artificiale e la sua provocatoria domanda "può una macchina pensare?" hanno aperto la strada alla caratterizzazione di macchine logiche sempre più raffinate e hanno centrato il problema filosofico su che cosa sia il pensiero e se sia possibile fornirne una spiegazione meccanicista. La Filosofia dell’Informazione ha sintetizzato queste istanze proponendo un’analisi di stampo minimalista, costruzionistica e meccanicistica dei sistemi fenomenologici e concettuali.
 
==Cibernetica, intelligenzaIntelligenza artificialeArtificiale==
La Cibernetica è la scienza che studia i sistemi dotati di strutture cicliche (''loop'') di controllo; tali sistemi sono specificati definendo la loro organizzazione interna e la loro capacità di comunicazione intersistemica. Secondo la classica definizione di [[w:Norbert Wiener|Norbert Wiener]], la cibernetica è "lo studio del controllo e della comunicazione negli animali e nelle macchine".
 
La storia della cibernetica è delineata dall’intreccio delle varie discipline che hanno contribuito allo sviluppo dei suoi principi teorici - ingegneria, biologia, filosofia, psicologia, logica, neuroscienze, sociologia ed economia - e alla costruzione di alcune macchine che incorporano tali principi. La spiccata interdisciplinarietà è legata all’intento di unificare i vari approcci sotto principi astratti comuni.
 
L’intelligenzaL’Intelligenza artificialeArtificiale (IA) si propone di riprodurre con programmi per calcolatore, o con robot mobili, comportamenti che, se osservati negli esseri umani, o più in generale negli organismi viventi, verrebbero definiti "intelligenti". La nascita ufficiale dell’IA risale al 1956, quando negli Stati Uniti, a Dartmouth (New Hampshire), si svolse un seminario organizzato da [[w:John McCarthy|John McCarthy]], [[w:Marvin Minsky|Marvin Minsky]], [[w:Nathaniel Rochester|Nathaniel Rochester]] e [[w:Claude Shannon|Claude Shannon]].
 
Da sempre l’IA si è presentata sotto un duplice profilo: quello di disciplina ingegneristica, con l’obiettivo di costruire macchine in grado di assistere l’uomo, e magari di competere con esso; e quello di disciplina psicologica, con l’obiettivo di costruire macchine le quali, riproducendo da vicino caratteristiche essenziali dell’attività umana, gettino nuova luce su alcuni tradizionali enigmi della mente, come il problema del rapporto mente-corpo.
 
L’obiettivo dell’Intelligenza Artificiale degli esordi era la costruzione di modelli computazionali, ovvero di programmi per calcolatore che simulassero i processi cognitivi umani in modo psicologicamente realistico. Ma l’intelligenza non è solo la capacità selettiva della mente umana: le difficoltà nascono quando si è cercato di emulare il ragionamento umano, estremamente duttile, alle prese con i “problemi"problemi della vita reale”reale", quali comprendere una lingua, riassumere un testo ecc. Gli sviluppi odierni dell’IA puntano sulle reti neurali artificiali (congegni in grado di simulare, grazie alle grandi capacità di memoria e di calcolo dei calcolatori, alcune proprietà del sistema nervoso degli organismi) e sul web, con la costruzione di ipertesti e di motori di ricerca intelligenti, dove svolgono un ruolo di rilievo la rappresentazione della conoscenza e l’elaborazione del linguaggio naturale.
 
==Filosofia dell'informazione, etica informatica==
Riga 76:
La Filosofia dell’informazione, basata sui concetti di informazione e computazione, si occupa di investigare criticamente la natura concettuale, i principi di base, la dinamica, l’impiego delle scienze dell’informazione. L’obiettivo è produrre, tramite l’utilizzo di un metodo peculiare, una famiglia di teorie dell’informazione che possano fungere da solida base per lo sviluppo di una teoria della conoscenza: per questo è nata l’''International Association for Computing and Philosophy''.
 
La diffusione capillare delle ICT ha inoltre determinato la nascita e il rapido incremento di un nuovo ambiente, l’'''infosfera''', costituito dalla totalità dei documenti, degli agenti e delle loro operazioni e concepito come continuo, finito ma potenzialmente illimitato e immateriale. Il rapido ampliarsi dell’Infosfera ha creato nuovi problemi etici e sociali: la proprietà intellettuale, la privacy, il digital divide, l’accesso e la gestione dei documenti.
 
La nascita e diffusione di Internet ha modificato alcuni classici problemi filosofici (come il concetto di presenza) e ne ha sollevati di nuovi, specie di natura etica ed epistemologica, quali le trasformazioni legate al telelavoro e alla formazione a distanza, gli effetti del ''big brain factor'', l’evoluzione del concetto di testo da cartaceo a digitale, il rapporto tra democrazia e sviluppo delle ICT, i problemi di privacy e di gestione delle informazioni, le violazioni del diritto d’autore, studiati dall’etica informatica.