Robotica educativa/Etica della robotica

Indice del libro

Anni fa (numerosi anni fa) quando studiavo ingegneria elettronica ho inserito nel mio piano di studi il corso di Meccanica dei robot. Erano gli anni '90, ere geologiche fa, se pensiamo a quanto velocemente si sia involato il progresso.


Un abbozzo di internet già esisteva, ma il semplice descriverlo richiederebbe un libro tutto suo. Fatto sta, che – durante quel corso – mi sono recato in biblioteca (il luogo dove in illo tempore i bipedi implumi cercavano libri: device con cui installare nuovo software nelle loro menti) e nella biblioteca universitaria ho trovato la prima edizione del Manuale di robotica industriale: un colosso di 1358 pagine.[1]

Tranquilli, sono umano. Non l'ho imparato a memoria. Potrei – invece – raccontarvi parola, per parola le due pagine che ne costituivano la prefazione, con un titolo che ancora mi fa venire i brividi: «Looking Ahead». E prima ancora di leggere una singola parola il mio occhio era caduto sull'autore: Isaac Asimov.

Dopodiché ho letto la prefazione. Sembrava scritta da un bambino la mattina di natale.

Tutto ruotava dietro due concetti: il primo, non poteva essere diversamente, quello di robot, come essere senziente che svolge compiti, anche in maniera intelligente, al servizio degli esseri umani. Qualcosa che si è sempre sognato sin dalla mitologia, passando per il meraviglioso film di Alberto Sordi Io e Caterina, fino al concetto di robotica.

Isaac Asimov sostiene di essere stato il primo a usare i termine robotics, col suffisso -ics, parafrasando physics (come studio della fisica). Per la precisione, a pagina 100 del magazine Austonding Science Fiction del marzo 1942, dove pubblicò il racconto Runaround, dove un suo personaggio enuncia le tre leggi della robotica:

(IT)
«  

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto con la Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

  »

(EN)
«  

  1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey any orders given to it by human beings, except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

  »
(Manuale di robotica, 56ª Edizione - 2058 d.C.[2])

La fonte era (sarà?) una successiva edizione del manuale di robotica che io stringevo tra le mani. La prefazione è datata gennaio 1985: Asimov non resiste alla tentazione di vestire i panni del profeta scrivendo: «se ci sarà – in media – una nuova edizione ogni 15 mesi, la cinquantaseiesima cadrà proprio nel 2058 d.C.»

Ma quello che più di tutto mi ha fatto innamorare della robotica è il concetto di etica della robotica, la cui pietra miliare sono proprio le tre leggi della robotica, spesso citate anche in ambiente accademico, come pilastro di riferimento, al punto che dal 2004 gli scienziati hanno iniziato a interrogarsi attorno a un nuovo settore chiamato roboetica.[3] Con la bussola morale puntata nella giusta direzione: le tre leggi della robotica di Isaac Asimov, scritte per la prima volta nel 1942 e, ancor oggi, più che mai attuali.

  1. Shimon Y. Nof, Handbook of Industrial Robotics, I edizione, 1985.
  2. Traduzione di Roberta Rambelli, Io, Robot, Bompiani, 1963.
  3. First International Symposium on Roboethics, Sanremo, 2004.