Giuseppe O. Longo nasce a Forlì il 2 marzo 1941 e vive a Trieste dal 1955. Nel 1964 ha conseguito la laurea in Ingegneria Elettronica e, quattro anni dopo, la laurea in Matematica. Nel 1969 ha ottenuto la libera docenza in Cibernetica e Teoria dell’informazione, disciplina che ha introdotto in Italia e di cui ricopre la Cattedra dal 1975, presso la Facoltà d’Ingegneria dell’Università di Trieste. L’attività di ricerca, molto intensa, spazia dalla teoria delle reti ai codici algebrici fino alla teoria dell’informazione. Attualmente Longo si occupa soprattutto di epistemologia, di intelligenza artificiale e dei risvolti sociali del progresso tecnologico, in particolare di roboetica. Proprio su queste tematiche ha pubblicato i saggi: Il nuovo Golem: come il computer cambia la nostra cultura, (Laterza, Bari, 1998), Homo technologicus (Meltemi, Roma, 2001) e Il Simbionte: prove di umanità futura (Meltemi, Roma, 2003). All’attività scientifica affianca anche quella narrativa e drammaturgica. Ha scritto per diverse riviste letterarie tra cui Il banco di lettura e Linea d’ombra. Ha pubblicato tre romanzi tra cui L’acrobata (Einaudi, Torino, 1994), otto raccolte di racconti e una raccolta di drammi, Il cervello nudo (Nicolodi, Rovereto, 2004). Nel 2008 ha pubblicato il saggio Il senso e la narrazione (Springer Italia). L’innesto uomo-macchina è una realtà in continua trasformazione ed è proprio questo cambiamento che Giuseppe O. Longo descrive nei suoi scritti, dove l’intento esplicito consiste nel presentare il dramma del trapasso coevolutivo che stiamo vivendo. Su tale transizione e sugli effetti ad essa collegati verte l’intervista che segue.
In Homo Technologicus,
nell’Introduzione, Lei scrive:
“vorrei in questo libro rappresentare o almeno presentare il
dramma del trapasso coevolutivo che stiamo vivendo e che riguarda tutti
noi e ciascuno di noi”. Secondo il Suo pensiero tale dramma
è stato generato dall’intensità con cui
la tecnologia irrompe nella nostra vita o dall’uomo stesso,
capace di costruire “macchine” tanto complesse e
nel contempo incapace di controllarle e governarle?
Se
non ci fosse l’uomo la tecnologia di per sé non
potrebbe irrompere sulla scena. Ma è anche vero che quando
si dice “uomo” si fa riferimento a un soggetto
collettivo di cui è difficile individuare la
volontà deliberata. Oggi l’innovazione tecnologica
è l’effetto non di scelte precise di singoli
individui, bensì di un aggregato di spinte,
necessità, tentativi, proposte ecc. proveniente da una
molteplicità di soggetti e difficile da sbrogliare. In
questo aggregato alle considerazioni puramente tecniche si mescolano
necessità sociali, culturali, esigenze economiche,
fattibilità ecologiche ecc. La difficoltà di
individuare le cause precise del progresso tecnico può dare
l’impressione che la tecnologia abbia una forza propulsiva
propria, assimilabile a una sorta di volontà autonoma. Tanto
più che l’innovazione tecnologica manifesta una
sorta di anello di retroazione positiva, nel senso che più
tecnologia c’è più è facile
l’avvento di altra tecnologia. Di fatto uomo e tecnologia
sono legati a doppio filo, da una relazione circolare in cui
è difficile individuare la causa e l’effetto del
processo dinamico. Questo è il motivo per cui si
può e si deve parlare di “coevoluzione”
e non semplicemente di “evoluzione”. La presenza di
questi anelli di retroazione, di queste circolarità causali,
è caratteristica dei sistemi complessi ed è stata
individuata in tempi non troppo lontani. Infatti in passato il rapporto
causa-effetto era considerato unilineare e unidirezionale.
Lo sconvolgimento della vita dell’uomo e
delle sue abitudini, provocato dall’irruzione della
tecnologia nel “mondo della vita”, conferisce a Suo
avviso, una sorta di autonomia alla macchina?
L’autonomia
della macchina è una nostra proiezione psicologica: abbiamo
l’esigenza di rapportarci a soggettività ricche,
con cui dialogare. Così rendiamo autonomi non solo gli altri
umani (e questo è ragionevole, plausibile e scontato,
nonostante nessuno possa entrare nella testa di un altro), ma anche gli
animali (e questo è ancora plausibile, benché
contestato da alcuni) e addirittura gli oggetti (questa è
una forma di animismo che applichiamo per esempio alle automobili). La
grande complessità delle “macchine della
mente” (computer, internet ecc) e la loro natura appunto
mentale (il fatto che elaborino informazioni) fornisce una spinta
ulteriore in questa direzione: è più facile
attribuire un’anima, una mente autonoma a un computer che a
un macinapepe elettrico. Il culmine di questo processo di proiezione si
ha appunto nei confronti delle macchine che presentano un comportamento
che, se fosse manifestato da un umano, sarebbe definito intelligente.
Non bisogna mai dimenticare questo animismo quando si parla di
“intelligenza artificiale”. Diverso è il
discorso per quanto riguarda i “robot”, macchine in
cui un corpo artificiale si coniuga con una mente artificiale: queste
macchine hanno una certa capacità di apprendere e quindi
anche una certa autonomia, nel senso che di fronte a situazioni ambigue
sono in grado di prendere decisioni non soltanto in base al programma,
ma anche in base alla loro esperienza. È vero che la loro
esperienza è filtrata e orientata dal programma, ma
s’intravede comunque una certa capacità
decisionale. Alcuni prevedono che i robot del futuro anche prossimo
avranno capacità decisionali e autonomia crescenti, e questo
può provocare una certa ansia. Avremmo cioè
costruito macchine di cui non saremmo più padroni. Inoltre a
un certo punto l’autonomia dei robot potrebbe spingersi al
punto di consentir loro di costruirsi (sempre più
perfezionati) a prescindere dalla nostra volontà. Allora
essi sarebbero affatto indipendenti. Questo è un tema caro
alla fantascienza, ma già oggi alcuni specialisti studiano
questi scenari.
Ritornando al “dramma”, sempre in
Homo Technologicus, Lei scrive che “il
dramma ha per protagonisti l’uomo e le sue macchine
e mette in scena i loro complicati e mutevoli rapporti”. In Machina
Dolens don Vicente Gurrìa e le sue macchine
condividono, seppur stando lontani, uno stato di follia e di
reclusione. Tale stato di follia è stato da Lei immaginato
come l’effetto che la creazione di tali macchine ha avuto sul
loro creatore o viceversa come conseguenza del fatto che le macchine
stesse sono nate da un padre folle?
Nel
racconto ho immaginato don Vicente nelle vesti di apprendista stregone:
ha costruito, senza volerlo, macchine capaci di soffrire e la loro
sofferenza l’ha reso folle. Ma certo la sua ipotesi
è fondata: solo un folle potrebbe costruire macchine dotate
di quella sensibilità estrema, e il loro dolore rende
palese, e intensifica, la follia latente nel costruttore. Quindi, come
spesso accade, sono vere entrambe le cose, sono legate da un circolo di
retroazione: un folle crea macchine che lo rendono ancora
più folle (e in questa follia dilatata egli potrebbe
costruire macchine ancora più inquietanti e sofferenti... e
così via). Ho scritto sopra “senza
volerlo”: questo punto è delicato. Tutta la
tecnoscienza costruisce apparati e dispositivi in vista di un certo
scopo. Ma ogni dispositivo gettato nella complessità del
mondo interagisce in modi complessi e imprevedibili con tutto il resto
dell’esistente. Questi effetti imprevisti e spesso
indesiderati, che di solito il tecnoscienziato non è in
grado di prevedere, sono potenzialmente pericolosi, ma anche creativi:
aprono nuove strade e nuove possibilità, ma possono anche
provocare disastri. È la lotteria dell’evoluzione
tecnologica (e culturale).
La figura dell’automa esercita un notevole
fascino sugli uomini, come Lei stesso ribadisce più volte in
Homo Technologicus. Parliamo ancora una volta di un
prodotto creato dall’uomo, una macchina, questa volta
però con fattezze umane. Secondo il Suo pensiero tanto
fascino deriva dalla perfezione di cui noi umani siamo sprovvisti o da
un ennesimo egocentrismo umano che vede in tali automi il riflesso
della propria perfezione e del proprio ingegno?
La
cosa è un tantino più complicata. Nel 1970,
quando i robot umanoidi (o antropomorfi, cioè con fattezze
umane) non erano certo perfezionati quanto oggi, l’esperto
giapponese Masahiro Mori coniò, sulla traccia del
“perturbante” (Unheimlich)
freudiano, la locuzione “valle del perturbante” (in
inglese Uncanny Valley) per descrivere
l’andamento delle reazioni emotive degli umani nei confronti
dei robot. Secondo Mori, via via che l’aspetto e il
comportamento di un robot si avvicinano a quelli dell’uomo,
il nostro atteggiamento diventa sempre più positivo, ma a un
certo punto si ha un brusco capovolgimento e subentra una forte
repulsione. Aumentando ancora la somiglianza, tuttavia, si supera la
“valle del perturbante” e la simpatia e la fiducia
tornano a salire. Il “perturbante” fa riferimento a
ciò che di inquietante, estraneo, o addirittura pericoloso,
può nascondersi nel cuore stesso della nostra
identità. Perturbante è ciò che
è familiare e insieme spaesante, che somiglia al domestico
ma cela in sé qualcosa di indecifrabile e minaccioso.
Perturbante è il doppio, il sosia, l’ambiguo,
l’ammiccante: ciò che suscita diffidenza per la
sua somiglianza quasi perfetta, che allude all’Altro ma anche
a noi. Quindi non suscita solo fascino, l’androide, ma anche
repulsione e inquietudine.
Lei definisce il corpo come la più
importante interfaccia omeostatica attraverso la quale comunicare.
Parafrasando Marshall McLuhan, a Suo avviso, il corpo è
più mezzo o più messaggio?
Il
corpo è un mezzo ma anche un messaggio. Del resto McLuhan
afferma giustamente che “il mezzo è il
messaggio”, intendendo che il mezzo condiziona, filtra e
modula il messaggio tanto in profondità da restituirlo ben
diverso da quello che gli è stato affidato per la
trasmissione. Che il corpo sia un mezzo (di comunicazione, ma anche di
azione e di percezione) è abbastanza evidente, ma se si
riflette sulla vastissima gamma dei segnali che esso emana in
continuazione per il solo fatto di esserci, di atteggiarsi e di
muoversi, non si può negare che esso sia anche un
potentissimo e articolato messaggio (multimediale, per usare un termine
di moda). La sola presenza di un corpo (persona) può
condizionare profondamente la comunicazione che si svolge in un certo
contesto.
Nel racconto L’aveva rosagrigio,
Lei pone in antitesi due personaggi, Sebastian e la sua vicina.
L’uno legato ancora ai vecchi mezzi di comunicazione,
l’altra entusiasta dei nuovi dispositivi, come lo
è appunto l’“impianto
telefonico mascellare”. Quello che descrive in questo
racconto è uno scenario rivolto a un futuro, non si sa se
vicino o lontano. Lei pensa che in tale futuro l’uomo medio
sarà rappresentato più dalla vicina o
più da Sebastian? E se la tecnologia arrivasse ad un punto
di stasi? O ancora, se a un punto di stasi nei confronti della
tecnologia arrivassero gli uomini, acquisendo nei suoi confronti una
sorta di rigetto, proprio come Sebastian?
Estrapolando
dalle tendenze attuali non c’è dubbio che il
futuro appartiene alla vicina entusiasta della tecnologia trionfante.
Eppure la tecnologia potrebbe in effetti arrivare a un punto di stasi:
per mancanza di denaro da investire nell’innovazione, per
qualche catastrofe esterna che minacci la fine della civiltà
(o dell’umanità) così come la
conosciamo oggi, oppure, come ipotizza Lei, per un rifiuto crescente e
via via più esteso da parte degli umani. Ne Il
Simbionte ho dedicato un capitolo allo studio della
sofferenza provocata dall’invasione tecnologia del
corpo-mente umano, sostenendo che le strutture ancestrali e le
facoltà primarie ereditate per via biologica si oppongono
all’invasione della tecnologia. Questa opposizione provoca
disadattamento e sofferenza. L’uomo (e
l’umanità intera) soffre di questa invasione, ma
si adatta per i vantaggi che ne ricava. Un giorno si potrebbe
diffondere la sensazione “luddista” che i vantaggi
non compensano più gli inconvenienti e ciò
potrebbe portare a una rivolta antitecnologica.
La tripartizione delle macchine in macchine del
corpo, macchine della mente, macchine del corpo – mente, che
Lei affronta in Homo Technologicus, è
un’evoluzione della macchina da considerarsi, ancora una
volta, unicamente legata all’evoluzione dell’uomo?
O è possibile ravvisare in essa un’evoluzione
“autonoma” della macchina, nel senso in cui
quest’ultima, progettata in un determinato modo, rivela poi
nel suo uso pratico “capacità” che il
suo stesso “creatore” non avrebbe saputo e potuto
prevedere?
Fino ad oggi l’evoluzione delle
macchine è stata legata a quella dell’uomo, ma a
doppio filo: l’evoluzione dell’uomo e quella delle
macchine si sono intrecciate in modo tale che se è vero che
l’uomo fa le macchine è altrettanto vero che le
macchine concorrono all’evoluzione dell’uomo.
Questo è il succo del concetto di Homo Technologicus. Le
macchine potrebbero cominciare ad evolversi in modo più
autonomo? E verso quali traguardi si evolverebbero?
Qui
possiamo soltanto fare congetture e disegnare scenari. Un tema centrale
a questo proposito è quello del libero arbitrio, tema
formidabile e controverso, che alcuni risolvono sbrigativamente negando
la libertà non solo ai fenomeni naturali, ma anche all'uomo
sulla base di un feroce determinismo alla Laplace; altri, all'opposto,
negano la libertà riconducendola alla casualità.
Se il libero arbitrio non appartiene agli umani, come potrebbe
appartenere alle macchine? A questo riguardo, si può
sostenere che solo le creature dotate di coscienza posseggono il libero
arbitrio e sono in grado di agire in modo etico. Non è certo
un caso che siano in corso ricerche per dotare i robot
(perché è in sostanza di queste macchine che sto
parlando) di una coscienza artificiale, CA, la cui definizione
operativa potrebbe essere: un sistema artificiale è dotato
di CA se si comporta in modi che, negli umani, richiedono coscienza
(è una definizione analoga a quella dell'intelligenza
artificiale, IA). Insomma, i robot potranno mai diventare soggetti (e
oggetti) etici? Poiché, almeno allo stadio attuale, i robot
sono manufatti costruiti da noi con finalità pratiche
specifiche, ciò dipende dai mezzi di cui li dotiamo per il
raggiungimento di quei fini: per esempio potrebbe essere utile una
certa dose di autonomia, libertà e inventiva. Anche nel caso
in cui quest'autonomia sia limitata, non si può escludere
che - per esempio in ambienti separati dall'habitat umano che postulino
l'attivazione di capacità decisionali per evitare la
distruzione delle macchine - qualche fenomeno evolutivo (una mutazione
fissata da una selezione confermativa) porti all'acquisizione di
un'autonomia che potrebbe accompagnarsi al sorgere dell'istanza di
auto-conservazione, della coscienza e quindi di un'etica basata sulla
libertà. I robot potrebbero acquisire il libero arbitrio non
solo per una deriva evolutiva in ambiente abbastanza separato, ma anche
per una deviazione aleatoria dal progetto originale oppure in seguito a
un vero e proprio errore di programmazione. Oppure la deviazione, il
clinamen, potrebbe essere dovuto a un incidente provocato da cause
esterne e potrebbe sfociare in una sorta di "follia" robotica, fonte di
creatività. Si potrebbe insomma ipotizzare un "robot
schizofrenico" (nel cui organo cognitivo e semi-cosciente si
scontrassero ingiunzioni primarie contrastanti, che portassero
all'insorgere di un doppio vincolo nel senso di Gregory Bateson):
questo robot folle potrebbe manifestare libertà (e
inventiva), ma sarebbe una libertà da vigilare attentamente.
C’è
anche da riflettere sulle conseguenze dell'intreccio tra
complessità ed evoluzione temporale: dato un tempo
abbastanza lungo, le interazioni tra sistemi complessi (i robot e
l'ambiente in cui "vivono") possono dar luogo a effetti inattesi,
sorprendenti e magari indesiderati (le alterazioni accidentali del
codice etico cablato, le mutazioni, la conseguente
incontrollabilità e libertà; il paradosso della
conoscenza che ci consente di compiere azioni e di costruire manufatti
dalle conseguenze sconosciute e inconoscibili). A questo proposito si
pone il problema della responsabilità delle conseguenze
indesiderate, che è facile attribuire quando il rapporto
causa-effetto è immediato, ma che diventa sempre
più arduo quando l'intervallo temporale si allunga e si
diluisce quindi la cogenza della causalità (per cui anche le
buone intenzioni possono alla lunga produrre effetti
devastanti).
C'è da osservare che il
punto di vista che ho adottato in questa risposta è
antropocentrico. La preoccupazione è dunque in primo luogo
quella di salvaguardare gli umani e, in secondo luogo, di avere nei
robot servitori utili. Se poi l'utilità richiedesse una
raffinatezza che portasse alla presenza di libertà e di
coscienza, si potrebbe accettare anche questa complicazione,
purché se ne potessero esaminare le possibili conseguenze.
È
da questo punto di vista sensibile agli interessi umani che
trova piena giustificazione l’adozione del
“principio di precauzione” nel campo della
robotica. Ma è proprio l'adozione del punto di vista
antropocentrico che ci fa perdere di vista una possibilità
remota ma non insignificante: che i robot diventino migliori di noi (in
senso generico ma abbastanza trasparente). Questa
eventualità sarebbe forse ancora più inquietate
e, di fronte a creature migliori di noi, proveremmo forse l'impulso
antietico di distruggerle per invidia, dimostrando ancora una volta la
nostra malvagità.
Sempre dal punto di vista
antropocentrico, ci si può chiedere se un'evoluzione
più o meno autonoma dei robot possa portarli a un'etica
analoga a quella umana. La risposta che darei è negativa:
anche se l'evoluzione dei robot avvenisse in un ambiente separato e
favorevole all'instaurarsi di un principio di auto-conservazione, resta
il fatto che gli incidenti di percorso, le contingenze e la
casualità avrebbero l'effetto complessivo di costruire
un'altra storia e un altro esito. Inoltre, e mi sembra un'osservazione
di grande portata, la potenziale immortalità del robot
rispetto all'accertata mortalità dell'uomo costituirebbe una
differenza di fondo difficile da superare. Infine vorrei osservare che
come l'intelligenza artificiale ci ha proposto un paradigma cognitivo
che, pur costruito dall'uomo, è piuttosto diverso dal nostro
e ha quindi infranto una sorta di monopolio esercitato implicitamente
da sempre dalla nostra intelligenza, così una possibile
etica artificiale potrebbe infrangere il monopolio, finora dato per
scontato, della nostra etica, qualunque sia la definizione che ne
vogliamo dare. Queste alternative, cognitiva ed etica, potrebbero
aiutarci a far luce sulla nostra intelligenza e sulla nostra natura
etica.
Homo Technologicus è ciò che
Lei definisce in Il Simbionte una nuova
unità evolutiva, una sorta di simbionte in continua
trasformazione. Sembra che questa nuova unità evolutiva sia
destinata a ricoprire un ruolo centrale per molto tempo, data la grande
avanzata dello sviluppo tecnologico. Ritiene possibile, nonostante
l’impetuoso progresso tecnologico, che anche Homo
Technologicus sia destinato a sparire, proprio come i suoi predecessori?
Qui
è importante stabilire il soggetto delle nostre
proposizioni: se Homo Technolgicus è un individuo, esso
sparisce per morte naturale, se è una specie, esso si
trasforma in continuazione. Trasformarsi vuol dire sparire?
È lo stesso problema che si ha nel caso biologico, e si
può applicare lo stesso tipo di ragionamenti. Si
può forse dire che, dato un tempo lunghissimo (e
prescindendo da catastrofi simili a quelle che hanno causato la
scomparsa dei dinosauri), se si confronta Homo Technologicus
dell’inizio con quello della fine del periodo le differenze
possono essere enormi: si può dire che il primo è
scomparso, oppure che si è trasformato in altro? Credo che
sia un problema filosofico antico, ma possiamo risolverlo con piglio
pragmatico dicendo che HT si trasforma in altro, mantenendo certe
caratteristiche di base, tra le quali appunto la capacità di
trasformarsi.
La tecnologia, secondo il suo parere, è
parte integrante dell’uomo? O la si può
considerare come un fenomeno a sé di cui l’uomo
entra a far parte? In altre parole: Lei ritiene che la tecnologia debba
essere per forza di cose subordinata all’uomo, o, date ormai
le grandi possibilità che offre, è
l’uomo che è incapace di viverne senza?
La
tecnologia fa parte integrante dell’uomo. Gli strumenti con
cui conosciamo il mondo e agiamo su di esso escono dal nostro
corpo-mente, ma ne sono un prolungamento: non possiamo separare
l’uomo dai suoi strumenti. Affermare che il nostro corpo
finisce dove finisce la sua superficie, la sua epidermide è
sostanzialmente sbagliato. Il rapporto è sempre involutivo,
questo concetto è al centro della definizione di simbionte:
non c’è uomo senza tecnologia così come
non c’è tecnologia senza l’uomo. Forse
la seconda parte di questa asserzione è più
trasparente della prima, ma non è più vera.
A proposito del crollo delle barriere spazio
– temporali, la possibilità di parlare con uomo o
una donna che vive dall’altro lato del pianeta, rappresenta
per lei una significativa conquista o un
“discutibile” modo di intrattenere relazioni con
chi non ci ha mai neanche “stretto la mano”? Qual
è la sua posizione attuale sul problema?
Mantengo
la stessa posizione: ogni tecnologia è un filtro, che ci
consente di fare meglio certe cose o di fare cose che prima non
facevamo, ma ci impedisce anche di fare cose che prima facevamo. Senza
la tecnologia della comunicazione non potevamo parlare o corrispondere
con qualcuno che stesse molto lontano, se non con grande lentezza, ma
questa lentezza ci permetteva forse di calibrare meglio i contenuti, il
tono e il calore delle nostra comunicazioni (per lettera, per esempio).
C’è un altro aspetto: oggi possiamo comunicare con
chiunque sia collegato alla rete, a prescindere dal luogo dove si
trovi, e ciò ha profondamente modificato la nostra nozione
di spazio e di continguità. Ma, per converso, non parliamo
più con chi ci è vicino. Basta osservare che cosa
accade in treno: alla calda e caotica conversazione di un tempo tra
vicini occasionali si è sostituito quasi del tutto un fitto
intreccio di conversazioni telefoniche con persone lontane. Insomma non
ci sono pasti gratuiti: quando abbiamo un vantaggio, di solito
ciò comporta un inconveniente.