L’intelligenza artificiale,
o della responsabilità

Fei-Fei Li
Tutti i mondi che vedo
Traduzione di Chiara Veltri

Luiss University Press,
Roma, 2024
pp. 304, € 23,00

Fei-Fei Li
Tutti i mondi che vedo
Traduzione di Chiara Veltri

Luiss University Press,
Roma, 2024
pp. 304, € 23,00


“Era appena stata fatta la storia, e lo sapeva soltanto un gruppetto di persone al mondo”
(Li, 2024).

Così scrive Fei-Fei Li in Tutti i mondi che vedo, il primo libro della madrina dell’intelligenza artificiale. È l’ottobre 2012 e a Firenze si sta tenendo la dodicesima ECCV (European Conference on Computer Vision), il principale appuntamento europeo e tra i più importanti al mondo sulla computer vision. Fei-Fei Li e il suo laboratorio presentano i risultati dell’ImageNet Large Scale Visual Recognition Challenge, un concorso internazionale volto a determinare il migliore algoritmo di riconoscimento di oggetti e classificazione di immagini su larga scala. Il contest si tiene per la prima volta nel 2010 allo scopo di testare e rendere popolare ImageNet, un database di oltre venti milioni di immagini distribuite su 22.000 categorie di oggetti, che la dottoressa Li e il suo laboratorio avevano assemblato con enormi sforzi due anni prima, presso l’Università di Princeton. Le dimensioni folli di ImageNet trovano la propria ragione teorica nella convinzione che, come avvenuto per l’intelligenza biologica, un database sufficientemente ampio di categorie il più possibile rappresentate avrebbe contenuto i dati necessari a dare un’immagine completa, sensata e interpretabile del mondo visivo.

“ImageNet si basava sull’idea che gli algoritmi devono confrontarsi con le complessità e l’imprevedibilità dei loro ambienti, con la natura del mondo reale”
(ibidem).

Partendo dal presupposto che l’intelligenza biologica debba essersi sviluppata di pari passo con l’evolversi del senso della vista, Li è convinta che lo sviluppo di un’intelligenza artificiale debba disporre di un database di addestramento tanto vasto quanto il mondo visivo, almeno grosso modo. L’obiettivo è quello di replicare la nostra capacità di distinguere immediatamente e inconsciamente gli oggetti che ci circondano nel loro rapporto con il contesto in cui si trovano: un albero; un’automobile; un gatto; un cucchiaio.

“E se il segreto per riconoscere qualsiasi cosa fosse stato un set di addestramento che conteneva tutte le cose?”
(ibidem).

Un vero e proprio processo di digitalizzazione del mondo visivo avrebbe perciò costituito un ambiente fertile all’evoluzione di un’intelligenza digitale, che proprio come un essere vivente avrebbe progressivamente affinato la sua capacità di categorizzare e distinguere oggetti diversi in modo corretto. Tuttavia, intorno al 2010 la pressoché totalità del mondo scientifico orienta i propri sforzi verso la ricerca algoritmica, tenendo in scarsa considerazione i dati di addestramento. Una volta assemblato ImageNet, era quindi necessario dimostrarne la validità teorica. Ispirati dalla possibilità di creare uno standard per il settore così come avvenuto con il Caltech 101 (un database del California Institute of Technology costituito da 101 categorie, a cui Li aveva contribuito in qualità di dottoranda), Li e i suoi collaboratori decidono di istituire un concorso in cui gli istituti di ricerca di tutto il mondo avrebbero potuto gareggiare e confrontarsi con i loro algoritmi di computer vision. Nel 2012 il terzo ImageNet Large Scale Visual Recognition Challenge viene vinto da una rete neurale, con un’accuratezza dell’85% e un margine di oltre dieci punti percentuali dal secondo classificato. Per confronto, il livello di precisione di un essere umano si aggira attorno al 97%. Per Fei-Fei Li e il suo team è una notizia stravolgente:

“Era come se mi avessero detto che il record di velocità su strada era stato infranto con un margine di centocinquanta chilometri all’ora da un’Honda Civic. Non tornava. Il progresso non funziona così. Oppure sì?”
(ibidem).

Le reti neurali sono un peculiare tipo di algoritmo strutturato in modo del tutto simile al cervello umano. Sviluppate per la prima volta negli anni Cinquanta agli albori della ricerca sull’IA, erano poi state accantonate perché ritenute poco performanti. Il segreto per farle funzionare correttamente, si scoprì in seguito, era proprio la vastità dei database, all’epoca impossibili da assemblare a causa dello stato ancora embrionale della tecnologia. Anche il loro schema di funzionamento si basava e si basa tuttora sul parametro della quantità. Le reti neurali sono infatti costituite da una moltitudine di singole unità decisionali ispirate ai neuroni, inutili se prese singolarmente, ma incredibilmente potenti quando se ne agglomera un grande numero. Le implicazioni di questa tecnologia innescarono in breve tempo una rivoluzione nel settore, dando luogo a un vero e proprio fenomeno dell’IA che presto avrebbe sfondato la diga della stampa generalista riversandosi nell’opinione pubblica. Sebbene le dimensioni mediatiche del fenomeno, gli impieghi pratici dell’IA sono ancora assai modesti rispetto alle infinite possibilità che vengono spesso millantate nelle narrazioni su questa tecnologia. Tuttavia, in un ambito che si evolve tanto velocemente da rendere difficoltoso agli stessi ricercatori il “tenersi al passo con la letteratura”, questo è il momento propizio per porsi la questione di un’etica dell’intelligenza artificiale.

Il senso di responsabilità
Immaginiamo un mondo in cui l’ambiente che ci circonda sia in grado di riconoscere le nostre necessità e mettere in atto le relative soluzioni, senza bisogno del nostro intervento. Un mondo in cui l’errore umano, specialmente in circostanze critiche, non è più possibile. Un mondo in cui un sistema di software e sensori su larga scala ci permettano con un’affidabilità prossima al 100% di evitare incidenti automobilistici, o monitorare costantemente le condizioni di salute dei pazienti in terapia intensiva.
È il 2013, Fei-Fei Li si trova in una stanza d’ospedale ad assistere la madre, da anni vittima di gravi problemi di salute. Da qualche mese sta lavorando a un progetto condiviso tra i dipartimenti di informatica e medicina dell’Università di Stanford, volto a tenere traccia dell’igiene delle mani attraverso l’intelligenza artificiale. Obiettivo che si inserisce in una cornice più ampia: lo sviluppo di un’intelligenza ambientale applicata al mondo della sanità, con lo scopo di semplificare il lavoro di medici e infermieri per far fronte a un dato preoccupante: centomila morti all’anno in ambito sanitario sono attribuibili all’errore umano. “Quindi, ehm… c’è una telecamera che ci sta riprendendo?”, chiede preoccupata un’infermiera.

L’utilizzo dell’IA ai fini del miglioramento delle condizioni dell’umanità solleva per la prima volta in egual misura interrogativi scientifici ed etici, specie quando a entrare in gioco è l’ambito sanitario. Sistemi simili richiedono l’installazione in un determinato luogo di un certo numero di sensori corredati di uno specifico software, atto a valutare e tenere conto di determinati parametri correggendo ciò che vi si discosta. Nel caso del progetto di Li, il luogo in questione è l’ospedale e il parametro da tenere in considerazione è il lavaggio delle mani, notificando al medico o all’infermiere di turno il suo incorretto o mancato svolgimento. Lo sviluppo e l’introduzione di una tecnologia di questo tipo pongono diverse riserve e criticità, che si trovano al di fuori del progetto stesso. Il fatto che nelle intenzioni degli sviluppatori l’intelligenza ambientale sia una tecnologia pensata a fin di bene non preclude il suo utilizzo, in un secondo momento e nelle mani sbagliate, per scopi quali sorveglianza, valutazione della produttività dei dipendenti, sostituzione dei lavoratori. Si tratta di trovare un delicato punto di equilibrio tra benefici reali e scenari distopici, tra utilità del controllo e uso rispettoso dei dati, della privacy e soprattutto, della dignità umana.

“Le vittorie più grandi dell’IA non sarebbero state soltanto scientifiche ma anche umanistiche”
(ibidem).

Questo obiettivo è conseguibile unicamente con un grande sforzo collettivo da parte di istituzioni, politica e settore privato. Del resto non sono notizie insolite quelle riguardanti l’abuso di dati o l’utilizzo di sistemi di sorveglianza da parte dei colossi dell’industria tech: basti pensare allo scandalo di Cambridge Analytica nel 2018 o al recente (ed ennesimo) caso riguardante Amazon, in Francia. Per far sì che simili abusi non si verifichino o si ripetano nel tempo sono necessarie legislazioni adeguate ed efficaci, educazione in materia e, in primo luogo, consapevolezza etica e morale da parte di chi sviluppa e ha il potere di usare tali strumenti.

“Dai palcoscenici di tutto il mondo i Ceo pronunciavano discorsi che andavano dal visionario al maldestro all’autenticamente offensivo, promettendo macchine che presto si sarebbero guidate da sole, algoritmi virtuosi per l’individuazione di tumori e la completa automazione delle fabbriche. Riguardo alle sorti delle persone che sarebbero state sostituite da questi progressi – tassisti, camionisti, operai alla catena di montaggio e addirittura radiologi –, il sentimento aziendale sembrava collocarsi a metà tra tiepidi discorsi di “riqualificazione” e un’indifferenza neanche troppo velata”
(ibidem).

L’egemonia economica delle grandi aziende della Silicon Valley le dota di una potenza di calcolo e disponibilità di dati ineguagliabili. Gli effetti dell’enorme concentrazione di potere che ne conseguono non sono perciò da sottovalutare, e il contesto etico di una disciplina così giovane risulta troppo spesso nebuloso agli stessi addetti ai lavori. In uno scenario che prefigura uno sconvolgimento del mercato del lavoro di dimensioni inedite, è imprescindibile pensare all’intelligenza artificiale come uno strumento il cui scopo primario deve essere quello di agevolare le mansioni umane ampliando l’orizzonte delle nostre capacità, non quello di sostituirvisi. Aspetto fondamentale da tenere sempre a mente nello sviluppo e nell’utilizzo di tecnologie di IA è dunque la centralità dell’essere umano sotto tutti i punti di vista, incentivando l’educazione in materia, promuovendo politiche per lo sviluppo e l’utilizzo della tecnologia, progredendo in modo consapevole ed etico nello sviluppo della stessa. Concetti che si incontrano e vengono sintetizzati efficacemente da Li nell’espressione Human-Centered AI. Sebbene l’impatto dell’intelligenza artificiale sulla vita reale si trovi ancora in una fase aurorale, è giunto il momento in cui nessuno può esimersi dal fare i conti con questa tecnologia: il problema dell’etica dell’IA è in primo luogo una questione di responsabilità, individuale e collettiva.