Dobbiamo al sociologo e giornalista belga-canadese Derrick de Kerckhove, già docente presso il Dipartimento di Scienze Sociali dell’Università degli Studi Federico II di Napoli ed ex collaboratore di Marshall McLuhan, l’introduzione della parola “datacrazia” per descrivere un sistema in cui il potere derivante dalla raccolta, concentrazione e gestione dei dati raggiunge un livello tale da soppiantare il potere dei governi stessi. D’altro canto, come insistono gli autori chiamati a raccolta nell’antologia Datacrazia. Politica, cultura algoritmica e conflitti al tempo dei big data, rifacendosi ripetutamente alle parole di Peter Sondergaard, vicepresidente del leader mondiale nella consulenza strategia Gartner e capo della divisione di ricerca del colosso multinazionale, “l’informazione è il petrolio del XXI secolo e gli algoritmi il motore a combustione” (Gartner Press Release, 2011). Una profezia pronunciata sette anni fa fin troppo facile da verificare nei crudi numeri della realtà, specie da quando il fatturato del settore IT ha soppiantato quello legato ai combustibili fossili, vero driver della crescita economica del secolo scorso (cfr. Uggeri, 2017).
Viviamo già nella datacrazia, sostiene De Kerckhove, ed è una considerazione difficile da smentire:
“Chi ha in mano i big data sa tutto di noi, della nostra situazione personale, della nostra vita privata, della ricchezza, delle scelte politiche e culturali, delle idee, dei consumi” (de Kerckhove, in Governato, 2017).
In un mondo in cui chiunque si ritrova a portata di mano una quantità di dati maggiore di quanto possa gestire (a meno di non essere una delle aziende che ha fatto dell’estrazione di valore dai dati la sua missione), un libro come questo curato da Daniele Gambetta, matematico e freelance, collaboratore al gruppo di ricerca indipendente HackMedia, può servire da bussola per ritrovare la rotta tra le correnti oceaniche di fake news, i venti di burrasca della post-verità e le insidie del Quadrilatero Digitale.
Il potere dei big data
Le strategie di profilazione adottate dai giganti dell’hi-tech attraverso le pressioni del marketing, specie nella sua emergente combinazione con le neuroscienze e la psicologia, il neuromarketing (si veda il contributo al volume di Giorgio Griziotti, Big emotional data), interagiscono con gli utenti e ne condizionano i comportamenti in maniera tanto diretta ed efficace da trascendere i sogni di qualsiasi governo.
In uno scenario in cui il fatturato combinato delle cosiddette Big Four (o GAFA – dalle loro iniziali: Google, Apple, Facebook, Amazon) ha eguagliato il PIL del Belgio, venticinquesimo paese per ricchezza al mondo secondo il ranking stilato dal Fondo Monetario Internazionale, si può facilmente intuire il pericolo che stiamo correndo legittimando quotidianamente la raccolta dei nostri dati.
Fin dalla sua introduzione, il curatore richiama l’attenzione sull’esposizione che questo comporta: da una parte nei confronti di piattaforme in corso di trasformazione verso “organismi sovranazionali diffusi”, con la loro applicazione di regole e politiche spesso in conflitto con le legislazioni nazionali e internazionali (si pensi all’attualità legata all’entrata in vigore del GDPR, ovvero il General Data Protection Regulation dell’Unione Europea); dall’altra nei confronti delle occasionali convergenze tra questo nuovo platform capitalism e l’ambito politico, come dimostra il ruolo giocato da Cambridge Analytica nelle campagne per l’elezione di Trump e il sostegno al Leave nel referendum sulla Brexit, incentrate su un uso massiccio della sentiment analysis grazie ai dati estratti da Facebook. Scrive Gambetta:
“Identità digitalizzate, geolocalizzazione e registrazione quasi costante di spostamenti, ma anche transazioni finanziare, dati relativi al nostro stato di salute e ai nostri gusti musicali. Mai come ora, nella storia dell’umanità, si è disposto di una quantità così grande di informazioni immagazzinate su fenomeni e comportamenti sociali” (Gambetta, 2018).
Ma come siamo arrivati a questo punto? L’esplosione non è stata improvvisa, anche se dalla ripida curva del progresso su cui ci troviamo oggi, aggrappati alla sua schiena per non precipitare all’indietro, la percezione di questa accelerazione può risultare fortemente alterata.
L’Era degli Exabyte
Alcuni esempi tratti dai testi raccolti in Datacrazia:
1) si calcola che nel 2000 solo il 25% delle informazioni archiviate in tutto il mondo fossero registrate su supporti digitali, contro il rimanente 75% supportato da formati analogici come carta, pellicole e nastri magnetici; nel 2013 il 98% dei dati era ormai digitalizzato, per un volume complessivo di 1.200 exabyte (sempre dall’Introduzione di Gambetta);
2) nel 2013 IBM stimava che il 90% di tutti i dati prodotti nella storia dell’umanità fossero stati creati nei due anni precedenti (Andrea Daniele Signorelli, La guerra dei bias);
3) sempre nel 2013 il volume complessivo del traffico Internet si stima che ammontasse a 1,836 exabyte (ancora dal contributo di Griziotti). Ma già nel 2016 CISCO prevedeva che entro quell’anno il traffico dati mondiale su rete mobile avrebbe superato i 10 exabyte al mese (fonte Wikipedia).
Un exabyte, per capirci, corrisponde a un miliardo di gigabyte. Si stima che la Biblioteca del Congresso degli Stati Uniti, che si contende con la British Library il primato di prima biblioteca al mondo, contenga pubblicazioni per un volume complessivo di 10 terabyte (10mila gigabyte) in forma stampata e una quantità compresa tra i 5mila e i 20mila terabyte di materiali audio, video e digitali. Quindi un exabyte equivale a centomila volte il volume di pubblicazioni contenute nella più grande biblioteca al mondo e surclassa comunque di tre ordini di grandezza la totalità dei suoi contenuti. Il volume dei dati prodotti, la loro velocità di generazione, raccolta, registrazione ed elaborazione, la loro varietà, definisce e caratterizza il dominio dei big data.
The Merry Cyborgs of May by Luminis Kanto.
Pensando a un mondo in cui ormai oltre metà della popolazione ha accesso alla rete e una quota consistente di questa maggioranza si collega regolarmente tramite dispositivi mobili, ci sovviene la definizione di “digividuo” (cfr. O’Hagan, 2017) come forse la più appropriata per descrivere la nostra condizione come “individui digitali” de facto. L’ecosistema in cui ci muoviamo, dandone ormai per scontate le caratteristiche, riceve un’altrettanto efficace formalizzazione attraverso il concetto di “bioipermedia”, ovvero “l’ambito in cui il corpo nella sua integralità si connette ai dispositivi di rete in modo talmente intimo da entrare in una simbiosi in cui avvengono modificazioni e simulazioni reciproche” (Griziotti, 2016).
Digividui nel bioipermedia
Pur nelle inevitabili omissioni dovute ai vincoli di spazio (pensiamo in particolare ai temi della privacy e delle criptovalute, che ci auguriamo vengano ripresi in futuro in una possibile continuazione del percorso qui tracciato, un auspicio che ci sembra di condividere con il curatore), il taglio scelto dagli autori dei diversi pezzi è piuttosto eterogeneo e restituisce un’immagine a tutto tondo di processi notevolmente complessi. È uno dei meriti di Datacrazia, che così facendo dispiega uno sforzo non comune di rappresentazione e decodifica di una realtà in continua evoluzione.
I contenuti sono sapientemente organizzati in cinque sezioni. Si parte con dei contributi più tecnici e politici, incentrati sull’impatto economico dei big data ma anche capaci di fornire le necessarie informazioni di contesto e le coordinate all’interno delle quali si muoveranno i saggi successivi, e si finisce in un’ideale chiusura del cerchio con un approfondimento delle strategie tecnopolitiche legate al movimentismo spagnolo degli indignados.
Nel mezzo troviamo una seconda sezione che sviluppa un sano dibattito intorno all’annunciata “fine della teoria”, come da titolo di un pretenzioso editoriale di Wired a firma di Chris Anderson, in cui si sosteneva che la disponibilità di un volume crescente di dati, abbinata allo sviluppo di tecniche e strumenti statistico-matematici, sarebbe stata in grado di soppiantare qualsiasi altro approccio analitico, rendendo obsoleto il metodo scientifico (e la migliore risposta possibile arriva fin dal titolo dallo scritto di Eleonora Priori, Is correlation enough? (spoiler: No!)).
La terza parte è dedicata alle intelligenze artificiali e ospita il citato contributo di Signorelli, in cui vengono tracciati i recenti sviluppi anche in relazione ai risvolti etici che si accompagnano alla ricerca nel settore (e qui, tra le numerose citazioni di Luciano Floridi, ci preme riportarne almeno una che dovrebbe informare qualsiasi riflessione sull’uso delle nuove tecnologie: “quando si parla di scelte etiche non si vince mai 1 a 0, semmai si vince 2 a 1”).
La quarta sezione è la più articolata e spazia da un’acuta riflessione di Flavio Pintarelli sull’etimologia della parola dato alla discussione sui diritti e il ruolo dell’uomo nel nuovo ordine, in continuo cambiamento, che sta emergendo dall’interazione tra dati e algoritmi, passando attraverso una panoramica della cultura algoritmica e declinando le diverse sfumature dell’impatto dei big data nel mondo del giornalismo, nella diffusione della musica, nell’estetica.
Questo capitolo fa in qualche modo il paio con il già citato secondo, in cui troviamo due dei pezzi più interessanti dell’antologia, forse proprio perché atipici e per questo inattesi: I big data e il corpo, in cui Andrea e Mauro Capocci si soffermano sugli interessi crescenti delle multinazionali dell’elettronica e dell’IT nella ricerca biomedica e sull’offerta di servizi basati sui big data da parte delle società storicamente attive nel settore della sanità; e L’illusione della Psicostoria, nel quale Roberto Paura affronta i corsi e ricorsi della datificazione nella ricerca storica, attraverso l’esame del dibattito storiografico sul periodo della Rivoluzione francese, giungendo a provare l’infondatezza e la velleità della citata asserzione di Anderson.
A proposito del titolo di Paura, preme sottolineare come molti dei contributi raccolti in questo volume, a partire dall’Introduzione di Gambetta, non esitino a rimandare a testi e figure che sono parte integrante dell’immaginario della fantascienza. A dimostrazione ancora una volta di una verità che i lettori e gli appassionati del genere hanno sempre più spesso modo di toccare con mano: tematiche oggi di attualità scottante e sfide che sembrano poter mettere in discussione il nostro stesso futuro come civiltà hanno già da tempo trovato legittima cittadinanza nelle pagine dei romanzi e dei racconti, dei fumetti e dei copioni che hanno dato forma alla science fiction come oggi la conosciamo. Buone notizie per tutti, dunque: grazie a questi “realisti di una realtà più grande” non siamo obbligati ad affrontare il futuro inermi.
- Gartner Press Release, Gartner Says Worldwide Enterprise IT Spending to Reach $2.7 Trillion in 2012, Gartner Newsroom, 17 ottobre, 2011.
- Francesco Governato, De Kerckhove: «Benvenuti nella datacrazia, il mondo governato dagli algoritmi», Linkiesta, 23 giugno, 2017.
- Giorgio Griziotti, Neurocapitalismo, mediazioni tecnologiche e linee di fuga, Mimesis, Milano 2016.
- Andrew O’Hagan, La vita segreta, Adelphi, Milano, 2017.
- Simone Uggeri, Il potere dei Big Data e la democrazia della rete, Confronti, 23 dicembre 2017.