Antropologia per Intelligenze Artificiali – Un estratto

  • Tempo di lettura:14minuti

Con il gentile permesso dell’autore e della casa editrice pubblichiamo un estratto da: Antropologia per Intelligenze Artificiali. Una guida culturale per la prossima generazione di innovazioni tecnologiche di Filippo Lubrano che D Editore ha appena pubblicato. Un punto di vista indispensabile per capire il rapporto tra umani e nuove tecnologie in un gioco nel quale il potere plasmante di quest’ultime ha sempre a che fare con la loro concezione. Una domanda si staglia infatti sullo sfondo: “Quali umani per le AI?” Una domanda volutamente ambigua che dà la cifra di quello che ci si sta giocando in questo particolare frangente.

________________________

Il surplus comportamentale: il capitalismo della sorveglianza…

In uno dei best seller dell’era digitale, Shoshana Zuboff ha presentato quello che lei definisce con l’affascinante locuzione Il capitalismo della sorveglianza. Lo spesso volume della professoressa di Harvard risulta a tratti vagamente paranoico e ridondante, ma se c’è una cosa che fa egregiamente è raccontare la svolta copernicana avvenuta nel settore digitale negli ultimi due decenni scarsi.

Che cos’hanno in comune tutte le aziende che ora dominano per capitalizzazione le borse mondiali?

Punto primo: sono immateriali – l’aneddoto classico per antonomasia al riguardo è quello di Airbnb, che vale più della catena di Marriott, senza possedere neanche una singola stanza d’hotel.

Punto secondo: sono leggere, con costi fissi molto bassi – ahinoi, anche tassi di occupazione molto bassi, data l’estrema automazione dei processi e servizi – e hanno il famoso “costo marginale zero” per prodotto venduto.

Punto terzo: fino a inizio secolo non avevano quasi alcuna idea di come fare soldi. Facebook è stata ampiamente in perdita anche nel periodo post-IPO in borsa, WhatsApp (comprata proprio da Facebook per quella che allora pareva l’insensata cifra di sedici miliardi di dollari) si può dire che non abbia un proprio modello di business, Amazon ha costruito tutta la sua narrazione con i pitch di Bezos ai suoi investitori: più cresceva, più crescevano i debiti, più quote di mercato stava comprandosi. «Fidatevi, un giorno tutto questo darà i suoi frutti», raccontava Jeff, che oggi è saldamente sul podio degli uomini più ricchi sulla faccia della terra e ha fatto felici parecchi di quelli che l’hanno ascoltato.

Cos’è cambiato, quindi, nel passaggio da quando le società del mondo digitale promettevano di fare soldi, a quando hanno iniziato a farli sul serio? Essenzialmente, una cosa sola: si è capito che il valore aggiunto era in quello che finora si era quasi sempre trascurato, o quantomeno sottoutilizzato: i dati degli utenti. Quelli che Zuboff chiama efficacemente data exhaust, dati di scarico, come fossero un prodotto marginale, dei rifiuti, sono diventati la sorgente delle fortune di questi nuovi imperi imprenditoriali. Quello che le aziende, infatti, ora vendono sono essenzialmente previsioni sempre migliori, sempre più accurate, sui nostri comportamenti. È il “surplus comportamentale”, nuova miniera d’oro delle startup che ora sono diventate multinazionali.

A pensarci bene, le previsioni sul futuro sono da sempre uno dei business più redditizi, e non solo nel mondo delle scommesse sportive. Il concetto di resicum, ovvero l’incertezza delle imprese in ambito navale, abilitò il primo contratto con cui ci si poteva assicurare dall’affondamento o dalla scomparsa di una nave nelle imprese esplorativo-commerciali che caratterizzarono la seconda metà del millennio appena terminato. Da lì nacque di fatto il settore assicurativo, che fa delle previsioni sul futuro il suo mestiere. Anche la finanza, regina dei guadagni facili dell’ultimo secolo, si basa su previsioni sul futuro. In generale, ogni business plan, ogni impresa, nasce essenzialmente promettendo cose e cercando di stimare al meglio il comportamento dei clienti – e, quindi, dei mercati – per poter crescere di valore nel lungo periodo.

Quello che le nuove aziende regine delle valutazioni globali riescono a fare è dunque migliorare questa capacità previsionale, riducendo l’incertezza, i rischi. Siamo, da sempre, disposti a pagare per essere più sicuri. Ed è da questa disponibilità, insita nell’animo umano, che sono nati i successi della Silicon Valley, poi estesi a macchia di leopardo in altri luoghi del pianeta che hanno saputo intercettare, e declinare, quest’esigenza.

“Fin qui tutto bene”, quindi, o quasi, come diceva Vincent Cassel mentre cadeva dal cinquantesimo piano nel film cult di Matthieu Kassowitz, L’odio (La haine). Le previsioni di questi algoritmi, che guidano mastodontiche imprese che dispongono di quantità di dati su cui farli allenare senza precedenti nella storia umana, non sono però solo previsioni accurate. Il problema, è che sono anche auto-avveranti: le famose self-fulfilling prophecies.

Gli algoritmi a cui abbiamo regalato volontariamente i nostri dati in cambio della possibilità di restare in contatto con i nostri amici, o di vedere come sarà la nostra faccia quando avremo ottant’anni, adesso hanno imparato non solo a ri-conoscerci, ma anche a conoscerci. E, in alcuni casi, lo fanno meglio dei nostri amici, del nostro partner, o di nostra madre. Secondo uno studio del 2015 dell’Università di Cambridge e di Stanford esistono quattro livelli di soglia con cui l’algoritmo di Facebook è in grado di conoscere le persone. Analizzando dieci “Mi piace”, Facebook è in grado di conoscere la tua personalità meglio di un collega di lavoro. Con settanta, meglio di un caro amico; con cento meglio dei tuoi genitori. Con trecento, meglio del tuo partner. E c’è chi sostiene che esiste anche una soglia oltre la quale l’algoritmo di Zuckerberg è in grado di conoscerti meglio di te stesso. Altro che gnothi seauton.

È il caso di alcuni segnali deboli che al singolo individuo possono sfuggire, ma non alla grande macchina che tutti i dati trita. Così, l’algoritmo può scoprire che un certo utente maschile inconsciamente clicca di più su pubblicità che espongono corpi di uomini, e pertanto inizierà a proporci sempre più prodotti con quella tipologia di pubblicità, secondo le logiche dell’AB testing (una maniera di dividere la popolazione di una pubblicità in sottogruppi, al variare di una singola variabile, per capire quale funziona meglio a seconda del sottogruppo scelto). E così, l’algoritmo può scoprire che abbiamo tendenze omosessuali prima che noi stessi ne prendiamo coscienza – o abbiamo il coraggio di ammetterlo, in contesti culturali in cui questo può risultare ancora un problema difficile da superare. Sulla base di questa nuova consapevolezza, il sistema inizierà a proporci contenuti sempre più in linea con il nostro vero profilo, inducendoci a fare scelte in automatico, mettendo seriamente in discussione anche il concetto stesso di libero arbitrio. Qualcosa su cui avremo modo di tornare a discutere in dettaglio più avanti, ma che per il momento dovrebbe bastarci a trasmetterci un giustificato senso di inquietudine: davvero vogliamo che queste informazioni, e il potere che ne deriva, siano lasciate in mano a delle corporazioni private?

…e la sua versione socialista

Il rischio è quello di passare dalla padella privata, alla brace pubblica. L’altro modello infatti con cui circa un quarto della popolazione mondiale connessa ha a che fare è quello del Great Firewall cinese, all’ombra del quale aleggia vivo lo spirito di Mao. Scegliere se dare in pasto le vostre informazioni personali a Facebook, Instagram, Snapchat o TikTok può sembrare una scelta banale, ma non lo è affatto. Nei primi tre casi, state indirettamente contribuendo ad arricchire delle aziende private statunitensi, che useranno i vostri dati “contro di voi”, cioè per targettizzare meglio quello che vedrete, senza che ovviamente a voi venga riconosciuto nessun dividendo riguardo all’utilizzo dei vostri dati sensibili. D’altronde, siete voi che avete accettato, cliccando su Conferma senza aver letto nulla dei termini del servizio.

Nel caso di TikTok, state invece regalando le vostre informazioni al governo cinese. Non esiste informazione che passi su un social cinese senza che un algoritmo – e una batteria di turchi meccanici, gli esseri umani che fanno operazioni ripetitive “da automi”, e sono pagati pochi centesimi di yuan a clic – li abbia passati al setaccio. Questo accade per TikTok, la piattaforma dell’azienda ByteDance preferita dai Gen Z anche del mondo occidentale (che in Cina è conosciuta invece come Douyin, in una versione in verità leggermente diversa), ma anche per gli altri social network: RenRen, il primo vero Facebook cinese, Sina Weibo, una sorta di Twitter in salsa asiatica, iQiyi e Youku, che fanno le veci di YouTube nell’Impero di Mezzo, e tutti gli altri, nati e nascituri. Ogni tanto, qualche utente riesce a far breccia nel sistema con mezzi più o meno arguti: a fine 2019, fece scalpore il finto tutorial di make-up di Feroza Aziz, una diciassettenne statunitense che nascose in un apparente video di bellezza per ragazzine un messaggio di protesta riguardo le condizioni in cui versano gli uiguri nello Xinjiang – una mossa che non fu molto gradita a Pechino.

Ma per lo più, il sistema non è raggirabile, e regge molto bene. Ricordate cosa dissero i miei giovani ospiti cinesi a cena? «Se il mio governo dice che non devo vederlo, vuol dire che non devo vederlo». In Cina, il rispetto per l’autorità e la gerarchia spesso supera la ricerca occidentale della “verità”: è qualcosa che sacrificano volentieri per un bene più grande, il bene comune. Qualcosa di molto difficile da comprendere da una prospettiva europea, è chiaro.

Con l’immensa opera di digitalizzazione dei dati occorsa in Cina negli ultimi decenni, anche e soprattutto grazie al “telecomando per la vita[EP1] ”, come è definita in Cina la super-app WeChat, che si è letteralmente mangiata il web cinese, Pechino si è trovata con una quantità di dati senza precedenti da poter gestire. Una situazione che costituisce essenzialmente il sogno di qualsiasi regime autocratico. Ma quanto è radicata la digitalizzazione nel sistema cinese? Un esempio molto convincente viene da un aneddoto: nel 2017 una coppia di ladri si recò a Hangzhou per derubare alcuni negozi dei loro introiti quotidiani. Dopo aver fatto irruzione in una dozzina di attività, si resero conto di aver portato a casa solo l’equivalente di poco più di cento dollari, neanche sufficienti per pagare il loro viaggio di rientro – ovviamente, i due vennero poi riconosciuti dai sistemi di sorveglianza e arrestati. In effetti già da qualche anno qualsiasi turista occidentale poteva constatare che anche i senzatetto in Cina sono soliti girare con un cartellino con un qr code al collo: in un Paese totalmente cashless, non è più attuale chiedere qualche spicciolo di elemosina. Anche la carità è diventata quindi digitale: si scansiona un riquadro col cellulare ed ecco fatta la buona azione samarit…, pardon, confuciana.

Non è solo la quantità dei dati a fare la differenza, ma la qualità e la granularità degli stessi: in un’epoca in cui tutti i maggiori futurologi concordano che Data is the new oil, è evidente che la Cina sta assumendo una posizione strategica molto più vantaggiosa di uno stato del Golfo Persico. La sua fonte di petrolio è rinnovabile, e rinnovata ogni giorno; praticamente inesauribile.

Solo queste condizioni, sia a livello di forma mentis che di contesto tecnologico, potevano permettere l’affermarsi di un progetto come il Sistema di Credito Sociale. Distopico, aberrante, insensato, agli occhi di un occidentale. Pieno compimento, invece, del sistema confuciano per i suoi propugnatori di Pechino.

Ma cos’è il Sistema di Credito Sociale che abbiamo già brevemente citato? Innanzitutto, non esiste solo un scs, ma più d’uno. Insieme, ambiscono a creare un’infrastruttura onnivora a livello di dati, capace di sintetizzare in una sorta di “voto” ogni singolo cittadino della Repubblica popolare cinese. Da dove arrivano i dati in ingresso, per quest’immenso sistema di pagelle civiche? Be’, si fa prima a dire da dove non arrivino. Grazie all’onnipresenza degli smartphone nella vita dei cinesi, il lavoro che una volta veniva svolto da un enorme esercito di burocrati calligrafi ora è delegato al cittadino stesso, che su base – come dire… – “volontaria”, consegna ogni suo acquisto, check-in, opinione, a questo sistema di Grandi Fratelli capaci di elaborarli e di assegnare quindi una valutazione numerica in uscita. Nella pratica, si parte da un valore standard, e poi a seconda dei comportamenti virtuosi (acquisto di prodotti salutari, partecipazione a iniziative di volontariato locali, track-record di buona condotta finanziaria) e al netto di quelli viziosi (acquisto di liquori o sigarette, cattivi comportamenti sui social media, infrazioni alla guida di vario genere, coinvolgimento in risse o altre situazioni negative) si sale o si scende in classifica in tempo sostanzialmente reale. Sopra una certa soglia, si potranno godere alcuni benefici: prezzi scontati su alcune prestazioni, priorità in coda nei servizi ospedalieri, upgrade automatici in prima classe sui trasporti eccetera. Al di sotto, invece, si rischia di vedere le proprie visite ospedaliere ritardate di mesi, aumenti di costi di alcuni servizi basilari, fino, nei casi più gravi – come alcuni riservati, ahinoi, a giornalisti indipendenti – all’impossibilità di spostarsi via treno o via aereo da una città all’altra. In sintesi, un vero e proprio “socialismo della sorveglianza”. Con caratteristiche cinesi, ovviamente. Un sistema, insomma, che rende reale quello che forse provocatoriamente avevano azzardato gli sceneggiatori di Black Mirror nell’episodio Nosedive, dove la protagonista della puntata distopica che estendeva la valutazione a ogni interazione sociale entrava appunto in una spirale di feedback negativi da parte di tutte le persone che le stavano intorno, fino al finale tragico.

Quello che cambia è che in Cina un sistema del genere è invece accolto con essenziale benevolenza da parte della popolazione. D’altronde, il sistema di acquisizione dei “meriti”, che in qualche modo assomiglia a una versione ben più laica – e priva di transazione economica – delle indulgenze cristiane, è sempre stato centrale nel pensiero buddhista, e più latamente confuciano. È in questi casi che si esemplifica al meglio la rilevanza della differenza di vedute, nel processo di generazione di idee e sistemi che guideranno il nostro futuro. Perché se al momento un sistema come quello dei Crediti Sociali sembra sostanzialmente impossibile da esportare fuori dalla Cina, non è detto che alcuni regimi autocratici anche altrove nel futuro non guardino a Pechino come fornitore, magari gratuito, di un software che è la quintessenza del controllo orwelliano delle masse.

È facile cedere alla tentazione di etichettare fenomeni come questi semplicemente come esempi espliciti di un regime dittatoriale. Ma sarebbe erroneo farlo. Perché la storia ci insegna che anche le dittature – soprattutto, le dittature – si possono rovesciare, se non fanno l’interesse delle persone. E non a caso il Partito popolare cinese ha molto a cuore la questione del controllo dell’opinione pubblica. Il fatto di non tenere libere elezioni non significa infatti che il Partito unico abbia intenzione di andare per la sua strada. La legittimazione popolare è il primo pensiero di qualsiasi politico, dal sindaco di una piccola città a Xi Jinping.

L’innovazione dalle periferie dell’impero: un modello esportabile

La principale lezione da imparare qui è che centri di innovazione altri, alimentati da altre motivazioni, potrebbero in futuro condurre a sviluppi tecnologici del tutto sorprendenti. Non è solo la geografia dell’innovazione che potrebbe stupirci, ma il fatto che l’innovazione stessa potrebbe essere mossa da motivazioni molto lontane dal pensiero ortodosso della Silicon Valley.

L’abbassamento progressivo delle barriere all’ingresso nel mondo dell’innovazione fa sì che, in un futuro, sia lecito aspettarsi che un cattolico possa sviluppare delle app basate sui dieci comandamenti e che queste possano rapidamente espandersi magari nelle comunità religiose delle Filippine e poi in America Latina. O che la ricerca e sviluppo di Scientology si inventi chissà quale meccanismo di catalogazione che possa poi trovare applicazione concreta anche in altri luoghi e per finalità ben diverse da quella iniziale. È questa educazione mentale a nuove sorgenti di innovazione che va allenata per essere pronti a cogliere gli input provenienti potenzialmente da ogni angolo della società civile. L’innovazione, come un dio laico, è ancora nei dettagli.

Esistono altre ragioni che giustificano l’accettazione su così vasta scala di un sistema come quello dei Crediti Sociali, e molte risiedono nella sostanziale mancanza di fiducia tra persona e persona, ma anche tra persone e aziende. Un rapporto, quest’ultimo, minato alla base da alcuni scandali clamorosi, come la vicenda dell’azienda cinese che aveva aggiunto melamina al latte per bambini sconvolgendo l’opinione pubblica locale nel 2008. L’homo homini lupus hobbesiano, nato a qualche decina di migliaia di chilometri di distanza, pare aver attecchito benissimo anche nella cultura confuciana. Ecco da dove deriva quindi l’esigenza di avere dei dati oggettivi con cui sostituire il mancante rapporto di fiducia tra persone e aziende – poi estesosi anche oltre. D’altronde, il sistema di rating non ci è affatto nuovo neanche in Occidente: è su quello che basiamo spesso la nostra fiducia nei confronti di aziende che non conosciamo, ma anche di persone. Così come in banca è necessario lasciare le proprie credenziali, e si passa attraverso un sistema di due-diligence in qualche modo simile a quello del Sistema di Credito Sociale, solo meno automatizzato, allo stesso modo quando abbiamo iniziato a comprare online su eBay ci fidavamo solo dei venditori con i feedback migliori; così come le “stelline” assegnate da utenti prima di noi guidano le nostre scelte quando scegliamo un ristorante guardando le recensioni su Tripadvisor, Google o Yelp, oppure quando dobbiamo affidarci a uno sconosciuto per farci riaccompagnare a casa usando Uber.

In sintesi, come fa notare il filosofo tedesco di origine coreana Byung-Chul Han:

La forte richiesta di trasparenza rinvia proprio al fatto che il fondamento morale della società è diventato fragile, che i valori morali come la sincerità o l’onestà divengono sempre più insignificanti. Al posto dell’istanza morale caduta in disgrazia, compare la trasparenza come nuovo imperativo sociale

Come spesso succede, insomma, guardando da vicino le cose, non si scopre solo che nulla è normale, comprese le nostre abitudini; ma anche che nulla è del tutto incomprensibile, comprese le abitudini che di primo acchito reputiamo barbare.

A ogni modo, lo stesso ottimismo tecnologico, o laissez-faire socio-politico, palesato nei confronti del Sistema di Credito Sociale, che ormai si sta radicando nella maggior parte del territorio cinese dopo una fase di test che ha coinvolto un primo numero di metropoli-pilota, ha portato la Cina a essere il Paese con il maggior numero di impianti di telesorveglianza al mondo, e non a caso quella con i maggiori produttori di sistemi di telecamere a riconoscimento facciale, capitanate dal gigante Hikvision. “Se non hai nulla da nascondere, non hai nulla da temere”, è il refrain che si sente pronunciare all’unisono dai cittadini a Hangzhou come a Chengdu, da Wuhan sino a Canton. E in un mondo dove la priorità sociale numero uno è quella di “non perdere la faccia”, anche la sola esposizione al pubblico ludibrio su dei megaschermi negli incroci stradali per aver attraversato col rosso può essere un deterrente capace di creare circuiti virtuosi. Almeno, dal punto di vista confuciano.

Le immagini sono state generate da Gilberto Pierazzuoli con una AI Text To Image con dei prompt che contenevano sempre la frase: “Figure umane adatte alle AI (Intelligenze Artificiali)

The following two tabs change content below.

Redazione

Il gruppo di redazione della rivista edita da perUnaltracittà

1 commento su “Antropologia per Intelligenze Artificiali – Un estratto”

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *