*Per un’ecologia anticapitalista del digitale – parte #11
Nei paesi anglosassoni, ma non solo, esiste ufficialmente un punteggio di credito, il cosiddetto Credit Score, un meccanismo, o meglio un algoritmo, che permette agli istituti finanziari di valutare il rischio di insolvibilità di un cliente. Data broker come Experian tracciano in modo tempestivo il modo in cui paghiamo i nostri debiti, dandoci un punteggio che viene utilizzato da istituti di credito e fornitori di mutui. Abbiamo anche punteggi in stile social e chiunque abbia effettuato acquisti online con eBay ha una valutazione sui tempi di spedizione e sulla comunicazione, mentre i conducenti e i passeggeri di Uber si valutano a vicenda, così come i rider e molti addetti della logistica. Alcune società indipendenti offrono servizi predittivi alle polizie di tutto il mondo. Non si è arrivati alle reclusioni per delitti potenziali non ancora fatti, ma il daspo urbano e quello calcistico ci si avvicinano, sono punizioni senza delitto che si potrebbero basare su una “valutazione” algoritmica dei comportamenti umani.
In alcuni distretti giudiziari degli Stati Uniti si fa ampio uso di algoritmi che calcolano la probabilità di recidiva, diventando strumenti di aiuto ai giudici per le scelte sulla libertà vigilata e altre determinazioni restrittive da applicare in molti casi giudiziari. L’ultima parola la prende un umano, ma quasi sempre essa coincide con quella proposta dalla macchina. Nessuno osa prendersi la responsabilità di una scelta che l’algoritmo sconsiglia. Nulla è stato fatto per bandire questa pratica anche dopo aver constatato che questo strumento discrimina le minoranze e i ceti più poveri.
Il grande fratello ha preso la sua residenza in Cina. Il sistema di credito sociale cinese estende quest’idee a tutti gli aspetti della vita, giudicando il comportamento e l’affidabilità dei cittadini. Il regime di Pechino sta impiantando in Cina un sistema di “credito sociale” mediante il quale gli “errori” di qualsiasi individuo vengono “scontati” dal suo “saldo”, di modo che, in base alla sua “qualificazione” comportamentale, un cittadino può essere punito con multe, restrizioni, mancato accesso a promozioni sul lavoro, negazione all’autorizzazione di viaggi etc. Il gioco della valutazione anonima e non professionale di alberghi e ristoranti è ormai esteso a luoghi turistici, paesaggi e servizi ma, una volta esteso alle persone, viene utilizzato per tenere conto di comportamenti quali fare jaywalking, non pagare un conto del tribunale, ascoltare la tua musica a volume troppo alto. Si tratta come altri esempi nel mondo di uso e abuso di dati aggregati per l’analisi del comportamento. L’obiettivo del sistema è quello di “incentivare le buone azioni” (o quelle considerate tali) attraverso l’assegnazione di crediti, e disincentivare quelle cattive togliendole. Ci sono sistemi di credito sociale pubblici e privati che spesso però condividono i dati. Nei progetti privati come quello di Sesame Credit, che vanta 400 milioni di utenti, vengono giudicate (e premiate con denaro) le abitudini più disparate: dall’utilizzo dei videogiochi (che fa perdere crediti) al fatto di essere genitori (che ne fa guadagnare). Prendere parte ai sistemi privati o governativi di credito sociale è tecnicamente volontario, ma esistono incentivi per chi decide di aderirvi, e disincentivi per chi si rifiuta di partecipare. Un timore è che un sistema di credito sociale possa esacerbare le disuguaglianze sociali, dividendo la società e creando classi di emarginati. Una volta perso gran parte del credito sociale, sarà infatti difficile recuperarlo, innestando una spirale negativa, come ben esemplifica la puntata di Black Mirror intitolata non a caso “Caduta libera”.
In tempi di virus e di contagi anche le idee più illiberali si presentano ad alto tasso di contagiosità. È di questi giorni la notizia che il governo britannico abbia in programma di introdurre nel 2022 un’app per la salute che monitorerà i nostri acquisti, i nostri livelli di esercizio fisico o l’assunzione di frutta e verdura e ci ricompenserà con punti virtù che possiamo scambiare con sconti, biglietti gratuiti (a quale tipo di evento non è chiaro) e altre chicche. Si dice che Capita e Serco – i soliti beneficiari dei regimi governativi demenziali – stiano facendo un’offerta per la possibilità di gestirlo. In questo articolo ci si chiede quanto tempo passerà prima che datori di lavoro inizino a chiedere ai propri dipendenti di utilizzare l’app e di consultare la cronologia di dieta ed esercizio fisico prima di dare un lavoro a qualcuno. Se non addirittura il fatto che bar e ristoranti saranno costretti a controllare la nostra storia alimentare prima di venderci un hamburger e un bibita gassata. E, naturalmente, il sistema sanitario nazionale dovrà utilizzare l’app per razionare l’assistenza sanitaria. Visto anche che, dietro il paravento di un’utilità astratta di certi strumenti, ci si potrà trovare di fronte al fatto compiuto di vederli implementati per scopi inizialmente negati dalle amministrazioni come il riconoscimento facciale per quanta riguarda le telecamere.
Notizia di pochi giorni fa è l’intenzione a Bologna di subordinare e condizionare l’accesso ad alcuni servizi in relazione al punteggio di una “patente digitale”. “La card con i punti digitali per il “cittadino virtuoso”. “Tra gli interventi più innovativi c’è lo smart citizen wallet. ‘Il portafoglio del cittadino virtuoso’, dice l’assessore alla agenda digitale del comune di Bologna Massimo Bugani. “L’idea è simile al meccanismo di ‘una raccolta punti del supermercato’, il cittadino avrà un riconoscimento se differenzia i rifiuti, se usa i mezzi pubblici, se gestisce bene l’energia, se non prende sanzioni dalla municipale, se risulta attivo con la Card cultura”. Comportamenti virtuosi che corrisponderanno a un punteggio che i bolognesi potranno poi ‘spendere’ in “premi in via di definizione” riporta Il Corriere di Bologna.
Bisogna a questo punto spiegare una volta per tutte (si fa per dire) che ogni misurazione dei comportamenti umani è imperfetta se non fallace, e porta a una normalizzazione; sin qui sembra che non ci sia nulla di grave. Il fatto è che la normalizzazione non è una forma di armonizzazione e che ogni normalizzazione ha una performatività escludente. L’armonizzazione non si fa sull’identico (sull’appiattimento) ma si fa tra suoni diversi, così non è per la normalizzazione. Gli implementatori parlano di premi ma nessuno vieta che la prossima mossa sia una punizione per chi si discosta dalla norma. Oltretutto anche se si registrano soltanto i comportamenti virtuosi, si stigmatizzano nello stesso tempo tutti gli altri. È la base distopica sulla quale costruire un regime dispotico basato su un finto isomorfismo, quell’isomorfismo che era alla base delle ipotesi di democrazia nella Grecia antica anch’esso viziato da un bias di fondo, l’esclusione dei giovani, delle donne e degli stranieri. Un isomorfismo calato dall’alto che funziona per via algoritmica permettendo alle macchine di condizionare il comportamento umano. Lo straordinario operare delle macchine messo al lavoro in un campo dove la macchina è fallace per definizione. Ma a molti il fatto che la macchina pensi in termini statistici consolidando la norma, il senso comune, giusto o sbagliato che sia, non dispiace. L’algoritmo è un dispositivo che rafforza le opinioni. È un meccanismo reputato oggettivo che dà voce alla maggioranza silenziosa. È una tecnica che lavora al servizio delle banche, delle assicurazioni, degli interessi di Big Pharma, dei proprietari dei brevetti sugli OGM, di ogni tipo di serialità e contro ogni singolarità.
Meritocrazia e valutazione sono due nuove dee affacciantesi al mondo contemporaneo. Le accomuna l’idea di essere oggettive, pronte a servire le loro colleghe: efficacia, efficienza, adattabilità, flessibilità e visibilità. Incontestabilmente delle virtù e non dei difetti. Ma tutte caratteristiche oggi asservite alla produzione standardizzata di persone lige alla produzione e funzionali alla stessa. Una costruzione che rende la valutazione uno strumento capace di azione. La valutazione infatti discrimina, falsifica la percezione, orienta il giudizio, assolutizza quel giudizio. Nelle Datacrazie moderne non c’è spazio per valutazioni affettive mentre si dà grande importanza alle ricorrenze statistiche che, come ogni statistica, non corrispondono a nessun soggetto concreto ma a un personaggio astratto, disegnato a misura degli interessi di chi ha confezionato l’algoritmo estrattivo.
Per di più, la valutazione e la sorveglianza sono sempre più spesso apparati liberticidi che non incidono soltanto sulla proibizione di azioni delittuose, ma che considerano essere tali tutte quelle che si discostano dal modello. Forse è questo il modo migliore per ottenere il consenso di più individui possibili che contamineranno i dati innestando una spirale perversa di restrizione di ogni tipo di libertà.
Gilberto Pierazzuoli
Ultimi post di Gilberto Pierazzuoli (vedi tutti)
- Le AI e il gioco del Ripiglino - 18 Gennaio 2024
- I consigli di lettura di Gilberto Pierazzuoli - 24 Dicembre 2023
- Le AI e la voce - 12 Dicembre 2023