Per una critica del capitalismo digitale, X parte
“Secondo ciò quando sorga una controversia, non ci sarà più necessità di discussione tra due filosofi di quella che c’è tra due calcolatori. Sarà sufficiente prendere una penna, sedersi al tavolo e dirsi l’un l’altro: calcoliamo (calculemus)!”, (Leibiniz, Dissertatio de arte combinatoria, 1666).
In un articolo pubblicato nel giugno del 2008 da Wired e intitolato La fine della teoria, Chris Anderson, il capo redattore, annunciava che grazie al trattamento di grandi masse di dati d’ogni tipo, ottenuti attraverso dispositivi di cattura installati in ogni dove, i numeri avrebbero parlato da soli e quindi, in un futuro prossimo, il metodo scientifico tradizionale, basato sulla formulazione d’ipotesi o teorie per sottometterle poi al confronto con la realtà, sarebbe divenuto obsoleto.
Si metteva altresì in dubbio l’utilità di tutte le discipline relative alle scienze umane: sociologia, psicologia, ma anche della linguistica, della tassonomia e dell’ontologia. Sapere il perché le persone fanno delle cose diventava irrilevante di fronte al fatto che noi saremmo in grado di tracciare e misurare quello che le persone fanno. Questo lo spirito che sta dietro alla infosfera digitale.
Il controllo della macchina sul corpo/macchina degli umani è velato, ma potente. Non si tratta semplicemente di sorvegliare, di raccogliere abusivamente dei dati, di violare la vostra privacy. L’intento è più coercitivo: si tratta di influenzare i comportamenti. Si esercita un controllo sui funzionamenti delle cose: niente deve essere al di fuori del disegno previsto. Niente deve prendere la strada che non sia nella direzione desiderata, quella programmabile e quindi quella programmata; quella che il programma è previsto che svolga. È l’ennesima enclosure. Una recinzione strutturale che corrisponde alla matrice algoritmica, che così assolve anche il compito di lasciar fuori ogni velleità divergente.
Gli algoritmi che soprintendono al riconoscimento del linguaggio, base di quella che viene chiamata Intelligenza Artificiale, sono estrapolati dall’osservazione e ascolto dei comportamenti umani. L’addestramento dell’algoritmo viene di fatto eseguito elaborando i dati che provengono dagli utenti. Sono gli utenti che alimentano e affinano l’algoritmo. Il “sapere” della macchina incarna qui, proprio il general intellect. Un sapere, che è sapere comune, viene intercettato e messo al lavoro senza prevedere nessun corrispettivo. È l’azione di appropriazione di un bene comune che fonda l’accumulo originario che non è una tantum, ma un doversi ripetere che segna e caratterizza questo modo di produzione.
Secondo alcuni autori, Facebook sarebbe il più grande laboratorio di ricerca psico-sociale del pianeta, una azienda privata che usa materia prima fornita gratuitamente. Abbiamo già detto che il servizio che dà in cambio non è il migliore possibile per gli utenti, ma che si adatta allo scopo dell’azienda ed è calibrato all’ottenimento del profitto, mentre la percezione che se ne ha è quella di una piattaforma di servizio attraverso la quale comunicare e scambiarsi immagini e video in un gruppo tendenzialmente enorme di utenti. Nel momento che viene usata, nel momento che viene usata da molti, dalla maggioranza della popolazione, quella cosa diventa comune. È una dimensione della realtà. Nella realtà c’è questa piattaforma e, in questa (quella) dimensione, posso acquisire un’identità. La stessa cosa per il motore di ricerca di Google che è uno strumento indispensabile per la navigazione nel mare magnum della rete. Si usa perché senza non si potrebbe accedere alla rete, accedere cioè ai modi della comunicazione umana nell’universo digitale che è la dimensione contemporanea. Ma sia Facebook che il browser di Google non sono soltanto strumenti di indirizzamento, di tracciamento, ma anche dispositivi che impongono le proprie tracce.
Così è dell’intelligenza artificiale (AI), che non è un intelligenza macchinica con la quale confrontarsi o da potere al limite usare per svolgere dei compiti. È un’intelligenza che vuole agire al posto nostro. È un’intelligenza che vuole imporsi, scaricando l’umanità dall’incombenza di dover svolgere compiti anche complessi. L’umanità viene ridotta a una massa di consumatori, o a forza lavoro a basso costo per le attività nelle quali l’uso della forza lavoro umana, non è sostituibile con il lavoro robotico o dove il costo della forza lavoro umana è competitivo con quello della macchina. In attesa dell’auto a guida automatica, in Uber per esempio, si usano autisti umani poco pagati, costretti a tempi e scelte da parte dell’algoritmo della piattaforma. L’algoritmo infatti, li valuta continuamente: quante corse fanno, quanto sono disposti a lavorare la notte, quante corse accettano da o per luoghi poco agevoli e così via. Il navigatore satellitare sceglie la strada da percorrere, sceglie la velocità ottimale in maniera da rendere più efficiente il servizio; cosa che può però significare di non potersi concedere soste, pena un declassamento della valutazione che porterà a meno chiamate… In definitiva, la macchina guiderà l’autista.
L’intelligenza artificiale sostituisce per lo più quelle azioni umane tendenzialmente più ripetitive, per poi spingersi avanti nella pretesa di rendere automatica la vita stessa. Costringerà perciò gli umani a comportarsi come macchine. La macchina ha però gesti e comportamenti statisticamente rilevanti, non prenderà mai una strada nuova o poco battuta. Tutto questo, sarà bene ripeterlo ancora una volta, non perché la tecnoscienza rimandi a un comportamento, a scopi o fini sempre insiti nella sua struttura, nella sua essenza (o almeno non sempre), ma perché spesso la macchina è eterodiretta da scopi e fini congeniali al capitale che pensa quella macchina, quell’algoritmo e non un altro. Nel contesto capitalistico neoliberale è perciò difficile che le tecnologie digitali vengano pensate in vista del bene comune.
La nostra identità è infatti sempre stata mediata dal fattore tecnico, pensiamo a tutta l’antropologia filosofica del novecento, ma questa situazione per la quale il modo di pensare della macchina tenta di imporsi al modo di pensare umano, è totalmente nuova. Siamo di fronte a una situazione che assegna alla vita un’occorrenza statistica. Si tratta di un’ontologia legata a quella che si poterebbe chiamare l’opinione comune. Si è quello che probabilisticamente è possibile che si possa essere. Le regole del comportamento non sono più quelle espresse da un insieme di norme che venivano fatte rispettare da appositi apparati, sono invece regole indotte da dispositivi algoritmici che regolano – e alla lunga impongono – il campo del possibile. Ma non è un condizionamento subliminale, è il dover sottostare a procedure e percorsi pensati da “altri”, pensati automaticamente.
Categorie politiche come popolo, moltitudine, ceto, classe sociale, si vorrebbero sostituire con aggregazioni probabilistiche che escludono minoranze e agency non funzionali. La serialità applicata sia alla produzione industriale, sia a quella agricola, ha ridotto la varietà e il numero di diversità. La serialità algoritmica riduce anche la biodiversità degli umani in molti campi, anche se – al momento che veniamo percepiti come potenziali consumatori – l’algoritmo lavori invece al contrario; diventi un moltiplicatore, smetta cioè di escludere e, inclusione dopo inclusione, personalizzi l’offerta secondo un moltiplicarsi di categorie e micro generi di consumo: Alexis Madrigal in un articolo su “The Atlantic” del 2 gennaio del 2014 parla di 77.000 generi usati da Netflix per catalogare i film. L’uso dei big data porta in maniera naturale a estrarre senso per compressione delle rilevanze o a una proliferazione dei risultati che – come abbiamo già detto – puntano alla perfezione descrittiva della mappa uno a uno del reale.
Un delirio classificatorio con la costruzione di modelli descrittivi, cerca di rendere conto di una realtà che si fa epocale. Ecco l’Antropocene, il Capitalocene, il Piantagionocene. Si descrivono le differenze tra la società disciplinare e l’attuale, la società del controllo. Se il potere, nel pensiero giuridico del secolo scorso è di colui che può dichiarare lo stato di eccezione, nel nuovo millennio il potere è in mano più semplicemente a chi gestisce i dati. Se lo Stato, come cosa pubblica, e come propensione governamentale, gestisse i dati che oggi sono in mano a poche compagnie private, ci si troverebbe a discutere su quale potrebbe essere il nostro spazio privato, i limiti cioè della nostra privacy nei confronti della ragion di stato. Adesso le compagnie private che si impinguano con i nostri dati, ci dicono semplicemente che li prelevano e che li useranno, ma non ci dicono per fare cosa.
L’immaginazione di Guattari, citato da Deleuze, formula l’ipotesi di «una città in cui ciascuno potesse lasciare il proprio appartamento, la propria via, il proprio quartiere, grazie a una personale carta elettronica (dividuale*) capace di rimuovere questa o quella barriera; ma, d’altro lato, che la carta potesse essere respinta il tale giorno, o a una tale ora; quello che conta non è la barriera, ma il computer che individua la posizione di ciascuno, lecita o illecita, e opera a una modulazione universale» (Deleuze p. 240). Testo scritto trenta anni fa, ma che descrive perfettamente il passaggio dalla società disciplinare a quella di controllo, e presagisce quello che in Cina è adesso una realtà. La società disciplinare era regolata da parole d’ordine, la società del controllo si basa invece sulle cifre, sui numeri, sul risultato computazionale che regola l’accesso o il diniego. Una cifra determina l’umanità e il suo rapporto con la società: La disciplina ci restituiva un’umanità rinchiusa, il controllo ci rimanda all’umanità indebitata «Non si ha più a che fare con la coppia massa-individuo. Gli individui sono diventati dei “dividuali” e le masse dei campioni, dati, mercati o “banche”» (ivi p. 237).
Il mito neo liberista si foraggia di concetti quali progresso, innovazione, connessione. Non soltanto la società evolve, ma tutto con lei a partire dalla rete. Dal web due punto zero alla fabbrica quattro punto zero; uno step dopo l’altro e così via. Brilla la startup sopra i think tank, intorno a un hub. Abbiamo già detto che la caratteristica dell’economie legate alla rete è quella della tendenza al monopolio e che l’indotto è altamente volatile. In più, il tutto è impresa a basso utilizzo di mano d’opera. La volatilità è legata al fatto che non tutte le buone idee possono diventare profittevoli e che non tutte potranno riuscire a sbaragliare i concorrenti per costituirsi a monopoli redditizi. Il business è data-centrico; l’azienda che è in vantaggio riesce a moltiplicare quel vantaggio perché operando avrà accesso a più dati con i quali alimentare gli algoritmi che diventeranno sempre più efficienti distanziando così l’impresa concorrente. Bisogna partire subito forte, altrimenti non ci sono speranze. Occorrono capitali, tanti capitali, al di là delle buone idee. La rete e i suoi successi sono legati ai capitali di ventura, alle scommesse, al peggio della finanziarizzazione del mondo.
L’accesso ai dati è la materia a buon mercato che caratterizza questa fase dell’accumulo capitalista. Questa opportunità è legata al concetto di libertà in rete, alla convinzione di un’intrinseca
democraticità della rete stessa e a un grande lavoro di lobbying. Siamo di fronte a un’area di anomia particolare legata all’universo digitale, comparto che come nessun altro si approfitta di questa regalia. Ma non esiste un anomia pura, ma spazi governati da norme anomale che permettono di avvantaggiarsi per poi mettersi in competizione anche fuori da quegli spazi atipici, anomali. L’anomia è un’anomalia. La rete è questo limbo, è questa sconfinata prateria dove si può provare a competere usando espedienti che portano ad un estrattivismo gratuito.
La democrazia malata (non che ci sia una democrazia sana, tutta la democrazia è malata) confida nella possibilità di spostare gli istituti della decisione politica nella rete. La rete permetterebbe forme di democrazia diretta pensate impossibili prima. Quando il numero dei partecipanti supera una certa soglia, anche una semplice interrogazione che dia modo di esprimersi a tutti, diventa impossibile. Nella rete no; sono possibili sondaggi e votazioni in ogni momento e in ogni momento convocabili. Quando però deleghiamo alla piattaforma la generazione delle scelte in base all’opinione degli utenti, bisogna tener conto che la costruzione di un’opinione non avviene in un ambiente immune dai condizionamenti; spesso è il sondaggio stesso che condiziona. La partecipazione stessa è partecipazione al gioco, è accettazione delle regole del gioco. Il gioco del sondaggio che deve predire le scelte non fa altro che condizionarle, il campione scelto è quello che rimanda alla risposta, perché ci sarà sempre un algoritmo che pescherà nel calderone dei big data una sequenza che confermi l’aspettativa della domanda. L’algoritmo non è allora predittivo, è prescrittivo. La macchina che sceglie per te, non fa una scelta oggettiva. Scardinando le soggettività dei partecipanti, dei fornitori dei dati, non le ricompone in un oggetto che tutte le comprende, ma in uno che non ne contiene nessuna.
Il modo di rispondere degli algoritmi alle domande è tale che difficilmente non troveranno una risposta, e cioè una corrispondenza, una ricorrenza. L’analisi dei big data, come abbiamo visto non è logico-causale, da questo a quello, questo scarta quello/i, filtrando sino ad ottenere un risultato (quello che resta). È massiva: aggrega e disgrega masse di dati sino a costruire pattern funzionali alla query. Il linguaggio umano che fa riferimento a una sintassi complessa diviene nel linguaggio binario della macchina un test false/true attraverso il quale estrarre risposte consone alla domanda. La macchina realizza l’intuizione di Hume per la quale non esiste causalità, noi non sperimentiamo causa ed effetto, soltanto una loro costante contiguità, quella contiguità dove oggi lavora l’algoritmo; meglio, quella che, in ultima istanza, prende solo e soltanto in considerazione l’algoritmo estrattivo. Gli algoritmi riescono a far presa sul reale, a “individuare” dei soggetti anche collettivi, «mediante un’operazione circolare d’aggiustamento sperimentale, d’interferenza incessante […] ciò che essi così localizzano e strutturano non sono dei gruppi reali e autonomi, ma dei campioni, vale a dire socialmente e mentalmente modellizzati mediante un fuoco di batterie di messaggi. L’”opinione pubblica” è evidentemente il più bello di questi campioni – non una sostanza politica irreale fantastica che non vive che di montaggio e di manipolazione testuale» (Baudrillard p. 76).
Quello che Baudrillard si immaginava accadesse ai flussi discorsivi con l’irruzione dello schema binario domanda/risposta, diviene la logica pervasiva dell’universo asservito al media digitale. Una logica che «disarticola ogni discorso, cortocircuita tutto ciò che fu in un’età dell’oro ormai tramontata, dialettica di un significante e d’un significato, d’un rappresentante e d’un rappresentato. Finiti gli oggetti il cui significato sarebbe la funzione, finita l’opinione il cui suffragio andrebbe a dei rappresentanti “rappresentativi”, finita l’interrogazione reale alla quale risponde la risposta (finite soprattutto le domande alle quali non esiste risposta)» (ibidem). La modellizzazione della realtà sostituisce la realtà. La proiezione ideologica della superiorità della macchina, della oggettività della macchina, è un’adeguamento miracoloso del reale ai modelli, in definitiva una forma di manipolazione assoluta. «La statistica non è che casuistica», dice ancora Baudrillard.
Tecnico, smart e innovativo sono le parole d’ordine del terzo millennio. I dati, la materia prima più importante. Tutti produciamo dati, i consumatori producono dati e valutazioni. Il feedback (da uno a cinque stelle) regola le transazioni. Feedback e test di valutazione sono entrati a pieno diritto nell’amministrazione della salute e in quella dell’insegnamento, spostando l’attenzione più sugli indicatori piuttosto che sulle persone.
Il feedback è alla base dell’addestramento degli algoritmi, in teoria secondo una logica condivisibile che è quella di perfezionare la risposta in base all’apprezzamento che essa suscita. In realtà l’algoritmo non segue nessun percorso logico, non riesce a manipolare segni complessi; a operare su un campo semantico polisemico e ambiguo come la lingua umana. Ha semplicemente una logica binaria, soltanto true e false, zero e uno, nient’altro. Ogni corrispondenza è un’ipotesi, una possibile risposta non alla domanda in sé, ma a qualsiasi domanda. Scarto dopo scarto il feedback diventerà positivo, non perché la macchina avrà imparato qualcosa da poter utilizzare in altri contesti, ma soltanto perché la macchina è capace di un’infinità di confronti in tempi molto brevi; perché la sua capacità di calcolo è molto più alta di quella degli umani. La macchina ridarà la stessa risposta di fronte a un pacchetto di dati simile, nel momento in cui riconoscerà le stesse condizioni precedentemente esperite. Succede però che per riprodurre perfettamente la situazione conosciuta, la macchina la cerchi – la estragga – da un’enorme massa di dati, compiendo degli scarti che invece potrebbero rimandare a delle strade alternative e potenzialmente migliori per ottenere quella risposta.
Il circolo si fa vizioso. L’addetto alla macchina adatterà la domanda alle sue capacità di risposta, condizionando all’origine tutto il processo. I test (ad esempio l’INVALSI, per la scuola), i traguardi, l’efficienza amministrativa, tutti gli strumenti che producono numeri, che producono segni computabili, prendono così il sopravvento. La logica algoritmica domina la governance. È quella forma di controllo che non si limita alla sorveglianza, ma che è capace di un agency. Come abbiamo già detto, è il passaggio dal sorvegliare e punire, al sorvegliare e giudicare, al sorvegliare e valutare, al sorvegliare e numerare. Numeri che animano le routine di comando, che non fanno riferimento ad una autorità alla quale è demandato il potere ottenuto attraverso dei processi politici. Il riferimento è a una autorità che ha l’avallo della scienza; il risultato di un processo di calcolo e non l’aleatorietà di un’opinione umana. Un’opinione pura, una doxa statistica.
Il pensiero algoritmico erode le resistenze della logica umana, si scava una sua egemonia, così, inconsapevolmente, un dirigente scolastico di fronte al problema dell’accesso ad una classe in cui le domande superavano i posti a disposizione e nell’impossibilità, causa Coronavirus, di effettuare i test d’ingresso, decide di assegnare i posti tramite sorteggio. Sin qui tutto bene, ma eccoci alla bella pensata: siccome i richiedenti erano per il settanta per cento maschi, viene deciso che i posti sarebbero stati assegnati per il settanta per cento ai maschi e per il trenta per cento alle femmine. Il dirigente scolastico aveva applicato al caso una logica algoritmica che di fatto metteva in campo una discriminazione di genere.
L’euforia progressista ha saturato l’immaginario dei futuribili. Il fatto che non ci sia futuro, non è una visione, pessimistica o ponderata che sia, delle possibilità di vivere il resto della propria esistenza, di ben viverla. Il futuro scongiura il fatto che si debba vivere in un eterno presente. Il futuro è altro. È una possibilità. Il futuro che propone la macchina del capitalismo digitale pullula di comfort, comodità, camuffate da commodity. Il futuro è sempre una forma di trascendenza; è il paradiso latte e miele. La mancanza di futuro non è la mancanza di latte e miele, ma la mancanza di poterli immaginare. L’impossibilità di immaginare ogni tipo di latte e miele. Sappiamo cosa ti piace, sappiamo cosa è meglio per te, pensano le macchine. Se farai quello che dico io un po’ del mio latte e miele toccherà anche a te. Se comprerai latte e miele sarai nel futuro. Se non ti puoi permettere di comprare latte e miele, sei fuori. Quello che puoi fare è cercare di poterselo permettere anche se ogni giorno è acqua e aceto. Bisogna tornare alla immanenza delle cose, al futuro è oggi e acqua e aceto non sono latte e miele, non sono futuro. Il futuro è oggi perché non solo latte e miele. Perché tu sei latte e miele, perché l’altro è latte e miele. È latte e miele e altro. L’altro dell’altro è latte e miele. È futuro. Il futuro è ansia. Il futuro è desiderio, conato; è jouissance. Il futuro è passione, il futuro è oggi. Il futuro è rabbia, il futuro è oggi.
Continua…
Gilles Deleuze, Pourparler, Quodlibet, Macerata 2000.
Jean Baudrillard, Lo scambio simbolico e la morte, Feltrinelli, Milano 1977.
Qui la I parte
Qui la II
Qui la III
Qui la IV
Qui la V
Qui la VI
Qui la VII
Qui la VIII
Qui la IX
*Gilberto Pierazzuoli
Gilberto Pierazzuoli
Ultimi post di Gilberto Pierazzuoli (vedi tutti)
- Le AI e il gioco del Ripiglino - 18 Gennaio 2024
- I consigli di lettura di Gilberto Pierazzuoli - 24 Dicembre 2023
- Le AI e la voce - 12 Dicembre 2023