III° parte
Dalla parte dell’utente. I padroni della rete non equivalgono a quelli degli altri media, come gli editori o coloro che gestiscono i network televisivi, radio e simili. Non devono produrre contenuti, devono semplicemente organizzarli per renderli accessibili. È questo che fanno i motori di ricerca e e i social. Ma l’organizzazione non è finalizzata a questo semplice compito, ma a quello ovvio di potere monetizzare il servizio reso. Da questo derivano tutta una serie di conseguenze che cominciano a sfuggire dall’occultamento operato su di esse.
L’utente è gabbato, spesso gli si vende progresso per poi rifilargli l’opera degli schiavi del nuovo millennio. Il disvelamento dell’inganno non è perciò la ricerca del trucco, la decostruzione della magia tecnologica, della narrazione positiva nei confronti della tecnoscienza, ma un atto politico del quale si è preso carico, in questo esempio. una artista, una intellettuale engagé, quale Elisa Giardina Papa che dice: «I lavoratori di “Invisible Boyfriend”, l’app che dota i propri utenti di un fidanzato virtuale, fanno parte di una classe emergente di freelance precari che forniscono lavoro affettivo online». In uno dei suoi progetti rende visibile questa nuova forza-lavoro che fornisce ai clienti esperienze personalizzate, stimoli erotici, compagnia e sostegno emotivo. Invisible Boyfriend si presenta come una chatbot (una chat robotizzata), una AI (intelligenza artificiale) che però non ha nulla di artificiale, si affida infatti a lavoratori sottopagati degli infiniti sud del mondo che sono così disponibili 24/7. Se si parla di lavoratori del web, ci vengono in mente ingegneri informatici, programmatori, personaggi nerd, eccentrici e geniali. In realtà ci sono sotto una miriade di occupazioni non così affascinanti. Sempre Giardina Papa ci racconta di una sua esperienza di tre mesi come operatrice in micro-attività per aziende del settore della visione artificiale. È una documentazione relativa al lavoro sottopagato, poco qualificato e spesso alienante legato ai test e alla correzione degli errori di visione delle macchine. Tra le attività svolte, per esempio, ci sono il controllo degli errori per i sistemi di rilevamento di movimento installati sulle auto a guida autonoma, e la registrazione delle sue espressioni facciali, da utilizzare per l’addestramento degli algoritmi di rilevamento delle emozioni. Sì, perché al centro dell’interesse da parte delle “società di controllo”, non c’è semplicemente il fatto di rivelare una presenza, di riconoscere una persona, c’è quello predittivo, quello di rilevarne le intenzioni. Certo che se questa “tecnologia” la si applica per riconoscere i miei gusti e quindi per una profilazione dei consumatori, il fatto che l’algoritmo faccia degli errori, avrà come conseguenza che mi si inonderà di proposte per me poco appetibili, ma se la si userà per capire il mio stato d’animo e il mio comportamento sociale, in questo caso si andrebbe a cadere su un terreno molto più scivoloso che potrebbe discriminarmi e/o ledere i miei diritti. Per questo le telecamere dotate di riconoscimento facciale in mano a politici e alle forze di polizia, suscitano delle perplessità di non poco conto.
La forza lavoro “digitale” di cui ci parla Giardina Papa, quelli che Antonio Casilli chiama gli schiavi del clic, sembrano essere un paradosso poco confacente a una visione del mondo che va verso la piena automazione. In realtà è un fenomeno tutto interno al sistema. Illich diceva che l’automazione avrebbe potuto significare che le persone sarebbero state lì per aiutare la macchina piuttosto che essere aiutate da essa. L’interazione umani macchina non aiuta direttamente gli umani, li costringe semplicemente a immergersi in un loop, in cicli di feedback continui che addestrano la macchina che affina così la sua capacità di interagire con gli utenti, condizionandoli e tenendoli dentro il loop. Lo scopo della macchina del capitale è proprio questo, non è istruirti, ma nemmeno venderti delle informazioni: il web “è libero e gratuito”. Non serve alla crescita degli utenti se non in quella direzione che i padroni delle macchine hanno deciso.
Questo ha delle ricadute sulla tecnologia stessa. Facebook ha interessi che tu rimanga dentro il social. Non ti propone una pagina finita all’interno della quale sono raccolte le informazioni che dovrebbero interessarti, la pagina di Facebook è a scorrimento infinito, è inesauribile e non ha bisogno di clic. La piattaforma è magnetica, ti cattura e ti tiene, non ama che si postino link, il link ti porta altrove e l’algoritmo lo penalizza. Le potenzialità dell’ipertesto non sono più sfruttate. È una regressione del linguaggio non voluta dall’utente. Lo scorrimento stesso è ormai automatizzato dice Silvio Lorusso. Le playlist di Youtube scorrono in automatico, l’utente può soltanto interromperle. Lorusso parla di proletarizzazione dell’esperienza, di sottrazione di sapere, di recupero della linearità del media. Complici alcune tecnologie come AJAX e JavaScipt che velocizzano il dialogo tra la pagina e il server con l’effetto secondario di tenerti dentro la pagina. Semplicemente, di fronte a ogni interazione possibile la risposta dinamica del sistema ti dovrebbe teoricamente far vedere un’altra pagina contenente la risposta al tuo stimolo. Questo rallenterebbe il sistema perché per ogni interazione il server dovrebbe spedirti una pagina che quasi sempre può differire dall’originale per pochi particolari appesantendo così inutilmente il sistema. Le applicazioni AJAX, possono invece inviare richieste al web server per ottenere solo i dati che sono necessari (generalmente usando SOAP e JavaScript per mostrare la risposta del server nel browser). Come risultato si ottengono applicazioni più veloci (dato che la quantità di dati interscambiati fra il browser ed il server si riduce) che ti tengono sulla stessa pagina dandoti una linearità del comportamento che funziona come un vero e proprio lock in. Ajax ha in qualche misura ucciso l’ipertesto e il media a comunicazione bilaterale.
Anche Alexander R. Galloway ha osteggiato l’uso di certe tecnologie proponendo risposte a domande latenti sull’universo digitale, proponendo cioè come delle vie di fuga che non sono contrarie ai processi di automazione in sé, ma ne rivelano il potenziale negativo. Ecco una specie di decalogo che mi sento di condividere:
- La tecnologia di riconoscimento facciale dovrebbe essere illegale.
- […]
- Facebook e Twitter — nazionalizzateli. Fine raccolta dati. Bloccare tutta la pubblicità.
- Javascript – terribile lo evito come la peste. Ahimè, uno dei linguaggi di maggior successo nella storia dell’informatica.
- Jeff Bezos e altri. […] Vanno tutti azzerati. Magari si potrà dargli un fiocco come alla fine del Mago di Oz.
- Auto a guida autonoma — stupida tecnologia dispendiosa. Aumenterà le emissioni di carbonio e immiserirà innumerevoli lavoratori.
- Uber e la gig economy: chiuderli tutti. Sostituire Uber con un salario dignitoso e la piena sindacalizzazione.
- HTML 5 e CSS — psicotici. Se riesci a scrivere codice con questa schizo-tecnologia sei un Dio.
- […]
- AI e machine learning: solo un modo elegante per calcolare una media, basato su lavoro umano e dati rubati. Una truffa totale.
- The Cloud — una pessima metafora per una server farm… che è una pessima metafora per un computer… che è una pessima metafora per una segretaria… che è (etc etc)
- […]
Maryanne Wolf dice che gli umani non sono nati per leggere. Per acquisire questa capacità, hanno dovuto insegnare al proprio cervello una nuova modalità d’attenzione, più profonda, che si può ottenere solo se si riducono gli altri input provenienti dall’ambiente. L’attenzione profonda, necessaria alla lettura, si è ottenuta rinforzando i collegamenti neuronali indispensabili per eliminare le distrazioni verso cui gli umani sarebbero istintivamente protesi. Un’attenzione primordiale che ha permesso agli umani di esplorare l’ambiente e scansare i pericoli. Questo tipo di cervello non è però più utile per il comportamento in rete. In rete – in questo tipo di rete – occorre tornare indietro, tornare l’allerta emotivo. L’attenzione e l’approfondimento non sono più necessari, serve un’altra configurazione del cervello. Il cervello è plastico ma sino a un certo punto; le sue configurazioni hanno infatti una certa inerzia. Per costruirne una nuova serve del tempo, servono molte interazioni protratte nel tempo. Ecco, dal punto di vista dell’utente, l’attuale configurazione della rete, in particolare quella dei social, provoca una forma di adattamento che l’utente non ha messo in conto e che non è citata in nessun bugiardino allegato all’uso.
L’atrofizzazione sociale è un obiettivo del sistema; è conseguenza della profilazione; il concetto di smart è questo livellamento e atrofizzazione: la playlist e le note di navigazione non devi più farle, le fa il sistema e attraverso queste crea tutte le gabbie i lock-in comportamentali adatti al mercato.
L’algoritmo, l’AI, si ciba del comportamento umano costruendo in proiezione ambienti mondo, luoghi smart ricalcati sull’umano. Ma non sull’umanità di qualcuno, ma su quella stabilita statisticamente attraverso l’interazione con tutti (con molti). Il mondo smart, la città smart, la casa smart farcita di domotica, non sono il riflesso dei mondi umani, luoghi probabili delle frequentazioni umane, luoghi probabilmente anche contradditori, ma semplicemente la loro parodia. La parodia dell’ideologia dominante dove l’apparenza si fa esibizionismo che contiene tutti i pregiudizi di una cultura ora borghese – con tutti i corollari di «razzismo, sessismo, violenza, superficialità e trolling» (Kulesko) – ora pop, che non rimanda a un cultura popolare, ma alle semplificazioni e fraintendimenti algoritmici che colgono le frequentazioni culturali nella loro media statistica. Il kitsch prima ancora della sua reificazione estetica.
Al culmine dell’antropocene, di quello che Timothy Morton chiama agrilogismo, la agency umana viene ridimensionata dalle macchine. Ma non è una buona notizia. Il passaggio dalla macchina a vapore a quella elettrica e poi a quella elettronica potrebbe sembrare il passaggio da un modo di produzione altamente energivoro a uno nel quale le potenze messe in gioco siano quasi trascurabili. Ma la macchina automatica, l’algoritmo capitalista, tanto parca nei consumi non lo è. La computazione centralizzata, i data center e il cloud computing –scelte tutte interne alla logica del profitto – non sono così sobrie. Frontier, un supercomputer da 1,5 ExaFlops dovrebbe consumare circa 40 megawatt, mentre il consumo dell’insieme dei datacenter è di circa l’uno per cento degli interi consumi energetici mondiali. Niente di particolarmente eclatante, ma non per questo insignificante. Peraltro, circolano anche altri dati molto più pesanti: «un ciclo di apprendimento di un modello complesso di intelligenza artificiale può arrivare a produrre più di 280mila kg di anidride carbonica, 5 volte le emissioni di di un’automobile americana nel suo ciclo di vita. […] I più grossi data center immettono complessivamente una quantità di CO2 pari a quella generata dall’intera industria del trasporto aereo. Una grossa banca dati ha un consumo paragonabile a una città di un milione di abitanti» (Dimitry e Gambetta, p. 270).
Ma quello che ci dovrebbe invece allarmare è il fatto che l’algoritmo capitalista prosegua il programma agrilogistico con maggiore spirito di corpo e con meno distrazioni di quelle che gli umani si sono concesse sino adesso. Il capitalismo è infatti, anche per Morton, l’implementazione attuale di quel paradigma iniziato con la rivoluzione del neolitico. Si tratta di un algoritmo nel quale l’obsolescenza rapida delle merci non soltanto è ben vista, ma è intrinseca al processo. È un fatto alla base del loop di accumulo della ricchezza. L’algoritmo, con il progredire del processo si affina e diventa più efficiente anche nel soppiantare la decisione umana. Il diagramma di produzione diventa: produzione, consumo, feedback umano che porta a una nuova produzione più mirata, che chiude la routine, facendola permanere all’interno di questo loop. È quella che avevo chiamato l’inattualità perenne della moda e quindi degli oggetti di moda. Il passaggio dalla decisione umana a quella macchinica, non è un riconoscere un’agency alle cose, ma è il suo contrario. È rimettere l’agenzialità all’interno del comando capitalistico, di quegli umani cioè che sono l’espressione finale del progetto agrilogistico, di quel capitalocene che è la veste attuale dell’antropocene. Non è una delega alla macchina ormai svincolata dal controllo umano, ma alla macchina che autoapprende a essere se stessa perseguendo lo scopo di chi l’ha creata.
Ritornando alla virtualizzazione dei processi all’interno delle logiche digitali che porta a quella routine che si ripete all’infinito adattandosi a tutti i possibili ambiti-mondi, è proprio su questa capacità di adattamento che gioca le sue carte il capitale innescando un processo produttivo che si adatta alle mutate condizioni ambientali, alla scarsità di risorse, alle catastrofi, alla fine dei mondi. La logica è quella di produrre profitto per i proprietari delle macchine. Se questo produce miseria per il resto della popolazione, non è un fatto da prendere in considerazione, così come non è da prendere in considerazione la possibilità che nuoccia a qualche altro produttore. Ogni algoritmo, ogni stack, ogni routine è un programma che si deve svolgere nonostante tutto e tutti. È il rapporto primordiale, mesopotamico (luogo della nascita dell’agricoltura) del potere legato al possesso di stock, di una produzione cioè, che va oltre la sussistenza. È per questo che comunque vada, al di là delle crisi, domina la tendenza al concentrarsi della ricchezza sempre in meno mani che diventano così sempre più ricche.
Strana cosa l’infosfera! Un ambito nel quale chi usa è usato. Un’appropriazione che supera sia il possesso che il semplice uso. Che si occupa così di un bene che è personale e comune nello stesso tempo. Che è oltre il semplice accumulo capitalista perché impone un paradigma attraverso il quale si privatizza il mondo tutto.
___________________________________
*Immagini di Judy Natal – Illuminating the Present – Imagining the Future
Altre indicazioni bibliografiche:
Francesco Demitry e Daniele Gambetta, Appunti per un’ecosofia cibernetica, in Sergio Bellucci a cura di, AI work. La digitalizzazione del lavoro, Jaka Book, Milano 2021
Gilberto Pierazzuoli
(*) La rubrica, curata da Gilberto Pierazzuoli, raccoglie una serie di articoli che riprendono il lavoro di “Per una Critica del Capitalismo Digitale”, libro di prossima stampa uscito a puntate proprio su questo spazio. Una sorta di secondo volume che riprende quelle considerazioni e rende conto del peso antropologico e delle trasformazioni che il mondo digitale provoca nel suo essere eterodiretto dagli interessi di tipo capitalistico. Una prosecuzione con un punto di vista più orientato verso le implicazioni ecologiche. Crediamo infatti che i disastri ambientali, il dissesto climatico, la società della sorveglianza, la sussunzione della vita al modo di produzione, siano fenomeni e azioni che implicano una responsabilità non generalizzabile. La responsabilità non è infatti degli umani, nel senso di tutti gli umani, ma della subordinazione a uno scopo: quello del profitto di pochi a discapito dei molti. Il responsabile ha un nome sia quando si osservano gli scempi al territorio e al paesaggio, sia quando trasforma le nostre vite in individualità perse e precarie, sia quando – in nome del decoro o della massimizzazione del profitto– discrimina e razzializza i popoli, i generi, le specie. Il responsabile ha un nome ed è perfettamente riconoscibile: è il capitale in tutte le sue declinazioni e in tutti i suoi aggiornamenti.
Come per gli articoli della serie precedente, ognuno – pur facendo parte di un disegno più ampio – ha un suo equilibrio e una sua leggibilità in sé e là, dove potrebbero servire dei rimandi, cercheremo di provvedere tramite appositi link.
Gilberto Pierazzuoli
Ultimi post di Gilberto Pierazzuoli (vedi tutti)
- Le AI e il gioco del Ripiglino - 18 Gennaio 2024
- I consigli di lettura di Gilberto Pierazzuoli - 24 Dicembre 2023
- Le AI e la voce - 12 Dicembre 2023