Un oscuro operare: cosa sognano le macchine capitaliste

Per una critica del capitalismo digitale – III parte

L’universo digitale rimanda a una razionalità, ad una sua costruzione, fondata su schemi restrittivi e volta a soddisfare un interesse. Non c’è niente fuori di quell’interesse, di quello scopo, un aspetto del quale è quello di voler instaurare una sorta di guida automatica al vivere degli umani. La storia e il progresso lo chiedono. Di nuovo un cul-de-sac analogo al TINA della Thachter. «Non c’è nulla di più scabroso oggi, nulla che renda una persona tanto prontamente inaccettabile quanto il sospetto che sollevi delle critiche nei confronti delle macchine», diceva Jacques Ellul e la cosa è oggi ancora più vera con l’aggravante di oscurare il fatto che la volontà di facilitare la vita, sottesa al compito della tecnica, si sia spinta sino a quella di voler orientare l’azione umana, in definitiva, di voler e poter orientare la vita stessa.

La tecnologia può esprimere un intento ingiuntivo, sia in forma di suggerimento – quello, per esempio, di un acquisto di un integratore alimentare fatto da un programma di allenamento – sia in termini prescrittivi, sempre per esempio, la concessione o la negazione di un prestito al seguito di una valutazione robotizzata. Si ha infatti che il contributo umano alla valutazione, una forma di collaborazione tra l’uomo e le macchine, perda sempre più terreno in confronto alla decisione autonoma della macchina. Le nuove professioni che l’era digitale dovrebbe creare, sono in realtà elementi di residualità in via di soppressione. Il nuovo occupa spesso, per assurdo, soltanto uno spazio residuo anch’esso in via di scomparsa. La nostra facoltà di giudizio viene sostituita da protocolli pensati per guidare le nostre azioni. Ma questi protocolli nascono da dei presupposti, da una finalità data per scontata sia essa una forma di ottimizzazione delle nostre azioni, sia un obiettivo da dover conseguire.

C’è qui una visione utilitaristica che domina il sistema. Tutti i nostri apparati capaci di costruire e mettere in piedi una qualche azione, devono essere concentrati sul risultato sopprimendo ogni deviazione, distrazione, rallentamento. L’efficienza dell’algoritmo impone un’efficienza del comportamento umano. L’ozio stesso estrapolato come forma comportamentale utile alle macchine biologiche tipo gli umani, sottostà all’utile. Si dà senso al non senso. Dover praticare l’ozio obbliga non a una sospensione dei doveri, ma di dover sottostare a un altro dovere. Il gioco si riduce non alla sua pratica, ma a dover vincere la partita, si concentra cioè sull’elemento agonistico che riduce la partita stessa alle mosse più adatte per perseguire l’obiettivo. Le nostre imperfezioni non saranno sopportate, si prospetta all’orizzonte un igienismo pervasivo; si esalta e si fa la matematica del decoro che esclude oltre al diverso anche l’ipotetico fondo estetico del decoro stesso. Ma non stiamo parlando di un conflitto tra le macchine e l’umanità, di un conflitto vinto dalle macchine, ma del sogno che sta a monte di questa distopia: l’aiuto delle macchine visto dal punto di vista di coloro che devono estrarre profitto dal loro agire. Il feticismo della merce è qui elevato all’ennesima potenza.

Un pensiero minoritario non è supportato dal sistema. «È come se ci fossero due operazioni opposte. Da un lato si eleva a “maggiore”: di un pensiero si fa una dottrina, di un modo di vivere si fa una cultura, di un avvenimento si fa Storia. Si pretende così riconoscere e ammirare, ma, in effetti, si normalizza. […] Allora, operazione per operazione, chirurgia contro chirurgia, si può concepire l’inverso: in che modo “minorare” (termine usato dai matematici), in che modo imporre un trattamento minore o di minorazione, per sprigionare dei divenire contro la Storia, delle vite contro la cultura, dei pensieri contro la dottrina, delle grazie o delle disgrazie contro il dogma. […] Non ci si salva, non si diventa minori che attraverso la costituzione di una disgrazia o di una difformità. È l’operazione della grazia stessa. Come nella storiella di Lourdes: fai che la mia mano ridiventi come l’altra… ma Dio sceglie sempre la mano sbagliata». Dice Deleuze (pp. 74-75).

La capacità di autoapprendimento della macchina digitale, la sua capacità di prendere decisioni, la delega che si dà all’algoritmo affinché queste decisioni le possa prendere, comportano anche dei probabili effetti collaterali. Il “drone assassino” ha oggi bisogno di un “attuatore” umano (vedi il film “Good Kill”) che valuta gli eventuali danni collaterali e decide se è il caso di lanciare il missile. Si parla di decisioni autonome, come d’altronde in casi particolari deve prendere forzatamente l’auto a guida autonoma. Il MIT ha messo a punto una simulazione (è indispensabile aprire il link) nella quale si devono fare delle scelte che comportano una presa di posizione morale che è difficile poter delegare alla Intelligenza Artificiale. Ma il punto è anche un altro. In ambito capitalista, ci troviamo spesso a constatare la presenza di una logica tesa alla massimizzazione del profitto anche a scapito di un ipotetico bene comune, ma questo poteva avvenire in termini indiretti. Quando però passiamo alle implementazioni algoritmiche il criterio dovrà essere ben definito, puntando direttamente al risultato senza la possibilità di esplorare strade parallele meno cinicamente efficienti. Certo in teoria si potrà dare istruzioni per scandagliare altre possibilità, ma questo sarebbe semplicemente una routine software interamente decisa dai programmatori umani, ma nel caso della AI, di quello che si chiama il deep learning, quando la macchina si auto addestra anche senza fare riferimento a precedenti esperienze umane (come è avvenuto nel passaggio da Alpha Go a Alpha Go zero), quanta di questa avvedutezza sarà contenuta nell’algoritmo così ottenuto? Quanto verranno trascurati gli interessi comuni in rapporto al profitto che il padrone della “macchina” ricerca? Questo è un interrogativo legittimo, ma di ordine strettamente politico, che ne richiama uno di tipo morale: che cosa ne è della sensibilità, dell’empatia, del dubbio e della insicurezza umana? Sono soltanto degli ostacoli al progresso?

Come afferma Holly Herdon – una delle artiste più evolute che riesce a unire musica ed esplorazione tecnologica di avanguardia: «è di urgente importanza far apprendere la bellezza umana alle AI (Intelligenza Artificiale), anziché far lavorare gli algoritmi del Capitale al posto nostro».

In questo ambito, la duttilità umana è un ostacolo per la costruzione di equazioni che si imporranno proprio per il valore di verità che è loro riconosciuto. Non si tratta di prendere una posizione gratuitamente luddista, si tratta di prendere atto che la tecnoscienza non è neutrale e non lo è in particolare all’interno delle economie di mercato. Il sogno di un certo tipo di progressismo è quello di avere a disposizione uno strumento che sembra resistere alla tendenza generale all’aumento dell’entropia. Le sue decisioni possono riorganizzare il mondo eliminando le fonti di incertezza, e da tutti quei dati che divergono in maniera significativa dalla media statistica, riducendo, appiattendo, livellando quindi tutto di nuovo alla doxa (vedi I e II parte). Silenziando le voci fuori dal coro.

Illusione antropocentrica

Gli algoritmi di autoapprendimento sono basati su un concetto per il quale la prestazione tende ad affinarsi sempre di più, la macchina impara sulla base dell’esperienza. L’algoritmo tenderà a produrre risultati sempre più consoni agli obbiettivi preposti. Cerca di perfezionare la propria prestazione. Verifica ogni volta che quel risultato soddisfi le aspettative. Ciclo dopo ciclo si applicano infinitesime correzioni con in vista il traguardo di perseguire la perfezione. Si tende, si va in direzione e alla ricerca di qualcosa che sarà molto simile alla perfezione o almeno che si discosta il meno possibile dalla stessa. Ma che cosa si scarta? Probabilmente l’imperfezione umana.

«Per convincersi del tutto che non amavano una bambola di legno, parecchi innamorati pretesero che la loro diletta cantasse e ballasse un po’ fuori tempo, che durante una lettura ricamasse, lavorasse a maglia, giocasse con qualche cagnolino e così via; e che soprattutto non si accontentasse di ascoltare […]» dall’ Olimpia di Hoffmann che «quando suona o canta, mantiene il tempo sgradevolmente esatto […] lo stesso quando balla.». Vedi anche Kleist che, pur di opinione opposta, scrive in questo dialogo: «E il vantaggio che questa marionetta avrebbe sui danzatori vivi e veri?» chiede un interlocutore: «Il vantaggio? Anzitutto, egregio amico mio, un vantaggio negativo: essa non farebbe mai movimenti affettati […]». L’imperfezione umana, l’affettazione che la contraddistingue, il dubbio, l’incertezza sono così destinate alla scomparsa.

L’auto apprendimento rimanda a una forma di auto incremento della tecnica che prende vita autonomamente, che si dà un’esistenza autonoma. Il risultato non deve per forza essere lo stesso al quale arrivano normalmente gli esseri umani, deve semplicemente essere quello che meglio risponde ai compiti o agli interrogativi di partenza. La tecnica mette in secondo piano l’agire umano. I protocolli messi in atto, le routine, le scelte, in definitiva le operazioni avranno una ragione macchinica e saranno a noi incomprensibili. A proposito del riconoscimento (di un oggetto o di un viso), dichiara infatti Andy Rubin, cofondatore di Android: «Una volta che la rete neurale ha imparato a riconoscere qualcosa, uno sviluppatore di software non riesce a vedere come ha fatto».

Il procedimento di estrazione e di interpretazione dei dati può portare a dei risultati curiosi, aprendoci però, nello stesso tempo, alla possibilità di un output totalmente inquietante. La Walmart (catena di grandi magazzini americana) indagando le abitudini di acquisto dei suoi clienti si è accorta che molti di quelli che acquistavano i pannolini acquistavano anche la birra. Così ha messo vicino i reciproci scaffali. Questa è un’operazione tipica che si fa nell’interpretazione dei dati. Qui la decisione (la vicinanza degli scaffali) è stata presa dagli umani, ma vediamo un caso ipotetico nel quale alle macchine sia demandata l’azione conseguente a una correlazione rilevata in precedenza dall’algoritmo che non la segnala, ma prosegue il suo lavoro. Poniamo il caso che trovi delle corrispondenze tra la forma del cranio e alcuni comportamenti criminali o qualcosa di simile che non ha nessun fondamento scientifico se non quello che si può trovare mettendo in relazione la birra con i pannolini. Possiamo immaginarci un algoritmo che interpreta le immagini di un apparato di sorveglianza di tipo securitario, come quello delle telecamere nelle città, e allerti un sistema di sicurezza preventiva che impedisca a un soggetto positivo allo screening di avvicinarsi a una banca, con le immaginabili conseguenze. Insomma, si potrà avere che una persona sia sottoposta a tutta una serie di discriminazioni solo e soltanto a partire da delle corrispondenze realmente constatate dall’algoritmo di auto apprendimento che opera in maniera totalmente opaca, ma che queste relazioni siano scientificamente infondate. Può anche darsi che questa patologia latente abbia già infestato alcuni sistemi a totale insaputa degli operatori umani.

È in questo oscuro operare che gli interessi dell’umanità e quelli perseguiti dalla macchina possono trovare uno scarto. Meglio, lo scarto c’è sicuramente tra gli interessi comuni e quelli perseguiti dell’algoritmo capitalista che c’è, ma non si vede.

Questo il video del brano dell’artista digitale Holly Herdndon citato nel testo:

 

Riferimenti bibliografici:

Jacques Ellul, Il sistema Tecnico. La gabbia delle società contemporanee, Jaka Book, Milano 2009 (prima edizione originaria del 1977)
Gilles Deleuze, Un Manifesto di Meno in Bene Deleuze, Sovrapposizioni, Feltrinelli, Milano 1978
Heinrich von Kleist, Sul teatro di marionette, in Rilke e Baudelaire e Kleist, Bambole, Passigli 1998.

*Gilberto Pierazzuoli

Questa la prima parte

Questa la seconda

Continua