Siamo arrivati al picco evolutivo delle AI?

  • Tempo di lettura:16minuti

AI (Artificial Intelligence), feudalesimo digitale e figure della complessità.

Quando gli avrete fatto un corpo senza organi,
allora l’avrete liberato da tutti gli automatismi e
restituito alla sua libertà vera ed immortale.
Allora reimparerà a ballare a rovescio
come nel delirio della danza popolare
e questo rovescio sarà il suo vero diritto.
(Antonin Artaud)

Generata con mage.space su prompt dall’esergo di questo articolo

L’ambito digitale, quello che alcuni chiamano infosfera, è il modello di sviluppo del capitalismo moderno, costituendo di fatto la infrastruttura di riferimento anche nel comparto della produzione manifatturiera tradizionale, se non altro per quanto riguarda almeno la logistica. Per questo e altri motivi è impossibile tornare all’analogico. Quello che diventa allora urgente è decostruire e sabotare i meccanismi che hanno fatto di questa tecnologia il dispositivo per la restaurazione di un regime di controllo e assoggettamento, in alcuni casi addirittura feudale. Varoufakis lo chiama infatti tecnofeudalesimo, un luogo dove le piattaforme costituiscono il territorio del Signore che noi alimentiamo in cambio, non tanto di protezione, ma di un servizio che è stato strutturato in maniera tale, da tenerci ancorati allo stesso, come alla terra nel sistema originale. Alla faccia di chi parla di innovazione imprescindibile, minacciando un regresso storico a quelle epoche che proprio l’attuale sistema ha riesumato.

Non è una presa di posizione che gira intorno alla falsa convinzione che gli strumenti della tecnica siano neutrali, vecchia teoria che serviva a menare il can per l’aia, ma semplicemente prendere atto di una situazione che è quella attuale, non tanto perché lo strumento tecnico stesso condizioni il modo di usarlo, ma proprio per il contrario. L’assoggettamento algoritmico alla massimizzazione del profitto ha di fatto stornato strumenti di relazione e di collaborazione potenzialmente straordinari verso obiettivi che in alcuni casi sono il contrario di quello che appaiono, come ad esempio i social e tutte le piattaforme che dovrebbero facilitare l’incontro tra domanda e offerta. Per i social il fenomeno delle bolle, delle eco.chamber e cose simili, invece di aprirti a forme di comunicazioni più ampie possibili, ci costringe a parlarci addosso tra persone che hanno le stesse idee e a rinsaldare quelle idee stesse anche quando sono senza fondamento. Per le piattaforme come Uber più che favorire l’incontro e garantire un prezzo equo per una prestazione giustamente retribuita, le piattaforme si insinuano tra domanda e offerta estraendo valore, riuscendo a far pagare il più possibile gli utenti e meno possibile gli autisti. Per quanto riguarda Airbnb, la piattaforma è ormai nel mirino di governanti e comitati cittadini per gli effetti nefasti che provoca, sia nel confronto del diritto ad abitare, sia per lo snaturamento dei centri storici delle città.

Generata da Midjourney su prompt dell’autore

Ormai queste sono cose dette e ridette ma non se ne esce fuori perché ci siamo impantanati in una situazione che non sembra avere una via di uscita o anche perché le vie di fuga costano uno sforzo apparentemente enorme se percorse individualmente. È la stessa storia della crisi climatica che sappiamo tutti essere incombente ma il suo non essere immediatamente percepibile se non per dei segnali che sembrano non sconvolgere in maniera immediata il ripetersi abitudinario della nostra vita. È una percezione indiretta che non provoca forme di riottosità, forse soltanto un disagio, come un ronzio, un rumore di fondo che non impedisce al fragore del mercato di ripetersi e di sovrastare tutto il resto. Ribellarsi diviene così una ipotesi che deve essere meditata, una scelta militante ma non di massa. Ci sono prove schiaccianti di una manipolazione dell’opinione pubblica che si accompagna a modifiche comportamentali e psicologiche. Il problema non è allora la mancanza di letteratura critica della quale ce n’è in abbondanza, è la mancanza di impatto che questa ha di fatto, dice Lovink. Nel frattempo usiamo i social alimentandoli con la nostra presenza che efficienta il loro agire e la loro forza di coercizione. È un circolo vizioso che si autoriproduce.

Anche il tecno ottimismo è un dispositivo di salvaguardia per il business delle corporation del digitale. Un virus contagioso che ha infettato da prima tutti i media creando un hype inconsueto intorno alle AI. Si è iniziato con l’ingegnere di Google che ha dichiarato che la chat con la quale interloquiva era senziente. Poi le esplosioni delle offerte di strumenti di Text To Image come mage.space (open source) e Midjourney che in questo momento è lo strumento più facile e dà risultati spettacolari con poco sforzo. A presto, nell’arena un gigante della grafica come Adobe. Sino all’altrettanto spiazzante messa in rete di Chat GPT4, un assistente personale capace di scrivere articoli, report, riassunti, codice di programmazione e di dare una marcia in più ai motori di ricerca contestualizzando le query. Sembrerebbe una rinascita dell’innovazione e una rosea prospettiva per il comparto. Ma perché allora la situazione economica non è altrettanto euforica, anzi il contrario? Microsoft licenzia diecimila dipendenti. Stessa cifra per Meta (Facebook). La ristrutturazione di Twitter ne mette fuori un numero imprecisato e costantemente in aggiornamento con dichiarazioni che si contraddicono da parte dell’ondivago Elon Musk, nuovo proprietario della piattaforma.

Forse il comparto è in crisi per vari motivi che si intrecciano gli uni con gli altri. Da una parte il fatto che la monetizzazione che si ha tramite la pubblicità non può crescere se non cresce di pari passo il settore di riferimento della committenza. Tutto proviene dal fatto che lo scollamento tra economia volatile e economia reale sia ormai un elastico teso agli estremi della sopportabilità. Ma non è la sola causa, forse anche i margini di crescita e di successo delle tecnologie che alimentano l’hype sono vicino al capolinea. Sul fronte geopolitico sono altresì in corso sconvolgimenti di non poco conto, come la salvaguardia del dollaro come moneta di garanzia. Salvaguardia che anima gran parte della politica estera di Washinton, non esclusa la guerra in Ucraina. Non ci si deve dimenticare poi la concorrenza della Cina.

Il progetto cinese parte dal presupposto di utilizzare le tecnologie digitali per aumentare l’efficienza della governance al fine di indirizzare e promuovere lo sviluppo. Il tutto potrebbe portare a una forma stato ancora più costrittiva e totalitaria ma anche aprire a delle possibilità nelle quali credevano Bogdanov, Allende e molti altri, io compreso. Comunque la si interpreti, è una cosa che va in una direzione molto diversa da quella intrapresa dai paesi occidentali, dove l’intento della digitalizzazione deve sottostare solo e soltanto alla massimizzazione del profitto. È qui che casca l’asino: l’uso proficuo e profittevole delle nuove tecnologie – le AI in particolare – sarà possibile soltanto per le grandi aziende che investono cifre considerevoli non alla portata di altri competitori (Microsoft ha appena investito 10 miliardi in open.ai), concentrando ancora di più la ricchezza e ricreando ancora una volta una crisi da sovrapproduzione in rapporto al crollo della domanda diffusa. In questo, sicuramente, il modello cinese è comunque vincente. È notizia recente quella del fallimento della Silicon Valley Bank. Questo sembra dipendere dal rialzo dei tassi da parte della banca centrale, cosa che ha fatto crollare il valore dei bond, che molte banche e fondi di venture capital usano come base di sicurezza per permettere loro di sbizzarrirsi, alla ricerca di quelli che in gergo chiamano gli unicorni. Anche questa è una economia malata che tende a finanziare molte startup perché basta che abbia successo anche soltanto una per ripagare gli investimenti fatti. Secondo la piattaforma di ricerche di mercato CB Insights, nel 2022, il numero di nuovi unicorni – i pochi emersi, startup con una valutazione superiore a 1 miliardo di dollari – è diminuito dell’85% tra il primo e il quarto trimestre. Meno di un terzo delle startup è diventato pubblico rispetto all’anno precedente e meno della metà dei round di finanziamento ha raggiunto 100 milioni di dollari. Secondo Layoffs.fyi, un sito Web che riporta i licenziamenti tecnologici, questi sono arrivati a più di 280.000 lavoratori tecnologici nella Silicon Valley.

Generata da Midjourney su prompt dell’autore

Ma torniamo al probabile picco dello sviluppo delle AI e dei comparti connessi. Molti dei risultati straordinari delle tecnologie digitali son stati ottenuti attraverso quella che Nello Cristianini chiama “la scorciatoia”. Quale è questa scorciatoia? Il primo approccio alle macchine “intelligenti” si basava su saper trovare le regole teoriche alla base del linguaggio o del comportamento umano, che poi si implementavano. Una strada impervia che si basava su un assunto discutibile, quello di poter rendere il mondo interamente computabile. Cosa che probabilmente – almeno nella sua pretesa universalistica – è impossibile per varie ragioni; ma questo era il modo di operare della scienza. Mettere in piedi modelli descrittivi dei fenomeni che non sono altro che uno strumento per riuscire a trovare una ragione/spiegazione di quel fenomeno. Dietro questo aspetto si celava il sogno antropocentrico del sapiens. La cosa comunque funzionava e dava risultati. Le conquiste tecno-scientifiche occidentali ne testimoniano infatti l’efficacia sia in positivo che in negativo. A un certo punto tutto cambia, anzi non cambia niente, soltanto si acutizza. Dal punto di vista della computazione legato alla soluzione di problematiche della cognizione, e quindi dell’Intelligenza Artificiale, si passa all’interpretazione statistica. Non si costruisce più un modello che riproduce in termini informatici il processo per il quale, a dei dati di input, si risponde producendo dati di output che rispecchiano il rapporto causale di cui il modello è rappresentazione algoritmica, ma si cerca la risposta probabilisticamente più plausibile che emerge dalle corrispondenze trovate confrontando grandi quantità di dati. Un esempio chiarirà il concetto. La traduzione da una lingua a un’altra trova una difficoltà per il fatto che ogni termine dell’una non copre lo stesso alone semantico nell’altra, ma anche perché il significato spesso non si produce attraverso un singolo termine ma in una locuzione, da un gruppo di più parole. Ogni traduzione dovrebbe quindi rispettare tantissime regole sintattiche, distinguere tra aggettivi e avverbi, tra soggetto e predicato, non farsi ingannare dai verbi sostantivati e da un numero infinito di altri tranelli. Un compito così difficile da rendere i primi traduttori automatici più una fonte di ilarità che non un aiuto concreto. I risultati cambiano enormemente quando si adotta la strada statistica. Adesso l’algoritmo cerca il termine più probabile che segue a una certa parola, poi itera il processo producendo il testo che probabilmente corrisponde meglio nella lingua x a quello della lingua y. Questo riesce a farlo perché si è addestrato su una quantità enorme di testi che ha prelevato, senza pagare e senza chiedere il permesso, dal calderone della rete. Piuttosto che cercare di capire il contesto, lo deduce analizzando i testi e lo fa perché scopre che quell’insieme di termini si trova più probabilmente in quel contesto e non in un altro.

A partire da questi evidenti passi in avanti, si è parlato di fine della teoria. Le macchine scandaglieranno le tracce digitali sino a trovare quelle ricorrenze che sostituiranno la teoria. “Un professore di Harvard, Leslie Valiant, ha coniato un bellissimo termine, theoryless: lo spazio delle cose che non ammettono una teoria. Forse il comportamento umano può essere predetto, o anche controllato, senza bisogno che esista una teoria esatta che lo spieghi” riporta ancora Cristianini.

Si parla così sempre più spesso di deep learning in senso lato anche se le strategie posso essere più di una: supervisionato, con rinforzo etc. Si inducono cioè comportamenti, routine algoritmiche, attraverso le quali la macchina cerca tutte le strade possibili per ottenere il risultato. Cerca tutte le corrispondenze, anche quelle senza senso o, meglio, che per noi non hanno senso. Nel libro di Cristianini c’è una storia che fa pensare. Quella che riporta il caso della strategia messa in atto da un algoritmo che giocava a Q*bert, un vecchio gioco per la prima consolle, quella di Atari. Il gioco si svolgeva all’interno di un ambiente che simulava la consolle stessa. A un certo punto l’algoritmo si è messo a fare mosse senza senso. Normalmente, in Q*bert, i giocatori saltano da un cubo all’altro, con questa azione che cambia i colori delle piattaforme, si può riuscire a cambiare tutti i colori, cosa che porta (insieme al fatto di aver nel frattempo eliminato alcuni nemici) a una ricompensa, che consiste sia in punti, sia all’accesso al livello successivo. L’AI invece, dopo aver completato la base della pila di cubi, inizia a saltare da una piattaforma all’altra in quello che sembra essere un modo casuale. Per un motivo a noi sconosciuto, il gioco non avanza al secondo round ma le piattaforme iniziano a lampeggiare e l’agente guadagna rapidamente un’enorme quantità di punti (vicino a 1 milione per il limite di tempo dell’episodio). Semplicemente la AI – nelle sue infinite partite di apprendimento – aveva scoperto un bug nella progettazione del gioco che apriva le porte a un guadagno che si potrebbe chiamare “illecito”.

Sino a quando questi comportamenti si presentano all’interno di una simulazione di gioco, il fatto ha una rilevanza relativa, ma in altri contesti la cosa potrebbe avere anche conseguenze pesanti. Supponiamo che a un agente automatico si deleghino una serie di compiti per attuare delle strategie che un algoritmo scopre attraverso forme di deep learning per risolvere ad esempio il problema del riscaldamento globale. Dovrà però usare strategie che non mettano in discussione l’uso delle fonti fossili e il modo di produzione capitalistico. A questo punto, se l’algoritmo trovasse che la strategia migliore fosse l’estinzione della specie umana e si adoperasse per renderla effettiva? Forse lo approverebbero gli estinzionisti, ma non tutti gli altri. Il problema è che l’intelligenza artificiale, la AI, non è umana, qualsiasi cosa sia o non sia, non ragiona come gli umani e il deep (profondo, oscuro) riferito all’apprendimento significa che i processi che l’algoritmo mette in atto non sono comprensibili. È ovvio allora il fatto che non possiamo permettere si sviluppino tecnologie che possano andare in questa direzione senza la supervisione umana, senza un minimo di regolamentazione e controllo a carico di un agente umano. Non possiamo lasciare nessuna decisione, nessuna delega alla macchina, nemmeno quella che decide – attraverso gli algoritmi di suggerimento personalizzato – quale film vedere questa sera all’interno della piattaforma di Netflix. Il suggerimento infatti non è soltanto quello che sembra. All’algoritmo non viene chiesto semplicemente di suggerirci un film ma di cercare tutte le strategie possibili attraverso le quali imporci quella scelta. Certo è una forma di imposizione blanda, che ha effetto soltanto su una percentuale di utenti, ma come ormai numerosi studi hanno accertato, riesce effettivamente a condizionare la scelta di alcune persone. Non vogliamo essere condizionati nella scelta di un film, di un pezzo musicale, del partner o della partner. Nella scelta di cosa mangiare questa sera, di dove andare in vacanza, di quale vino bere. Certo non possiamo pensare di essere immuni da ogni tipo di condizionamento. Quello che però non dovremmo permettere è che si sviluppi una tecnologia specifica che ha lo scopo di condizionarci. Non sto qui a elencare i casi di discriminazione indotta dall’uso di algoritmi predittivi in campi sensibili come le assicurazioni sanitarie, la solvibilità bancaria, la possibilità di recidiva per i delitti, la possibilità di avere o meno comportamenti criminali e tante altre. Tutto questo è possibile perché c’è una tecnologia che usa i dati. Non ripeto ancora una volta che i dataset sono sempre in qualche modo contaminati da bias. I dataset contengono dati prelevati dalla vita, e le nostre vite, i nostri sistemi sociali, sono inquinati da ogni specie di pregiudizi, di bias. Certo, ogni etica produce dei pregiudizi. Le forme sociali stesse sono il prodotto di un pregiudizio, il contratto sociale stesso è una forma di pregiudizio. La dinamica sociale si basa su più visioni del mondo. Gli agenti di queste dinamiche dovrebbero però poter agire sulla base di un minimo di consapevolezza. Una tecnologia basata sul condizionamento materiale o psicologico che sia, è allora una tecnologia essa sì totalitaria. La propaganda è l’anima del mercato e della politica, è infatti uno strumento terribilmente umano, ma che questo sia anche il piano di azione principale della macchina monopolizzata dal capitale è un elemento che introduce un’ulteriore disparità nei diritti degli umani.

Generata da Midjourney su prompt estratto dal testo di questo articolo

Una intelligenza collaborativa basata sui dati e finalizzata al superamento delle ingiustizie, forse ci suggerirebbe un menu diverso. Possiamo facilmente immaginarci i benefici di un uso sociale e anarchico di questo tipo di tecnologie. Le AI creative intorno alle quali si è mosso un enorme interesse, sono infatti delle AI tendenzialmente collaborative. Alcune si auto definiscono degli/delle assistenti personali, in definitiva dei/delle collaboratrici/collaboratori. Ma se semplificano tanti lavori editoriali, sia nel campo dei testi che in quello delle immagini, essi sono e rimangono strumenti proprietari. Open.ai, l’azienda di ChatGPT4, non ha niente di open e la sua concorrente, Bard di Google ancora di meno. Rimane Stable diffusion che è per adesso open source. Il loro uso diffuso automatizzerà anche molta parte del residuo lavoro a base cognitiva creando ulteriore disoccupazione, rendendo così sempre più urgente la socializzazione della dismissione degli umani dal lavoro salariato, salvaguardando il salario e sganciandolo dalla sua subordinazione al lavoro. Il comando umano sulla macchina deve essere un elemento imprescindibile se lo intendiamo come elemento di relazione creativa e desiderante nei confronti della macchina e del resto del cosmo. Tutti i pericoli e soltanto i pericoli sono il frutto dell’uso proprietaria delle tecnologie. Spesso ne condizionano anche la qualità.

Torniamo alle AI linguistiche come Chat GPT4 e simili. Al di là dell’effetto sconcertante che si ha appena la si prova, dopo un po’ si potrà notare un suo strano comportamento: racconta delle frottole, si inventa delle storie. Eppure è stata istruita, meglio: si è auto-istruita avendo accesso a enormi quantità di libri, articoli e ogni altro tipo di documento. Il suo sapere dovrebbe essere straordinario. Invece non sa niente. Lavora soltanto sul significante. Anche i traduttori fanno lo stesso: ignorano il significato. Lavorando sul significante, sulle parole, mettono insieme delle possibili concatenazioni che soddisfano probabilmente la richiesta che le avete fatto (la query in input). Il concetto di vero e falso è per loro sconosciuto, così come i rapporti di causa che si hanno tra le cose. Una frase deve essere plausibile, lo è statisticamente, se poi ha un contenuto falso, la AI lo pubblica egualmente.  “Un giornalista è stato contattato da una persona che stava facendo delle ricerche per chiedere perché un particolare articolo di molti anni fa fosse stato tolto dal nostro sito”, Chris Moran del Guardian e ha aggiunto: “La persona che lo chiedeva aveva usato ChatGPT per fare la ricerca…La cosa più probabile è che non sia mai esistito”. La AI se l’era inventato. Carola Frediani di Guerre di Rete, riportando l’episodio, lo mette in connessione con il fatto che una cosa del genere potrebbe aumentare il complottismo,  che per altro trova, nell’attuale configurazione dei social, un terreno fertile per la sua propagazione.

La AI non conosce il senso di quello che dice. Capire il senso è una cosa molto più complicata. Un muro difficilissimo da scalare ed è quello che ci si para davanti oggi. Lavorando sul significante le AI potranno affinare le attuali performance, niente di più. È il canto del cigno di questa tecnologia, forse l’ennesima bolla. Quando alcuni opinionisti hanno vociferato che l’innesto di ChatGPT4 in Bing avrebbe messo in discussione l’egemonia di Google nel campo dei motori di ricerca, è stata la stessa Google a sgonfiare la bolla. Le AI collaborative possono fare cose egregie ma hanno anche dei difetti ha affermato Google. Che ha comunque messo online Bard, la sua implementazione di questa tecnica e lo ha subito contrapposto a ChatGPT4.

Dalla pubblicità di Bard

Pollock era ossessionato dal significante. Doveva espellerlo dalla sua opera. È l’operazione alla base dell’astrattismo. La sua opera non doveva contenere significanti, qualcosa cioè che potesse avere un qualche significato. Pollock voleva arrivare a una forma espressiva che veicolasse soltanto il carattere formale. Pura forma senza contenuto. Puro dispendio, pura dépense. Duchamp è l’artista che porta alle estreme conseguenze questo assunto. Egli si dà infatti a una produzione artistica senza opera. Esprime la sua radicale avversione nei confronti del lavoro. In entrambi i casi si tratta di un uso anti utilitario della comunicazione, oltre la comunicazione stessa. La possibilità per gli umani di giocare, danzare, di ricostruirsi un corpo senza organi, un corpo dionisiaco. L’automazione del mondo va proprio contro questo aspetto. Ma non è il trionfo della tecnoscienza occidentale, ma soltanto di quella asservita alla produzione del profitto. E questo avviene proprio quando le cosiddette scienze esatte, la matematica della complessità su tutte, scopre ed esalta il lato dionisiaco del mondo. Lo strumento tecnico non è neutrale, è anch’esso l’espressione dei rapporti di forza che la società esprime. La matematica del capitale è infatti un formalismo apollineo, ma la generazione delle forme, dei pattern, forse di altri pattern rispetto a quelli che scovano gli algoritmi del capitale, non avviene nello stesso modo. È al contrario un processo non lineare, forme dai contorni cangianti, un’ibridazione continua che alimenta modi di individuazione metastabili. Condensazioni ed evanescenze. Epifanie che si liquefano e sublimano. La danza di uno stormo di uccelli. Assembramenti e concatenazioni (agencement). Polluzioni dal magma del caosmo guattariano. Una morfogenesi/cosmogenesi che fa re-incontrare la matematica e la filosofia e che non può non opporsi al riduzionismo capitalista dell’infosfera attuale.

 

The following two tabs change content below.

Gilberto Pierazzuoli

Attivista negli anni 70 . Trasforma l'hobby dell'enogastronomia in una professione aprendo forse il primo wine-bar d'Italia che poi si evolve in ristorante. Smette nel 2012, attualmente insegnante precario di lettere e storia in un istituto tecnico. Attivista di perUnaltracittà.

Ultimi post di Gilberto Pierazzuoli (vedi tutti)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *