ChatGPT4 e la guerra delle AI (Intelligenze artificiali)

  • Tempo di lettura:13minuti

Questo articolo è la prosecuzione di questo: Siamo arrivati al picco evolutivo delle AI?

Nel momento in cui il modo di produzione capitalista ha visto quasi svanire del tutto la possibilità di un modello alternativo. Nel momento in cui è più facile pensare alla fine del mondo invece che alla fine del capitalismo. Nel momento in cui il ruolo della politica si riduce sempre di più a facilitatore dell’azione imprenditoriale. Ecco che lo sviluppo tecnologico, fa emergere problemi e contraddizioni che possono essere solo e soltanto risolti dalla politica. Abbiamo spesso messo l’accento sul fatto che alcune storture, ingiustizie, razzismi, discriminazioni fossero di fatto amplificati dalle macchine digitali eterodirette dal capitale, ma era una situazione che semplicemente riproduceva lo stato di cose presenti, piacessero o meno. Il fatto è che adesso – comunque la si pensi – si fa sempre più urgente un intervento della politica che ponga qualche tipo di paletto allo sviluppo tecnologico; questo perché sono emerse possibilità e contraddizioni che nuocciono in maniera trasversale sia ai “produttori”, agli imprenditori, sia ai consumatori.

Il caso di chatGpt è esemplare. ChatGPT sta per: “Chat Generative Pre-trained Transformer”, traducibile in “trasformatore pre-istruito generatore di conversazioni”, è un modello di chatbot basato su intelligenza artificiale e apprendimento automatico, sviluppato da OpenAI specializzato nella conversazione con un utente umano. Sino a qui niente di nuovo. Il fatto è che è terribilmente brava, tanto da spiazzare i suoi “interlocutori”, ma la cosa non finisce qui. È così brava a simulare il linguaggio umano perché è stata addestrata su una enorme quantità di dati, tutta Wikipedia e molto altro, praticamente tutto il web. Ma, come abbiamo detto sopra, per la scelta dei suoi produttori e gestori, è stata costruita prendendo una scorciatoia che però ne limita lo sviluppo. ChatGPT non sa quello che fa e non lo saprà mai. Non capisce le domande che le fate e non capisce nemmeno le risposte. ChatGPT, e le sue simili, sono soltanto dei sofisticatissimi sistemi di inferenza statistica che sembrano dire/scrivere la cosa giusta perché essa la più probabile. Uno dei termini più probabili da poter usare in quel contesto, uno di quelli più probabili che può seguire a quello precedente, uno dei termini più probabili per completare la locuzione e chissà quale altra probabilità utile a fornire un risultato appropriato. Forse appropriato è troppo, diciamo utile. E perché abbiamo usato un termine interrogativo come chissà? Semplicemente perché, come chatGPT opera precisamente non lo sa nessuno. Ha messo in piedi una strategia allenandosi con quantità di dati enormi, facendo scelte in base soltanto a perseguire lo scopo che i programmatori hanno posto come meta. Così facendo, probabilisticamente darà le risposte migliori, ma non sempre. Sa tutto, ma non sa niente, non capisce niente. Ok, è comunque uno strumento notevole. Sì, lo è, ma non sempre. ChatGpt si inventa delle cose, o meglio, chatGPT scova una risposta statisticamente valida, ma non giusta. Siccome non sa quello che dice/scrive, non sa nemmeno di avere sbagliato, di avere proposto una risposta valida dal punto di vista delle inferenze statistiche ma che non corrisponde alla verità. Come fa allora l’interlocutore a fidarsi? Chi se ne frega dell’interlocutore, potrebbe dire il padrone della piattaforma, a me basta che la monetizzazione che riesco a fare non venga messa in discussione. Quest’ultimo è l’atteggiamento che il capitalismo digitale ha avuto sino ad ora. Da qui la personalizzazione delle ricerche dei motori, quella delle bacheche dei social. Da qui la pubblicità mirata e il bisogno di raccogliere dati da ogni nostro comportamento. Un modello di produzione e di società che prevede che gli utenti, i consumatori, siano spiati. La società della sorveglianza l’ha chiamata la signora Zuboff. Così le bolle, le eco chamber, la riproduzione amplificata dei bias con le conseguenti discriminazioni ampiamente documentate. Ma adesso, i danni collaterali si possono riversare anche sui produttori. ChatGPT è stata, per esempio, usata per generare un codice di attivazione di Windows 95: qui il video. Oppure le fa troppo grosse per passare inosservata: “Suicida dopo chat con un’intelligenza artificiale“: il caso Eliza scuote il mondo dell’AI. In realtà è la guerra di tutti contro tutti. È il capitalismo: un sistema basato sulla competizione. Ecco allora che, forse spaventati dal successo della chat di open.ai, un migliaio di leader, manager e ricercatori della Silicon Valley ha firmato una lettera in cui si chiede uno stop di sei mesi dell’addestramento di sistemi di intelligenza artificiale e l’introduzione di regole per supervisionare lo sviluppo di questa tecnologia. Il bello è che tra i firmatari ci siano molti tecnoestusiasti abituati a non farsi mettere nessun ostacolo al perseguimento dei propri obiettivi. In primis Elon Musk, sempre presente qualsiasi sia il lato della barricata, uno dei primi investitori in open.ai. Potrà anche essere una guerra intestina, ma è più probabile (anche noi ci affidiamo alle probabilità?) che ci sia accorti di avere messo troppa carne al fuoco.

Io con le AI mi sto divertendo un sacco. Potrei farmi male? Forse sì. So che può sbagliare anche se non sembra. Ma non le chiedo di darmi risposte l’esito delle quali potrebbe essere di una certa importanza. Ogni informazione che raccolgo cerco di incrociarla con altre, con altri dati e fondamentalmente non chiedo alle AI delle risposte ma semplicemente di permettermi di fare delle cose che senza il loro aiuto sarebbero più complicate o che, addirittura, mi sarebbero negate. Ma le ultime implementazioni di questa tecnologia hanno un approccio conviviale. Le risposte paiono essere pertinenti e sembrano provenire da una fonte autorevole, soltanto uno spirito bastardamente scettico/critico può metterle in dubbio. Non è così, ma l’apparenza inganna. Stessa cosa per le AI che generano immagini che suscitano da subito una domanda sul valore di testimonianza di una foto, già in crisi per lo sviluppo della computer grafica, che viene sempre di più messo in discussione.

“Cosa accadrà quando, in tempi brevi, le AI saranno in grado di produrre immagini e parole false ma credibili, auto-modificabili senza sforzo e potenziate dalla conoscenza di pattern psicologici a noi invisibili? Se ad avere questo potere saranno in pochi, in uno scenario in cui le AI sono chiuse nel codice, non trasparenti e monopolistiche, la previsione è semplice: un inferno distopico di pubblicità e propaganda, in cui sarà difficile districarsi tra mille ‘umanissimi’ bot”, dice Francesco d’Isa.

Le AI generative sono quelle che sono perché sviluppate in un mondo a trazione capitalista, usando la “scorciatoia” di cui vi avevo parlato sopra. I risultati sono strabilianti ma contengono la possibilità che le risposte non abbiano fondamento, che si riproducano ampliandoli i pregiudizi e le discriminazioni sociali. Al punto in cui siamo, la velocità di sviluppo, meglio di autosviluppo, di queste tecnologie, richiede un intervento di regolamentazione. Richiederebbero che la politica tornasse a fare il proprio mestiere.

Il problema è l’etica comportamentale di questi programmi. Midjourney, una AI Text to Image, non accetta nei prompt termini che riguardano la sessualità, il nudo, la violenza e tante altre cose, spesso ridicole, il problema è che questi paletti sono stati implementati dai produttori di quella tecnologia, non esiste una legislazione specifica. Tutto è affidato alla buona volontà dei tecnocrati che sono invece spesso condizionati da varie lobby.

Evocare allora la domanda delle domande: chi controlla il controllore? Diviene, in questo caso, un’occorrenza pertinente. Ci sono le agenzie di fact-checking sia interne alla struttura delle piattaforme (Facebook ha la sua), sia esterne come l’italiana Open, sono tutte certificate dallo IFNC  (International Fact-Checking Network), finanziati dal Ned, ovvero dalla CIA (vedi l’articolo di Luttazi sul Fatto Quotidiano). Facebook è anche partner dell’ Atlantic Council. Un insieme di cose che non devono sorprenderci tanto visto che il Capitalismo della Sorveglianza trova i suoi fondamenti nella compressione/limitazione delle libertà individuali in nome della sicurezza, un assioma che lega questi concetti a partire dalle leggi speciali emanate in seguito all’attacco alle torri gemelle del 2001. Ma qui non si tratta soltanto di concedere alle piattaforme digitali l’uso di dati personali, si tratta di un condizionamento generale dell’intera popolazione collegata in rete e cioè praticamente di tutta.

Ma, nel momento nel quale le Fake News sono all’indice, esso coincide con il picco della domanda nei confronti delle stesse. Mai come oggi abbiamo bisogno di una nicchia di verità alla quale fare riferimento. Che quella verità sia certificata o meno, non interessa. Mancando una prospettiva, ci si deve aggrappare a qualcosa vero o falso che sia. Allora ben vengano le Fake che cementano il mio microcosmo. Per questo molti utenti italiani della chat di open.ai si sono sentiti defraudati dal suo oscuramento in Italia. Allora perché tutta questa enfasi per il Fact Checking? Perché esso non serve alla tutela del consumatore, ma al suo condizionamento.

Ma anche per le apparenze, per non farla troppo sporca e troppo evidente, una certa etica della rete ci deve essere. Proviamo a spiegare come si interviene con la moderazione dei contenuti. Non è che le commissioni etiche e le agenzie di cui abbiamo parlato, forniscano qualche ex agente che in persona controlla tutti i messaggi. C’è una struttura di riferimento che supervisiona il processo di fact-checking e di moderazione. Questa determina delle parole chiave, anche con aiuto di algoritmi AI che le forniscono il risultato trovato a partire da corrispondenze particolari che rimandano a dei termini, o a particolari associazioni di termini, che diventano la chiave di riferimento, questa viene sottoposta a una prima scrematura automatica via bot; le cose rimanenti, segnalate come sospette, sono visionate da umani sottopagati a cottimo, 2 spiccioli per click o azione, che abitano principalmente nelle Filippine e in Africa. In luoghi come Kibera, l’enorme slum di Nairobi, dove opera Sama che qui ha trovato “la mano d’opera adatta”. Facebook e altre piattaforme social avevano provato a fare a meno della supervisione umana, automatizzando tutto il processo (attenzione gli schiavi digitali di cui sopra vengono considerati ingranaggi della macchina automatica) ma la cosa non funzionava. In più si sono aggiunte le pressioni delle lobby politiche che hanno imposto i loro emissari con il risultato che, come abbiamo visto, queste commissioni siano state colonizzate dalla CIA e limitrofi. Microsoft, uno dei massimi finanziatori di open.ai, ha licenziato l’intero gruppo di etica e società nella divisione di intelligenza artificiale, nell’ambito dei recenti licenziamenti che hanno colpito 10.000 dipendenti in tutta l’azienda. Nel capitalismo – digitale o meno – l’unica etica che conta è sempre stato il profitto, ma il vociferare, il mormorio di sottofondo intorno a questa tecnologia non cessa di crescere. Si potrebbe dire che il nuovo ha sempre fatto paura. Il fatto è che orizzonti distopici alla Terminator, si stanno facendo plausibili. Ma ci sembra di più un gridare al lupo per far passare in secondo ordine delle problematiche molto più semplici. Ci si potrebbe chiedere se, di fronte all’orizzonte di possibilità che le AI generative dischiudono, servono ancora i giornalisti, gli insegnanti o i graphic designer? Diciamo che queste tecnologie possono aiutare molto in molti campi, ma il problema non è legato espressamente a questa tecnologia, è un problema fondamentalmente politico che riguarda l’automazione e il lavoro salariato. In questo momento lo sviluppo delle tecnologie digitali e la possibilità di “automatizzare i processi” sono armi in più nelle mani del capitale che può alzare di più l’asticella contrattuale nei confronti della forza lavoro manuale o cognitivo che sia.

Ma porca miseria (letterale), tutto questo accade non in un momento qualsiasi della storia di questo pianeta. Avviene proprio nel momento in cui la scienza – anche quella tradizionale, quella connessa a processi di veridizione consolidati – dice che siamo di fronte a un cambiamento della salute della biosfera che può essere catastrofico. Una via di uscita potrebbero essere allora proprio le tecnologie digitali usate in termini collaborativi. Il fatto che certa mano d’opera diventi superflua ci può fare immaginare con cognizione di causa delle forme di socialità e di con-vivenza forse risolutive. Non si tratta di decrescita, epiteto poco accattivante, ma di un altro tipo di crescita. Un altro modo di pensare il tempo. C’è oggi una visione lineare del tempo che connettendosi al modo di produzione e all’organizzazione sociale capitalista deve basarsi su una crescita infinita di produzioni di merci e sulla loro distruzione sistematica. Come ci hanno fatto vedere Graeber e Wengrow sono esistite ed esistono altre culture. Altre visioni del tempo. Un tempo delle ripetizioni, quello delle stagioni, del giorno e della notte. Una cultura dove la ripetizione e la ciclicità richiamano armonie ed equilibri metastabili e in divenire; dove è possibile pensare in positivo il lusso dell’ozio, dove non esiste il tempo “perso”. Una cultura dove si dispiega in nostro con-essere. Ma non si tratta di una visione New Age, non è un perdersi fine a se stesso; è un modo invece per aver i piedi ben piantati sulla terra. Un modo di sentirsi terrestri come tutti gli abitanti del pianeta. Tutti, organici e inorganici. Ecco allora una “militanza” gioiosa, desiderante. Bisogna disertare, saper dire ossessivamente: “I would prefer not to” (preferirei di no).

Parlare delle AI generative senza parlare di capitalismo ha poco senso. Ma non si tratta della solita storiella sulla neutralità della scienza e della tecnica. Non c’è niente di neutro. Anche la scienza e la tecnica sono figlie del loro tempo e dei rapporti di produzione che lo caratterizzano. Gli algoritmi di tracciamento sono capitalistici. La simbiosi tra organico e digitale non lo è. Certo anch’essa può essere eterodiretta dal capitale che se ne appropria, vedi le derive eugenetiche di certi transumanesimi. Ma non si tratta di simbiosi, il capitale non è capace di costruire questo tipo di rapporti; il capitale è parassitario, schiavista e competitivo. Il capitalismo usa la macchina digitale in termini sconnessi dalla specie e funzionali all’accumulo capitalistico: crea precarizzazione e svilizzazione del lavoro, si appropria di competenze esautorando i portatori delle stesse creando spesso lavori di merda. Non abolisce il lavoro. Spesso certe tecnologie e certi modi di produzione sono possibili soltanto se si riesce a trovare dei lavoratori “di poche pretese”. È questo, per esempio, il nodo della logistica. Se non ci fossero i padroncini dell’ultimo miglio come quello del film Sorry We Missed You di Ken Loach o i lavoratori della BRT, il sistema non funzionerebbe.

Abbiamo provato a fare un uso ludico delle AI generative. Abbiamo fatto un libro di fiabe interagendo con ChatGPT e con Midjourney, una AI Text to Imagine (da testo a immagine). Cerchiamo così di capire cosa combinano queste piattaforme. Alla richiesta di una fiaba – senza capire la domanda confronta i termini usati per formularla – crea appunto una combinatoria di termini che sono statisticamente probabili. Che sono statisticamente coerenti tra di loro in ambito grammaticale, sintattico, di contesto (la scrittura in una determinata lingua) e di sotto contesto (l’argomento) e via a scalare di relazione in relazione, in un processo di aggiustamento continuo e ricorsivo, macinando enormi quantità di dati. In pochi attimi ecco pronto un testo che può essere affinato con una nuova richiesta. In questo modo siamo riusciti a scrivere un libro di fiabe illustrate in meno di una settimana. Con illustrazioni strabilianti che avrebbero richiesto un tempo enormemente più grande e una padronanza tecnica superiore alla nostra.

Quando Propp trova la struttura morfologica della fiaba, non trova soltanto una architettura attraverso la quale sarebbe possibile scrivere infinite fiabe, fiabe ex novo, fiabe non ancora raccontate, fiabe artificiali, niente di tutto questo. A Propp quella struttura serve per decifrare il senso di quel raccontare, di trovarne le radici storiche. Di usarle per capire l’ambiente che le ha generate. Capire in definitiva il senso della fiaba.

L’AI fa invece una operazione senza senso, pura combinatoria. Pura sino a un certo punto. È una combinatoria che rimanda alla produzione degli umani. La plausibilità richiesta è questo legame con la storia umana. Se prendiamo l’AI che a partire dal testo produce immagini, la cosa si fa più evidente. L’immagine non è la cosa in sé, è la proiezione fantasmatica del linguaggio. Si tratta di un gioco intorno a degli archetipi o intorno a delle icone, la cosa più vicina al progetto iconologico di Warburg. La macchina scova i pattern riconoscitivi che gli umani – storicamente determinati – producono.

Che poi l’immaginario umano sia attraversato da infiniti pregiudizi, nel senso di quei bias cognitivi che infestano i dataset (gli insiemi di dati sulla quale la macchina si esercita) e che molti di questi siano il risultato di una contaminazione storica e mediatica – di una mediazione mediatica – continua e ricorsiva, è cosa data per scontato. Le fiabe saranno così piene di principesse rosa, di principi azzurri che convolano alle nozze finali. C’era una volta e vissero felici e contenti. Per questo le “istruzioni” da dare alla AI devono essere mirate. Devono chiedere ma anche negare. Una fiaba non convenzionale, senza nozze negli happy end, etc. Scovare/scavare negli anfratti dell’immaginario umano elementi che disertano dai luoghi comuni e dalle ideologie indotte dal capitale. È questa la sinergia collaborativa occorrente in attesa di costruire un mondo (e contribuendo alla sua costruzione) che fornisca alla macchina dei dataset da non dover essere purgati.

Le immagini sono state generate con Midjourney v5 su prompt dell’autore

The following two tabs change content below.

Gilberto Pierazzuoli

Attivista negli anni 70 . Trasforma l'hobby dell'enogastronomia in una professione aprendo forse il primo wine-bar d'Italia che poi si evolve in ristorante. Smette nel 2012, attualmente insegnante precario di lettere e storia in un istituto tecnico. Attivista di perUnaltracittà.

Ultimi post di Gilberto Pierazzuoli (vedi tutti)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *