Il problema non è l’intelligenza artificiale, il problema è il capitalismo

  • Tempo di lettura:12minuti

Parte quarta, qui la prima, qui la seconda, qui la terza

Il linguaggio è incarnato. Il linguaggio presuppone un parlante, anzi più di uno. Si parla perché si parla all’altro. Il linguaggio presuppone una relazione, ma non quella per esempio tra un soggetto e un oggetto, ma quella tra due soggetti. Ma il linguaggio si può traslare. È stato traslato per esempio nella scrittura, un sistema di memoria esterno ai parlanti, ma le prime traslazioni erano rudimentali. Puri segni mnestici. Per comunicare: “ho depositato tre giare di grano”, si tracciavano su una tavoletta tre segmenti, oppure si disegnavano tre giare stilizzate. Ma il potere della scrittura si esplica nella sua piena potenza con le scritture fonetiche e alfabetiche. Qui la voce viene catturata dalla scrittura. Si apre anche la possibilità di formalizzare, di tra-scrivere, il pensiero simbolico.

Prima delle registrazioni analogiche dei suoni, dei primi sistemi di registrazione, soltanto la scrittura poteva conservare la voce, il detto. Conservare nel tempo, ma anche fare da supporto per trasportare quel detto nello spazio, al di là dei limiti uditivi. Si va più lontano senza dover gridare, molto più lontano. Con i media elettrici le cose cambiano. L’alfabetizzazione perde di importanza. Gli Italiani hanno appreso la lingua nazionale con la radio e la televisione anche senza andare a scuola. Anche senza imparare a leggere e scrivere. A partire dalla tecnologia scritturale, si può dunque comunicare anche essendo soli. Si scrive da soli e lo scritto può essere letto da un altro, anche da più di uno. Con la stampa infatti si possono facilmente moltiplicare le copie di quello scritto. Con la scrittura anche gli insegnamenti possono essere trasmessi a distanza nello spazio e nel tempo. Si possono trasmettere anche non in presenza. Questo cambia profondamente la qualità antropologica degli umani che possiedono questa tecnologia. Si è trattato sicuramente di una rivoluzione antropologica. Il passaggio al digitale costituisce uno stravolgimento di eguale portata. Con la scrittura l’elemento dialogico, la voce lascia il campo ai segni grafici. L’udito è soppiantato dalla vista. Nel mondo digitale la maggioranza degli umani possiede un device personale di comunicazione: il telefono, lo strumento che trasporta la phōnḗ (voce) a distanza (tèle [dal gr. τηλε-, τῆλε «lontano»]). Ci sarebbe perciò la possibilità di recuperare lo scambio dialogico. Ma non è così. La gran parte di questa comunicazione è differita, viaggia nelle chat. Anche la voce si differisce, diventa messaggio vocale. La comunicazione non è in presenza. Mette in discussione la metafisica della presenza. La telepresenza è un eufemismo con poco fondamento. La presenza è senso ed è legata alla coscienza. Il corpo vivo dell’animale “spazia” e “dà senso” agli input assimilati dall’ambiente, deviando gli output attesi oltre la dimensione meramente meccanica dell’automatismo stimolo-risposta. Le comunità dei corpi lasciano il posto alle connessioni algoritmiche. La connessione soppianta la congiunzione, dice Bifo. Vivere e apprendere: nell’organismo, le due cose non sono separabili. Il corpo vivo, in qualsiasi istante, ripete-diverge se stesso, essendo esso stesso la contraddizione produttiva da cui scaturiscono modalità comportamentali inattese: l’organismo “non può essere paragonato a una tastiera sulla quale si eserciterebbero gli stimoli esterni e su cui essi definirebbero la loro propria forma, e ciò per la semplice ragione che l’organismo concorre a costituire questa forma (Pelgreffi). L’attrezzo, appendice umana, sinapsi esocorporea, commistione manipolatoria per inter-agire con il mondo, per inter-agire con l’altro, si fa macchinico. Si fa interfaccia, la tastiera dei nostri computers è un’interfaccia. E qui il termine interfaccia è ormai lontano dall’origine, da quella faccia che fa da referente al significante. L’interfaccia: ente che agisce da elemento comune, in parte di separazione e in parte di collegamento, tra due o più altri enti, recita il dizionario. E il fatto che separi o unisca dipende soltanto dalla sua implementazione nell’organismo/meccanismo organico o macchinico. Da organo della simbiosi a separatore individuante, l’uso è tutto interno alla sua contestualizzazione. Nel capitalismo – e in particolare per quello digitale – è elemento di individuazione o, meglio ancora, di “dividuazione”, propone Deleuze (p. 237).

Una interpretazione del concetto di desiderio tende ad identificarlo con la spinta che scaturisce dalla consapevolezza condivisa della discrepanza tra ciò che è e ciò che potrebbe essere (Giuseppe Nicolosi). E il possibile è questa risorsa immaginativa peculiare del linguaggio degli umani. Il possibile, questa apertura verso il possibile, verso il non “dato” è un ostacolo per la macchina. La macchina lavora allora per ridurre il ruolo del linguaggio e delle sue proprietà desideranti. Il desiderio è sempre connesso all’altro. La voce, il dialogo, come modo della veridizione, non viene presa in considerazione da ogni forma di ritenzione esterna, scrittura compresa. Ma la scrittura non è retroattiva nei confronti della parola. Non orienta, ne fa cessare il dialogo, le è esterna. La macchina dialogica, la Chat bot, pretende invece di lavorare comprimendo e sopprimendo i corpi parlanti (sono sempre più di uno). La sua è una scrittura orientata sul segno che ignora il senso e che, nella ripetizione statistica, livella le differenze. Sopprime la differenza dell’altro, di quel mio altro sulla cui differenza mi riconosco. La verità è allora algoritmica, non ha bisogno dei parlanti.

L’Intelligenza Artificiale attuale si basa su un concetto semplice. La macchina esamina quantità enormi di dati che sono stati isolati in grandissimi data set, cercando soltanto delle corrispondenze. Certo l’algoritmo non è mono dimensionale. È sicuramente composto da tantissime routine e sub routine che in qualche modo contestualizzano, scartano, misurano, si adeguano. Se per la percezione biologica il problema è quello della relazione che mette in discussione l’esistenza di una realtà che dovrebbe vigere a monte della percezione stessa, questo per la macchina è un falso problema. La macchina può fare a meno della percezione. Per la macchina un pomodoro è rosso e non azzurro perché la prima occorrenza è quella che ricorre di più anche cambiando i contesti.

Ogni livello della rete neurale della macchina contiene unità che trasformano i dati di input in informazioni che il livello successivo può usare per una determinata attività predittiva. L’operazione che fa la macchina è descrivibile tramite pochi passaggi. Si inizia a inserire i dati in un algoritmo, in questo passaggio è possibile fornire informazioni aggiuntive al modello. Usare questi dati per eseguire il training di un modello. Testare e distribuire il modello. Utilizzare il modello distribuito per eseguire un’attività predittiva automatizzata. Per fare questo ci sono vari metodi spesso integrati in una sola rete neuronale i cui piani sono occupati da attività diverse come, per esempio, una rete neurale ricorrente dove l’output di un livello viene preso e inserito nuovamente nel livello di input per stimare il risultato del livello. Oppure una rete antagonista generativa costituita da due reti note una come generatrice e una come discriminatrice. Entrambe le reti vengono contemporaneamente addestrate. Durante il training, la generatrice usa un rumore casuale per creare nuovi dati sintetici simili ai dati reali. La discriminatrice accetta l’output dell’altra come input e usa dati reali per determinare se il contenuto generato è sintetico o reale. Le reti sono in competizione tra loro. La generatrice tenta di generare contenuto sintetico indistinguibile dal contenuto reale e la discriminatrice tenta di classificare correttamente gli input come reali o sintetici. L’output viene quindi usato per aggiornare i pesi di entrambe le reti per aiutarle a raggiungere meglio i rispettivi obiettivi. (Qui)

Ma quello che ci sembra interessante è la strada percorsa per arrivare ai risultati attuali. Il concetto che guidava la ricerca era basato su questo semplice assunto: un algoritmo migliore avrebbe preso decisioni migliori, indipendentemente dai dati. A questo punto, era il 2006, Fei-Fei Li, professoressa a Stanford, ora scienziata capo di Google Cloud, pensa che il miglior algoritmo non funzionerebbe bene se i dati da cui apprende non riflettessero il mondo reale. Si tratta di un capovolgimento dell’approccio. Invece di prestare attenzione ai modelli, si deve prestare attenzione ai dati. Essi ridefiniranno il modo in cui si pensano i modelli. Per fare questo occorreva creare un set di dati migliore. Nasce ImageNet costruito per testare le capacità degli algoritmi di riconoscimento delle immagini. Ma poi il set di dati si è rapidamente evoluto in una competizione annuale per vedere quali algoritmi potevano identificare gli oggetti nelle immagini del set di dati stesso, con il tasso di errore più basso. Per fare questo non servivano soltanto molti dati – in questo caso specifico, molte immagini – servivano molte immagini etichettate: un set di dati su larga scala con molti esempi di ogni parola.

La prima idea di Li è stata allora quella di assumere studenti universitari per 10 dollari l’ora per trovare manualmente le immagini e aggiungerle al set di dati. Ma fatti i giusti calcoli, Li si accorge che al ritmo di raccolta delle immagini degli studenti universitari, ci sarebbero voluti 90 anni per completare il lavoro. Il problema giunse a una svolta quando uno studente le suggerì di dare un occhio al sito di Amazon Mechanical Turk, un servizio in cui orde di umani seduti ai computer di tutto il mondo avrebbero completato piccole attività online per pochi centesimi (vedi qui). Dunque la svolta vincente alla base dell’attuale tecnologia rappresentata dalla Intelligenza Artificiale è frutto dello sfruttamento di tantissime persone marginalizzate che abitano la periferia del mondo. Quegli schiavi del clic raccontatici anche da Antonio Casilli.

Società internet come Google, Facebook e Amazon hanno iniziato a creare i propri set di dati interni, basati sui milioni di immagini, clip vocali e frammenti di testo immessi e condivisi sulle loro piattaforme ogni giorno. Anche le startup stanno iniziando a assemblare i propri set di dati: TwentyBN, un’azienda di intelligenza artificiale focalizzata sulla comprensione dei video, ha utilizzato Amazon Mechanical Turk per raccogliere video di Turker che eseguono semplici gesti delle mani e azioni su video. La società ha rilasciato due set di dati gratuiti per uso accademico, ciascuno con oltre 100.000 video. “Una cosa che ImageNet ha cambiato nel campo dell’intelligenza artificiale è che improvvisamente le persone si sono rese conto che il lavoro ingrato di creare un set di dati era al centro della ricerca sull’intelligenza artificiale”, ha affermato Li. “Le persone riconoscono davvero l’importanza che il set di dati è al centro della ricerca tanto quanto gli algoritmi”. Ma per arrivare ai risultati odierni occorreva un altro ingrediente. A fornirlo è stato Alex Krizhevsky. L’idea era quella di usare le GPU (i chip grafici) invece delle CPU (i processori centrali) anche nelle reti neurali. Pensava che se avessimo potuto utilizzare quelle GPU su altri tipi di reti neurali con più livelli, avrebbe potuto aumentarne le velocità di elaborazione delle reti neurali profonde e creare un algoritmo migliore. Ecco che il successo di ChatGPT ha fatto schizzare in alto il valore delle azioni di Nvidia una delle aziende che produce Gpu tra le più performanti.

Per ritornare alle polemiche e alle notizie che in questi giorni imperversano sui media, con prese di distanza e mea culpa a profusione, mi sembra che tutta l’etica di Silicon Valley sia alquanto contorta. Prendiamo la figura di Geoffrey Hinton che si dimette da Google a 75 anni per mettere in guardia il mondo dalle conseguenze dannose dello sviluppo dell’AI. Il classico pentimento che colora in positivo l’immagine di coloro che hanno appena finito di mettere a punto l’ultima invenzione di dubbia utilità. Questo invece un tweet di Timnit Gebru licenziata da Google: “Le persone mi stanno riferendo che Hinton sta dicendo che le nostre preoccupazioni sono “meno esistenziali” delle sue quando gli viene chiesto dei nostri licenziamenti. Questo è esattamente ciò che intendiamo quando i tizi bianchi parlano di “rischio esistenziale”. Qualsiasi cosa reale, che sta accadendo in questo momento e che fa del male alle donne, alle persone nere ecc. È troppo minuscola”

Mi sento favorevole all’uso creativo delle tecnologie digitali di tipo generativo sia quelle di testo che di immagini. Quello che mi sembra sia da contestare è l’impatto che queste hanno sul mondo del lavoro creando da una parte disoccupazione di qualità, promuovendo invece dall’altra sotto-occupazione e sfruttamento. Come quello su coloro che abitano a Kibera. Avevo segnalato quella che per me era una cosa scandalosa già l’anno scorso. Una storia che ha raccontato anche il Time.

È di una settimana fa la notizia che più di 150 lavoratori il cui lavoro è alla base dei sistemi di intelligenza artificiale di Facebook, TikTok e ChatGPT si sono riuniti lunedì a Nairobi (Kibera è lo slum di Nairobi) e si sono impegnati a istituire la prima African Content Moderators Union, in una mossa che potrebbe avere conseguenze significative per le attività di alcune delle più grandi aziende tecnologiche del mondo, dichiara di nuovo il Time. La tecnologia di punta del mondo occidentale, di nuovo cresciuta e sviluppata su una forma di sfruttamento paraschiavistico. Dopo Hinton ecco Michael Schwarz capo economista di Microsoft, che prevede che l’Intelligenza Artificiale verrà utilizzata da persone senza scrupolo per esempio in ambito elettorale, facendo danni seri. E che auspica una regolamentazione avvertendo però che i responsabili politici dovrebbero fare attenzione a non regolamentare direttamente i set di addestramento dell’IA. “Sarebbe piuttosto disastroso”, ha detto. Nonostante i rischi, l’intelligenza artificiale può infatti aiutare a rendere gli esseri umani più produttivi, e ha aggiunto: “Noi, come umanità, dovremmo stare meglio perché possiamo produrre più cose con meno lavoro.” Peccato che questo “stare meglio” non sia ad appannaggio di tutta l’umanità, ma di pochi privilegiati. Peccato anche che, per ottenere questi risultati, vengano sfruttate pesantemente molte altre persone. La regolamentazione dell’Intelligenza Artificiale metterà ai ferri corti aziende e governi, recita un titolo del Financial Times, dove Marietje Schaake scrive che qualsiasi normativa dovrà affrontare tre aree. In primo luogo, occorrerà riequilibrare le dinamiche di potere tra gli sviluppatori di AI e il resto della società. Questa asimmetria è infatti già così significativa che solo le più grandi aziende tecnologiche possono sviluppare l’AI, sia per l’accesso ai set di dati che per la capacità di addestrarli ed elaborarli. Perfino una ricca università come Stanford, che forma i migliori ingegneri del settore, non ha i dati o la potenza di calcolo delle aziende della vicina Silicon Valley. Di conseguenza, i segreti del funzionamento interno dell’AI – che hanno un enorme impatto sulla società – rimangono chiusi nei sistemi aziendali. Il secondo problema è l’accesso alle informazioni. Devono esserci garanzie di interesse pubblico per consentire ai legislatori di vedere il funzionamento interno dell’AI. Non c’è infatti una comprensione pubblica degli algoritmi che governano le applicazioni che hanno un impatto sulla società. Questo a sua volta impedisce una discussione basata sui fatti, una politica pubblica mirata e i necessari meccanismi di responsabilità. In terzo luogo, non possiamo ignorare la natura in continua evoluzione dell’AI. La regolamentazione dovrà perciò essere flessibile e applicabile in modo netto.

Le previsioni sull’impatto di queste tecnologie sarà che nei prossimi cinque anni, quasi un quarto di tutti i posti di lavoro cambierà a causa dell’intelligenza artificiale, della digitalizzazione e di altri sviluppi economici come la transizione verso l’energia verde e il re-shoring della catena di approvvigionamento. (Da un rapporto pubblicato dal World Economic Forum di Ginevra).

_____________________________________
Gilles Deleuze, Poscritto alle società di controllo, in idem, Pourparler, Quodlibet, Macerata 2000

Le immagine sono state generate da Midjourney v5 su indicazioni testuali dell’autore

The following two tabs change content below.

Gilberto Pierazzuoli

Attivista negli anni 70 . Trasforma l'hobby dell'enogastronomia in una professione aprendo forse il primo wine-bar d'Italia che poi si evolve in ristorante. Smette nel 2012, attualmente insegnante precario di lettere e storia in un istituto tecnico. Attivista di perUnaltracittà.

Ultimi post di Gilberto Pierazzuoli (vedi tutti)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *