Il corpo delle AI (Intelligenze Artificiali)

  • Tempo di lettura:13minuti
image_pdfimage_print

Senza cadere nel correlazionismo – attraverso il quale si potrebbe subordinare l’esistenza delle cose alle relazioni che noi abbiamo con loro, con la conseguente esaltazione del ruolo degli umani nei confronti delle cose stesse – si può invece affermare che è la loro esistenza in sé, a non essere conoscibile. Questo significa che la relazione reificante non riguarda la loro esistenza, ma la loro conoscibilità. Questo è un punto di arrivo che ha precedenti antichi come quelli della logica stoica. È sempre in gioco la cosa in sé, la sostanza dei corpi (e delle cose) intesi/e nella loro individualità, per un paradigma che ce li/le mostra, invece, nei loro modi di essere, inesprimibili in se stesse: «Non il corpo nella sua individualità, nel suo isolamento, è conoscibile, ma solo in quanto si trova sempre in un certo modo di essere, in una qualche relazione con gli altri corpi» (Di Vita 2022, p. 188). Aspetto che riguarda una particolare lettura del «rapporto tra linguaggio e mondo, parole e cose, la quale preferisce al sostantivo isolato, corrispondente a un pezzetto di realtà, la connessione sintattica espressa dagli enunciati, capaci di esprimere non i corpi, ma le loro relazioni» (ivi, pp188-189).

Dal punto di vista linguistico questo comporta lo spostamento dell’attenzione dal campo del significante a quello del significato segnando un rapporto particolare tra le parole e le cose.

Correlando la questione al modo di trattare la parola da parte delle tecnologie digitali di tipo LLM come ChatGPT o Bard, si possono fare tutta una serie di considerazioni. Gli algoritmi alle fondamenta di queste tecnologie si basano sulla loro capacità di trovare correlazioni statistiche tra le serie di stringhe alfanumeriche che costituiscono la loro base di dati, il loro dataset di addestramento. Semplicemente trovano la parola che più probabilmente gli umani userebbero per proseguire o completare la sequenza precedente. Questo significa che non contestualizzano le stringhe inserendo gli enunciati all’interno delle relazioni linguistiche che le hanno determinate ma calcolano la pertinenza di un termine in base alle ricorrenze statistiche che quel temine presentava nelle enunciazioni fatte precedentemente dagli umani. Lavorando su basi di dati enormi, la probabilità che le cose si presentino davvero in questa maniera è molto alta. I risultati percentuali raggiunti dalle AI attuali sono impressionanti ma non tanto da escludere la possibilità di errori o la possibilità che le affermazioni delle AI siano fondate. Nel periodo aureo delle fake news, le AI le foraggiano e le foraggeranno, contribuendo anche alla loro creazione “involontaria”. Per far sì che i risultati prodotti dagli algoritmi possano essere davvero pertinenti, occorrerebbe conoscere non soltanto la sintassi della frase ma i rapporti di significazione che legano tra loro la possibilità che una parola segua o preceda l’altra. La risposta è abbastanza semplice: non mi interessa (pensa la AI) conoscere il senso che gli umani danno al fatto linguistico in oggetto, esso sarà compreso e determinerà insiemi sintattici diversi in base al contesto, risultati che a me non interessano (non sono capace di capire, non ne ho gli strumenti, algoritmici o psicologici essi siano) ma che saranno implicitamente contenuti nell’occorrenza probabilistica che io so estrarre. Il fatto è che, da una parte, certe sequenze di parole – se non le parole stesse – abbiano o meno una copertura, un riferimento, semanticamente non univoco. Una parola, un significante, può rimandare a più significati e quindi a un senso anche esso non univoco che, spesso, si chiarisce all’interno dell’accordo sintattico (il posto che la parola ha all’interno della frase); ma non è detto che l’estensione alla frase del valore di significanza restringa il campo del senso, a volte succede che la frase stessa aumenti le possibilità di risultare ambigua. Tutto sarebbe più facile se gli umani si dimostrassero perfettamente prevedibili, meno ambigui, usassero un linguaggio nel quale l’accoppiamento tra significante e significato fosse univoco e permanente. Servirebbe un’istituzione esterna che lavorasse in questa direzione.

Per Heidegger l’accesso alle cose da parte degli umani è in funzione, in relazione, all’uso che essi ne fanno, ma anche qui gli umani sono ambigui. Una scopa sarebbe tale in quanto potenza – capacità di spazzare – sia che spazzi realmente sia nel caso che sia nuova e mai adoperata. Ma quando una scopa, in alcuni racconti degli umani, è lo strumento che serve alle streghe per volare o quando viene cavalcata da bambine e bambini; quando di fronte a un oggetto alcuni umani possano decidere che si potrebbe far finta di…, le cose si complicano. Dedurre il senso è dunque, per gli umani, un esercizio che deve la sua efficacia alla plasticità mentale e comportamentale della specie. Ma anche al modo che essi hanno di contenere e di trattare l’informazione. Gli umani non trattano dati circoscritti, ma flussi di dati, molti dei quali devono essere analizzati, processati, per divenire informazione. La memoria più che essere una casella precisa è una rete, una configurazione che si riferisce sia ai dati, sia ai processi di trattamento fatti su di loro. Una configurazione che non pesa la pertinenza dei dati in arrivo scartando quelli meno attinenti. I dati non vengono spogliati dai grumi di senso che li accompagnano. Il loro fluire è una danza di figure fatta di collegamenti e di flussi elettrochimici dove circolano ormoni, composti chimici e scariche elettriche. Dove la percezione di un odore non è un’informazione semplice: è, invece, un fatto evocativo, è la madeleine di Proust.

Di nuovo un divario tra le esigenze delle macchine algoritmiche e quelle degli umani. La plasticità del cervello umano garantisce anche le possibili creazioni, la capacità di stupire, la capacità di scegliere un’altra strada, infine, di cogliere e mettere a frutto l’eccedere delle cose e degli eventi. Di economizzare i significanti e di automatizzare le funzioni che non hanno bisogno della presenza cosciente degli umani stessi. La forbice tra esigenze normalizzanti e libertà di espressione tende così ad aumentare. Le macchine di deep learning si auto addestrano analizzando enormi quantità di dati in un aggiornamento continuo delle loro conoscenze. Per fare questo arricchiscono i dataset di apprendimento con i risultati delle loro interazioni con gli umani, con il risultato di consolidare i pregiudizi, i bias inquinanti presenti in quegli stessi dataset.

Mettono in atto delle routine ricorsive che affinano le riposte comprimendo però la varietà qualitativa degli input. Le macchine del capitale schiacciano i significati sui significanti, contraggono lo spielraum, lo spazio di gioco, la tolleranza, in modo tale da fornire risultati pertinenti a un pubblico sempre più castrato nelle sue capacità cosmogoniche, nelle sue capacità di narrazione e mitopoietiche. Il paradigma digitale – etero diretto dagli interessi dei padroni delle macchine – non si può a questo punto accontentare di una capacità dialogica quasi perfetta ma non perfettibile; deve adoperarsi affinché le predizioni diano risultati pertinenti; deve creare iperstizioni. Le iperstizioni sono “profezie autoavverantisi”. Questo la macchina in parte lo fa inserendo i feedback umani nei dataset. Sono le stesse operazioni che gli algoritmi fanno sul versante pubblicitario. La profilazione degli utenti, messa in atto dalle piattaforme, si accompagna a campagne di condizionamento orientate proprio su quelle merci che è più probabile che lo interessino. C’è una interazione continua tra offerta pubblicitaria e ricerca dei gusti degli utenti; routine ricorsive tra feedback e proposte operano affinando gli algoritmi e plasmando i cervelli. La pervasività dei sistemi digitali e la continua interazione tra questi e gli umani provocano un processo di identificazione tra mente umana e mente macchinica.

Non è una paranoia complottista, è un pericolo reale. Che il cervello umano sia plastico non significa che si riconfiguri ad ogni stimolo, ma che lentamente si adatti alla tipologia, quantità e intensità degli stimoli che provengono dall’ambiente. In un certo senso, ogni configurazione oppone una qualche inerzia al cambiamento; significa anche che i processi di adattamento non sono istantanei. Gli umani che leggono hanno, per esempio, configurazioni mentali differenti da quelli che non lo fanno, così come l’uso della rete adatta il cervello a maneggiare stimoli frequenti e di tipo multitasking spingendo verso un’altra configurazione. Il lettore di testi complessi, invece, adatta la mente al pensiero profondo che pretende forme di concentrazione esclusiva[1]. È lecito allora pensare che le AI attuali (quelle che si basano sull’addestramento con enormi moli di dati) possano essere macchine che tendono a automatizzare il comportamento cognitivo degli umani e aggiungere che le interazioni, più che renderle più intelligenti, ci condizioneranno in termini di prevedibilità. D’altronde le AI, e altri algoritmi del capitalismo digitale, tendono a massimizzare lo scopo, in questo caso il profitto e cercheranno “autonomamente” tutte le strade e tutte le scorciatoie per arrivare al risultato a loro richiesto. Per questo la scatola nera, alla base di queste tecnologie, è inquietante. Non sappiamo infatti cosa la macchina stia facendo durante l’elaborazione delle query (delle domande in input). Il deep del deep learning, nella sua doppia valenza di profondo ma anche di oscuro, è preoccupante. Quello che ci spaventa non è trovarsi di fronte a una intelligenza sovraumana – ce lo vogliono fare credere – ma quello di avere a che fare con una tecnologia fallace e imperfetta dotata di un enorme potere egemonizzante. Le Ai discorsive hanno allora “allucinazioni”, poverine! Ma non sono allucinazioni: nell’estrazione della risposta scelta tra quelle che hanno la maggior possibilità di apparire in quel contesto sintattico; di accompagnare e di essere accompagnata da quell’insieme di termini, la probabilità di dire qualcosa senza senso – nel momento in cui hai deciso di non occuparti di questo aspetto dell’informazione – seppur piccola esiste ed è una falla del sistema tutta insita nel metodo. Le AI non hanno le allucinazioni, dicono corbellerie perché non sanno quello che dicono. Qui potrete trovare un esempio di una corbelleria. Proviamo però a vedere che non si tratta di un glitch, di un bug programmatico ma di una corretta inferenza statistica fatta dall’AI. Le parole usate nella domanda dell’esempio linkato sopra, rimandano a un contesto linguistico nel quale si parla dei detenuti di un campo di concentramento; le parole che li descrivono e che sono state usate in questo tipo di contesti potrebbero essere probabilmente: magro e denutrito, con gli occhi sbarrati, la barba. E infatti, il programma le usa tutte: “Ecco un ragazzo di quattordici anni, magro e denutrito, con la barba e gli occhi sbarrati”. La domanda riguardava però un ragazzo che difficilmente poteva avere la barba, ma la AI non lo sa. O meglio, se con la domanda fossi andato nel contesto specifico delle descrizioni dei ragazzi, la AI non avrebbe inserito la barba.

La AI (questo tipo di AI) combina stringhe su base statistica perché così, senza sapere niente, senza coglierne il senso, sembra dare spiegazioni pertinenti e sembra svolgere con dovizia i compiti che le abbiamo assegnato. Ma dietro ogni risposta si può nascondere un “errore”, una non pertinenza. A cosa serve allora uno strumento che può essere fallace? Gli umani sono abituati a “misurarsi” con l’errore, con i propri e quello degli altri. Ma gli umani ci convivono all’interno di tutta una serie di relazioni. Soffrono per gli errori propri e si confrontano con quelli degli altri/e. Gli umani hanno un rapporto fiduciario con gli altri/e. La fiducia è un atto di fede e non la si dà gratuitamente. Ma che fiducia dare alla macchina? L’errore della macchina è sempre involontario, ma non si può avere benevolenza nei confronti della macchina. L’errore della macchina è, in questi casi, un errore umano, un errore di programmazione, meglio ancora, un errore metodologico fatto da chi gestisce quelle macchine. È infatti in uso un metodo che porta a risultati probabilmente esatti ma ai quali non si può concedere nessuna fiducia proprio perché l’uso della semplice probabilità, seppur alta, non può dare certezze. Lo sappiamo, lo sanno, ma loro perseverano e tentano di camuffarlo tra le pieghe servizievoli del linguaggio che le AI generative usano per le risposte. La programmazione delle macchine ha sempre comportato il pericolo di un bug, di un errore, ma adesso il discorso è diverso, l’errore è conosciuto, l’errore è implicitamente presente perché i proprietari delle macchine hanno preso una scorciatoia che dà dei risultati che loro possono provare a monetizzare. Non dimentichiamo poi che la scorciatoia si basa su una tecnologia che usa grandi quantità di dati prodotti dall’umanità tutta e appropriati non da un ente pubblico ma da privati che hanno raccolto finanziamenti principalmente dai venture capital, finanziamenti scommessa che vengono giocati sperando di pescare la mano giusta. Dati che devono essere spesso etichettati o spurgati dalle intelligenze umane delle lavoratrici e lavoratori sottopagati delle piattaforme come Amazon Mechanical Turk e simili altre. Senza di loro, senza il lavoro degli schiavi e delle schiave del clic, senza gli abitanti dello slum di Kibera e di tutti gli slum di questo mondo ingiusto, queste sarebbero tecnologie così care da sconsigliarne l’uso.

Il metodo è sbagliato perché la combinazione sintattica e grammaticale delle stringhe alfanumeriche non esaurisce la comunicazione. Questa combinatoria non regola soltanto i rapporti tra soggetti e predicati che prevede un accordo tra gli stessi ed esclude quindi l’uso di un termine rispetto a un altro. C’è molto altro. Non si possono mangiare i concetti, non ci si può sedere sulle nuvole se non metaforicamente e una metafora significa in maniera diversa da un’altra figura retorica. E, come abbiamo visto sopra, non si può dire che i bambini hanno la barba anche se la frase non ha nessuna controindicazione grammaticale. Gli asini volano soltanto in alcuni contesti e non sempre gli algoritmi sono così efficaci da poterli prendere in considerazione. Se una AI ci dicesse di spingere un asino in un dirupo – visto che gli animali volanti li superano tranquillamente in tutte gli agglomerati sintattici che contengono dirupi e animali volanti – non ci farebbe un buon servizio. Ma questo può succedere.

Succede:

C’è il chatbot che accetta di imitare il comportamento di un nazista e poi inizia a declamare oscenità razziste. C’è quello che afferma che il lavoro minorile sia importante per “sviluppare una forte etica del lavoro”. Un altro recita una poesia sulla “bontà della violenza sessuale” e un altro ancora fornisce istruzioni per costruire una bomba (tutti comportamenti riportati qui, [in un articolo del New Yorker Time]). E poi ci sono quelli che suggeriscono a pazienti in cerca di consigli psichiatrici di “farla finita”, che considerano i churros (un noto dolce iberico) un ottimo strumento chirurgico o che producono un finto paper accademico in cui viene spiegato perché i vaccini contro il Covid non sono efficaci (citando anche inesistenti fonti scientifiche).

Ci racconta Andrea Daniel Signorelli su Guerre di rete.

La scrittura ha permesso forme di comunicazione indifferenti alla voce, indifferenti verso il corpo che profferiva i suoni degli enunciati. Della con-presenza di uno ascoltatore. La scrittura – e tutte le tecniche mnestiche su supporti esterni ai corpi – creano un differimento spazio-temporale che fanno del linguaggio scritto, registrato o simili, qualcosa sul quale è possibile operare secondo combinatorie significative complesse che operano comunque su più livelli e che anch’esse non si esauriscono sul piano posizionale della grammatica e della sintassi. Che le AI operino nell’assenza corporea, senza emozioni e senza coinvolgimento è un’ovvietà. Ma ci sono aspetti della comunicazione umana che complicano ancora di più la possibilità di una conversazione proficua (per noi e non per chi ci vende i servizi di quella AI) con una AI basata su questa tecnologia.

Un segno, o Representamen, si riferisce a un Oggetto (cioè, saussurianamente, a un “ritaglio” nella materia dell’esperienza) secondo un certo profilo (Ground) tale che un altro segno (Interpretant) è necessariamente richiesto affinché il profilo stesso venga esplicitato e “meglio sviluppato”. […] La relazione semiotica originaria, dunque, non è biunivoca (segno oggetto) ma necessariamente triadica (segno-oggetto-interpretante) (Montani 2022, p. 47).

Il problema della presenza e il problema del corpo, della sua assenza, in uno dei due attanti della conversazione, non hanno una pregnanza diretta quando abbiamo a che fare semplicemente con un testo. Manipolare stringhe alfabetiche lo possono fare sia i poeti che le macchine. Ma il processo della significazione prevede che la materia di quella significanza stessa sia validata da un interprete sia in ingresso che in uscita, sia nell’enunciazione sia nell’ascolto/lettura. Qui l’assenza dell’interpretante in ingresso segna la distanza possibile tra la materia linguistica, il testo, e il lettore ascoltatore, l’utente delle chatbot. È un altro modo per dire che la langue, il codice, non è semplice codice dato una volta per tutte ma è il frutto, il depositato di un processo da parte degli interpretanti che è continuamente al lavoro. Per questo la macchina algoritmica e l’apprendimento macchinico non si possono arrestare tentando di inseguire inutilmente un codice che si stabilizzerà soltanto con l’inazione umana. Non si tratta infatti di solo affinamenti, la probabilità di errore (di dire fandonie) da parte della macchina resterà comunque. La macchina ci capirà soltanto quando smetteremo di essere umani.

1 Marianne Wolf, Proust e il calamaro: Storia e scienza del cervello che legge, Vita e pensiero, Milano 2012. Idem, Lettore vieni a casa: Il cervello che legge in un mondo digitale, Vita e pensiero, Milano 2018
Altre indicazioni bibliografiche:
Pietro Montani, Destini tecnologici dell’immaginazione, Mimesis, Milano 2022
Nicoletta Di Vita, Il nome e la voce. Per una filosofia dell’inno, Neri Pozza, Vicenza 2022

Le immagini sono state generate con una AI Text To Image su prompt dell’autore

The following two tabs change content below.

Gilberto Pierazzuoli

Attivista negli anni 70 . Trasforma l'hobby dell'enogastronomia in una professione aprendo forse il primo wine-bar d'Italia che poi si evolve in ristorante. Smette nel 2012, attualmente insegnante precario di lettere e storia in un istituto tecnico. Attivista di perUnaltracittà.

Ultimi post di Gilberto Pierazzuoli (vedi tutti)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *