Mondo analogico e AI discrete

  • Tempo di lettura:12minuti

Parte quinta, qui la primaqui la seconda, qui la terza, qui la quarta

Maryanne Wolf, una neuroscienziata che studia gli adattamenti plastici ai quali viene sottoposto il cervello quando impara a leggere, si chiede se le attuali stimolazioni digitali alle quali siamo sottoposti, essendo immersi in una pletora di stimoli, in particolare a quelle che riguardano coloro che stanno imparando a leggere come i nativi digitali, “impediranno la formazione di processi cognitivi più lenti, quali il pensiero critico, la riflessione personale, l’immaginazione e l’empatia, che fanno tutti parte della lettura profonda? […] [Avranno cioè] un minore incentivo sia a costruire le loro riserve di conoscenza sia a pensare in modo critico e autonomo?” (p. 15).

È la stessa chiave di lettura che il re Thamo (Θαμοῦ) solleva nei confronti dell’invenzione della scrittura:

“E questa conoscenza, o re, – disse Theuth, – renderà gli Egizi più sapienti e più capaci di ricordare: infatti essa fu escogitata (quale) sostegno della memoria e della sapienza.” Ed egli disse: “O ingegnosissimo Theuth, uno (è) capace di produrre i risultati dell’arte, un altro invece di giudicare quale parte di danno e di vantaggio ha per coloro che hanno intenzione di farne uso; e adesso tu, essendo padre della scrittura, per benevolenza hai detto l’opposto di quello che può fare. Questa invenzione infatti produrrà dimenticanza nelle menti di coloro che l’apprendono, per mancanza di esercizio della memoria, in quanto rammenteranno dal di fuori per fiducia nella scrittura per opera di caratteri altrui, non dal di dentro loro stessi da se stessi; hai escogitato non dunque un sostegno della memoria, ma del suggerimento alla memoria. Invece a coloro che apprendono tu procuri, di saggezza, apparenza, non verità: infatti divenuti grazie a te ascoltatori di molte nozioni senza insegnamento crederanno di essere conoscitori di molte cose, (pur) essendo per lo più ignoranti, e difficili da sopportare, essendo divenuti presuntuosi anziché saggi”. (Platone, Fedro, 274c-275a)

Una domanda non certo retorica né pedissequa. Quella invenzione, la scrittura, ha cambiato profondamente la forma mentis degli umani che ne fanno uso, in senso letterale e non metaforico. Bisogna perciò domandarsi cosa succederà dopo che lo sconvolgimento digitale avrà raggiunto la gran parte della popolazione mondiale.

Cosa succede all’empatia quando invece di osservare/incontrare l’altro ci confrontiamo con il medesimo? Le reti neuronali organiche, il cervello animale, usano al pari delle macchine computazionali, metodi statistici e predittivi per velocizzare i processi ed economizzare risorse. Ogni esperienza vissuta che aveva coinvolto un certo numero di neuroni (tanti) dando luogo a connessioni e quindi a configurazioni che tendono a permanere e a rimodellare il cervello stesso. La capacità di scatenamento di una serie di ricordi che avviene al ripresentarsi di uno stimolo, la madeleine di Proust, avviene proprio perché la configurazione mnemonica aveva associato quel profumo a un evento. Questo non significa che dobbiamo ricordare tutto. La percezione stessa e il manifestarsi di un evento non avvengono per sommatorie, ma per sottrazioni. Dal continuum della realtà ritagliamo alcune cose sulla base di vari fattori, uno dei quali può dipendere dalle configurazioni mentali precedenti. Attraverso questo processo di sottrazione e relativa configurazione che viene presa in carico dal sistema, costruiamo dei pattern attraverso i quali interagiamo con il mondo. La nostra reattività agli stimoli era fondamentale per proteggerci dai predatori ma era ed è anche indispensabile per reagire oggi agli stimoli improvvisi che si presentano per esempio alla guida di un’auto. Di fronte a uno stimolo di questo tipo non dobbiamo interpretarlo ex novo e non dobbiamo ricostruire quella configurazione che avrà come esito finale un comando motorio. Spesso infatti reagiamo in automatico: prima ancora che lo stimolo sopraggiunga abbiamo già preparato/allertato la configurazione che dà luogo a quel comando motorio. Se il nostro livello di attenzione è alto abbiamo pochi millisecondi per confermare il gesto o per stopparlo. Questo significa che l’attenzione agisce su non lasciarsi andare alla routine, in un certo senso nel sovraintendere i processi e non lasciare agli automatismi la totale risposta agli stimoli. Attenzione vuol dire esercitare una vigilanza, lasciare alla coscienza il timone di alcune funzioni decisionali e quindi degli attuatori motori.

Per fare questo costruiamo un catalogo sempre più variegato di funzioni che accelerano e economizzano le nostre performance. E questo catalogo contiene anche strategie predittive che vengono allarmate quando si presentano certi stimoli o quando siamo immersi in situazioni già conosciute. Quando queste situazioni sono nuove, disattiviamo il pilota automatico. Questa capacità, questa caratteristica, è precipua dei sistemi di intelligenza animale. Dire che gli animali non umani si basano sugli istinti, significa che hanno molte configurazioni agenziali predisposte e quindi automatizzate. Questo non significa che non sappiano reagire alle novità, tant’è vero che anche il loro cervello è elastico. Quelli che non sanno reagire alle novità, all’imprevisto, sono piuttosto le reti neurali artificiali. Come fanno allora le AI (Intelligenze Artificiali) a reagire in modo così efficiente ai nostri prompt? Ai nostri stimoli? Suppliscono a questa mancanza avendo memorizzato così tante configurazioni che tendono a esaurire lo spettro di possibilità. In realtà, spesso esse possono anche ricercare corrispondenze al momento stesso dello stimolo e sceglieranno alla fine non quella più adatta ma quella più probabile in quel contesto. Le intelligenze organiche possono fare la stessa mossa oppure scegliere di improvvisare, ma anche di arrendersi impotenti di fronte a una situazione sconosciuta. L’importante è che la possibilità di improvvisare sia presente nella loro gamma di comportamenti. Certo è una possibilità che noi possiamo implementare nell’algoritmo che guida le AI. Ma cosa significa improvvisare per una AI? Potrebbe essere, per esempio, la scelta casuale tra tutti i comportamenti già messi in atto. Se la cosa funziona allora la AI aggiungerà l’evento alla categoria degli eventi che richiamano quella risposta. Ma, se la cosa funziona, significa nello stesso tempo che l’imprevisto non aveva poi reali connotazioni differenziali: l’imprevisto era fondamentalmente prevedibile. Può provare, come fanno gli umani, a variare una procedura acquisita non nella sua totalità ma soltanto in qualche particolare. Questa è spesso la strategia che usano anche le Intelligenze Organiche. Ma anche in questo caso si tratterebbe di aggiustamenti. Certo reiterando gli aggiustamenti il campo coperto dall’algoritmo si espande, lasciando fuori sempre meno imprevisti ma la copertura non sarà mai esaustiva. Sono questi gli errori che ancora fanno le AI più prestazionali come ChatGPT. In più, a questo punto, interviene un altro fattore, forse dirimente: la validazione. Per la macchina è un processo abbastanza semplice. La macchina algoritmica ha un obiettivo. Sino a quando questo obiettivo non viene raggiunto, la macchina può iterare le subroutine e lo fa a una velocità enorme che le permette di sperimentare innumerevoli varianti. Ma di fronte all’imprevisto anche l’esito non è conosciuto. Soltanto l’umano è capace di validare il suo comportamento in base a moltissimi criteri sino a trovarsi di fronte a un criterio sconosciuto che comunque sceglie di validare. È il passaggio dalla grammatica alla semantica, al senso. Anche al non senso voluto e quindi validato, ai comportamenti inutilitari, all’uso inopportuno di attrezzi che diventano giocattoli, al mondo alla rovescia, che non è una ricostruzione meccanica del rovescio del mondo. In definitiva al nuovo. Ma forse ancora per poco. Per questo tante routine algoritmiche hanno bisogno di una validazione umana. Per questo le AI che si sono addestrate sui dati prodotti dagli umani, riproducono statisticamente il male e il bene che gli umani hanno prodotto. Le AI sono piene di bias, pregiudizi, perché i dati sulle quali si sono addestrate sono inquinati dagli stessi bias. Le AI sono razziste, maschiliste e discriminano ogni minoranza, ogni marginalità perché amplificano riproducendoli e assestandoli, i pregiudizi contenuti nei dati sui quali si sono addestrate. Ma non possiamo dire niente sulla composizione dei dataset di apprendimento, anch’essi sono proprietari.

I cervelli organici sono plastici perché contengono configurazioni mutevoli che rendono conto non soltanto delle cangianti figure percettive ma anche della presenza dell’altro in quanto simile. La stessa emersione delle cose dal continuum della realtà avviene in funzione dell’altro. Le cose emergono nel momento in cui le si dà una significanza accettata anche dall’altro. Il mondo è mondo di cose condivise. Il senso è questa condivisione. È una relazione, una correlazione continua che crea e disfa la significazione. La macchina è sottomessa a questa significazione senza poterne fare l’esperienza. La discretizzazione non si dà una volta per tutte. Il processo di individuazione delle cose non ha una forma definitiva. Si realizza ogni volta ex novo ma ogni volta è semplificato perché non deve lavorare da zero perché ha mantenuto nella cache la rappresentazione precedente dove il senso percettivo coinvolto lavora nel processo di individuazione delle cose. L’ambiente umano è quello che gli umani condividono e si costituisce a partire da sensori e attuatori che lo scontornano. Il nostro ambiente/mondo per Uexküll non è lo stesso di quello di una mosca o di una zecca, ogni specie ha il suo ambiente che si determina in base agli strumenti di interazione che l’essere (anche umano) possiede. Ma questo è anche determinato dalle relazioni che ogni essere ha con tutti gli altri. È determinato dai punti di incrocio che si hanno con gli altri. Il modo di percepire il mondo è filtrato attraverso queste relazioni, queste significazioni. L’individuazione è un sottosistema del mondo, ma anche questa ha confini labili. Siamo esseri simbionti che in un gioco di inglobazioni/incorporazioni e espulsioni creiamo agglomerati metastabili in continuo divenire. Anche la macchina può essere incorporata, embedded, per questo avrebbe più senso parlare di intelligenze condivise. Il fatto è che qualcuno ha deciso di essere proprietario di una di queste parti di una di queste relazioni. La AI come entità separata ha poco senso. Parlare di AI ribelli, di AI superiori o inferiori ha lo stesso senso di immaginarsi la possibilità che la flora batterica del nostro intestino organizzi una rivolta per la propria indipendenza. Nessuno/a è indipendente. Il fatto è che le macchine computazionali sono state inserite nell’ambiente umano a partire da un’appropriazione che ne ha determinato il modo d’uso. Se l’ambiente umano oggi, in molta parte del mondo occidentalizzato, prevede un rapporto gerarchico tra i suoi appartenenti, questo fa sì che, per il suo funzionamento, il processo di individuazione debba essere più incisivo. La discretizzazione del mondo è una esigenza capitalista e la digitalizzazione dello stesso è il suo culmine. Anche per gli esseri biologici e analogici i processi di discretizzazione della realtà sono importanti. Ma come abbiamo intuito sono principalmente strumenti relazionali. Sono la messa in senso delle relazioni. La costruzione di significanti, che sono subordinati al processo di significazione. Il significante senza il significato, non esiste, non ha senso. Così quando riversiamo nelle macchine computazionali gli strumenti linguistici assoggettati alle relazioni tra gli enti, escludendo le relazioni di senso che fondano sia il significante discreto (la parola) sia il significato, facendo un’operazione di rottura tra i due elementi, facciamo un’operazione senza senso. Che poi la macchina ci restituisca una stringa di caratteri probabilmente per noi significativi, è un’altra cosa. Questo potrebbe servire per esempio a dare una veste formalmente corretta a diversi costrutti del fare umano. Qualche esempio: un testo che può essere organizzato in codice di programmazione, oppure in strutture metrico poetiche convenzionali, in un report o in una imitazione di un’opera che per noi invece (relazionalmente) ha dei risvolti estetici se non etici. Teoricamente si aprirebbe anche uno spazio disfunzionale: un loro possibile recupero ludico e inutilitario. Si aprirebbe al gioco dell’immaginazione. Una costellazione non ha niente di reale. Le relazioni tra le stelle che ne fanno parte è soltanto la messa in senso – anch’essa relazionale – che si produce a partire da un punto di vista a loro esterno. Un esempio opportuno nel quale si ha significato senza referente, dove l’abbinamento tra significante e significato è pura convenzionalità che rimanda di nuovo alla relazione, al rapporto con l’altro. Lasciare alla macchina gli accostamenti grammaticali e poi farneticare sul senso, farneticare insieme. Il comportamento degli esseri umani e non umani è pieno di sbavature che hanno spesso la loro occorrenza. È la tolleranza che ci deve essere nella costruzione del dado e del bullone che descrive il margine di devianza tra il punto di grippaggio e quello che permette una loro presa salda. Tante cose infatti si possono fare anche senza una coincidenza assoluta. Esiste sempre uno spazio di gioco, uno spielraum che allarga gli spazi di esistenza. Forse non è così per la macchina, per questo tipo di macchine, alle quali serve invece una discretizzazione precisa.

Tornando a ChatGPT e sorelle, il ruolo che fondamentalmente hanno queste tecnologie è di essere degli aiutanti digitali. Ma sembrano molto di più. Nessuno si meraviglia infatti se una qualsiasi calcolatrice estrae istantaneamente una radice quadrata di un numero a millanta cifre. Ma le AI generative, i LLM (Large language model), come ChatGPT o Bard sono aggraziate, si scusano quando sbagliano, usano il linguaggio naturale, si mascherano da umani e sono terribilmente convincenti. Se avessero la veste di semplici tool non se ne sarebbe parlato così tanto. Viene il sospetto che il polverone sia stato voluto. Fatto sta che affideremo sempre più mansioni a queste tecnologie. Niente di nuovo, per altro, la storia evolutiva del sapiens è una storia piena di apporti e supporti tecnici. Il sapiens occidentale è un soggetto prometeico. Se c’è qualcosa di nuovo è l’entità di questi apporti e la velocità di crescita degli stessi. Il fatto poi che gli attrezzi di cui parliamo interagiscano con l’ambito cognitivo, li colloca nell’ambito del conturbante: creano paure. Ma non sono paure infondate. Queste tecnologie sono descritte da un punto di vista atto a mascherare gli effetti profondi che il loro uso può determinare nelle strutture cognitive della specie. Il fatto che sappiano fare molte cose, determinerà nell’immediato che a loro si delegherà sempre più l’espletamento di tante pratiche umane che saranno però svolte nel modo della macchina che non sempre coincide con quello degli umani. Sino al rovesciamento totale dei criteri. Al tempo delle macchine “pensanti” la ricerca di un punto di vista personale non avrà più senso. Il punto di vista è quello della macchina o… del suo padrone. Un padrone molto geloso: le sue macchine si pagano non per averle ma per avere il permesso di usarle. Non le possiamo acquisire. Non le possiamo fondamentalmente modificare se non in particolari insignificanti. Non le possiamo copiare, il codice è proprietario ed è inaccessibile. Sino a poco tempo fa molte delle funzioni legate alla rete erano gratuite, almeno all’apparenza. Per monetizzare il loro uso gran parte delle soluzioni si basavano sugli introiti pubblicitari. Su una forma molto evoluta di pubblicità. Una pubblicità non solo che si adattava al cliente ma che lentamente adattava il cliente alla merce. Questa idea di business domina ancora il mercato, ma qualcosa sta cambiando. I browser sono gratuiti ma gli “assistenti personali” si pagano un tot al mese. Non molto ma abbastanza da incidere ancora una volta sul “digital divide”.

Continua…

Nel prossimo numero. Il cervello macchinico e l’empatia: le automobili a guida autonoma fanno ancora degli errori perché non sono macchine empatiche.

Le immagine sono state generate da Midjourney su prompt dell’autore e sono degli autoritratti di Midjourney stesso

The following two tabs change content below.

Gilberto Pierazzuoli

Attivista negli anni 70 . Trasforma l'hobby dell'enogastronomia in una professione aprendo forse il primo wine-bar d'Italia che poi si evolve in ristorante. Smette nel 2012, attualmente insegnante precario di lettere e storia in un istituto tecnico. Attivista di perUnaltracittà.

Ultimi post di Gilberto Pierazzuoli (vedi tutti)

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *