Reti e Big Data di Giuseppe Longo

  • Tempo di lettura:13minuti
image_pdfimage_print

In questo numero de “La Città invisibile” Per gentile concessione dell’autore e della casa editrice – che ringraziamo – pubblichiamo un brano tratto da: Giuseppe Longo, Matematica e senso. Per non divenire macchine, Mimesis, Milano – Udine 2021, pp. 235, € 20.00.

In un mondo imbevuto di tecnologia e scienza come quello in cui ci troviamo, la matematica è considerata la conoscenza per eccellenza di ciò che è astratto, oggettivo e vero: perno su cui basare ogni sapere e tribunale per distinguere l’utile dall’inutile, il reale dall’illusorio. Tuttavia la matematica non è la disciplina inerte e assoluta che si è soliti rappresentare: è figlia di una storia e di un percorso che ne rivelano una dinamica più inquietante e meno scontata, dove le tante alternative offrono un’immagine completamente diversa non solo della matematica stessa, ma anche del mondo e della scienza che di questo si può avere […] (dalla quarta di copertina).

****
Il brano è la quarta parte della “Lettera as Alan Turing” da pagina 201 a pagina 207, intitolata: Reti e Big Data, ma per contestualizzare il testo è doveroso fare lo stesso preambolo che l’autore fa nel libro (pp. 181-182):

“Appiattire il cervello e l’organismo su sequenze finite di segni” vs “dare loro un significato”

“Per troppo tempo, l’intelligenza artificiale (forte) ci ha detto che il cervello è una macchina di Turing (MdT), o addirittura che questa lo modellizza completamente. Ma allora, cosa ci potrebbe essere di più rigoroso della MdT, con cui il cervello non potreb­be nemmeno competere? Destra-sinistra, scrivi-cancella, 0-1. Il cervello non sarebbe altro che una pallida approssimazione di questa intelligenza per via dei suoi neuroni troppo molli. Questa tesi è indebolita dai ricercatori più moderati, ovvero dai soste­nitori dell’intelligenza artificiale “normale”: si può (o si potrà…presto) imitare completamente un cervello umano grazie alla MdT, anche senza modellizzarlo. Questa distinzione tra modello ed imitazione mette a tema quello che è contenuto implicitamente in due articoli fondamentali di Turing: uno sul gioco dell’imita­zione (1950), l’altro sul modello di morfogenesi (1952). Turing era molto diverso dall’arroganza solita che mostreranno poi i te­orici dell’intelligenza artificiale, come ho riassunto in una lunga lettera scritta personalmente allo stesso Turing”[…]

Reti e Big Data

In informatica, negli ultimi trent’anni, è successo qualcosa di enor­me che non avevi presagito: la nascita delle reti. Reti di computer, per altro diventati tutti individualmente potentissimi grazie anche alla fisica, in misura a te inconcepibile, stanno cambiando il mondo e la scienza. Una svolta “simbolica”, terza grande rivoluzione scrit­turale, dice Clarisse Herrenschmidt: la terza, dopo l’invenzione della scrittura alfabetica di cui lei è stata archeologa, e quella della moneta coniata, symbolon del valore. Come ogni rivoluzione pro­fonda del simbolismo, quindi della comunicazione umana, quella attuale presenta sfide originali che ancora non capiamo bene e che ancor meno controlliamo. Le reti ci avvicinano tutti, ci offrono possibilità inaudite di apprezzare la diversità umana, di arricchire così l’esperienza di ognuno; ci offrono spunti per nuove invenzio­ni, risultati di ibridazioni e di nuove sintesi mai pensati prima.

Tuttavia, l’aver tanti vicini, come suggerisce la fisica del cam­po medio, può anche forzarci a divenir tutti “medi”, ovvero tutti uguali o quasi. La sfida è aperta. La gestione della scienza ne è una prima vittima: la bibliometria, su cui ho scritto un articoletto scaricabile dalla mia pagina web (come è bello avere una pagina web accessibile da chiunque ed in cui render pubblici i proprio scritti!), contando le citazioni in tempo reale, spinge a seguire le mode e a lavorare in filoni dominanti, dove anche un piccolo pro­gresso può essere citato da molti. Le invenzioni come le tue hanno richiesto dieci, venti, trent’anni, per essere apprezzate: l’impact factor delle riviste è invece calcolato da macchine sulla base delle citazioni degli articoli nei due anni successivi alla pubblicazione. In matematica, in fisica, ci vogliono dieci anni solo per capire un risultato difficile in una pista originale, che viene quindi ignorato a lungo a meno che non sia una risposta difficilissima a problemi aperti da decenni. Macchine in rete che contano immediatamente le citazioni uccidono a priori ogni tentativo di avventurarsi, come hai fatto tu, su sentieri del tutto nuovi.

A questo si aggiunge la follia, di cui ti parlavo prima, del “tutto computazionale”, a partire dallo sguardo sul vivente, fino al mito dell’Universo Macchina di Turing: l’opposto di quello che tu hai saputo proporre. Questi colleghi, che usano l’unica tecnica che co­noscono per applicarla ad ogni fenomeno possibile, appiattendolo in un universo senza senso, fatto solo di calcoli formali, agiscono come se la tua fosse l’ultima macchina che l’uomo può inventa­re: la tua macchina per loro coincide interamente con il mondo! Sono convinto che ne inventeremo altre, ma queste loro profezie rischiano di divenire auto-avveranti: impilando tecniche compu­tazionali su tecniche computazionali per cogliere la complessità dell’Universo (del cervello, del DNA…), sempre nello stesso uni­verso teorico, in modo sempre più astrusamente difficile, senza la semplicità purissima e profonda che richiede l’invenzione ma­tematica, impediscono di pensare anche alla prossima macchina possibile che di certo l’umanità saprà inventare.

Le strutture matematiche discrete giocano un ruolo centrale nella tua invenzione e nei suoi abusi. Le basi di dati discrete sono esatte: ci si accede esattamente. La grande sfida della misura fisica è dimenticata. Il fine ‘800 ed il primo ‘900, dicevo, l’avevano mes­sa alla luce. Poincaré aveva colto il ruolo dell’interfaccia fra non-linearità delle dinamiche matematiche e processi fisici, dato dalla misura classica sempre approssimata: come tu hai ripreso benissi­mo, fluttuazioni al di sotto del misurabile vengono amplificate in fenomeni osservabili e che risultano, quindi, imprevedibili. Anche la fisica quantistica inizia proprio, nel 1900, dalla questione della indeterminazione intrinseca della misura e dalla sorprendente mi­sura discreta dello spettro dell’energia nel continuo dello spazio-tempo. Tutto ciò è stato messo da parte dalle dinamiche computa­zionali che iniziano da valori esatti e che evolvono con esattezza, ovvero dai sistemi di ri-scrittura alfa-numerici, come vengono de­finiti in maniera assolutamente generale. Partendo da valori esat­ti, iterano in modo sempre identico: è questa la correttezza dei programmi. Poi, le reti hanno introdotto l’aleatorio proprio delle fluttuazioni nel continuo spazio-temporale, ma i colleghi che lavo­rano alle reti ed alla concorrenza considerano questo aspetto un “do not care”: tutto viene da loro fatto per renderlo trascurabile. E ci riescono: le reti funzionano esattamente, con rare eccezioni, gra­zie all’esattezza delle basi di dati discrete, senza approssimazioni e senza incertezze nell’accesso ai dati. Se si identificano le reti di basi di dati discrete con il mondo, se lo si gestisce senza capire il meto­do che così si impone e la griglia di lettura della realtà che vi è im­plicita, si perde il senso della singolarità, che è “averaged out” dai comportamenti medi di rete, della nuance, dell’approssimazione e della perturbazione che contribuisce alla novità. In particolare, si perde il senso dell’interfaccia fra le nostre proposte matematiche ed il mondo: la misura. È proprio quello che tu invece hai saputo fare attribuendo un ruolo chiave alle fluttuazioni al di sotto della misura dell’uomo ucciso da una valanga un anno dopo («effetto elettrone»), a quelle che scatenano (trigger) la morfogenesi. Que­sto ci fa capire dove il tuo cambiamento di sguardo, dal discreto al continuo, permette di parlare in un altro modo del mondo, ma a questo ci ritorno.

La scrittura delle equazioni o di una funzione di evoluzione, di una dinamica, da Newton a Schrödinger, non è la “stessa cosa” del processo di cui intendono esser “modello”, nel senso del tuo modello della morfogenesi. Qualche platonista fuori dal mondo dice ancora che «un pianeta integra una equazione differenzia­le», dimenticando in primis che ne bastano due, intorno al sole, perché il sistema non sia integrabile (eppure i pianeti si muovono egualmente…). Le equazioni e le funzioni propongono o derivano da una proposta di una struttura causale, come nel tuo modello della morfogenesi, e sono strumenti di intelligibilità e, in qualche raro caso, di previsione per lo più qualitativa (qui un attrattore, là una singolarità, un certo tipo di forme: come per la morfogenesi da te analizzata). In termini più generali, le equazioni possono de­rivare da leggi di conservazione (energia, momento, etc), quindi da simmetrie che le strutturano (come per le equazioni del moto, tipicamente). Poi, l’uomo o la macchina (se sappiamo ben pro­grammarla) può applicare algoritmi di soluzione, se esistono, o di calcolo, per “seguire” la dinamica. Sappiamo che basta la minima non-linearità, ovvero la descrizione di interazioni (più corpi od agenti), perché il calcolo diverga rapidamente dalla dinamica fisi­ca. E lo si dimostra facilmente, anche senza comparare il calcolo matematico, sempre approssimato, al processo fisico. Ovvero non è necessario misurare il processo all’istante iniziale e a uno succes­sivo: basta infatti osservare che una differenza al decimale preferi­to (il 15esimo, per dire, per la semplicissima funzione logistica) dà divergenze radicali dopo poche iterazioni del calcolo (50 in quel caso, e si occupa tutto lo spazio delle fasi). Poiché la misura fisi­ca (classica) è sempre un intervallo, questa differenza mostra che una fluttuazione al di sotto della miglior misura possibile rende il processo fisico imprevedibile con il calcolo matematico. In fisica quantistica, poi, la misura produce valori di probabilità che sono numeri reali, mentre il calcolo (equazione di Schrödinger) avviene sui numeri complessi. Insomma, la misura (fisica) costituisce una interfaccia fondamentale e complessa fra i nostri tentativi teorici, possibilmente matematici, e i fenomeni, ne mostra il distacco, la differenza fra calcoli e mondo, e rende la scienza umana possibi­le, tenendo aperto costantemente il gioco fra noi ed il mondo. Il modello matematico ed i calcoli su di esso sono ben diversi dal processo fisico: la misura li collega e li separa radicalmente.

Cosa fanno invece questi “computazionalisti” del mondo fisi­co e biologico? Identificano l’universo con una struttura discre­ta, anzi con una scrittura discreta, alfa-numerica, e dicono, come Wolfram, che: «Possiamo certamente immaginare un universo che opera come un comportamento della macchina di Turing». I siste­mi per la calcolabiltà, come il lambda-calcolo di Church, come la tua macchina, sono sistemi di ri-scrittura per i quali stringhe finite di segni vengono trasformate (riscritte) in altre stringhe finite di segni, seguendo le regole/istruzioni stabilite nelle premesse. Que­sta è la rivoluzione della tua macchina alfa-numerica: fa muovere la scrittura, ci dà una dinamica della scrittura alfabetica, ovvero della sua codifica in 0 e 1. Così, senza il problema della misura, dell’interfaccia – dicevo – fra noi e il mondo, si arriva a concepire una dinamica di ri-scrittura di segni nel discreto, una dinamica simbolica, posta completamente fuori dal mondo. La distinzione fra software ed hardware, l’indipendenza del primo dal secondo (non interessa affatto come funzioni l’elettronica), ci fa prendere la riscrittura dinamica per un processo fisico. Fino ad arrivare a dire che il mondo è una macchina a stati discreti, una macchina per la ri-scrittura: la trasformazione di stringhe alfa-numeriche in altre stringhe alfa-numeriche. Ma, scomparsa l’interfaccia, ovvero senza il problema (enorme, in fisica) della misura, la corrisponden­za fra scrittura matematica e processo è esatta, in totale contrasto con la corrispondenza fra equazioni e mondo che non è mai esatta per natura: la misura approssimata li collega e li separa radical­mente, come dicevo.

Tale follia del tutto computazionale ha invaso ancor più la biologia. Chaitin descrive le dinamiche biologiche, nel suo Pro­ving Darwin, così: «la vita intesa come un software in evoluzio­ne libera, un software che descrivere un cammino aleatorio di adattività crescente nello spazio dei programmi». Nel discreto, senza misura, il DNA viene identificato ad un software; la sua materialità fisica ed il suo contesto biologico, corpo, ecosistema, non hanno importanza: «dovremmo ignorare i corpi, il metaboli­smo, l’energia, e considerare esclusivamente gli organismi come software». In questo modo, si estranea il formalismo dai fenome­ni, non li si osserva più perché non li si misura più. L’universo computazionale va per conto suo, fuori dal mondo, lontano dal­la sua materialità fisica, biologica, perché in questa non sono lì, già scritti, i numeri: siamo noi che associamo numeri a fenomeni e processi, attraverso la difficile sfida della misura. Il discreto rimpiazza misura ed enumerazione di atti di misura, propri al continuo, con la sola enumerazione.

Chaitin e Wolfram sviluppano le loro tesi, sulla fisica, sulla bio­logia, in molti scritti e le riassumono in due articoli in un volume in tuo onore, curato da Barry Cooper, dove aggiungono: peccato che Turing non lo abbia capito, ma la sua macchina è come l’Universo tutto, come le dinamiche biologiche. Una vera offesa a te, che hai saputo così profondamente “immergerti nei fenomeni”, giocare nell’interfaccia, cogliere il senso del gioco discreto/continuo, il ruolo della misura, inventare strumenti matematici originali, nel 1952, e diversissimi da quelli che avevi inventato prima, nel 1936, per trattare fenomeni nuovi.

Forse, la catastrofe massima del computazionalismo anti-scien­tifico la si intravede nella recente teoria del “The End of Theories”. In scritti a grande diffusione, informatici o managers di grandis­sime basi di dati ci spiegano: «La correlazione sostituisce la ca­sualità, e la scienza può progredire anche in assenza di modelli coerenti, di teorie unificate». In breve, computer in rete, metten­do in evidenza correlazioni estesissime in immense basi di dati, consentiranno di prevedere ed agire senza alcun bisogno di capire: l’intelligibilità scientifica è un lusso incerto, soggettivo, sorpassato, e le teorie sono delle proposte caduche. I dati, soprattutto se tan­tissimi, tera di tera bytes, i Big Data, sono invece oggettivi, nuova forma di assoluto, sono individualmente esatti, espressi in digits. Inoltre, quanto più le basi di dati sono grandi, tanto più regolarità statistiche, messe in evidenza da computer, possono governarci, senza bisogno di capire il senso delle correlazioni, di interpretar­le, senza alcun bisogno di teorie a riguardo o di interpretazioni teoriche.

Per fortuna la matematica ci consente di dimostrare l’assurdità di queste osservazioni: Cristian Calude ed io abbiamo scritto un articolo a riguardo (scaricabile proprio grazie alla comodità del­la rete). Proprio l’immensità dei dati coinvolti ci ha permesso di applicare i teoremi di Ramsey e di Van der Waerden. Questi con­sentono di dimostrare che, data una qualsiasi “regolarità”, ovvero una qualsiasi correlazione fra insiemi di numeri, si può trovare un numero, diciamo m, abbastanza grande, tale che ogni insieme con almeno m elementi contiene una regolarità (o correlazione fra numeri) con la stessa struttura. Ora, poiché questo vale per ogni insieme abbastanza grande (con almeno m elementi), vale anche quando esso è generato da un processo aleatorio. Anzi, osser­viamo, quasi tutti gli insiemi di numeri abbastanza grandi sono aleatori (se ne può dare una definizione matematica, in termini di incompressibilità), ovvero: la “percentuale” (la misura) dei non-aleatori tende a 0 per m che va all’infinito. Quindi, se si osservano regolarità in basi di dati sempre più grandi, è sempre più proba­bile che i dati inseriti siano dovuti al caso e siano, cioè, perfet­tamente insensati. Nessuna previsione che la regolarità si iteri è ragionevole, così come non lo è nessuna speranza di poter fare a meno di capire tramite congetture e teorie. Certo m è enorme, ma mentre la Teoria di Ramsey è nota per produrre dei numeri m al di là di ogni grandezza concepibile in questo universo (funzioni cre­scenti rapidissimamente), noi usiamo alcuni risultati, pur di quella teoria, che danno “crescite moderate”, raggiungibili dagli attuali immensi clusters di computers.

Già… Franck Ramsey. Tu non hai potuto conoscere personal­mente Ramsey, pure matematico precocissimo a Cambridge: è morto nel 1930, a 27 anni. Era traduttore ed amico di Wittgenstein, con cui poi anche tu avrai uno scambio intenso. Bertrand Russell e John Maynard Keynes saranno il legame forte e stabile fra voi tutti: gruppo straordinario di amici nonché auditori dei rispettivi corsi (ma, secondo te, Wittgenstein aveva amici?). Ti avranno di certo parlato di Ramsey e sono convinto che il suo finissimo risultato di combinatoria finita ti piaceva; forse ti interesserebbe anche la nostra semplice applicazione che demolisce la “Theory of the End of Theories”, tu che non hai fatto altro che proporre quadri teorici e matematici sempre originali, assumere diversi punti di vista, farti macchina a stati discreti ed inventarne il software, immergerti in deformazioni materiali continue, senza software che le programmi, interpretare il reale e la tua stessa invenzione del reale che ne è conseguita. Ed è proprio così che hai profondamente cambiato la nostra realtà.

______________________________________

Giuseppe Longo è direttore di ricerca emerito al CNRS, Centro Interdisciplinare Cavaillès, École Normale Supérieure di Parigi. Matematico di formazione, è stato professore ordinario di Informatica presso l’Università di Pisa. Ha trascorso tre anni negli Stati Uniti (all’Università di Berkeley, al M.I.T., alla Carnegie Mellon) come ricercatore e Visiting Professor. Recentemente ha esteso i suoi interessi di ricerca all’epistemologia della matematica e della biologia. È autore e coautore di oltre cento articoli e tre libri in inglese.

 

The following two tabs change content below.

1 commento su “Reti e Big Data di Giuseppe Longo”

  1. Mi richiama l’interessante “Robotizzazione e alienazione dall’essere collettivo”
    di Karlo Raveli in Sinistrainrete, di qualche tempo fa’.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Captcha *