Ormai ci hanno schedato, quanto servirà il freno dell’Europa al riconoscimento facciale?

Lo sviluppo delle tecnologie digitali ha creato oggetti, processi, servizi gestiti da piattaforme on line in mano ai privati. Si tratta della offerta di servizi, di modi di produzione e di distribuzione totalmente nuovi e non regolamentati da nessuna norma. Molti di questi hanno sollevato come minimo delle perplessità se non una certa ostilità da parte di alcuni analisti. I temi più scottanti emersi sono diversi: la tendenza all’elusione fiscale, forme di controllo del lavoro che reintroducono indirettamente il cottimo, invasione della privacy. Come abbiamo più volte sottolineato, il problema non è intrinseco alle tecnologie in sé, ma al fatto che esse sono subordinate agli interessi economici dei proprietari delle piattaforme. Il fenomeno Airbnb (e simili) che provoca lo svuotamento dei centri storici delle città turistiche potrebbe essere esemplificativo. La piattaforma offre un servizio semplice fare incontrare domanda e offerta nel campo degli affitti brevi prelevando una percentuale di una certa consistenza (3% dall’host e tra il 12 e il 15% dall’ospite) facendo un fatturato di una certa rilevanza senza impiegare mano d’opera propria, e senza possedere o avere in affitto nessun immobile. Svolge però un servizio che ha una sua utilità. Permette di mettere a disposizione una offerta di accoglienza per turisti, studenti fuori sede e simili, fuori dai canali tradizionali del settore alberghiero, aprendo nello stesso tempo alla possibilità di aumentare il reddito familiare ai piccoli proprietari, anche alla famiglia che affitta una singola stanza del proprio appartamento. La cosa non è in sé negativa tanto che si potrebbe pensare di trasformare quell’offerta privata in una offerta pubblica attrezzando i comuni con strutture informazionali adatte allo scopo. Stessa cosa per Uber, per i rider delle consegne a domicilio e così via.

Ma la tecnologia digitale è pervasiva. Ha, per esempio, aperto un campo inesplorato per quanto riguarda la sorveglianza e la sicurezza tanto che più comuni, cavalcando le insicurezze diffuse provocate dalla modernità e dal modello di sviluppo che la caratterizza, si sono dotati di una esagerata dotazione di telecamere spesso comandate da un software per il riconoscimento facciale per prevedere le possibili zone critiche della città così da poter intervenire in tempi brevi per reprimere comportamenti criminali, ma anche per prevenire/predire la possibilità che avvengano. Il fatto è che questi software, questi algoritmi, sono costruiti intorno a ipotesi statistiche estratte dalla analisi di grandi quantità di dati, dati che sono spessi viziati da dei bias (pregiudizi) che rispecchiano le forme di discriminazione sociale in atto anche nelle nostre democrazie. Si tratta di bias etnici, di genere, ma anche di età e di istruzione, ancora radicati nella nostra società. Il sistema di controllo legato al riconoscimento facciale ha infatti creato molti problemi là dove si è provato ad utilizzarlo. Una ricerca nei motori della rete vi restituirà infatti una miriade di esempi.

Finalmente una risoluzione passata a maggioranza all’interno delle indicazioni per la prossima legge sulla Intelligenza Artificiale, proibisce l’uso e la conservazione dei dati in banche private. L’indicazione da convertire in legge infatti prevede: “il divieto di qualsiasi trattamento di dati biometrici, comprese le immagini facciali, utilizzato dalle forze dell’ordine, che possa portare a una sorveglianza di massa negli spazi pubblici”.

È un segnale importante, una vittoria per merito di tutti coloro che invece di sottomettersi ai peana sviluppisti e progressisti hanno denunciato i pericoli ai quali si andava incontro. Finalmente in Europa si tenta di regolamentare il settore delle nuove tecnologie con tutte le sue problematiche e, in particolare, di quella della privacy che l’invadenza delle piattaforme di raccolta dati ha minato profondamente.

Dal film “Anon”

E qui alcune osservazioni utili per non abbassare la guardia. La presa di posizione europea vieta il riconoscimento è la raccolta di dati biometrici, ma – a quanto sappiamo in questo momento – non proibisce l’uso degli strumenti deputati allo scopo. Nardella si potrà tenere le sue oltre migliaia di telecamere. Facciamo allora un ragionamento sulla privacy. Ci possono osservare e questo è quanto. La privacy alla quale allora io vorrei avere diritto è quella che certe cose, certi miei comportamenti non vorrei che venissero messi a conoscenza per esempio della mia/o partner, della mia/o concorrente, della mia assicurazione, di mia figlia/o, di mia madre/padre. Per molti non avrei nulla da nascondere ma verso qualcuno/a forse potrebbero sussistere delle situazioni nelle quali per me la cosa sarebbe spiacevole.  Nel romanzo – e nella sua trasposizione cinematografica – “Il cerchio“, una persona è indotta al suicidio senza aver fatto nessun reato. Quel gesto è stato semplicemente la conseguenza di aver resi pubblici dei fatti privati. Il giudizio sociale anche se non formalizzato, opera discriminazioni autonomamente. Ogni persona dovrebbe avere diritto a degli spazi privati, ma in questo mondo, segnato da questo modo di produzione e sviluppo, essi si restringono sempre di più. Come minimo ognuno dovrebbe avere diritto al fatto che i suoi comportamenti a scuola non venissero usati per la patente a punti, per ricevere un prestito bancario, per un’assicurazione sulla vita etc. I dati sul mio comportamento dovrebbe essere miei e dovrei io decidere quando, come e a chi comunicarli.

Si potrebbe dire che è un primo passo per mettere un freno alle nuove tecnologie. Ma il punto dirimente rimane la proprietà dei dati personali che stanno provocando un salto antropologico non governato se non dai proprietari delle piattaforme, dai privati con i loro copyright.

Adesso c’è l’emergenza Covid che sconsiglia/proibisce gli assembramenti, significa che la libertà di libera associazione etc. viene sospesa. In questo caso per un buon fine (si spera), ma se intanto si mettono in piedi gli strumenti di sorveglianza e controllo rendendoli di facile attuazione, come abbiamo visto per le zone rosse e per l’anti movida, si realizza la possibilità che inizino a usarli fuori da quella eccezione che li aveva sdoganati.

Se andiamo allora a vedere tutta una serie di caratteri connessi alle tecnologie digitali, potremmo accorgerci che una grande quantità di telefoni usano il riconoscimento facciale per lo sblocco (face unlock), in questo modo associano il mio nome con il mio viso, così come ce ne sono molti altri che si sbloccano con il riconoscimento dell’impronta digitale (altro dato biometrico). Il riconoscimento facciale si può fare – l’uso del mio telefono privato non avviene in uno spazio pubblico – ma, per funzionare, il telefono dovrà avere memorizzato i mie dati biometrici, altrimenti come farà a riconoscermi? Si avrebbe allora soltanto il fatto che i dati raccolti non potranno essere conservati in una banca dati privata, ma forse usati sì? “I proprietari della rete” stanno infatti cercando un modo di usare i dati raccolti per gli scopi di data mining (estrazione e quindi interpretazione) senza impattare troppo sulla privacy, con dei metodi che leggono le correlazioni tra gli stessi, senza far emergere le corrispondenze tra i dati e le persone fisiche che li hanno prodotti. Si arriva così anche alla profilazione degli utenti che li inscrive a categorie, anche più di una, in modo che le operazioni successive vengano fatte per insiemi e non singolarmente. L’operazione stessa di profilazione, avvenendo per vie di deep learning dove il termine deep che sta per profondo corrisponde anche a “oscuro”, renderebbe tutto il processo imperscrutabile per garantire così la salvaguardia della privacy stessa. Il termine profondo/oscuro, più che rassicurarci, ci fa pensare che tutte le decisioni che noi delegheremo agli algoritmi, potranno provenire da questo tipo di operazioni il cui risultato sarà anche per noi imperscrutabile.

Allora i dati raccolti dai device sui nostri caratteri biometrici a cosa serviranno? Soltanto per sbloccare i device? Mettiamo il caso (scusate la metafora violenta) che si possano costruire le pistole (videocamere) e le pallottole (riconoscimento facciale tramite device personali connessi, i cui dati possono essere utilizzati dai proprietari delle App), con il risultato per il quale si potranno costruire le pistole e le pallottole, ma che non si potranno mettere insieme: qualcosa ci suona male. Chi mi potrà garantire che la cosa non succeda? Chi mi dice che in una prossima legislatura più totalitaria non li si usi sotto banco per motivi di sicurezza nazionale, secretando il tutto per gli stessi motivi?  Se poi veniamo anche a sapere che anche la polizia italiana ha, per esempio, utilizzato il database di Clearview Ai, la più discussa azienda di riconoscimento facciale, i nostri dubbi e i nostri timori si fanno più fondati. Ma non vogliamo giocare al complottismo, vogliamo soltanto sollevare dei dubbi che possano portare a una serie di normative che governino in modo soddisfacente il comparto.

Il fatto positivo è comunque che finalmente si dichiara che quella del riconoscimento facciale non è una buona tecnologia mettendo fine alla impossibilità di interrompere quella narrazione progressista per la quale lo sviluppo della tecnoscienza è sempre una cosa auspicabile. Speriamo che sia arrivata finalmente l’ora per gettare uno sguardo sull’oscuro (deep) modo di operare degli algoritmi dei grandi operatori della rete e di poter mettere in campo forme di governamentalità e di controllo finalizzate agli interessi comuni e non soltanto agli interessi di quegli stessi operatori. Siamo di fronte a trasformazioni epocali, dentro una crisi ambientale, sanitaria ed economica, stretti comunque nella morsa tra le epifanie minacciose dei mostri del debito e della crescita. Dentro trasformazioni degli stessi comportamenti umani, affrontando il tutto con strumenti ormai obsoleti o attraverso un laissez faire che erode le nostre libertà e la nostra capacità di agire tra le cose del mondo.

Gilberto Pierazzuoli