A Firenze il sindaco Nardella si fa fotografare durante l’istallazione della millesima telecamera che fa della città la più dotata al mondo in rapporto agli abitanti. Ma quello che ci allarma di più è la sua affermazione nella quale ha annunciato la prossima sperimentazione di un “software innovativo che, tramite le telecamere, consente di rilevare oggetti e movimenti sospetti di persone, senza violazione della privacy, così da poter garantire interventi più tempestivi in caso di situazioni anomale. Quello che risulta dalla informazione specializzata e che riassumiamo, al di là dell’uso a questo scopo del riconoscimento facciale che Nardella avrebbe escluso, è il fatto che ogni software di interpretazione dei comportamenti, soffre di pregiudizi che sono insiti nel sistema di deep learning. Il pregiudizio (bias) nei sistemi di machine learning, noto anche come bias induttivo dell’algoritmo, indica la produzione di risultati con errori sistematici dovuti, ad esempio, alla presenza di ipotesi erronee nel processo di apprendimento automatico. Questo problema non si presenta solo nel riconoscimento facciale, ma praticamente in ogni sistema che utilizza informazioni sulle persone (biometriche, comportamentali, creditizie ecc.). Spesso la presenza di bias nell’IA è associata ad una scarsa qualità dei dati di training, che al loro interno contengono già qualche tipo di polarizzazione, spesso perché la polarizzazione era già contenuta nel pacchetto dei dati. Si prenda il caso nel quale i dati utilizzati per addestrare l’algoritmo siano presi da una serie storica provenienti da ambienti polarizzati: ad esempio le informazioni sull’incidenza della criminalità potrebbero mostrare una maggiore frequenza di crimini nei quartieri degradati, dove c’è maggiore presenza di polizia e quindi un maggior numero di segnalazioni, rispetto a quartieri che appaiono più tranquilli anche perché meno presidiati. In questo caso il sistema non farebbe che perpetuare questa polarizzazione, in un ciclo che si autoalimenta. Un caso simile si è verificato ad esempio in Amazon, dove lo strumento di reclutamento interno scartava con maggiore frequenza le candidate, perché era stato addestrato partendo dallo storico delle decisioni di assunzione, che aveva favorito i candidati uomini rispetto a alle donne. Se l’intelligenza artificiale è addestrata con dati che sono il risultato di pratiche, o tendenze, discriminatorie, come ad esempio le percentuali di assunzione in base al sesso, o i tassi di recidiva criminale associati alla nazione di provenienza, i risultati che si otterranno rischiano di perpetuare questi stessi stereotipi, confermandoli. E dunque necessario dotarsi di politiche che rendano le aziende consapevoli delle responsabilità pubblica di lungo termine circa gli effetti di valutazioni o decisioni effettuate con sistemi automatici. Se ci si ragiona è facile arrivare alla conclusione che una qualche forma di “pregiudizio” è insito nel sistema, perché si tratteranno moli di dati scelti secondo un qualche criterio che andrà a costituire di fatto il “pregiudizio” stesso. Per questo l’opposizione nel mondo da parte delle minoranze che si sono viste penalizzare dall’adozione di questi sistemi.
Ma il sindaco Nardella dichiara di fare tutto questo nel nome della sicurezza spendendo svariati milioni di Euro, stornandoli di fatto da operazioni la cui ricaduta sulla sicurezza di tutti gli abitanti della città sarebbe stata sicuramente più proficua (il diritto alla casa) come dimostra la morte in strada a causa del freddo di un senza tetto che nessuna telecamera ha potuto salvare. Cosa c’è di più sicuro da salvaguardare che non la vita di un uomo?
Buon anno da tutta la redazione.
Redazione
Ultimi post di Redazione (vedi tutti)
- Oltre la repressione: più di 15mila in piazza per la Palestina il 5 ottobre - 7 Ottobre 2024
- Top 200. La crescita del potere delle multinazionali - 7 Ottobre 2024
- I Cittadini Attivi di Firenze per la rinascita del Convento detto di San Paolino - 29 Settembre 2024