Spionaggio e discriminazioni, il lato oscuro della biometria
In diversi Paesi le autorità garanti della privacy hanno criticato l’uso non regolamentato e non trasparente del riconoscimento facciale.
Pubblicato il 07 settembre 2021 da Valentina Bernocco

I sistemi di riconoscimento facciale possono fare paura se usati in modo poco trasparente e troppo invasivo. Emblematico è il caso di Clearview AI, società statunitense specializzata in questo campo e che vanta tra i propri clienti circa tremila agenzie di pubblica sicurezza (tra cui l’esercito e l’aviazione statunitensi): all’inizio del 2020 un reportage del New York Times aveva denunciato il furto, da parte dell’azienda, di tre miliardi di immagini ricavate dal Web e in particolare da piattaforme social come Facebook, YouTube e Venmo. Un immenso database di immagini di persone schedate a loro insaputa e senza aver mai prestato consensi per attività di questo tipo.
Ma ClearView non è un caso di grave violazione della privacy isolato. In un documento del 2020, il Garante europeo della protezione dei dati citava PimEyes, società polacca che consente a qualsiasi utente di caricare sul loro sito Web la foto di una persona per trovare eventuali altre immagini presenti in Rete. “Di fatto”, sottolineava il Garante, “è possibile far controllare dal database qualsiasi persona che incontrate per strada e a cui scattate di nascosto una foto”. L’ente europeo per la protezione dei dati caldeggia l’adozione di standard internazionali (come l’ISO/IEC 24745) e di meccanismi di autenticazione e crittografia come il biometric template protection. Si tratta di misure di tutela già disponibili ma non adottate in modo sistematico e trasparente dagli sviluppatori di applicazioni biometriche.
Laddove ci siano state verifiche concrete, molte tecnologie non hanno superato l’esame. Nel Regno Unito, per esempio, l’Information Commissioner's Office (Ico) ha avviato e in certi casi completato indagini su applicazioni di riconoscimento facciale “live”, riscontrando criticità in tutti i casi. Di che cosa si tratta? A differenza dei classici sistemi di Cctv, le televisioni a circuito chiuso, i sistemi di live facial recognition impiegano algoritmi di intelligenza artificiale capaci di schedare o identificare le persone e di desumere dall’analisi facciale dati di vario tipo, anche sensibili: sesso, età, appartenenza etnica, segnali di disabilità o di malattia. “Sono profondamente preoccupata”, ha scritto la Information Commissioner, Elizabeth Denham, “in merito alla possibilità che la tecnologia di riconoscimento facciale in diretta sia usata in modo inappropriato, eccessivo o anche sconsiderato. Quando dei dati personali sensibili vengono raccolti su scala di massa senza che le persone ne abbiano coscienza, scelta o controllo, l’impatto può essere significativo”.
Il garante britannico è preoccupato, in particolare, dei rischi per la sicurezza pubblica e della creazioni di profili biometrici per attività di marketing personalizzato. Nelle indagini già completate dall’Ico, nessuna delle aziende coinvolte ha saputo spiegare in modo completo quali procedimenti applicasse. Tra i sistemi già in funzione, inoltre, nessuno si è rivelato completamente conforme ai requisiti delle leggi sulla privacy in vigore nel Regno Unito. Se non altro, ha spiegato Dehnam, tutte le aziende oggetto d’indagine hanno scelto di interrompere le applicazioni in corso o di non procedere con quelle pianificate. Ma non per questo possiamo stare tranquilli. In futuro, ha scritto la Information Commissioner, “le videocamere Cctv potrebbero sovrapporsi ai sistemi di riconoscimento facciale live e addirittura combinarsi con i dati dei social media o con altri sistemi Big Data”.
Oltre a potenziali danni alla privacy, i sistemi di riconoscimento biometrico possono produrre anche delle ingiustizie sociali, economiche e di altro genere. Succede per esempio in India, con il grande database biometrico usato dal governo per erogare sussidi alimentari. Ne parliamo in questa videointervista con Silvia Masiero, professore associato dell’Università di Oslo.
PRIVACY
AI & DATA INTELLIGENCE