Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Identità digitale

Riconoscimento facciale, un futuro in chiaroscuro. Serve più attenzione alla privacy

I sistemi biometrici sono il futuro dell’Identity and Access Management, ma gli attivisti delle libertà personali ne denunciano l’invasività e in Europa le violazioni al GDPR sono in aumento. Il mercato non subirà uno stop, rassicura Frost & Sullivan, ma i fornitori dovranno ripensare l’offerta in ottica di privacy by design

10 Set 2019

Patrizia Licata

Le tecnologie per il riconoscimento facciale sono tra le più controverse per le implicazioni su privacy e diritti civili. Basti pensare a quello che sta succedendo nelle proteste a Hong Kong, dove i manifestanti hanno usato puntatori laser o indossato maschere e caschi per non farsi riconoscere dai sistemi biometrici e distrutto i lampioni dove erano installate le telecamere per il rilevamento dei volti. Si tratta di una delle forme di ribellione contro un’autorità governativa percepita come intrusiva, ma come si conciliano i diritti inviolabili dell’individuo e le esigenze della pubblica sicurezza? E questa riflessione di natura etica quale impatto può avere sulle aziende che sviluppano e vendono tecnologie di riconoscimento basate sulla biometria? Per gli analisti di Frost & Sullivan non ci sarà alcuno stop allo sviluppo del mercato: i sistemi biometrici si diffonderanno “senza se e senza ma”, perché rendono l’Identity and Access Management (e in particolare l’acquisizione di nuovi clienti digitali, il client onboarding) molto più efficiente rispetto ai metodi convenzionali come Pin, password o carta di identità. Tuttavia i fornitori tecnologici saranno costretti a un ripensamento dell’offerta: dovrà essere perfettamente compliant con la normativa e incorporare la privacy by design, ovvero la sicurezza e la tutela del dato personale, che include le caratteristiche fisiche.

Identificazione biometrica, crescita a due cifre

Le stime sul valore del mercato globale dell’autenticazione e identificazione biometrica variano a seconda dei parametri usati dalle diverse società di ricerca, ma i numeri e i ritmi di crescita sono importanti. Grand View Research prevede un fatturato di 59,3 miliardi di dollari nel 2025, pari a un Cagr del 19,5% dal 2018 al 2025. Reportlinker ha fissato il valore del mercato globale della biometria a 52 miliardi di dollari nel 2023. MarketsandMarkets si ferma a 41,8 miliardi di dollari nel 2023, con un Cagr del 20% dal 2018. La prima spinta arriva dalla necessità di fornire sistemi di autenticazione sempre più sicuri a protezione da frodi e cyber-attacchi.

GDPR e biometria, rischio violazioni: gli esempi

Per garantire questo trend di crescita, sottolinea Frost & Sullivan, l’industria deve necessariamente tenere conto della pressione regolatoria. Il rispetto del dato personale – sancito di recente in Europa con la General data protection regulation (Gdpr) – è un cruciale terreno di scontro tra biometria e privacy e, secondo Frost & Sullivan, le violazioni del Gdpr a causa di un utilizzo “improprio” dei sistemi di riconoscimento biometrico sono diffuse e destinate ad aumentare in Europa, non solo da parte di grandi aziende, ma anche di piccole realtà, perché il primo nodo è la scarsa comprensione di quanto viene richiesto dalla normativa. Un caso eclatante è quello del liceo svedese multato di recente dal Garante privacy della Svezia per 20.000 euro per un progetto che utilizzava la tecnologia di riconoscimento facciale su un gruppo di studenti per verificare la presenza a scuola. I dirigenti scolastici hanno detto che il programma aveva ottenuto il consenso dei ragazzi, ma per il regolatore ha ritenuto che vi fosse ugualmente una violazione del Gdpr. Di segno opposto la sentenza che ha bocciato la causa presentata all’Alta Corte del Regno Unito dall’attivista gallese Ed Bridges per bloccare su scala nazionale i sistemi di vigilanza basati sul riconoscimento facciale: per i giudici britannici l’utilizzo di queste tecnologie nei luoghi pubblici da parte della polizia non viola le libertà personali, perché esiste un quadro legale che “assicura un uso non arbitrario”.

La class action contro Facebook

La normativa dunque mette i paletti ai sistemi biometrici. E non solo in Europa: per effetto di una class action intentata nell’Illinois, Facebook ha cambiato (su scala globale) le regole per il sistema di riconoscimento facciale usato per taggare gli amici nelle foto: ora è obbligatorio l’opt-in (il consenso esplicito), mentre prima il sistema era automaticamente attivo e occorreva l’opt-out per disattivarlo. La decisione di Facebook è arrivata dopo che l’azienda ha perso il ricorso in appello contro la causa collettiva intentata dagli utenti dell’Illinois nel 2015 che denunciavano come illegale (in base al Biometric Information Privacy Act) la raccolta dei dati biometrici sul social media. A sua volta Amazon è finita nel mirino degli attivisti civili statunitensi per aver fornito alla polizia americana (tramite la divisione Amazon Ring) le telecamere di sicurezza wireless che collegano le abitazioni private con le centrali delle forze dell’ordine: secondo i paladini della privacy questo scambio di dati – che pure tutela i cittadini in caso di reati – apre la strada a pesanti intrusioni e abusi da parte del governo, soprattutto a causa delle falle negli attuali sistemi di riconoscimento facciale.

Il software discrimina?

Parte della controversia sui sistemi biometrici si lega proprio a imperfezioni del software di intelligenza artificiale che, fanno notare attivisti ed esperti (dalla American Civil Liberties Union al ricercatore Luke Stark dell’università di Harvard) presenta un alto tasso di errore e può produrre risultati “discriminatori” (nell’identificazione degli afro-americani e delle donne) e potenzialmente servire per controllare chi partecipa a manifestazioni e scioperi. In base a queste stesse considerazioni alcune città californiane (tra cui San Francisco e Oakland) hanno deciso di vietare l’uso delle tecnologie di riconoscimento facciale da parte delle agenzie governative e delle forze dell’ordine. In molte città americane vige anche l’obbligo per gli enti pubblici locali di ottenere un’apposita autorizzazione per poter usare internamente le tecnologie di riconoscimento facciale.

La regulation come opportunità

La stretta regolatoria è però un’occasione da sfruttare a vantaggio dell’industria della biometria, “non un tallone di Achille”, secondo Frost & Sullivan: i principi sanciti dalla legge possono diventare la “value proposition delle future tecnologie biometriche”, sostengono gli analisti. “È vero che le regole stanno decidendo che forma prenderà il mercato della biometria, ma in un modo che potrebbe dimostrarsi molto più positivo di quel che appare”. Ovvero: normative come il Gdpr possono essere trasformate in opportunità per validare i sistemi biometrici e dar loro un sigillo di affidabilità che ne sancisce l’utilità per la sicurezza nel rispetto della privacy.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4