Editoriale

Quando decidono gli algoritmi: servirà un’autorizzazione preventiva, come per le auto o i farmaci?

Come funzionano gli algoritmi, quelle “black box” sempre più utilizzate per prendere decisioni al posto degli esseri umani dalle Big Tech come Facebook, Airbnb e Google, o dalle Fintech che investono in Borsa? Nessuno lo sa, e l’allarme è alto. La politica si sta muovendo per trovare soluzioni, nel nome della trasparenza e dell’etica

Pubblicato il 16 Apr 2019

algoritmi

Che cos’è un algoritmo? Secondo Wikipedia – che fa risalire il termine alla trascrizione latina del nome del matematico persiano al-Khwarizmi vissuto nel IX secolo d.C. – “è un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari, chiari e non ambigui, in un tempo ragionevole”.

È una definizione applicabile all’algoritmo di Volkwagen per la regolazione del motore che portò al Dieselgate? La risposta è sì: i passi (numerosi ma in numero finito) erano “chiari e non ambigui” e il tempo di esecuzione veloce, ma erano in pochissimi a sapere che uno di tali passi istruiva il motore su come comportarsi ingannevolmente quando i sensori percepivano che era in atto un test di verifica del livello di inquinamento.

È una definizione applicabile all’algoritmo di Facebook per la scelta dei potenziali clienti cui inviare offerte immobiliari o di lavoro, per cui Facebook stessa è stata accusata dall’US Department of Housing and Urban Development di discriminazione razziale? La risposta è ancora sì, ma erano in pochissimi a sapere che la scelta delle persone cui inviare le offerte utilizzava impropriamente i dati sulle abitazioni (violando il Fair Housing Act) per minimizzare il rischio che esse pervenissero ai non-Cristiani, agli immigranti o alle minoranze razziali.

In ambedue i casi la grande assente, per la difficoltà di comprendere dall’esterno i contenuti e le logiche sottostanti agli algoritmi, era la trasparenza: una trasparenza tanto più indispensabile quanto più gli algoritmi effettuano scelte rilevanti per le persone, per le imprese e più in generale per la società; una trasparenza che rischia di allontanarsi ulteriormente con lo sviluppo degli algoritmi intelligenti, che modificano sulla base dell’apprendimento e dell’esperienza i propri meccanismi di funzionamento; una trasparenza sugli aspetti socialmente sensibili che deve però convivere – se non si vuole uccidere l’innovazione – con il diritto delle imprese a mantenere la segretezza su tutti gli altri aspetti.

La politica si sta muovendo, e presumibilmente si muoverà sempre di più nei prossimi anni. L’UE, come primo passo, mette a punto una serie di linee-guida etiche – sugli algoritmi intelligenti e sul loro uso di dati sensibili – che dovrebbero essere presentate quest’estate. Il governo Trump, per perseguire l’obiettivo (largamente condiviso dalla popolazione statunitense) di rendere “safe and trustworthy” gli algoritmi, punta a un rafforzamento sostanziale del processo di creazione di standard tecnologici, sinora pilotato dalle imprese. Molto più dura la posizione dell’ala sinistra del partito democratico: non solo della senatrice Elisabeth Warren, candidata alle prossime elezioni presidenziali, che notoriamente ha l’obiettivo di distruggere con ogni mezzo il potere delle big tech; ma anche ad esempio di un altro candidato presidenziale, il senatore Cory Booker, che ritiene che il governo debba guardare dentro a quello che definisce (con riferimento alla opacità degli algoritmi) un black box, così come fa quando autorizza i nuovi modelli di auto o controlla l’operatività delle banche, obbligando le imprese a dimostrare l’algorithmic accountability dei sistemi intelligenti che esse mettono a punto e/o utilizzano, a partire da quelli che basano le loro decisioni sul riconoscimento facciale o comunque su dati personali sensibili.

Su una linea simile l’apposito comitato creato dalla Camera dei Lord inglese, che – lamentando la non trasparenza degli algoritmi – chiede da un lato che le imprese vengano obbligate a spiegarne nel dettaglio il funzionamento per ottenere un “bollino” che attesti l’aderenza agli standard, e dall’altro che gli utenti Internet abbiano il diritto di pretendere, da chi richiede i loro dati, informazioni precise sulle modalità di profilazione e sull’utilizzo dei dati stessi.

Di qui il titolo che ho dato all’articolo e il riferimento ai farmaci in esso contenuto. Gli algoritmi hanno già, come i farmaci, un ruolo molto forte – anche se non sempre visibile – nella nostra vita. Sono essi ad esempio che effettuano la larghissima maggioranza delle operazioni in Borsa. Sono essi che decidono, raccogliendo automaticamente le informazioni opportune, se siamo clienti credibili per un sito di ecommerce o per la messa a disposizione di un appartamento da parte di Airbnb o di un servizio di taxi da parte di Uber. Sono essi che negli aeroporti, utilizzando il riconoscimento facciale, decidono se farci sottoporre a un particolare controllo come potenziali terroristi. Saranno essi, se verrà autorizzata la cosiddetta guida autonoma (self-driving), che piloteranno i veicoli e dovranno assumere decisioni come quella (spesso discussa sui media) su chi investire – tra un vecchio e un bambino – nel caso estremo in cui non esistano altre alternative.

Che ci si preoccupi su cosa ci sia all’interno dei black box sembra più che naturale e giustificato. È il come questo verrà realizzato, con quale mix – fra autoregolazione da parte delle imprese, fissazione di standard tecnologici sempre più precisi, controlli in itinere da parte di appositi organismi, autorizzazione preventiva – l’oggetto del dibattito politico: un dibattito più sentito in certi Paesi che in altri (quasi inesistente ad esempio in Italia e tema della campagna presidenziale negli Stati Uniti), ma che credo sarà sempre più oggetto di attenzione nei prossimi anni.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4