SCENARI

L’etica dell’Intelligenza Artificiale e le norme applicabili oggi, in attesa dell’AI Act

Il nuovo regolamento europeo dovrebbe entrare in vigore nel 2024 e aiuterà a ridurre la frammentazione e a creare un contesto di fiducia intorno all’IA. Non andrà, però, a colmare un “vuoto normativo”, perchè già oggi sul tema incidono provvedimenti quali il regolamento sulla protezione dei dati personali. In concreto, spetta alle singole aziende realizzare un framework di gestione del rischio

Pubblicato il 26 Ott 2023

Anna Cataleta

Senior Partner, P4I – Partners4Innovation

Sergio Fumagalli

Senior Partner, ESG Advisory Services Leader, P4I - Partners4Innovation

ai act

L’Intelligenza Artificiale (IA), il suo impatto sulla società, la stretta relazione e la complementarità degli aspetti normativi ed etici costituiscono uno scenario complesso e ancora frammentato, sempre più incentrato sulla necessità di regolamentare l’IA tenendo in considerazione i vari aspetti che la caratterizzano e le sfide che la stessa pone.

L’AI Act e il contesto normativo attuale

L’etica dell’Intelligenza Artificiale riguarda le sue implicazioni economiche, sociali e culturali, ovvero le ricadute sulla salute o la sicurezza delle persone e i loro diritti fondamentali. Il tema è oggi oggetto di grande attenzione, tanto che il Parlamento europeo ha approvato a giugno il Regolamento denominato AI Act, destinato a regolamentarne l’impiego nell’Unione europea. Si prevede che per fine anno potrebbe arrivare approvazione finale, per un’entrata in vigore nel 2024.

Come si legge nel testo, l’obiettivo è assicurare il buon funzionamento del mercato interno per i sistemi di intelligenza artificiale… e contribuire all’obiettivo dell’Unione di essere un leader mondiale nello sviluppo di un’AI sicura, affidabile ed etica, e garantire la tutela dei principi etici.

La proposta di AI Act si sta sviluppando in un contesto giuridico che non è caratterizzato da un “vuoto normativo”. L’esistenza di norme europee e nazionali (ad esempio il regolamento sulla protezione dei dati personali, GDPR) incide su diversi aspetti dell’intelligenza artificiale.

Il ruolo dell’AI Act, pertanto, dovrebbe essere quello di costituire uno strumento volto ad evitare un’eccessiva frammentazione e creare un contesto di fiducia intorno all’IA stessa. In questo scenario, risalta, altresì, l’importanza della soft law, la quale deve essere strumento di supporto alla normativa. Un esempio è il codice di condotta di cui si sta discutendo in sede G7 o il ruolo degli orientamenti etici pubblicati qualche anno fa dal gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, istituito dalla commissione europea nel giugno 2018, con l’obiettivo di promuovere un’IA affidabile.

Il tema è stato affrontato nell’evento tenutosi il 6 ottobre 2023, nell’ambito della Milano Digital Week, dal titolo “Intelligenza Artificiale, Etica e Privacy”, e che visto la partecipazione delle professoresse Giusella Finocchiaro e Benedetta Giovanola, l’Onorevole Giulia Pastorella, l’Onorevole Brando Benifei, gli avvocati Rocco Panetta e Rosario Imperiali. Il tavolo è stato moderato dall’avv. Anna Cataleta e dal Dott. Sergio Fumagalli, entrambi Senior Partner di P4I – Partners4Innovation.

Durante l’incontro è emerso che molti adempimenti presenti nella proposta dell’AI Act sono apparentemente nuovi ma, in realtà, appartengono già al modus operandi del giurista specializzato in data protection. Un esempio tra tutti è la valutazione d’impatto sui diritti fondamentali dell’uomo, ma anche il risk based approach secondo cui maggiore è il rischio presentato dal sistema di intelligenza artificiale maggiore è l’attenzione posta dal legislatore.

Per ultimo, nell’attuale contesto normativo, in attesa dell’approvazione dell’AI Act emerge, in maniera sempre più evidente, l’esigenza di coordinare le iniziative nazionali e locali alla linea di Bruxelles per evitare una ulteriore frammentazione.

Etica dell’Intelligenza Artificiale: i diversi approcci a livello internazionale

A livello internazionale sta emergendo una frammentazione regolamentare. Questa è resa evidente già dal differente approccio assunto dall’Unione europea rispetto a quello degli Stati Uniti e della Cina, i quali, seppur apparentemente non sembrino troppo distanti, si ispirano a modus operandi diversi.

Inoltre, nelle principali attenzioni che i legislatori stanno ponendo per la tutela dei principi fondamentali, emergono differenze culturali tra le varie nazioni mondiali che, di conseguenza, si ritrovano a tutelare alcuni ambiti piuttosto che altri.

In un contesto eterogeneo, l’Unione europea persegue lo scopo di proporsi come promotore valoriale mediante l’emanazione di una norma vincolante, a differenza, ad esempio, degli Stati Uniti, che hanno scelto un approccio fondato maggiormente su impegni volontari degli attori coinvolti. Il compito dell’Unione europea, pertanto, è quello di non rinunciare ai principi anche di fronte ad un approccio più pragmatico come potrebbe essere quello degli Stati Uniti.

Per contemperare tale discrasia, sarebbe necessario un dialogo e una cooperazione tra gli attori coinvolti a livello internazionale anche in considerazione della circostanza dell’impatto sociale globale che i sistemi di IA hanno.

Etica e AI

L’etica nell’era dell’AI: le possibili ripercussioni a livello discriminatorio dell’uso degli algoritmi. Clicca sull’immagine per leggere l’articolo

Il ruolo dell’etica come soft law 

Il tema dell’etica è stato al centro dell’incontro. La proposta dell’AI Act ha posto molta attenzione sul tema, partendo dal presupposto che la tecnologia deve essere sviluppata e utilizzata per il bene della comunità. Ciò che emerge è una stretta correlazione tra etica e diritto che, tuttavia, non si traduce in una sovrapposizione ma si inserisce in un contesto culturale di valori e principi già esistente.

L’etica può essere intesa come strumento di soft law che permette all’azienda di rendere conto delle proprie decisioni e di essere responsabile per eventuali danni cagionati a causa della mancata (o scarsa) capacità di anticipare e prevenire (o attenuare) un evento prevedibile che può ledere i principi e i valori dell’Unione Europea. L’etica pertanto incarna il concetto di accountability fungendo da criterio di “correttezza”.

L’importanza dell’etica è anche attribuibile all’evoluzione sociale, tecnologia e giuridica degli ultimi tempi.

A seguito del progresso tecnologico, abbiamo assistito ad una crisi del principio di legalità e ad una perdita di centralità del diritto in cui quest’ultimo non ha più la pretesa di organizzare e disciplinare in modo sistematico il mondo. In tale difficile contesto l’utilizzo della soft law è giustificato dalla motivata esigenza di colmare le lacune regolatrici.

Le ragioni dell’uso di questa tecnica legislativa (soft law) sono riconducibili alle attuali esigenze di adottare strumenti normativi dotati di maggiore flessibilità e, come tali, in grado di essere adattati più rapidamente alla continua evoluzione alla quale sono soggetti alcuni ambiti.

In concreto, spetterà perciò alle singole aziende realizzare un framework di gestione del rischio del sistema di IA che tuteli i principi e i valori dell’Unione Europea per identificare, stimare e valutare i rischi noti e ragionevolmente prevedibili che la tecnologia, calata in uno specifico contesto organizzativo, può comportare per la salute o la sicurezza delle persone fisiche e per i loro diritti fondamentali.

Gli impatti dell’intelligenza artificiale e l’enforcement

La caratteristica comune all’utilizzo dei sistemi di IA è il possibile impatto sui diritti umani. Un problema fondamentale riguarda la trasparenza e la giustificazione della capacità di addestramento dell’algoritmo, spesso alimentato da big data ottenuti anche mediate il ricorso al web scraping, che non coincide pienamente con i principi previsti dal regolamento sulla protezione dei dati personali e, in particolare, con il rispetto dei diritti degli interessati.

È necessario, perciò, creare un sistema che miri a prevenire i rischi (ad esempio, la sorveglianza dei sistemi di IA, oppure la trasparenza) e non solo a contenerli. A tal fine, risulta fondamentale diffondere un senso di fiducia e favorire lo sviluppo di competenze, anche in capo agli utilizzatori dei sistemi di IA.

Lo scenario attuale si dirige verso un regolamento che avrà come punto di atterraggio di enforcement le autorità locali e questo potrebbe creare problemi nella fase di applicazione delle regole in ottica di frammentazione già a livello europeo. Il problema potrebbe essere ancora più complesso su scala globale se si prosegue in assenza di dialogo.

Conclusioni

L’IA è un tema tanto complesso quanto cruciale, che sta già avendo un impatto considerevole nella quotidianità. In attesa di una soluzione definitiva, l’attuale impianto normativo e l’etica (intesa come strumento di soft law) possono rappresentare uno strumento necessario per affrontare problemi complessi che richiedono risposte pragmatiche e azioni articolate.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4