SCENARI

L’AI Generativa è il futuro degli analytics? I rischi e le best practice

L’utilizzo dell’Intelligenza Artificiale rappresenta un valido supporto nell’analisi dei dati e nell’addestramento degli algoritmi di Deep Learning. Ma non mancano le sfide. Tra le più rilevanti, quelle legate alla tutela della privacy

Pubblicato il 19 Gen 2024

Piotr Korzeniowski

CEO di Piwik PRO

data AI

Dal debutto di ChatGPT nel 2022, il mondo del Marketing ha acceso i riflettori sull’Intelligenza Artificiale Generativa e dato inizio alla “corsa all’oro dell’AI”. Anche nell’ambito della Data Analysis, la tanto chiacchierata AI Generativa sembra avere le carte in regola per rappresentare la prossima grande rivoluzione del settore, sebbene l’impiego dell’AI nei moderni analytics sia già una realtà da anni grazie al Machine Learning.

Utilizzando algoritmi e modelli statistici per imparare dai dati e creare previsioni o prendere decisioni senza un’esplicita programmazione, il Machine Learning ha permesso di risolvere problemi complessi grazie all’analisi predittiva. Questa tecnologia ha, però, un limite: per imparare e produrre previsioni davvero specifiche, il ML richiede un importante volume di dati. È qui che potrebbe trovare spazio l’AI Generativa. La sua “creatività”, infatti, può produrre dati sintetici che possono contribuire a dataset per l’apprendimento supervisionato, specie nei casi in cui i dati reali siano insufficienti, sensibili o sbilanciati.  Creando data point aggiuntivi simili (ma non identici) al dataset originale, l’AI generativa permette di migliorare la prestazione degli algoritmi di Deep Learning. Questi dati sintetici, inoltre, possono sostituire informazioni sensibili, mitigando così i timori in materia di privacy.

Non è, però, tutto rose e fiori: il rapido progresso dell’AI Generativa ha inaugurato una nuova era di innovazione tecnologica ricca di opportunità, ma non mancano le sfide significative. Se da un lato l’AI si dimostra un importante supporto per marketer e analisti, infatti, dall’altro solleva preoccupazioni pressanti.

I rischi e le sfide dell’uso dell’AI nella data analysis

La qualità di un algoritmo di Intelligenza Artificiale è strettamente connessa a quella dei dati che lo alimentano. Proprio questi (e le implicazioni legali connesse al loro utilizzo in scala) possono costituire i principali ostacoli all’adozione di questa tecnologia nel settore:

  1. Data quality. Dati di cattiva qualità possono portare a insight fuorvianti o errati, pericolosi per il processo di decision-making. Accertarsene, però, è particolarmente complesso a causa del volume, della velocità e della varietà delle informazioni con cui le organizzazioni si interfacciano oggigiorno.
  2. Pre-elaborazione dei dati. La pre-elaborazione è una fase cruciale dell’analisi AI-driven. Tuttavia, può essere un processo lungo e complesso, specie quando i dataset sono ampi e diversificati.
  3. Bias ed equità. I modelli di Intelligenza Artificiale possono ereditare i pregiudizi dei dati su cui sono stati addestrati, portando a risultati ingiusti o discriminatori.
  4. Questioni etiche e normative. L’uso dell’AI per analizzare e interpretare informazioni sensibili può suscitare preoccupazioni in materia di privacy, sicurezza e consenso. È fondamentale garantire la conformità alle normative sulla protezione dei dati.
  5. Complessità degli algoritmi di AI. I modelli di AI possono essere difficili da interpretare, il che rende complicato comprendere come giungano a conclusioni specifiche.
  6. Costi elevati e competenze tecniche. Per lo sviluppo, l’implementazione e il mantenimento di sistemi di AI possono essere necessari investimenti importanti e competenze specifiche. Si potrebbe incorrere in problemi tecnici e operativi.
  7. Rischi in materia di privacy e sicurezza. Così come le tecnologie di AI diventano sempre più sofisticate, così crescono i rischi di sicurezza associati al loro utilizzo e potenziale abuso.

Data privacy e sicurezza: l’impatto dell’AI

Abbiamo già evidenziato come un funzionamento efficace dell’AI richieda grandi quantità di dati. Questi, però, includono spesso informazioni personali sensibili che, raccolte, archiviate ed elaborate dai sistemi di AI, possono portare a violazioni del diritto alla privacy, soprattutto a causa delle difficoltà di comprensione di questi algoritmi così complessi. Gli individui potrebbero perfino non essere consapevoli del fatto che i loro dati vengono impiegati per prendere decisioni che li riguardano.

Un’altra sfida legata all’utilizzo di questa tecnologia è relativa alla necessità di garantire la conformità alle normative sulla protezione dei dati, come il GDPR. Il GDPR disciplina le modalità di raccolta, archiviazione ed elaborazione dei dati personali, introducendo misure come il diritto all’oblio o all’accesso alle proprie informazioni, tuttavia non fornisce indicazioni esplicite sulle questioni relative all’AI, generando incertezze sulla governance e sulla proprietà dei dati.

Con l’ascesa dell’AI generativa, le preoccupazioni sono aumentate: questi modelli possono creare dati realistici che potrebbero essere usati per scopi dannosi, come furto di identità, disinformazione o cyberbullismo.

Il bisogno di nuove normative

Il cambiamento di paradigma nel ruolo dell’AI rende indispensabili quadri giuridici nuovi, completi, adattabili e lungimiranti che consentano di sfruttare pienamente il potenziale di questa tecnologia salvaguardando, al contempo, i diritti fondamentali e promuovendo un ambiente favorevole a una crescita tecnologica sostenibile. Nessuna legislazione solida, però, nasce dall’oggi al domani: la rapida evoluzione del panorama dell’AI rende difficile, anche per gli esperti, comprendere cosa stia veramente accadendo e l’adozione frettolosa di nuove norme potrebbe involontariamente soffocare l’innovazione e inibire gli aspetti positivi dell’AI.

In Italia il Garante per la Protezione dei Dati Personali ha avviato questo processo con una risposta, limitata a ChatGPT, che è stata percepita come istintiva e temporanea, ma che ad aprile dello scorso anno ha obbligato OpenAI a conformarsi alle richieste del Garante per tornare accessibile nel Paese.

A livello europeo, invece, è notizia di dicembre 2023 il raggiungimento di un accordo tra Commissione Europea, Consiglio dell’Unione Europea e Parlamento Europeo sul testo del Regolamento Europeo sull’Intelligenza Artificiale (meglio noto come AI Act), con cui l’UE propone di implementare diversi gradi di supervisione normativa sui sistemi AI in base alle loro destinazioni d’uso, richiedendo ad esempio procedure di valutazione e mitigazione dei rischi in settori ad alto rischio. Una proposta, però, ampiamente contrastata fin dalla sua prima bozza nel 2021: l’Europa teme di essere superata ancora una volta dalla concorrenza statunitense, dove la regolamentazione delle Big Tech è tradizionalmente più rilassata. È interessante notare, tuttavia, come proprio negli USA si sia registrata una crescita di proposte di leggi statali sull’AI, il cui impatto su servizi sanitari e assicurativi e sull’occupazione è visto con preoccupazione.

AI e analytics: qualche consiglio

In questo scenario complesso e in costante mutamento, come adottare queste nuove tecnologie nella data analysis in modo sicuro e senza rinunciare al loro potenziale? Ecco i nostri suggerimenti.

  • Implementare l’anonimizzazione dei dati. Anonimizzando efficacemente i dati sensibili, le aziende possono proteggere la privacy delle persone e allo stesso tempo sfruttare i dati per ottenere informazioni preziose.
  • Adottare la “privacy by design”. È fondamentale scegliere un approccio “privacy by design”, assicurando che la privacy sia applicata all’AI, alle operazioni aziendali e ad altri prodotti tecnologici.
  • Limitare e monitorare l’uso dell’AI Generativa. Strumenti AI di terze parti potrebbero memorizzare e potenzialmente utilizzare i vostri dati: assicuratevi di conoscere le loro modalità di impiego da parte di questi strumenti o prendete in considerazione lo sviluppo di soluzioni interne.
  • Avvalersi dei giusti dati. Dovrebbero essere raccolti solo i tipi di dati necessari alla creazione dell’AI. Questi devono essere tenuti al sicuro e conservati solo per il tempo necessario a raggiungere lo scopo prefissato.
  • Proteggere le informazioni di identificazione personale (PII). La maggior parte degli algoritmi di AI non ha bisogno di informazioni di identificazione personale (PII). Considerate la possibilità di filtrare le PII in fase di progettazione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4