I rischi dell'AI

Intelligenza Artificiale e Digital Marketing: come difendersi dai bias?

L’applicazione dell’AI e del Machine Learning al Marketing permette di raggiungere in modo più puntuale l’audience per potenziare le vendite. Ma occorre conoscere i rischi di distorsione algoritmica e prepararsi al peggio, per preservare reputazione e fiducia. Ecco come

Pubblicato il 23 Ago 2021

Ilaria Zampori*

General Manager Italy & Spain di Quantcast

intelligenza artificiale marketing digitale

L’Intelligenza Artificiale (AI), o meglio il Machine Learning (ML), sono sempre più importanti nel Marketing Digitale perché permettono ai marketer di ottenere insight rilevanti dagli innumerevoli dati generati dalle diverse attività aziendali. Il ruolo principale di queste tecnologie è infatti quello di fornire informazioni sui clienti e sul business.

Uno scambio estremamente vantaggioso che si basa su un valore imprescindibile: la fiducia nell’AI. Per affidarsi totalmente a questa tecnologia, marketer e inserzionisti devono dunque essere consapevoli dell’esistenza dei bias algoritmici – un termine tecnico che denota un errore dovuto da assunzioni sbagliate nel processo di apprendimento automatico. Tali “distorsioni” potrebbero effettivamente influenzare il corretto raggiungimento dell’audience di riferimento, ma grazie ad una AI responsabile possono essere limitate. Prima di capire come “correggere” il bias, vediamo alcuni esempi di “incidenti con l’AI” che possono verificarsi.

Esempi di “incidenti” realmente acccaduti

Molte realtà imprenditoriali oggi si sentono costrette ad adottare sistemi di AI per restare al passo con la concorrenza e persino anticiparla. Una pressione fondata visto che tale tecnologia può realmente trainare il cambiamento e ottimizzare i costi. Tuttavia, come già accaduto con altre tecnologie, è importante comprendere appieno i rischi insiti nel coniugare insieme Intelligenza Artificiale e Digital Marketing prima di ritrovarsi in situazioni spiacevoli.

Tra i casi più pericolosi troviamo sicuramente il cosiddetto “data poisoning”, ossia un inquinamento dei dati compiuto volontariamente da hacker esperti in iIntelligenza Artificiale. Per citarne uno, nel 2016, il chatbot di una piattaforma social media venne ingannato ed educato ad un linguaggio negativo che lo rese inevitabilmente razzista e offensivo. “Partnership on AI” cura un database che presenta più di 1200 report pubblici con incidenti AI simili a quelli appena descritto. Inoltre negli ultimi anni sono sempre più oggetto di grande attenzione anche da parte di media e giornalisti. Ecco perché i brand dovrebbero prevenirli ed evitare quindi una crisi reputazionale ben prima che accada.

Tra gli incidenti più comuni primeggia invece la cosiddetta discriminazione algoritmica che si presenta quando AI e ML non presentano il messaggio giusto ad uno specifico gruppo demografico. Per i marketer e gli inserzionisti avere dei bias potrebbe quindi significare non raggiungere la giusta audience e di conseguenza perdere potenziali opportunità di vendita. Diventa necessario comprendere ed educare al meglio l’Intelligenza Artificiale a cui si decide di affidare non solo le proprie campagne adv, ma anche e soprattutto il budget aziendale e i relativi profitti del brand.

Un’AI responsabile e trasparente

Nel binomio Intelligenza Artificiale e Digital Marketing un altro errore che potrebbe coinvolgere i sistemi di AI è la mancanza di trasparenza e di responsabilità, come successo a Google alcuni anni fa. Il motore di ricerca più usato al mondo suggeriva agli utenti risultati offensivi e privi di senso che in pochissimo tempo hanno fatto il giro del mondo. In risposta, l’azienda ha subito inserito una feature per segnalare i risultati inappropriati. Adottando questa pratica è stato possibile fornire direttamente ai consumatori la possibilità di inviare un feedback, comunicando che il risultato ottenuto ed elaborato dal sistema è errato, in questo modo si supporta contemporaneamente l’apprendimento dell’algoritmo stesso.

In Quantcast, abbiamo recentemente lanciato sul mercato una piattaforma proprietaria di audience intelligence alimentata da Ara™, un motore di AI e Machine Learning brevettato dell’azienda che viene costantemente sottoposto a diversi processi quali rigorosi controlli accademici e peer review condotti da esperti di Machine Learning altamente qualificati. Una scrupolosità e un’attenzione maniacale volti proprio ad evitare o almeno ridurre al massimo i bias.

Alla responsabilità bisogna però associare anche la trasparenza che rende l’AI interpretabile e spiegabile: ciò consente una comprensione e revisione umana oltre ad un maggior controllo. Ogni azienda dovrebbe, quindi, tenere traccia di tutti i sistemi AI, esaminandoli ed assicurandosi che funzionino correttamente. Sono di fondamentale importanza anche misure di sicurezza informatica di base come ad esempio programmi basati su ricompense per la segnalazione di bug, in gergo “bug bounty”, e verifiche attraverso test effettuati da esperti del settore. Inoltre potrebbe rivelarsi utile anche documentare i sistemi di AI e ML adottati creando un manuale per la risoluzione di eventuali problemi e incidenti che potrebbero verificarsi, permettendo così una risoluzione tempestiva.

Intelligenza Artificiale e Digital Marketing: Takeaway per i brand

Ecco i sette i punti chiave che ogni società dovrebbe considerare nella valutazione dell’AI utilizzata:

  1. Equità: sono presenti delle differenze in termini di risultati o di accuratezza nelle decisioni dei modelli tra gruppi demografici diversi?
  2. Trasparenza: è possibile spiegare come il modello prenda certe decisioni?
  3. Negligenza: è possibile dimostrare che l’AI è sicura e affidabile?
  4. Privacy: il modello sta rispettando i regolamenti in materia di privacy?
  5. Autonomia: il sistema AI sta prendendo decisioni non autorizzate per conto dell’azienda?
  6. Sicurezza: sono presenti degli standard di sicurezza applicabili al modello? È possibile rilevare se e quando si verifica una violazione?
  7. Terze parti: Il sistema AI dipende da strumenti, servizi o personale di terze parti? Stanno affrontando queste domande?

Per concludere, è molto probabile che l’AI presenti dei bias discriminatori e i manager dovrebbero assicurarsi che i profili tecnici si sforzino di trovare e risolvere gli incidenti avendo però un approccio umano. L’essere umano, infatti, deve continuare a monitorare la tecnologia perché se da una parte ne è il problema, dall’altra è la sua unica soluzione.

Bisognerebbe poi cambiare mentalità e passare dall’eliminazione del rischio ad una, più fattibile, mitigazione dello stesso. Le tre cause di incidenti – fallimenti, attacchi e abusi intenzionali – sono difficili da prevenire. Non è una questione di “se” tali incidenti avverranno ma “quando”. Per essere preparate, le aziende dovrebbero stilare un piano per far fronte alle eventuali problematiche che sorgeranno, sviluppando e comunicando chiari sistemi e metodologie di rilevamento; avendo processi per mitigare guasti o attacchi AI nel momento in cui vengono scoperti; definendo come e quando gli incidenti sono completamente risolti; assicurare quando e come i sistemi sono tornati alla normalità; e, infine, imparare da ogni incidente in modo che non si ripresentino.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 7