TREND

ChatGPT e sicurezza, il lato oscuro dell’intelligenza artificiale e 3 consigli per proteggersi

Grazie alla capacità che l’AI generativa offre di creare contenuti e messaggi altamente verosimili, cresce la difficoltà per i sistemi e i servizi di sicurezza di individuare i potenziali attacchi. Il risultato è che in soli due mesi il social engineering è cresciuto del 135% e molte aziende vietano l’uso di ChatGPT. Una mini guida per tutelarsi in modo efficace

Pubblicato il 06 Mag 2023

ChatGPT security

Nelle scorse settimane abbiamo letto spesso articoli che trattavano il tema della ChatGPT security. Parlare della sicurezza della nota piattaforma di intelligenza artificiale significa fare una riflessione che riguarda sostanzialmente due criticità.

La prima è quella che vede gli strumenti di AI generativa come vere e proprie “armi”, utilizzate dai criminali del web per progettare e attuare attacchi sempre più sofisticati e pericolosi.

La seconda, invece, è quella legata alla sicurezza intrinseca della piattaforma, ovvero alla sua effettiva capacità di tutelare a dovere i dati degli utenti (e quelli degli utenti dei suoi utenti), specie alla luce dell’attacco cyber subito alcune settimane fa.

ChatGPT security, la violazione

Sin dalla sua introduzione, a novembre 2022, ChatGPT è diventato sempre più popolare tra sviluppatori software ed esperti di coding, marketer, creatori di contenuti web, video e immagini. L’app ha già superato i 100 milioni di utenti mensili e circa 13 milioni di persone la utilizzano quotidianamente per lavoro o per diletto.

A fine marzo il servizio ha subìto un’interruzione di diverse ore legata, come ammesso di recente dai vertici di OpenAI, l’organizzazione no profit che ha ideato e gestisce la community di sviluppatori del servizio, a un data breach.

La violazione sembra sia stata causata da una vulnerabilità presente nel codice sorgente del database Open Source Redis, uno dei componenti della piattaforma, che ha permesso agli utenti di ChatGPT di vedere la cronologia delle chat di altri fruitori del servizio.

OpenAI ha sanato il problema nel giro di pochi giorni, tuttavia sono ancora molte le questioni aperte che riguardano la sicurezza intrinseca della tecnologia dell’AI generativa, e quella di questa piattaforma in particolare.

I riflessi sul Risk Management e la privacy

Un secondo aspetto che impatta sul tema ChatGPT security è quello che riguarda la tutela della privacy degli utenti. Un tema, questo, che ha visto l’Italia al centro di un vero e proprio caso internazionale.

Lo scorso 31 marzo, infatti, il Garante per la Protezione dei Dati Personali ha bloccato ChatGPT nel nostro Paese, accusando OpenAI di non operare in conformità ai dettami del GDPR.

Pochi giorni dopo, anche il garante per la privacy canadese ha avviato un’indagine per raccolta e utilizzo di dati personali senza consenso.

Pochi giorni fa, gli interventi operati da OpenAI hanno consentito di riattivare il servizio, tuttavia resistono preoccupazioni diffuse sul tema della tutela dei dati personali degli utenti legate all’uso dei chatbot e, in generale, dei sistemi basati sull’AI.

Queste tecnologie, infatti, acquisiscono, processano e memorizzano enormi quantità di dati su gusti, preferenze e bisogni degli utenti per erogare i propri servizi.

Se questi dati finissero nelle mani sbagliate, potrebbero potenzialmente essere utilizzati per creare contenuti e messaggi in cui i cybercriminali si mascherano da persone “per bene” per guadagnarsi la fiducia di soggetti terzi e garantirsi l’accesso a password di servizio o credenziali finanziarie.

Il boom del social engineering

La possibilità, attraverso ChatGPT e app affini, di realizzare testi di eMail o SMS privi per esempio di errori linguistici o di creare landing page quasi identiche a quelle ufficiali richiede agli utenti di prestare molta più attenzione a cosa visitano e cliccano.

L’impennata del cybercrime legata all’uso intensivo di tecnologie di autoapprendimento a basso costo è confermata anche da un recente studio dell’agenzia UE Europol, così come da un report realizzato da Darktrace Research. La ricerca evidenzia come, tra gennaio e febbraio, in corrispondenza della massiva diffusione di ChatGPT, si sia registrato un vero e proprio boom (+135%) degli attacchi condotti attraverso tecniche sofisticate di social engineering che sfruttano proprio gli automatismi dell’AI generativa.

Un team di specialisti di Swanscan, società che opera nel campo della sicurezza predittiva e proattiva, utilizzando tecniche linguistiche alla portata di tutti – l’uso di avverbi di negazione o il metodo delle domande incrementali -, è riuscito ad aggirare le barriere etiche di ChatGPT e Bard ottenendo risposte su come duplicare un sito Internet, per esempio, ma anche su come produrre droga sintetica.

I tre principali fattori di rischio

Barbara Caputo, Direttrice dell’Hub AI Poli@To del Politecnico di Torino, e Juan Carlos De Martin, Professore ordinario presso il Dipartimento di Automatica e Informatica dello stesso ateneo, durante un recente videodibattito hanno individuato i tre principali fattori di rischio per la sicurezza dei dati legato all’impiego massivo dell’AI generativa:

  1. Landing page fasulle
    Si moltiplicano i siti che sfruttano tutto il clamore che si è venuto a creare negli ultimi mesi intorno al fenomeno dell’AI generativa e a ChatGPT in particolare. Ne nascono a centinaia ogni settimana e riconoscere le pagine d’atterraggio fasulle non è sempre facile: hanno domini del tutto simili a quelli delle pagine web ufficiali e un aspetto che le richiama, ma sono realizzate appositamente per rubare le credenziali di registrazione e utilizzarle per ottenere informazioni personali o dati finanziari.
  2. Spear phising
    Si tratta di attacchi personalizzati, progettati sulle base delle informazioni condivise dagli utenti online sui loro account social oppure attraverso i loro percorsi di navigazione sui siti web. La produzione rapida di contenuti di qualità – senza quegli errori grammaticali o di battitura che spesso inducono l’utente a riflettere meglio prima di cliccare un link – permette ai criminali di progettare campagne di smishing (SMS phishing) o ADS malware a basso costo ma sempre più efficaci. Con l’aiuto di ChatGPT, gli hacker hanno la possibilità di personalizzare ogni singola comunicazione in modo automatizzato, creando contenuti unici per ciascuna eMail generata, rendendo questi attacchi ancora più difficili da smascherare ed evitare.
  3. Furto di dati sensibili
    Dando in pasto agli algoritmi dati economici, nomi di partner, clienti o codici di programmazione è possibile carpire informazioni critiche per il business, come quelle sui brevetti.
  4. Disinformazione e propaganda
    ChatGpt eccelle in velocità e precisione in tutte le attività di copy e stesura di testi. Questo lo rende lo strumento ideale per la creazione e la diffusione su larga scala di fake news, che riflettono uno storytelling smaccatamente “di parte”, con uno sforzo tutto sommato davvero molto contenuto.

Si allarga la schiera delle aziende che vietano l’uso del servizio

Alcune aziende, in attesa di capire meglio quali potrebbero essere i risvolti per la gestione della privacy e i riflessi sul Risk Management dell’uso di ChatGPT, hanno imposto il veto totale o restrizioni più o meno ampie al suo utilizzo.

JPMorgan Chase ha limitato l’uso dell’app ai suoi dipendenti, Bank of America e Citigroup lo hanno vietato. Samsung è l’ultima azienda in ordine di tempo a mettere il veto non solo su ChatGPT ma sull’uso in generale degli strumenti AI per i propri dipendenti.
I suoi vertici hanno citato il rischio di vedersi sottrarre brevetti e, più in generale, segreti aziendali come la principale preoccupazione al riguardo.

Come difendersi dalle nuove minacce

Ma quali accortezze si possono usare per non cadere nella trappola di questi attacchi sempre più subdoli e virali? Gli esperti di sicurezza della banca online N26 invitano gli utenti, privati e aziende, a lavorare su tre fronti:

  • Usare la massima cautela nell’esaminare i messaggi inattesi
    I truffatori utilizzano già oggi, e lo faranno sempre più spesso in futuro, strumenti AI per creare messaggi automatici e inviarli a migliaia di persone contemporaneamente. Prima di rispondere a un messaggio inatteso di cui non si conosce di preciso il mittente, oppure prima di cliccare su un link, è importante verificarne l’autenticità, passando per esempio attraverso un controllo sul web.
  • Verificare sempre la fonte
    Le truffe elaborate dall’Artificial Intelligence di basano su messaggi che contengono marchi e loghi molto simili a quelli originali, spesso difficilmente distinguibili dai veri. Controllare attentamente il nome del dominio di un sito web, l’indirizzo e-mail del mittente e le informazioni di contatto dell’azienda è un buon sistema per accertarsi della loro legittimità.
  • Gestire con attenzione le informazioni personali
    Non fornire password o informazioni sui metodi di pagamento nel rispondere a messaggi eMail, SMS o telefonate.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4