Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Esperienze

Big Data: Eni inizia a lavorare sul “Cognitive Computing”

«Ricerca di nuovi giacimenti, manutenzione d’impianti, e consumer experience sono per noi i primi possibili utilizzi», ci spiega l’Executive Vice President ICT Gianluigi Castelli. La multinazionale ha annunciato la creazione di W@Eni, un team cross funzionale per esplorare i potenziali ambiti d’applicazione della piattaforma IBM Watson, un sistema analitico di nuova generazione in grado di capire il linguaggio naturale, generare ipotesi, valutare, adattarsi e apprendere

13 Giu 2014

Daniele Lazzarin

Tutti gli analisti sono concordi nell’indicare Big Data, Cloud Computing, Social e Mobile come i quattro principali trend che stanno indirizzando gli investimenti e i progetti ICT delle aziende in questo momento. Di questi, i Big Data sono forse il più promettente, ma anche il più difficile da tradurre in applicazioni ICT concrete, per l’enorme volume e varietà di fonti e tipologie dei dati, e per la complessità di analizzarli traendone informazioni utili a decidere meglio e in tempo reale.

Uno degli sviluppi più interessanti al proposito è il “Cognitive Computing”, i cui progressi sono seguiti molto attentamente da tantissime grandi aziende. Un esempio è Eni, che ha recentemente organizzato presso il proprio quartier generale di San Donato Milanese il Workshop “IBM Watson: la nuova frontiera del cognitive computing”, insieme appunto a IBM, il cui lavoro in quest’ambito di frontiera si è concretizzato nella piattaforma Watson.

Come ha spiegato Gianluigi Castelli, Executive Vice President ICT di Eni, nel suo intervento di apertura, l’evento è stato pensato per fare il punto sullo stato d’avanzamento di questa nuova tecnologia, sulle sperimentazioni di applicazioni industriali di Watson già in atto, e sulle opportunità che essa può aprire per la stessa multinazionale petrolifera italiana. «Dopo il programma di IT Transformation del triennio 2010-13, che ha visto tra l’altro la costruzione del nostro nuovo Data Center “green”, abbiamo avviato per il triennio 2014-17 un nuovo programma chiamato “Eni Digital Enterprise”, che è articolato su tre macroaree – Digital Corporate, Digital Marketing e Digital Industrial – con completamento della dematerializzazione, massimo livello possibile di automazione, e ridisegno completo dei processi in chiave digitale».

«Ci vorranno anni per capire tutte le possibli applicazioni»

Gianluigi Castelli, Executive Vice President ICT di EniAbilitatori tecnologici di questo programma, ha continuato Castelli, sono proprio i quattro trend citati in apertura, da bilanciare accuratamente in funzione del fabbisogno ampio e diversificato di Eni. «I Big Data in particolare sono il trend più impegnativo: la loro complessità richiede un salto generazionale di tecnologie, perché servono capacità di apprendimento, di ragionamento deduttivo e induttivo, e d’interazione naturale tra computer ed esseri umani a cui i motori analitici e relazionali che usiamo oggi non possono arrivare».

La soluzione invece può essere appunto il cognitive computing: «Ho sempre seguito il lavoro di ricerca dei laboratori di IBM e delle Università coinvolte su Watson, e oggi si iniziano a vedere le prime applicazioni già realizzate o potenziali, dalla diagnostica medica al marketing one-to-one, fino alla ricerca di nuovi giacimenti di idrocarburi».

Per Eni, questo dell’esplorazione più mirata e accurata del sottosuolo è certamente un potenziale ambito applicativo del cognitive computing estremamente interessante, ci ha poi confermato Castelli a margine dell’evento, ma ce ne sono molti altri, «per esempio per la manutenzione “predittiva” dei nostri impianti, o per la personalizzazione della “consumer experience” nelle nostre attività di multiutility». Proprio per esplorare i possibili ambiti d’applicazione, Eni ha costituito un team cross-funzionale ad hoc, chiamato W@Eni. «L’idea iniziale è di divulgare consapevolezza in tutta l’azienda, e di capire gli ambiti più immediati in termini di potenziali ritorni, su cui iniziare a realizzare i primi progetti, ma ci vorranno anni prima di avere un’idea complessiva di tutte le possibili ricadute industriali di una tecnologia così dirompente», ci ha spiegato Castelli.

«Watson non si programma: si usa»

Watson in effetti, ha sottolineato poi durante l’evento Pietro Leo, CTO for Big Data analytics & Watson di IBM Italia, introduce una nuova era dell’informatica: «Finora abbiamo sempre dovuto programmare e configurare computer e sistemi per far loro assolvere i compiti che gli assegnamo, ma oggi in molti casi ormai abbiamo bisogno di processi più vicini a quelli della mente umana, come percezione, memoria, giudizio, apprendimento, ragionamento». Per questo un sistema cognitivo ha tre capacità fondamentali: capisce il linguaggio naturale e il modo di esprimersi umano, genera ipotesi e valuta, si adatta e apprende. «In questo senso possiamo dire che Watson non si programma: si usa».

Il progetto di cognitive computing di IBM, ha poi proseguito Roberto Sicconi, esperto di NLP (natural language processing) e dialogue management, fondatore di Telelingo (startup) ed ex membro del team di Watson, è partito nel 2007 con il nome di DeepQA. «L’idea era di creare un sistema in grado di competere con la capacità umana di rispondere a domande poste in linguaggio naturale, con velocità, accuratezza e coerenza, e ci siamo posti l’obiettivo di renderlo in grado di partecipare a Jeopardy!, un quiz TV americano famoso per la difficoltà delle domande, basate su giochi di parole, sottigliezze linguistiche, doppi sensi e allusioni».

Il problema principale, sottolinea Sicconi, è analizzare a fondo il testo: le domande di Jeopardy riflettono bene il fatto che la percentuale di informazioni non strutturate continua a crescere, e trovare quello che serve dipende moltissimo dalle fonti. «I motori di ricerca per esempio sono utili ma non ottimali, trovano documenti che poi occorre almeno leggere, se non interpretare, mentre un medico che deve fare delle diagnosi può contare solo su fonti comunque da elaborare, come le immagini diagnostiche e i sintomi raccontati dal paziente: con Watson l’obiettivo alla fine è spostare sulla macchina il grosso del lavoro di ricerca delle informazioni, e della loro interpretazione».

Sull’aspetto tecnico di Watson si è poi soffermato Alfio Gliozzo, Technical Leader IBM Research Watson Lab, nonché docente della Columbia University di New York. «La piattaforma DeepQA usa un insieme estensibile di natural language processing, machine learning, information retrieval, e reasoning algorithms: elabora testi (documenti, email, siti web), immagini, video, database, web semantico, in modo coerente, nel senso che interpreta dati alla luce del testo e viceversa».

La prima dura prova: capire le domande di un quiz

L’input del sistema è la domanda in linguaggio naturale, e il processo cognitivo è particolarmente complesso. Il sistema incorpora una serie di tecnologie proprietarie per le esigenze specifiche dell’elaborazione di un’enorme numero di task concomitanti e dati, analizzando al contempo le informazioni in tempo reale. «È fondamentale collegare testo a base di conoscenze, acquisire conoscenze dal testo, e quindi estrarre relazioni: a tali fini Watson ha uno strato hardware con 3000 CPU in parallelo, e poi uno strato software con algoritmi proprietari di nuova generazione».

Dopo Jeopardy, continua Gliozzo, «ci siamo concentrati sulle applicazioni “industriali” in senso lato, che sono il nostro focus principale, cominciando dal dominio medico, molto adatto per i problemi complessi e incompleti che pone, con possibilità di estendere algoritmi e metodologie ad altri domini». Un’applicazione riguarda per esempio il Memorial Sloan-Kettering Cancer Center di New York, che sta sviluppando un sistema di supporto decisionale per i medici oncologi basato sulle capacità di analisi del linguaggio di Watson (sintomi raccontati dai pazienti, letteratura medico-scientifica, farmaci, possibili trattamenti) e sulle conoscenze cliniche del centro (dati del paziente, diagnostica per immagini, archivio di casi). Altri casi riguardano il wealth management in ambito finanziario, «ma in breve tempo il cognitive computing è destinato a rivoluzionare un ampio numero di settori, tra cui energia, salute, retail, editoria, finanza, biotech e farmaceutico».

Il ruolo dell’Italia nello sviluppo di Watson

Nicola Ciniero, President e CEO di IBM ItaliaInfine Nicola Ciniero, President e CEO di IBM Italia, ha sottolineato il ruolo importante del nostro Paese nello sviluppo di Watson: «Nel team di sviluppo ci sono molti italiani, e nel 2012 abbiamo realizzato un centro avanzato di semantica con l’Università di Trento, la cui applicazione di interpretazione del linguaggio è un pilastro del sistema». Ciniero è convinto che Watson diventerà “il browser intelligente di internet”: «Per quanto riguarda la commercializzazione, è difficile parlare di pacchetti standard, ogni organizzazione dovrà costruire le applicazioni che gli servono, e per abbattere le barriere alla diffusione abbiamo deciso di rendere pubblica la piattaforma».

Oltre a dar vita a una nuova business unit dedicata a Watson, con 2000 specialisti e un investimento di un miliardo di dollari, IBM ha infatti deciso di rendere disponibile a tutti la possibilità di sviluppare su IBM Watson Developers Cloud, un marketplace online con materiali didattici, API di Watson e la possibilità di interagire con specialisti di cognitive computing di IBM.

Big Data: Eni inizia a lavorare sul “Cognitive Computing”

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Google+

    Link

    Articolo 1 di 3