Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Interviste

Il computer che risponde alle domande – Intervista a Guido Vetere, direttore del Center for Advanced Studies Ibm Italia

A Trento un gruppo di ricercatori lavora per “insegnare l’italiano” al computer Watson, una macchina “intelligente” progettata da Ibm che riconosce il linguaggio naturale e trova le risposte analizzando milioni di pagine di testo. Molteplici le applicazioni, grazie alla capacità di gestire le immense moli di dati che sempre di più vengono riversate nelle infrastrutture di comunicazione. Intervista a Guido Vetere, direttore del Center for Advanced Studies Ibm Italia

11 Giu 2012

Il computer Watson, di Ibm, si arricchirà presto di applicazioni
per il mercato italiano, basate sul riconoscimento avanzato del
linguaggio umano.

È questa la missione di un centro di studio aperto da Ibm a
Trento, il 19 aprile. «Si chiama Language & Knowledge e
il nome è esplicativo: non ci vogliamo limitare alla
comprensione letterale del linguaggio, ma vogliamo accedere alla
conoscenza che c’è dietro. Al suo senso profondo»,
dice Guido Vetere, direttore del Center for Advanced Studies Ibm
Italia.

Comincia così un’avventura italiana che darà i frutti nei
prossimi mesi, sulle solide fondamenta costituite da Watson, un
sistema che è in grado di rispondere a domande formulate in
linguaggio naturale e di trovare la risposta in milioni di pagine
di testo.

È una creatura dei ricercatori Ibm del T.J. Watson Centre,
guidati da David Ferrucci; tecnicamente, è un sistema di analisi
computazionale parallela che utilizza il software Deep Q&A,
in grado di comprendere le sottigliezze del linguaggio umano.

A che punto sono i lavori a Trento?

Stiamo reclutando i ricercatori: per ora sono una decina. A
seconda di come risponderà il mercato, potremmo arrivare a una
50ina. Stiamo anche lavorando con grossi clienti per sviluppare
progetti pilota. Prima di tutto, nei prossimi 6-12 mesi, dovremo
creare le componenti base per la comprensione dell’italiano
e poi realizzare le componenti applicative da montare su Watson.

Questo debutto a Trento non stupisce gli addetti ai
lavori. S’iscrive in una lunga tradizione italiana del
natural language processing…

Sì, possiamo persino dire che questo campo sia nato in Italia
negli anni 50-60: con Roberto Busa, un padre gesuita. Ebbe
l’intuizione di usare il computer per studiare il
linguaggio delle opere di S.Tommaso e si rivolse a Ibm, che
finanziò lo studio. Da qui nacquero i fondamentali della
linguistica computazionale. Tuttora il campo è fortemente
popolato da ricercatori italiani, che hanno studiato a Roma e a
Trento. L’Università di Trento è la sola europea ad aver
collaborato per Watson.

In quali aree Watson può trovare applicazione?

In numerose aree di mercato. Per esempio in quella normativa, e
in particolare in quella bancaria, per dare supporto agli
operatori che si devono orientare su temi complessi a fronte di
regolamenti molto ricchi di pagine. Oppure nell’area della
customer relationship: aiuterebbe i call center a dare un
migliore servizio ai clienti. La chatbox dei siti di e-commerce
è destinata a diventare più efficiente, grazie ai sistemi
evoluti di riconoscimento del linguaggio. Nei dispositivi mobili
miglioreranno ancora i servizi basati su comandi vocali. Già
quelli su iPhone e Android sfruttano algoritmi di intelligenza
artificiale per capire il senso della richiesta
dell’utente. Negli Usa ci sono già accordi tra Ibm e
soggetti del settore sanitario, per esempio (l’Health Care
System dell’Università del North Carolina,
l’Istituto di Tecnologia del’Università
dell’Ontario, l’Ospedale pediatrico di Toronto, la
Rice Università di Houston): il sistema aiuta medici e
ricercatori ad accelerare la comprensione di grandi basi di dati
in campo medico. La canadese Ghy International sta utilizzando un
sistema Power per gestire i servizi di trade e la consulenza al
business. E così via.

Diciamo quindi che questo sistema e questa frontiera di
ricerca intercettano, in generale, il fenomeno dei big data. Il
volume di informazioni disponibili raggiungerà i 35 mila
exabytes nel 2020, contro i 1.200 del 2010, secondo Idc: un
patrimonio in cui rischiamo di perderci e che abbiamo appena
cominciato a valorizzare. Ma più in particolare come opererete
sul mercato italiano?

Il mercato italiano è simile a quello globale, in questo ambito,
anche se ha alcune specificità. Abbiamo una sanità pubblica e
quindi in teoria sarebbe facile proporre ad esempio un
trattamento sistematico, nazionale, delle cartelle cliniche
grazie a sistemi di natural language processing. Però di fatto
una progettualità di vasta scala, che coinvolge importanti
finanziamenti pubblici, è adesso difficilmente perseguibile, a
causa della congiuntura economica. Di converso, in Italia
c’è il grosso tema del contenzioso civilistico: qui
l’analisi computazionale potrebbe dare un grosso supporto,
soprattutto nella fase di mediazione. Alleggerirebbe la giustizia
civile.

In che modo, ad esempio?

Le figure di mediazione, che non necessariamente hanno competenze
tecniche, possono essere supportate da sistemi che hanno una
profonda conoscenza dei testi di legge e delle sentenze. Il
sistema segnalerebbe la giurisprudenza o la normativa rilevante
per quel caso. Si migliorerebbero così i tempi e i costi della
fase di mediazione. E si potrebbero portare fuori dai tribunali
alcuni contenziosi, come le liti condominiali.

Andiamo dietro le quinte della macchina, adesso. Su che
cosa state concentrando la ricerca, riguardo alla lingua
italiana?

Sì, per la lingua inglese abbiamo una soluzione avanzata, mentre
per comprendere quella italiana c’è ancora un po’ di
lavoro da fare. Partiamo avvantaggiati perché possiamo
utilizzare qualcosa di già esistente, fornito con i sistemi Ibm:
la capacità di astrazione dei concetti tratti dal linguaggio e
la componente infrastrutturale. È già sviluppata, inoltre, la
componente di analisi linguistica per l’italiano. Ora si
tratta di prenderla, di ampliarla e di renderla soddisfacente per
le applicazioni che servono ai nostri clienti. E servono risorse
lessicali, dizionari elettronici di concezione moderna, con una
controparte semantica del linguaggio oltre a quella lessicale e
grammaticale. Per questo aspetto contiamo su un’iniziativa
open, Senso Comune, che mira a sviluppare una risorsa linguistica
pregevole su una piattaforma collaborativa. E poi l’idea di
distribuirla con un modello open source. Crediamo che la
padronanza del linguaggio debba rimanere un bene comune. E che
soltanto una comunità estesa possa sviluppare una risorsa
linguistica ben fatta ed efficiente.

Quali sono i tempi di lavorazione?

Il team operativo sarà completo verso settembre e contiamo,
entro fine anno, di mettere in campo le prime componenti italiane
di queste tecnologia. Sicuramente entro l’anno prossimo
avremo le prime applicazioni sul campo. Nota bene che non sarà
un prodotto a scaffale. Il cliente farà un contratto di servizio
con Ibm e potrà quindi utilizzare questa tecnologia per i propri
scopi. Una possibilità è farlo via cloud computing. Alcune
componenti applicative saranno però disponibili a scaffale, in
futuro.

Articolo 1 di 5