Interviste

Big Data, in Italia per le grandi aziende è l’anno della svolta

Quasi tutte le maggiori realtà nel nostro Paese – aziende, banche e istituzioni – stanno aprendo “cantieri” per capire come sfruttare queste tecnologie, con cinque principali ambiti di applicazione. Ne parliamo con Marco Albertoni, Big Data & Analytics Leader di IBM Italia, che spiega anche come il vendor intende “democratizzare” le applicazioni più avanzate con la nuova soluzione Watson Analytics

Pubblicato il 27 Ott 2014

marco-albertoni-141027165027

Marco Albertoni, Big Data & Analytics Leader di IBM Italia

“Big Data” oggi è una delle espressioni più inflazionate quando si parla di ICT in azienda, e non è facile capire in che misura queste tecnologie abbiano già applicazioni concrete, in particolare in Italia. Per avere un punto di vista da “addetto ai lavori” abbiamo parlato di questi temi con Marco Albertoni, Big Data & Analytics Leader di IBM Italia, anche perché IBM ha appena lanciato Watson Analytics, una soluzione di “cognitive computing” per professionisti aziendali che usano alti volumi di dati (marketing, vendite, operation, finanza, ecc.), definita dal vendor “l’annuncio più importante negli ultimi dieci anni in area analytics”.

«Quest’anno ha segnato la svolta, quasi tutti i clienti con cui lavoriamo – le maggiori aziende, banche e istituzioni in Italia – stanno aprendo “cantieri” per capire come sfruttare le tecnologie analytics e big data: c’è disponibilità a investire, e curiosità intellettuale ». Alcuni, continua Albertoni, hanno idee già chiare e scelgono un ambito preciso per partire, per esempio nella Grande Distribuzione molti stanno facendo progetti pilota di customer e marketing analytics per trasformare la relazione con il cliente attraverso l’analisi dei dati. «Uno dei più grandi retailer italiani ci ha detto “questo è l’anno degli analytics per noi. Dopo aver investito tantissimo nei sistemi ERP, vogliono sfruttare il patrimonio informativo accumulato, e anche integrare questa base dati con fonti esterne».

In altre realtà invece, tipicamente banche e grandi enti pubblici, il perimetro è più ampio: «Si tende a costruire un laboratorio di big data e analytics, e a lanciare due o tre iniziative allo stesso tempo in diversi ambiti, misurandone l’evoluzione e i risultati rispetto alle attese, anche in termini di tecnologie usate e approccio organizzativo». Dal punto di vista applicativo sono cinque gli ambiti particolarmente attivi.

I cinque ambiti: dal CRM alla gestione del rischio

«Uno più tradizionale, che incide direttamente sul fatturato, è tutto ciò che ruota intorno al marketing e al CRM. Una seconda area sono le operation, abbiamo casi di controllo della fabbrica in senso lato, e quindi della supply chain, e altri nel settore telco di network analytics, sia da un punto di vista strettamente tecnico, per tenere sotto controllo il funzionamento della rete, sia per applicazioni di marketing, perché analizzando andamenti del traffico e modalità d’uso della rete posso proporre offerte mirate, come piani tariffari e nuovi servizi».

La terza area è quella del finance in senso lato: amministrazione, finanza e controllo, con applicazioni dal performance management alla business intelligence tradizionale allo scorecarding. «Infine due tematiche piuttosto specifiche: il “fraud management”, a cui sono interessati enti pubblici e finance, e la gestione del rischio, che pure tocca prima di tutto banche e assicurazioni, con applicazioni di portfolio optimization, bilanciamento delle esposizioni finanziarie e così via».

Dati da sensori e social, cosa c’è di concreto

L’aspetto forse più di frontiera del “pianeta Big Data” è lo sfruttamento di dati da fonti non strutturate, come sensori e social network: cosa c’è di concreto in quest’ambito in Italia? «I progetti già in corso riguardano realtà che per qualche motivo hanno reti di sensori avanzati già installate, per esempio le telco, che hanno sonde per il controllo della rete, o le utility che hanno i contatori per la telelettura dei consumi elettrici e del gas – spiega il Big Data & Analytics Leader di IBM Italia -: le informazioni su andamenti e abitudini di consumo permettono di proporre servizi aggiuntivi o tariffe alternative».

Altri progetti sono più sperimentali: «Per esempio alcune grandi industrie stanno valutando sistemi di predictive maintenance degli impianti negli stabilimenti, ma in questo caso non c’è ancora una rete di sensori e bisogna capire bene anche come costruirla». Infine i dati social: «C’è molto interesse ma anche grandi interrogativi sul reale valore dei dati che si raccolgono, e sul fatto se sia meglio un approccio estemporaneo, tipo indagine di mercato una volta ogni tanto di cosa pensa la rete dell’azienda – magari quando ha appena lanciato un prodotto -, o la creazione di un sistema di “ascolto” continuo». Le valutazioni dell’uso dei dati social, comunque, sottolinea Albertoni, per ora si concentrano soprattutto sul Mobile, nell’ambito del ripensamento della customer experience in chiave multicanale, per capire come proporre offerte aggiuntive e mirate.

La criticità delle competenze

A fronte del grande interesse, però, una forte criticità è la carenza di competenze. «Sono necessarie professionalità nuove, analisti di business con un background molto statistico-matematico, o specialisti che sappiano ripensare i data warehouse incorporando anche la componente di dati destrutturati», spiega Albertoni. Servono quindi iniziative universitarie o post-universitarie che sappiano formare competenze tecniche ma anche manageriali: «Anche noi ci stiamo impegnando insieme al Politecnico di Milano con un Centro per l’Innovazione dedicato a Big Data e Business Analytics, che prevede cinque programmi di formazione, dalla laurea Magistrale al PhD, dai corsi post-graduate agli ambiti start-up e corporate».

E poi c’è l’impegno delle singole aziende: «Alcuni creano dei centri interni di competenze, sia tecnologiche sia organizzative: un cliente per esempio mi ha spiegato di avere una trentina di persone IT con competenze sui sistemi transazionali, la metà delle quali sarà “riorientata” su skill analytics e big data con un piano di formazione di sei mesi».

“Democratizzare” gli strumenti di analytics evoluti

In questo scenario, evidenzia Albertoni, si sta verificando il passaggio dalla Business Intelligence tradizionale, che descrive il fenomeno, a una “advanced analytics” che comporta due evoluzioni: la capacità di fare previsioni, basata su pattern analysis e simulazioni, e l’automazione del maggior numero possibile di passaggi del processo decisionale, per accorciare i tempi e reagire quasi in real time, gestendo manualmente solo le eccezioni.

Queste due capacità dell’advanced analytics oggi si riescono a sfruttare solo tramite specialisti rari e competenze statistico-matematiche superiori alla media, ma qui entra in gioco Watson Analytics, la soluzione appena annunciata da IBM e accennata in apertura, che ha appunto l’obiettivo di “democratizzare” gli strumenti di analytics evoluti rendendoli alla portata di persone di business non specialiste di analisi dei dati.

«È pensata per essere facile da usare, con fruibilità immediata anche dal punto di vista visuale di report, scorecard, grafici, anche su device mobili – spiega Albertoni -. E un altro elemento rivoluzionario è che l’interfaccia di dialogo si basa sul linguaggio naturale: se per esempio voglio sapere perché ho venduto tanto in questo mese, non devo mettere a punto una query, basta scrivere direttamente la domanda nel sistema: “Quali sono i fattori meglio correlati all’andamento delle vendite?”».

Sono queste tre caratteristiche, conclude Albertoni, che distinguono nettamente Watson Analytics da altre offerte sul mercato: linguaggio naturale, motori di calcolo statistici matematici resi immediati per utenti non professionali, e facile fruibilità delle informazioni prodotte su qualsiasi dispositivo. La soluzione è completamente accessibile in Cloud.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4