Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Focus

Extreme Information Management

Accanto alla Consumerization e al Cloud è fra i trend più in voga del momento. Il Big Data fotografa quella incredibile mole di dati che ogni giorno viene…

23 Apr 2012

Accanto alla Consumerization e al Cloud è fra i trend più in
voga del momento. Il Big Data fotografa quella
incredibile mole di dati che ogni giorno viene generata sul
Web
. Viaggiando nella rete non è difficile vedere
infografiche e filmati che mostrano cosa succede in sessanta
secondi su Internet. Discussioni su Twitter, video su Youtube,
accesi dibattiti su Facebook sono la quotidianità della rete che
si traduce in informazioni per le aziende che ormai devono
monitorare cosa succede e capire i riflessi su brand e prodotti.

“I mercati sono conversazioni” diceva il Cluetrain
Manifesto e adesso lo sono diventati anche troppo. Però Big Data
è un’espressione un po’ giornalistica, troppo di
sintesi, che non rende onore alla complessità del tema. È
questa l’opinione di Gartner che
preferisce parlare di “Extreme Information
Management” perché la definizione di Big Data
,
ormai difficile da contrastare in quanto a diffusione,
sintetizza troppo il fenomeno mettendo
l’accento solo sui volumi. Invece, secondo la società di
ricerca, il tema è un po’ più complesso.

«Crediamo – spiega Regina Casonato, Managing Vice
President di Gartner – che sia più appropriato guardare al
fenomeno in termini non solo di volumi, ma anche di velocità,
varietà e con un’altra dimensione che abbiamo aggiunto,
costituita dalla complessità». Prendendo in esame le
singole voci, l’aumento dei volumi di dati per le aziende
è un fenomeno indiscutibile. Dai social media ai video, il Web
pullula di email, video, cifre e opinioni in quantità enormi ai
quali bisogna aggiungere quelli che arrivano dalle normali
attività di business. Questo genera problemi di storage, ma non
solo, perché i dati andrebbero anche analizzati per poterne
trarre utili indicazioni. Poi c’è la velocità, un
parametro che sta a indicare il flusso dei dati per quanto
riguarda la produzione e anche l’elaborazione, ma anche la
capacità di accesso.

La varietà è un altro aspetto particolarmente importante.
Uno dei problemi dell’IT è sempre stato quello di
tradurre grandi volumi di informazioni transazionali in
decisioni
. Oggi però la varietà di questo tipo di
informazioni è decisamente aumentata in quantità e qualità.
Dai video alle discussioni nei social media non c’è un
unico dato, ma tanti e differenti. Questo fa sì che soluzioni
tecnologiche adatte qualche anno fa non lo siano più oggi.
Differenti formati di dati portano a una maggiore complessità
del problema. Così esistono soluzioni eccellenti per gestire i
video che fanno più fatica con altri dati non strutturati oppure
quella che si occupa di audio ma se la cava peggio con
l’email.

Poi, aggiunge Casonato, c’è il problema dell’accesso
alle informazioni. Una volta ricevute non tutti possono avere
accesso a ogni dato. Le aziende devono dunque stabilire una
policy in questo senso, soprattutto se i dati sono sensibili, che
definisca nel dettaglio anche i criteri con i quali è possibile
accedere ai database. Altro parametro importante è quello della
validazione. Il dato non è eterno, ma deperibile, perde
il suo valore con il trascorrere del tempo
. Deve quindi
mantenere una certa qualità e a un certo punto perderà il suo
valore e non dovrebbe essere più utilizzato.

Queste e altre sono le 12 dimensioni che la società di ricerca
utilizza per mettere in discussione la capacità delle strutture
IT di gestire le informazioni che piovono da ogni parte.
«Inoltre, ci troviamo di fronte a situazioni differenti
– osserva il Vice President di Gartner – dove a
volte, per esempio, si privilegia qualità e affidabilità del
dato rispetto alla velocità».

Tutto questo però non è abbastanza per parlare di nuovo
mercato. Gartner questa volta non cede alla voglia di fornire
dati e cifre. Big Data infatti viene considerata una
semplice estensione di tecnologie già da tempo presenti sul
mercato
. Il volume delle informazioni, e questa è
l’unica cifra fornita, dovrebbe crescere del 59%
l’anno. «Già oggi alcuni vendor parlano di
estensione e la nostra idea è che ci saranno anche nuovi servizi
a disposizione delle aziende». Per questo potrebbe venire
in soccorso, e quindi trovare nuovi spazi di crescita, il Cloud
perché c’è sicuramente spazio per quanto riguarda il
processing o il database.

«Il Cloud offre alcune risposte» è
l’indicazione della società di ricerca, secondo la quale
la disponibilità di grandi masse e varietà di informazioni deve
essere considerata una grande opportunità. Non che si tratti di
un fenomeno completamente nuovo. Da anni le informazioni
sono in continuo aumento, ed abbiamo avuto bisogno di sistemi
sempre più capaci,
ma ciò che succede oggi è che
c’è stata una decisa accelerazione dovuta al fatto che lo
sviluppo della tecnologia hardware e software ha reso possibile –
a costi competitivi – generare, trasmettere, archiviare
processare i dati. Inoltre, ora abbiamo nuove tipologie di
informazioni (ad esempio i social media, l’Internet of
Things con i contatori intelligenti, o RFID) da tracciare,
gestire ed analizzare.

Tutto questo apre ampi spazi alla fornitura di servizi
soprattutto in un Paese come l’Italia dove la spina dorsale
del sistema industriale è fatta di piccole e medie imprese.
«Siamo convinti infatti che questa sia un’area che
riguarda tutti. La gestione dei dati intesi come opportunità che
derivano dall’accesso alle informazioni riguarda anche le
imprese di minori dimensioni. Anche perché tramite il Cloud la
possibilità di gestire questa situazione dovrebbe essere offerta
a un costo competitivo».

Sul fronte dei servizi, però, esistono margini di miglioramento.
«Stanno emergendo – spiega Casonato – ma non
sono ancora completamente formati». Anche perché
c’è bisogno di nuove professionalità. Sono i data
scientist che hanno capacità di analisi di grandi data set, ma
non si possono limitare a fare gli esperti dei numeri. I
Big Data, pongono anche problemi nuovi dal punto di vista della
compliance e del risk management e anche qui sono necessarie
figure nuove
«Si tratta di figure ibride che
possiedono competenze IT ma devono anche sapersela cavare con gli
aspetti legali, oppure avere competenze di business oltre a
quelle che riguardano la statistica».

Figure come quella di Mo Zhou che, uscita di fresco
dall’Mba di Yale, è stata subito assunta da Ibm come
racconta il New York Times. Zhou non è un’eccezione, di
gente come lei che ha “sempre avuto un amore per i
numeri” ce ne sarà sempre più bisogno. Secondo il
McKinsey Global Institute, il braccio di ricerca della società
di consulenza, per sfruttare il diluvio di dati gli Stati Uniti
avranno bisogno fra 140 mila e 190 mila esperti di dati con
“deep analytical expertise” e un altro milione e
mezzo di manager alfabetizzati per quanto riguarda
l’analisi dei dati riqualificati o ingaggiati per
l’occasione. Molti anni fa, quando scoppiò la new economy,
sempre il New York Times si chiese, guardando molto lontano, chi
avrebbe avuto la capacità di dare un’occhiata a tutti quei
dati (un numero molto inferiore a quelli di oggi) generati dallo
sviluppo del Web. C’è voluto un po’ di tempo ma la
risposta sta arrivando.

EVENTO

Regina Casonato, insieme al prof. Vercellis del Politecnico di
Milano, sarà speaker all’evento
Big Data Forum 2012
organizzato da ICT4Executive che si
terrà a Milano il 15 maggio sul tema dei Big Data, focalizzato
in particolare sul contributo che tali soluzioni possono dare
alla competitività delle imprese attraverso il miglioramento dei
processi decisionali.

Per maggiori informazioni
clicca qui

Extreme Information Management

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Google+

    Link

    Articolo 1 di 2