Business Intelligence

Scoprire correlazioni nei Big Data: la filosofia Oracle

La ‘foundation’ proposta dal vendor consiste in una piattaforma unificante, capace di fondere e gestire in modalità integrata sia i tradizionali tool analitici e dati strutturati, sia l’elaborazione in real-time delle enormi moli di informazioni destrutturate provenienti da una molteplicità di fonti esterne

Pubblicato il 09 Apr 2015

big-data-150331142721

Dal 1958, anno in cui il termine viene usato in un articolo del ricercatore di IBM Peter Luhn, ad oggi, la definizione di ‘business intelligence’ (BI) non è cambiata: trovare tra i dati presenti nel sistema le correlazioni nascoste, per scoprire legami che permettono di prevedere eventi futuri.

«Questa è la cosa che io cerco più di vendere nei miei progetti degli ultimi anni» sottolinea Carlo Vercellis, Professore ordinario al dipartimento di ingegneria gestionale del Politecnico di Milano, mentre – in un recente evento organizzato da Oracle, dal titolo ’Big Data and Analytics @Work’ – condivide con la platea di responsabili IT aziendali alcuni numeri ’scioccanti’ sull’espansione delle informazioni, ad esempio nel mondo dei social network, forse il primo a generare i problemi legati a questo tipo di dati.

Oltre a tenere corsi di ottimizzazione, BI e data mining, Vercellis guida infatti anche il gruppo di ricerca door (data mining and optimization research group) e l’Osservatorio Big Data Analytics & Business Intelligence. L’universo digitale che emerge dall’Osservatorio del Politecnico è generato da molteplici sorgenti (M2M, dati aziendali, Pubblica amministrazione, normali utenti), cresce giornalmente di 2,5 exabyte, raddoppierà le proprie dimensioni ogni due anni fino al 2020. Il 90% dei dati è non strutturato, ed è stato prodotto negli ultimi due anni.

La sfida ’data discovery’

Partendo dalle conclusioni di Vercellis sulle ’regole d’oro’ per usare i Big Data, ossia filtrare e selezionare con cura i dati, e applicare in modo sistematico e pervasivo i modelli predittivi, Roberto Falcinelli, Senior Manager Sales Consulting di Oracle Italia, traccia la visione strategica della società per far evolvere le organizzazioni verso l’era degli analytics 3.0, che combinano tecnologie di gestione dei dati vecchie e nuove e, soprattutto, sono focalizzati sulla ’data discovery’.

Non più dunque solo strumenti di reporting, ma sistemi in grado di esplorare e scoprire subito informazioni di valore per il business. D’altra parte, in mezzo a un oceano d’informazioni di grande varietà e velocità, il reale driver per i Big Data diventa l’efficienza: le risorse da investire, piuttosto che su grossi e dispendiosi data warehouse tradizionali, devono concentrarsi su soluzioni più agili, leggere, in grado di fornire un ritorno immediato all’azienda.

Ciò naturalmente, come accennato, non significa gettar via i sistemi e gli investimenti preesistenti. La filosofia Oracle, spiega Falcinelli, è fondere il meglio dei vari mondi, attraverso una piattaforma in grado di utilizzare al contempo i tool classici di business analytics e i nuovi strumenti di data discovery. Una soluzione che integra l’analisi dei dati in modalità batch con quella real-time dei dati in streaming; unifica la gestione delle informazioni del data warehouse con quella del ’data reservoir’, il serbatoio di dati provenienti da fonti esterne, ed elaborati tramite il motore Hadoop; un sistema centralizzato, capace di rendere disponibili le informazioni utili sia via web, sia tramite dispositivi mobile.

La base tecnologica di questa piattaforma enterprise per i Big Data, annunciata lo scorso febbraio all’evento californiano di San Jose Strata+Hadoop World, è costituita da diversi componenti (Oracle Big Data Discovery, Oracle GoldenGate for Big Data, Oracle Big Data SQL 1.1, Oracle NoSQL Database 3.2.5). Un’offerta anche progettata per funzionare senza soluzione di continuità sulle recentemente annunciate appliance Oracle Big Data Appliance X5 e Oracle Exadata Database Machine X5.

Al vertice di tale offerta si pone il prodotto Big Data Discovery, un’interfaccia di front-end che, grazie alla capacità di visualizzare e presentare in forma sintetica e intuitiva i risultati delle elaborazioni eseguite da Hadoop su grandi moli di dati grezzi, diventa uno strumento utilizzabile non più solo da specialisti e data scientist, ma anche da una popolazione molto più ampia di utenti business. Tramite tale interfaccia i dati possono essere arricchiti, trasformati, fusi per creare nuove prospettive, condivisi con altri utenti sotto forma di progetti, snapshot e gallerie, per facilitare la collaborazione dei team.

Oracle Big Data SQL consente invece di estendere Oracle SQL verso Hadoop e NoSQL, e la sicurezza del database Oracle a tutti dati. In sostanza, permette tramite una sola query ottimizzata di eseguire ricerche allargate su database Oracle, Hadoop e NoSQL. In aggiunta, Oracle Database In-Memory, un’opzione per il database Oracle 12c, fornisce un’architettura dual-format in grado di rappresentare le tabelle sia nel tradizionale formato a riga, sia nel nuovo formato colonnare in-memory. Un sistema studiato per workload misti, in cui diventa possibile accelerare le prestazioni delle query analitiche e OLTP (online transaction processing).

Per ridurre i costi, il time-to-market delle applicazioni e semplificare il supporto, Oracle fornisce anche sistemi già ingegnerizzati e appliance preconfigurate (Big Data Appliance). Infine la prossima strategia è rendere disponibile Big Data Discovery anche come servizio Cloud.

Falcinelli cita anche alcuni esempi virtuosi di utilizzo dei modelli predittivi: da Tado, la startup tedesca di termostati intelligenti che fa concorrenza a Nest (la società di Google); a Spotify; a GE, che usa tali tecnologie per applicazioni di manutenzione predittiva.

’Identikit’ dei clienti, si disegnano online

Sull’importanza di aggiornare le tecniche statiche di profilazione dei clienti e di personalizzare sempre più le interazioni insiste la presentazione di Gabriele Provinciali, Business Development Representative di Oracle Italia.

«Ormai la gestione del profilo digitale si gioca online» sottolinea, portando ad esempio il caso di Wargaming.net, dove sono la storia digitale del gamer e la raffinata analisi del comportamento dei giocatori a influenzare il futuro sviluppo prodotti, e la messa a punto di nuovi giochi che puntano a migliorare la customer experience e, in definitiva, ad accrescere il grado di loyalty dell’utente. Un altro esempio è quello della banca mondiale Barclays, che grazie alle tecniche predittive, è riuscita a ridurre il numero totale, prima molto elevato, di reclami sui servizi. Ma c’è anche Procter & Gamble (P&G), che integrando da molteplici fonti dati strutturati e destrutturati riesce ora a proporre agli acquirenti il prodotto giusto, al giusto prezzo e nel miglior momento, sia nei negozi classici, sia negli store online.

Le applicazioni per utility e società di Tlc

Gli ambiti di applicazione dei Big Data per incrementare l’efficienza del business sono al centro della presentazione di Claudio Fenocchi, Principal Sales Consultant di Oracle Italia. Nel settore delle telecomunicazioni vi sono flussi continui di eventi da monitorare in tempo reale per prendere decisioni e avviare azioni, e anche qui le tecniche predittive permettono di ottimizzare i costi Capex/Opex, facendo in modo che i processi di gestione della rete vengano attivati in risposta a determinati eventi intercettati. In sostanza, secondo specifiche regole di business o modelli predittivi, vengono erogate ’next best actions’ miranti a tamponare i disservizi che stanno per verificarsi.

Un altro impatto positivo dei Big Data si ha nel settore delle utility: avendo clienti, reti e asset tutti connessi, è possibile rilevare dati dai sensori sulle linee di trasmissione e distribuzione, intercettare eventi e allertare gli operatori per risolvere i problemi in modo tempestivo. I contatori intelligenti nelle abitazioni e nelle reti domestiche rilevano i consumi e contribuiscono a un utilizzo più razionale dell’energia e all’integrazione delle fonti rinnovabili. Altri possibili utilizzi si hanno nel monitoraggio e benchmarking di processi, risorse e applicazioni in azienda per scoprire, ad esempio, quali reparti o filiali hanno problemi di produttività. Un altro grande filone è quello, prima accennato, del miglioramento dell’efficacia della manutenzione. Analizzando in profondità i dati è possibile prevedere la vita utile dei vari componenti in un macchinario, e di conseguenza ottimizzare gli interventi di verifica e sostituzione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4