«Tutte le aziende oggi vorrebbero essere data-driven ma poche ci riescono davvero: il problema principale è che non sanno contare». L’intervento di Kenneth Cukier, Senior Editor Digital Products dell’Economist, al recente convegno Cerved Next ha dimostrato le sue grandi capacità divulgative sul tema dei Big Data. Cukier è autore di due libri (“Big Data: A Revolution that Will Transform How We Work, Live and Think” (2013) e “Learning with Big Data: The Future of Education” (2014), scritti con Viktor Mayer-Schönberger) considerati tra i più sistematici e ricchi di esempi sulle opportunità e utilizzi pratici della Big Data Analysis, ed è spesso intervistato sull’argomento dai media di tutto il mondo.
A margine dell’evento, Cukier ci ha concesso questa videointervista (in inglese), in cui ha parlato tra l’altro degli approcci sbagliati ai progetti Big Data, e della connessione tra Intelligenza Artificiale e Big Data.
«L’errore più comune della prima generazione di progetti Big Data è che le aziende e le persone non sanno come contare. Quello che intendo per “contare” è fare un lavoro preliminare di osservazione del mondo reale e di comprensione dei processi e comportamenti, e di quale sia il modo migliore di quantificarli e misurarli. Spesso quello che pensiamo sia importante in realtà non lo è, e spesso i dati che raccogliamo sono “sporchi”. Insomma il problema principale riguarda la materia prima stessa, i dati, e come li “conto”. Parlo di misure basiche: quanti clienti, quando comprano, quante transazioni, quanto spendono. Le aziende non dedicano abbastanza attenzione a questo aspetto, bisogna imparare a contare».
Nei suoi libri come accennato Cukier fa molti esempi di casi di utilizzo avanzato delle tecnologie di Big Data Analysis. «Uno che mi ha molto colpito recentemente è quello di NASCAR, la società americana che organizza le omonime gare automobilistiche. Misurano tantissime grandezze, dalla pressione delle gomme alla velocità del vento, e analizzando questi dati sono in grado di fornire ai costruttori informazioni cruciali per le loro decisioni più importanti, tipo quanti cambi gomme fare e quando. Parliamo di gare che durano ore, e che si decidono per pochi secondi: rimanere sulla “cresta dell’innovazione” è vitale. Per esempio hanno scoperto quanto sia vitale capire le determinanti dell’usura dei pneumatici. Diversi percorsi hanno diversi tipi di consumo, ma anche sullo stesso percorso tutto cambia in funzione del tempo atmosferico, della posizione in gara e di molte altre variabili: il sistema di analisi va adattato ogni volta alla situazione, e questo si può estendere a molti altri scenari. Per esempio nel retail ogni negozio fa storia a sé».
Il concetto di Big Data Analysis, sottolinea Cukier, è molto ampio, può essere molte cose diverse, ma al cuore c’è il machine learning, che è una componente dell’Intelligenza Artificiale. Di AI si parla fin dagli anni ’50, ma per decenni abbiamo pensato che non funzionasse, perché l’idea è fare una macchina che pensi come un essere umano, il che è tuttora troppo difficile. Il machine learning invece cerca tendenze, legami causa-effetto, correlazioni nascoste, e oggi funziona perché abbiamo tanti dati. In fondo se vogliamo l’espressione “big data” è la popolarizzazione delle tecniche di machine learning: far lavorare i computer su enormi volumi di dati per scoprire legami e tendenze che gli uomini non possono vedere. E questo spiega tutte le grandi scoperte che stiamo facendo in questi anni».
@RIPRODUZIONE RISERVATA