Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Digital Transformation

Gartner, i 10 trend che cambiano il volto degli Analytics (con lo zampino dell’Intelligenza Artificiale)

Gli Analytics diventano “augmented” e sfruttano l’elaborazione del linguaggio naturale, l’intelligenza è “continuous” ed “explainable”, i dati si organizzano in grafi e piattaforme convergenti. La top ten delle tecnologie disruptive

22 Feb 2019

Patrizia Licata

La prossima evoluzione tecnologica in ambito Data & Analytics è dominata dall’Intelligenza Artificiale: è quanto emerge dalla top ten stilata da Gartner sui trend ad alto potenziale dirompente per l’industria dei dati nei prossimi tre-cinque anni. Per le imprese sarà cruciale comprendere a fondo le evoluzioni e metterle in ordine di priorità in base al valore per il proprio business.

Verso gli Augmented Analytics

Gli Augmented Analytics sono la prima grande rivoluzione del prossimo futuro. Questa tecnologia usa tecniche di AI e Machine Learning (ML) per automatizzare il processo con cui si estrae conoscenza dai dati, trasformando il modo in cui questi vengono sviluppati, consumati e condivisi.

Emergerà anche l’Augmented Data Management, che automatizza mansioni oggi spesso manuali facendo leva su sistemi di AI e ML. L’Augmented Data Management permette di generare dati già categorizzati in base a elementi come la qualità, la necessità di integrazione o la gestione dei metadati.

L’intelligenza “spiegata”

Entro il 2022 più della metà dei nuovi grandi sistemi di Business Intelligence incorporerà l’intelligenza cosiddetta “continuous”, che utilizza dati di contesto storici e attuali e li analizza in tempo reale per migliorare il processo decisionale. Le decisioni possono essere supportate o totalmente automatizzate.

Proprio in virtù di questa evoluzione emergerà anche un trend di “Explainable AI”: i modelli AI e ML utilizzati per prendere decisioni dovranno spiegare in maniera dettagliata come si arriva al risultato. Si tratta di una forma di verifica e trasparenza necessaria per costruire la fiducia degli utenti e degli stakeholder.

Niente più silos dei dati

I trend disruptive includono i Graph Analytics, ovvero tecniche di analisi dei dati che permettono di esplorare le relazioni tra gruppi omogenei, come organizzazioni, persone, transazioni. Secondo Gartner, di qui al 2022, l’impiego dell’elaborazione dei grafi e dei sistemi di gestione dei database di grafi crescerà del 100% ogni anno.

In aumento anche l’adozione del Data Fabric, un’architettura convergente che semplifica la gestione dei dati collocano in database e applicazioni disparati: si superano i silos per consentire accesso e condivisione fluida in ambienti distribuiti.

Analytics “democratici”

Entro il 2020, il 50% delle queries legate alle operazioni di analytics saranno effettuate con ricerche che includono le domande via voce e l’elaborazione del linguaggio naturale (NLP). Ciò renderà gli strumenti di analytics più immediati e accessibili: in molti casi parleremo con un’interfaccia di ricerca intuitiva o un assistente virtuale.

Inoltre, entro il 2022, il 75% delle nuove soluzioni per l’utente finale basate su tecnologie di AI e ML sarà costruito con strumenti commerciali anziché piattaforme open source. Vendor commerciali forniranno alle aziende le funzionalità necessarie per costruirsi progetti e soluzioni di AI e ML, una sorta di democratizzazione della tecnologia.

Memoria “persistente”, Blockchain nel futuro

Anche la Blockchain ha potenziali ramificazioni negli analytics, specialmente se implicano interazioni tra diversi partecipanti. Ma occorreranno diversi anni prima che le applicazioni Blockchain per gli analytics diventino dominanti; per ora le catene di blocchi restano una fonte di dati, non un database, e non sostituiscono le tecnologie di data management.

Più vicina nel tempo la diffusione di tecnologie di Persistent Memory, un nuovo strato di memoria fra DRAM e NAND che darà supporto ai carichi di lavoro richiesti da quantità enormi di dati che le macchine devono tenere in memoria ed elaborare. Le tecnologie di Persistent Memory aiuteranno a ridurre costi e complessità dell’adozione delle architetture abilitate dall’In-Memory Computing (IMC): le imprese vi ricorreranno per trasformare rapidamente i dati in valore.

@RIPRODUZIONE RISERVATA
Gartner, i 10 trend che cambiano il volto degli Analytics (con lo zampino dell’Intelligenza Artificiale)

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 2