Data management: Multipartner punta sull'open innovation

Sponsored Story

Il futuro del data management: Multipartner punta sull'open innovation per le soluzioni basate sul deep learning

Ecco come lo specialista dei sistemi di Virtual Data Room mette a frutto la collaborazione con i centri di ricerca per rendere sempre più intelligente e intuitiva la gestione dei dati e l’interpretazione automatica dei documenti digitali. Parlano Luca D’Alessandro, Software Engineer del gruppo, e Domenico Daniele Bloisi, ricercatore dell’Università della Basilicata

14 Lug 2021

Quando ci si confronta con il tema del data management bisogna essere disposti ad addentrarsi in un ambito estremamente complesso, nel pieno di un’evoluzione rapida e inarrestabile. Meccanismi di protezione delle informazioni, strumenti avanzati per la ricerca e il riconoscimento dei dati, piattaforme analitiche ultra-performanti e interfacce capaci di abilitare esperienze d’uso intuitive sono tutti elementi che devono convivere lungo un percorso di affinamento che non conosce soluzioni di continuità, mantenendo un delicato equilibrio che consenta alle applicazioni e agli utenti finali di fruire dei dati in modo semplice, efficiente e sicuro.

Tutto ciò è ancora più vero se si parla di piattaforme dedicate al business: volume, velocità e variabilità degli input continuano ad aumentare a ritmi esponenziali con la progressiva dematerializzazione dei flussi documentali e dei processi operativi, a cui si accompagna un crescente utilizzo dei dispositivi mobile, specie dopo l’esplosione dello Smart Working generato dall’emergenza pandemica. La capacità di sviluppare servizi e prodotti in grado di soddisfare un mercato sempre più esigente, d’altra parte, si basa essenzialmente sull’approccio data-driven: tutti, in azienda, devono quindi poter accedere ai dati, a prescindere dal fatto che siano strutturati o meno e che ci si trovi fisicamente in sede o si lavori da remoto.

Open innovation, il valore della collaborazione con il mondo universitario

È mettendo a fattor comune tutte queste istanze che tech company come Multipartner – società specializzata nella progettazione e nella realizzazione di Virtual Data Room (VDR), Workspace Data Room e Workflow e VDR integrati su misura – devono organizzare i propri team di ricerca e sviluppo. Ma a volte è necessario rimodulare l’orientamento della squadra con una prospettiva esterna, facendo leva su open innovation e co-creation per assumere un punto di vista nuovo, realmente disruptive, sulle reali potenzialità (e criticità) insite nelle tecnologie di frontiera. «Ecco perché nel costante processo di ottimizzazione della nostra piattaforma modulare web based abbiamo attivato una serie di collaborazioni con alcuni centri di ricerca universitari: coinvolgere chi unisce la ricerca di base al trasferimento tecnologico consente a una PMI innovativa come la nostra di non fermarsi allo sviluppo di applicazioni verticali che fanno leva su tecnologie al passo coi tempi, ma di precorrerli, anticipando i trend», spiega Luca D’Alessandro, Software Engineer e responsabile del team R&S di Multipartner.

Luca D'Alessandro

Software Engineer e responsabile del team R&S di Multipartner

Per esempio, sul fronte della cybersecurity Multipartner ha implementato uno strato di crittografia proprietario validato dal CIS (Cyber Intelligence e Information Security) della Sapienza di Roma. «La soluzione in pratica offre un doppio layer di sicurezza, il primo dato dal protocollo HTTPS e l’altro personalizzato/dedicato e si connota per meccanismi simmetrici per la cifratura dei documenti e asimmetrici, quindi a doppia chiave per lo scambio tra client e sistema di gestione e distribuzione delle chiavi di cifratura dei file», dice D’Alessandro. «Se la cifratura a chiave simmetrica è più veloce anche su informazioni di grosse dimensioni, quella asimmetrica si presta meglio allo scambio di messaggi. Combinandole in funzione delle caratteristiche dei dati, si ottengono di volta in volta le migliori performance di sicurezza e fruibilità su ciascun tipo di file».

La teoria dei grafi applicata al data management

Quella di una data protection “sostenibile”, che coniughi sicurezza e performance, è solo una delle sfide che riserva il futuro. I dati, per l’appunto, vanno identificati, catalogati e geolocalizzati per riuscire ad attribuire a ciascun record gli attributi corretti e massimizzarne la disponibilità senza sacrificarne la privatezza. Su questo fronte Multipartner sta collaborando con l’Università della Basilicata, e in particolare con il team di Domenico Daniele Bloisi, ricercatore impegnato negli ambiti dell’Intelligenza Artificiale, della coordinazione multi-robot, della visione artificiale e della fusione di informazione provenienti da fonti eterogenee.

«Con Multipartner abbiamo avviato un progetto molto interessante, che si avverrà anche del supporto di ricercatori in matematica, esperti nella teoria dei grafi, nella condizione di confrontarsi con diverse problematiche della gestione dei dati», racconta Bloisi.

Domenico Daniele Bloisi

Ricercatore dell'Università della Basilicata negli ambiti AI, coordinazione multi-robot, visione artificiale e fusione di informazione provenienti da fonti eterogenee

«L’obiettivo è quello di andare oltre il concetto tradizionale di base di dati e usare la struttura dei grafi per rendere le informazioni “personalizzabili” a seconda delle necessità degli utenti, come accade sui social network. Parliamo di una logica dinamica, intrinsecamente più complessa rispetto agli approcci tradizionali, ma che ha il merito di risolvere il problema numero uno del data management del futuro: colmare il gap semantico, dare un senso ai record archiviati e consentire ai sistemi di riconoscere differenze anche sottili nelle informazioni salvate su formati non strutturati. Tutto questo naturalmente è possibile se si addestra in modo corretto l’intelligenza artificiale».

schema ambiti di applicazione deep learning

Cosa consente di fare il deep learning nella gestione documentale

Nel caso specifico dei sistemi di gestione documentale che Multipartner intende fornire ai propri clienti, un approccio del genere si rivelerà estremamente utile per consentire, tramite il deep learning, il riconoscimento di testi stampati e scritti a mano, l’autenticazione delle firme autografe e un migliore utilizzo dei metadati, con la possibilità di bonificare il documento da tag e tracce informatiche che potrebbero nuocere alla sua esatta identificazione.

«Avere la possibilità di scaricare un documento epurato da metadati nocivi, indesiderati e fuorvianti, permette agli utenti finali di effettuare ricerche più approfondite anche con criteri fuori standard, per accedere per esempio a informazioni non immediatamente trasparenti», dice D’Alessandro. «In altre parole possiamo garantire una tracciabilità assoluta di ciascun documento, non solo in termini di contenuto, ma anche sul piano delle azioni, delle modifiche e delle procedure approvative che hanno coinvolto il file. Il tutto attraverso un’interfaccia che offre una user experience intuitiva, capace di accompagnare – tramite template declinati per ruoli – qualsiasi tipologia di utente nella navigazione, anche quando bisogna affrontare funzionalità complesse».

Ovviamente non basta progettare soluzioni innovative ad alte prestazioni per semplificare la vita in azienda: bisogna anche considerare l’impatto che il loro utilizzo può avere sull’infrastruttura IT, da cui oggi dipende un numero sempre maggiore di processi critici di business. Multipartner dispone di un cloud privato con una server farm proprietaria, ed è quindi autonoma da questo punto di vista. Ma quando si parla di calcoli ad altissime prestazioni, nemmeno un vantaggio del genere può essere considerato un fattore di assoluta tranquillità. «I nuovi algoritmi hanno bisogno di processori grafici di un certo livello», precisa Domenico Daniele Bloisi. «E su grandi volumi di dati questo implica una sfida di non poco conto: occorrono macchine potenti che comunque hanno tempi di processamento piuttosto lunghi. Il nostro lavoro consiste anche nel fare in modo che gli algoritmi di deep learning non si basino solo sulla forza bruta, ma sfruttino l’intelligenza artificiale per ottimizzare il dispendio di risorse impiegate».

@RIPRODUZIONE RISERVATA

Articolo 1 di 4