SICUREZZA

Ha ancora senso parlare di Continuous Data Protection?

La tecnologia CDP, quando è arrivata, dieci anni fa, sembrava la killer application di tutti i sistemi esistenti di protezione dei dati. A distanza di qualche anno, invece, i metodi tradizionali di protezione dei dati e i backup pianificati sono ancora saldamente radicati. In realtà la CDP esiste ancora, ma in una forma più evoluta

Pubblicato il 21 Mag 2015

protezione-dei-dati-150520233849

Si chiamava protezione continua dei dati (CDP – Continuous Data Protection) e quando è arrivata, dieci anni fa, sembrava la killer application di tutti i sistemi esistenti di sicurezza. Dopo 5 anni, invece, i metodi tradizionali di protezione dei dati e i backup pianificati sono ancora saldamente radicati. Cosa è successo a CDP? È stata sostituita con qualcosa di meglio?

Il valore di una protezione continua

La CDP è una tecnologia nata una decina di anni fa come grande promessa nell’affrontare una sfida per la protezione dei dati specifici: l’obiettivo del punto di ripristino (RPO). L’RPO corrisponde al lasso di tempo intercorrente nell’avviare il sistema di protezione; in altre parole, la quantità di dati che deve essere ripristinata o i log che devono essere riprodotti in caso di guasto. Entrambi questi processi, ovviamente, richiedono tempo e il concetto alla base della tecnologia CDP era quello di fornire un RPO molto breve i quanto i dati erano registrati in modo continuo.

Dove ha sbagliato la tecnologia CDP

Il primo ostacolo che ha incontrato la CDP è stato il fatto che l’RPO non era un elemento di per sè sufficiente a fare la differenza. Le aziende che potrebbero giustificare un investimento in una soluzione di CDP devono poter avere un recovery time objective molto rapido (RTO). L’RTO è il tempo che serve per avere una copia protetta dei dati, posizionati e leggibili, in modo che l’applicazione possa accedervi in modalità sicura. Tradizionalmente, questo significava copiare i dati dal dispositivo di backup, passando dalla rete di backup allo storage di produzione. Il trasferimento di questi dati è un processo che richiedeva molto tempo, soprattutto pensando al livello di tecnologie che esistevano un decennio fa.

Il secondo ostacolo della CDP è stato la necessità di fornire un punto di riferimento temporale per i dati che stava proteggendo. La tecnologia CDP non aveva la possibilità di recuperare le informazioni come si presentavano storicamente: giorni, settimane, mesi o anche anni.

Negli anni 2004-05, la tecnologia snapshot era ancora agli albori e quello che poteva essere tenuto prima che la piattaforma CDP potesse fare il back up erano solo poche istantanee. Inoltre, quel tipo di backup riguardava solo una copia del CDP, non l’insieme dei dati originale. Così, i recuperi dovevano essere fatte in due fasi: prima dall’appliance CDP, poi dal server applicativo.

Un altro problema è stata l’interfaccia applicativa. Per generare una copia dei dati che fosse di qualità le applicazioni CDP avevano bisogno di interfacciarsi con applicazioni come Oracle e MS-SQL affinchè potessero essere efffettuati i backup on-line e invece molti prodotti CDP non avevano questo tip di interfacce.

Nel caso in cui avessero questi moduli applicativi, c’era un altro problema: le prestazioni. Ogni volta che avviene un’interazione tra un’applicazione e un processo di protezione dei dati, infatti, esiste la possibilità di una riduzione delle prestazioni, il che è mal tollerato dagli utenti. Questo era un problema per la tecnologia CDP perché, per definizione, l’interazione doveva essere continua.

Infine, c’era la questione costi. Mentre i prezzi dei backup su disco erano scesi in modo significativo, altre tecnologie, come gli snapshot, erano al loro abbrivio, così i vendor caricavano sui prezzi. Tecnologie come la deduplicazione e la compressione non erano disponibili su appliance CDP, quindi la copia secondaria doveva avere la stessa dimensione di quella primaria.

Evoluzione della CDP

Come accennato all’inizio, il concetto della CDP era solido: aveva solo bisogno di evolvere. Il primo passo è stato quello legato alla memoria principale, che doveva essere in grado di soddisfare maggiori richieste in merito alla protezione dei dati.

La maggior parte dei sistemi di storage oggi utilizza un reindirizzamento della tecnologia snapshot che permette la creazione di un numero quasi illimitato di copie dei dati con un efficientamento dello spazio. Queste copie possono essere replicate nei sistemi di storage locali o remoti per istituire una protezione rispetto a una falla del sistema primario.

Un altro vantaggio di questo approccio è che i dati rimangono in un formato utilizzabile nativo o in un sistema di archiviazione che può assumere anche il ruolo di storage di produzione. Questo permette degli RTO molto più rapidi.

La sfida per questo tipo di approccio è che risultava costoso, perché tutto lo storage doveva venire da un unico fornitore. Inoltre, le applicazioni dovevano essere costantemente interrotte affinchè scattasse un evento di protezione. Come risultato, la maggior parte dei clienti effettua uno snapshot non più di una volta ogni ora. Se da un lato questo è stato un miglioramento notevole rispetto ai sistemi di backup tradizionale, ancora non è in grado di soddisfare un RPO.

Negli ultimi anni, sono emersi altri due tecnologie che promettono di affrontare la questione. La prima è quella del Software Defined Storage (SDS), che permette al secondo sistema on site e al sistema di storage di disaster recovery di utilizzare anche hardware di fornitori diversi gestiti dallo stesso software di archiviazione.

La sfida dell’SDS è che questi prodotti richiedono un notevole impegno da parte dell’amministratore, nel senso che bisogna gestire il passaggio da un uso del software di archiviazione corrente e del suo metodo di creazione di istantanee e repliche dei dati, ad un altro metodo di archiviazione. Il costo della riqualificazione e ri-scrittura di script dovrebbe essere preso in considerazione in questo approccio.

L’altra opzione è quella di utilizzare un prodotto di gestione di copia dei dati che promette di risolvere i costi e, potenzialmente, la questione dell’interfaccia applicativa. Questi prodotti consentono l’uso di strumenti di software di storage esistente per creare istantanee e dati replicati, ma aggiungono un livello software per rendere quelle istantanee più facili da gestire e da recuperare. In alcuni casi forniscono addirittura interfacce migliori a livello applicativo, permettendo di generare istantanee più frequenti senza impattare sulle prestazioni delle applicazioni.

In entrambi i casi, rimane però il problema della conservazione a lungo termine. Entrambi i metodi, infatti, hanno risolto il problema della creazione di migliaia di istantanee ma non molti sono arrivati a maturare una capacità di gestione tale da consentire un recupero più rapido dei dati all’interno di quella biblioteca di istantanee. Gli IT manager devono cercare dunque prodotti che gli consentiranno di trovare dati attraverso un sistema di inventario degli snapshot.

L’ultima questione è il costo. Mentre molti di questi sistemi hanno prezzi competitivi e possono sfruttare tecniche di efficienza dei dati, il costo di archiviazione dei dati, proprio come una fotografia, va a erodere la capacità dello storage. Gli esperti consigliano dunque di creare una copia non in linea su disco o su nastro che sia al di fuori del processo in modo che le istantanee più vecchie possono essere rilasciate se una linea secondaria.

In conclusione, il CDP non è morto, ma si è trasformato. Lo storage primario fornisce molte delle funzionalità della tecnologia CDP, ma queste funzionalità sono integrate direttamente nel sistema di storage. Copiare i dati costituisce un metodo esterno per fornire Continuos Data Protection e promette di migliorare le capacità della tecnologia CDP con miglioramenti a livello di gestione e l’uso di un set di dati protetti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2