DATA CENTER

Data Center: i 10 trend più importanti da tenere a mente anche nel 2016

Dalla virtualizzazione alla Internet of Things, il 2015 ha visto affacciarsi nuove strategie e nuovi approcci tecnologici che hanno cambiato la visione e l’utilizzo dei data center. Per il 2016 gli analisti confermano i trend

Pubblicato il 14 Ott 2015

data-center-151014093401

Il data center si conferma la culla dell’innovazione tecnologica. Le soluzioni e gli approcci utilizzati nelle sale macchine, stanno cambiando sempre più rapidamente mentre altre, del tutto nuove, stanno emergendo per venire incontro alle sempre nuove esigenze di imprese ed organizzazioni.

La virtualizzazione è sicuramente diventata una necessità indispensabile, mentre i dischi allo stato solido (SSD) giocano un ruolo importante nell’implementazione di reti virtual SAN ad alte prestazioni.

I professionisti IT devono essere pronti a recepire i nuovi prodotti e le tendenze che si stanno affacciando in questo settore, per prenderle eventualmente in considerazione e per capire quale impatto possano avere questi nuovi prodotti sui propri data center e, di conseguenza, sul business dell’azienda.

Data center: i 10 trend da tenere a mente

DI seguito le dieci tendenze evidenziate dagli analisti nell’anno in corso che vedremo probabilmente protagoniste dei data center anche nel corso del 2016.

1. Potenziamento delle infrastrutture per supportare l’aumento dei carichi di lavoro

Una ricerca di Gartner parla di un tasso di crescita annuo dei carichi di lavoro che i server devono gestire pari al 10%. Sempre su base annua, per elaborare questo aumento di dati, le aziende hanno dovuto provvedere a rendere il 20% più potenti i propri server ed aumentare del 35% la larghezza di banda della propria rete. Ma il dato più sorprendente è l’aumento, pari al 50%, della capacità dei sistemi di storage. Questi dati parlano chiaro: i responsabili IT devono seguire e soddisfare le tendenze dei carichi di lavoro che i server devono gestire, e quindi rendere disponibili le risorse adeguate per garantire un alto livello di prestazioni e servizi che non rallentino l’attività quotidiana degli utenti.

2. Capire le necessità delle business unit per renderle più produttive

Ogni business unit presente in azienda ha necessità di essere agile e reattiva nel mercato che gli compete. Per il reparto IT, non è sempre facilissimo mettere a punto questo tipo di flessibilità. Le business unit sono così portate a spendere buone fette del loro budget per avere, ad esempio, applicazioni mobile, servizi cloud o a permettere ai dipendenti di utilizzare dispositivi personali. Negli anni passati questo rientrava nello shadow IT ed era visto di buon’occhio dalle aziende, basta che tutto questo risolvesse i problemi legati al business. Ma ultimamente i reparti IT si sono resi conto che è molto più importate collaborare con le business unit per decidere quali tecnologie integrare per soddisfare al meglio le esigenze che emergono da questo dialogo. Capire il business per i reparti IT è importante per aiutare e incorporare processi e strumenti che possano rendere le business unit più produttive ed efficienti.

3. Internet of Things, ovvero Big Data a milioni

Internet delle cose significa attuatori, sensori e decine di dispositivi integrati che forniscono una valanga di dati utili al business. L’efficienza tencologica porta la IoT a moltiplicare questo tipo di oggetti connessi e comunicanti. Gartner prevede che entro il 2020 saranno oltre 26 miliardi i dispositivi connessi. La sfida per i reparti IT alla fine di quest’anno, ma soprattutto negli anni a venire, riguarda l’elaborazione, la conservazione e la correlazione di questa montagna di dati in arrivo in tempo reale da una moltitudine di sensori. La perfetta gestione di questi Big Data consentirà all’azienda di prendere decisioni in tempo reale, analizzare le tendenze e scegliere la migliore strategia di business da adottare nel breve o lungo periodo.

4. L’infrastruttura software-defined un beneficio, ma anche un rischio

Ormai tutti i professionisti IT hanno sentito il termine software-defined in varie declinazioni, dal software-defined storage, passando per il software-defined networking (SDN), fino al software-defined data center. Questo termine sta ad indicare un nuovo modo di automatizzare e gestire l’infrastruttura IT dell’azienda attraverso una particolare programmazione software. Se sfruttato al meglio delle sue potenzialità, il software defined, può portare all’azienda diversi benefici, come una veloce e più flessibile riconfigurazione dell’infrastruttura da un’unica postazione, il miglioramento delle prestazioni dei carichi di lavoro e la gestione del traffico di rete. Se approntare una software-defined networking (SDN) non presenta particolari problemi, più complessa è la questione se si decide di passare a un software-defined data center che sia in grado di integrare l’elaborazione dei dati presenti in azienda e in quelli fuori sede. Inoltre, integrare infrastrutture software-defined, prevede uno studio approfondito di un set di logiche e regole che devono essere riviste e aggiornate periodicamente. Il rischio che si corre è quello di approntare un’automazione dei processi improprio o inefficace rispetto alle esigenze che potrebbero cambiare nel tempo per cui la governace risulta semplificata ma deve essere più vigile.

5. L’evoluzione delle infrastrutture iperconvergenti

Integrare le infrastrutture nei data center oggi è un trend noto come Converged Infrastructure (CI). Le infrastrutture iperconvergenti non sono di certo una novità: il settore negli ultimi anni ha acquisito sempre più interesse da parte dei professionisti IT e sarà sempre di più tenuto in considerazione anche nei prossimi anni. L’appellativo di Converged Infrastructure (CI) si ha quando, a livello di sistema, si hanno server che, oltre a fornire lo storage di rete, offrono componenti pre-bundle integrate dal vendor che aiutano a centralizzare la gestione e il controllo di una pluralità di sistemi. Le piattaforme iperconvergenti sono in continua evoluzione e offrono migliori prestazioni, efficienza energetica e gestibilità. Ma come spesso accade non è tutto oro quello che luccica. Scegliere la migliore piattaforma iperconvergente per le proprie esigenze aziendali non è affatto semplice: il fatto che siano coinvolti più sistemi presuppone il coinvolgimento di più dirigenti che devono scostarsi dal tradizionale metedo di scelta che prevede il miglior prodotto che serve a quella businss unit, ma deve confrontarsi con il vendor per farsi consigliare sì sul miglior prodotto, ma con una visione più globale delle esigenze dell’azienda, anche e soprattutto tenendo presente cosa potrà servire in futuro. Infatti, difficilmente si potrà farne un altro investimento di tale portata un secondo tempo se cambieranno le esigenze dell’infrastruttura IT dell’azienda.

6. Sistemi disaggregati

Come è risaputo un data center è composto da una serie di server che a loro volta sono composti da processore, memoria, sistemi di storage e un alimentatore, tutti interconnessi tra di loro, a breve

distanza, da interfacce proprietarie. Se si necessità di più velocità del processore o di una maggiore quantità di memoria, di norma o si acquista un nuovo server più potente o si sostituiscono i componenti che servono con altri più attuali o si aumentano di numero quelli già presenti. L’idea dei cosiddetti sistemi disaggregati è di rendere modulare l’elaborazione dei dati affidandola a blocchi di componenti hardware che possono essere usati a seconda delle esigenze. Questi blocchi si connetto tra di loro con sistemi ad alta velocità (ad esempio la fotonica al silicio) e nel caso di esigenze come un aumento dei cicli di elaborazione si potranno inserire nel rack blocchi di processori che lavoreranno in contemporanea. I nuovi rack stanno riducendo il numero di alimentatori che servono a farli funzionare, migliorando così l’efficienza energetica e riducendo il pericolo di guasti di cui sono soggetti appunto gli alimentatori. Gli OCS (Open Compute Server) attuali hanno un solo alimentatore che fornisce l’energia necessaria a più rack, e questo sarà iun altro trend dei prossimi anni.

7. Le infrastrutture proattive

I responsabili IT e i business leader si affidano a strumenti di analisi per comprendere al meglio i data center e le risorse a disposizione per l’elaborazione dei dati. Questi strumenti sono indispensabili per queste figure in azienda che devono prendere le migliori decisioni a riguardo dell’utilizzo dei data center e di un eventuale upgrade dei sistemi. I data center infrastructure management odierni aiutano gli amministratori IT a prevedere cosa accadrà in futuro, ma la vera evoluzione prevede che questi strumenti di analisi metteranno a disposizione la capacità di prevenire e anticipare i problemi e i bisogni futuri e, più in generale, avranno l’abilità necessaria nel gestire i cambiamenti.

8. Business continuity e disaster recovery: in una sola parola continuità del servizio IT

La Business Continuity (BC) e il disaster recovery (DR) sono stati generalmente affrontati come due problemi distinti e ben separati. Ma queste due problematiche stanno fondendo in un’unica attività che prende il nome continuità del servizio IT. Alla base di questa fusione è l’obiettivo fondamentale e comune che le due attività hanno, ovvero mantenere attivi i servizi essenziali a disposizione degli utenti. L’idea di continuità del servizio IT prende forma quando è possibile prevenire potenziali interruzioni del servizio e si possono quindi spostare i carichi di lavoro in modo dinamico versi altri data center. Questa attività è spesso utilizzata da grandi società che fanno trading, ma molto presto, sicuramente dal prossimo anno, sarà presa in considerazione anche in altri settori.

9. Una difficile convivenza tra preservare e cambiare per migliorare

Il reparto IT di un’azienda, tipicamente, ha due grandi sfide quotidiane da affrontare: far sì che tutta l’infrastruttura IT funzioni a dovere ed esplorare nuove tecnologie per migliorare il business. Queste due attività non convivono molto bene perché spesso gli sforzi per avere un’infrastruttura IT efficiente vanno a cozzare con la ricerca di nuove tecnologie che potrebbero bloccare o rallentare l’ecosistema IT dell’azienda. Ma queste due modalità possono e dovrebbero coesistere. E’ giusto preservare i processi, le procedure che hanno reso possibile una perfetta gestione IT dell’azienda, ma al tempo stesso è altrettanto importante che si cerchino nuovo strade per rendere più snelle alcune attività e migliorare così il business. Nel corso del tempo è normale studiare nuove tecnologie per il business attraverso un’attenta valutazione e sperimentazione. Se si capisce che una tecnologia è utile per migliorare la situazione attuale, ma non è ancora affidabile al tal punto da essere inserita all’interno di un data center, si potranno studiare processi e procedere alternative per gestirla. Una di queste è l’utilizzo del cloud pubblico prima di una transazione all’interno dell’infrastruttura IT.

10. Competenze IT troppo scarse

Troppo spesso in azienda mancano dei professionisti IT con le competenze necessarie per migliorare l’infrastruttura IT e il business. Problemi come la maggiore complessità delle applicazioni, le maggiori esigenza di assistenza, i tempi di sviluppo ridotti all’osso, i budget sempre più ridotti stanno mettendo a dura prova il personale IT. I professionisti IT dovrebbero ragionare al di fuori delle loro mere competenze, e confrontarsi sempre più spessi con gli altri dipendenti. Incoraggiare il personale a una crescita individuale attraverso la formazione e il cross-training è una buona strategia per incentivare i fidelizzare i professionisti IT che saranno così stimolati a rimanere più a lungo in azienda.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati