Data center

Strumenti di gestione del CED in 5 linee guida che aiutano a capire cosa scegliere

Il monitoraggio dei data center è fondamentale per assicurare la sicurezza, le prestazioni e la scalabilità dei servizi. Gli esperti riassumono la governance in cinque capitoli fondamentali che rendono i processi più efficienti, tra cui anche un’opzione opensource

Pubblicato il 30 Ago 2016

big-data-management-150909171358

I responsabili dei data center hanno una lunghissima lista di cose da fare per garantire l’efficienza e la sicurezza delle infrastrutture: ecco perché gli strumenti di gestione del CED sono tanti quanti sono i dispositivi da presidiare.

Dal controllo dei server alla verifica di tutto il parco installato, incluso il monitoraggio dei mainframe, ci sono innumerevoli attività da gestire e da tenere a mente. La prima cosa da fare, dunque, è stilare e mantenere aggiornato l’inventario completo della sala macchine. Questo aiuterà il CIO ad avere una mappa precisa del data center che gli permetterà di organizzare meglio i compiti affidati alla sua squadra.

Considerata la tipologia di configurazione dei data center, estesi su aree molto ampie oppure distribuiti geograficamente su diverse sale macchine, le attività di controllo risultano frammentate su più task. Ecco perché sono necessari strumenti di gestione del CED ottimizzati e progettati per semplificare la governance.

Gli esperti hanno delineato le 5 linee guida che vi aiuteranno a scegliere rapidamente gli strumenti di gestione del CED e le migliori strategie a supporto delle attività.

1) Monitoraggio del CED: definire una strategia IT proattiva

Prima di scegliere gli strumenti di gestione del CED gli esperti suggeriscono di focalizzarsi bene sugli obiettivi della strategia. Invece di ragionare a posteriori, facendo i salti mortali per rimediare all’insorgere di qualche problema, gli amministratori dei data center devono capire che la proattività è già parte integrante di una vision strategica. Anticipare le criticità, prima ancora che qualche utente segnali una disfunzione è un punto di forza di una buona gestione.

Il punto di partenza è una buona gestione delle informazioni che solo dei buoni strumenti di gestione del CED sono in grado di fornire in tempo reale agli IT manager. Le attività di controllo aiutano a capire inefficienze e anomalie, segnalando quando è arrivato il tempo più adatto a effettuare aggiornamenti ai sistemi legacy. Come? Raccogliendo e analizzando i dati sulle operazioni di storage, di networking e dei server. Quando si tratta di aggiornare i sistemi di archiviazione bisogna fare un’analisi comparativa per valutare se sia meglio scegliere tra soluzioni SSD (Solid State Drive), oppure SATA (Serial Advanced Technology Attachment) o, ancora, puntare a una Storage Area Network (SAN).

Una volta deciso che cosa acquistare, il consiglio degli esperti è di utilizzare al meglio i sistemi di archiviazione per gestire tutti i dati che gli strumenti di gestione del CED producono. La reportistica è un supporto decisionale strategico e va valutata nel tempo, soprattutto quando si parla di networking: sono i dati che aiutano a cercare e capire le latenze e a portare i manager a decidere quando e come ristrutturare i carichi di lavoro.

2) Monitoraggio dei mainframe: scegliere i tool con attenzione

Da quando i mainframe hanno iniziato a generare un grandissimo numero di dati sempre più dettagliati, il monitoraggio di tutti questi flussi di informazioni è diventato complicato. Gli esperti indicano tre tipi di strumenti per la gestione di questo tipo di attività che possono aiutare gli amministratori di sistema. I tool per il monitoraggio in real time offrono un vantaggio indiscusso: fotografare in tempo reale ciò che accade nel sistema mainframe. C’è però un contraltare a questo tipo di efficienza ed è la superfetazione di dati prodotti, che può generare un rumore di fondo che rende difficile discernere le priorità dalle cose meno importanti. Ecco perché gli specialisti consigliano agli IT manager di utilizzare strumenti di monitoraggio near time, ovvero quasi in tempo reale per verificare lo stato delle anomalie e delle inefficienze con un approccio che prende in considerazione un delta temporale una tantum invece che in modo costantemente puntuale.

Anche nel caso di questo tipo di strumenti di gestione del CED ci sono dei se e dei ma: quando è necessario avere dati più precisi e dettagliati, i tool near time non sono il massimo. Il problema con questo tipo di strumenti, come ad esempio MXG, è che pur essendo in grado di monitorare le tendenze e di offrire dei totali parziali le informazioni che servono non sono sempre immediatamente disponibili e, di solito, risalgono al giorno prima.

La terza via sono gli strumenti per il monitoraggio dei mainframe che possono tracciare gli andamenti dei flussi in maniera riassuntiva ma possono consentire poi viste più di dettaglio.

3) Monitoraggio dei server: da remoto è meglio

I CED più piccoli e periferici, noti come edge data center, stanno affermandosi sui mercati come soluzioni adatte a ospitare servizi cloud ed elaborazione dei dati localmente, ovvero più vicino agli utenti che producono quegli stessi dati. Detti anche ROBO (Remote office/branch office), queste data center minori stanno diventando il modello di riferimento per il monitoraggio da remoto dei server.

Secondo gli esperti, ci sono tre strumenti di monitoraggio dei data center che aiutano gli amministratori di sistema ad attivare questa funzionalità a distanza. Il primo è l’Intelligent Platform Management Interface (IPMI), offerto da vendor di server come Hewlett Packard Enterprise (HPE) e Dell, che offrono soluzioni su misura per il monitoraggio remoto dei server, fornendo informazioni dettagliate su temperatura, alimentazione e altre metriche, nonché i dati di inventario per tutte le unità da sostituire.

Il Remote Access Controller integrato di Dell supporta funzionalità di base IPMI, ma include anche funzionalità avanzate e opzioni integrate, tra cui l’inventario del sistema, il monitoraggio dello stato del dispositivo, la sua configurazione a livello di archiviazione. La terza opzione offerta da HPE si chiama Integrated Lights-Out, si basa sulla tecnologia IPMI e incorpora funzionalità che migliorano il monitoraggio dei server da remoto così come la gestione, pemettendo anche di amministrare l’accesso alle API e controlli avanzati rispetto allo stato di salute delle macchine.

4) Monitoraggio dei log per tracciare le attività della server farm

L’uso quotidiano di strumenti di registrazione degli eventi per monitorare l’attività del server Windows tramite i log contengono informazioni preziose ma, nel caso di più server, è assai noioso spulciare tra tantissimi dati. Fortunatamente, esiste una grande offerta di strumenti di monitoraggio dei log. Certo è che ogni team IT deve scegliere accuratamente il tool più adatto a soddisfare i propri bisogni.

Esistono opzioni gratuite come Microsoft Windows Event Viewer, uno strumento basico ma che permette di raccogliere e leggere i file di log da più macchine, quindi gestendo sia syslog che stack ELK (il bundle acronimo dei tre prodotti ominimi Elasticsearch, Logstash, and Kibana) più complessi e con caratteristiche più avanzate. In dettaglio, quest’ultimo è un tool che permette agli amministratori di raccogliere gli app-log specifici da SQL così come da altre fonti. SolarWinds Log & Event Manager e Splunk sono invece tool a pagamento (fruibili on premise o in modalità As a Service) che forniscono informazioni dettagliate e avvisi, ma possono richiedere per la loro gestione un team IT numeroso.

5) Strumenti di gestione del CED con strumenti opensource

Linux ha cambiato molto la qualità della governance all’interno delle sale macchine. Se correttamente configurati, infatti, gli strumenti di monitoraggio dei data center opensurce possono aiutare a gestire un CED senza alcuna difficoltà.

Ad esempio, Cactus è uno strumento open source gratuito che consente agli utenti di controllare i servizi in qualsiasi intervallo di tempo, presentando le informazioni in un formato grafico leggibile. Nagios, invece, è un altro strumento gratuito che supporta gli amministratori di data center anche nel caso di un ambiente complesso, che ha bisogno di monitorare diversi dati, come ad esempio il traffico di rete e la temperatura.

Gli esperti avvertono che, in ogni caso, non si tratta di uno strumento pronto all’uso: per utilizzarlo al meglio bisogna mettere in conto qualche ora di lavoro per configurare il tool in modo corretto. Il vantaggio di questo lavoro di perosnalizzazione, però, sarà quello di avere una soluzione a supporto delle proprie esigenze specifiche.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati