Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

strategie

Intel dà potenza ai Big Data

Il colosso dei microprocessori rinnova la linea delle CPU server dotandole di capacità appropriate per le nuove applicazioni di elaborazione “in memory” e analitiche, oltre che di virtualizzazione e cloud

19 Feb 2014

Piero Todorovich

La nuova CPU Xeon E7 v2 per applicazioni serverA tre anni dalla prima introduzione della famiglia processori per server Xeon E7, Intel ha deciso che sono maturi i tempi per un aggiornamento capace di tener conto delle esigenze applicative emerse di recente, in particolare nel campo dell’elaborazione in memoria di grandi moli di dati. Per questo ha presentato ieri con la nuova generazione v2 degli Xeon E7 una generazione di CPU progettate per dare il meglio di sé nelle applicazioni di business analytics, nell’elaborazione dei big data, virtualizzazione e cloud e in tutti gli altri casi in cui servano sistemi in grado di indirizzare una grande memoria centrale e avere un I/O più potente.

“La nuova generazione di processori potrà democratizzare l’accesso alle nuove applicazioni dell’in-memory computing – ha spiegato Carmine Stragapede, direttore generale di Intel Italia – che stimiamo potranno essere il 43% nel 2018”. Secondo Intel, il nuovo processore andrà a velocizzare le applicazioni locali (o centralizzate in server farm cloud) per gli utenti retail “che raccolgono e analizzano i dati provenienti da scontrini, ordini via smartphone per fare previsioni e conoscere i clienti”, della sanità, della sicurezza, nell’industria e ovunque serva analizzare rapidamente o addirittura in tempo reale i dati raccolti da sensori e altro.

Come ha spiegato Andrea Toigo, enterprise technology specialyst di Intel, “le nuove CPU supporteranno configurazioni da 6TB di memoria con 8 processori (prima si arrivava a 2TB con 4 processori, ndr) raddoppiando il numero di linee PCI Express per l’I/O con vantaggi in termini di capacità tra il 40-80% per i nuovi server che una ventina di costruttori si apprestano a mettere sul mercato nelle prossime settimane, tra i quali Fujitsu e IBM che hanno mostrato i primi modelli, in consegna dal prossimo marzo.

Le esperienze degli utenti

Tra i primi tester della nuova architettura, Luigi Bellani, infrastructure architecture & engineering director di Telecom Italia, giudica positivamente le capacità dei server basati sulla nuova CPU Xeon nel supporto degli ambienti virtualizzati e quindi nel consolidamento delle applicazioni Unix mission critical. Con 135 sale sistemi, 25 mila server fisici in 11 siti, Telecom ha messo in piano per il biennio 2014-2015 la migrazione di applicazioni oggi su ambienti Unix legacy verso sistemi virtualizzati x86 Linux.

“Pensiamo che la tecnologia x86 sia matura per questo passo – spiega Bellani -. Abbiamo già classificato le nostre applicazioni in ambiente Solaris, HP-UX, IBM AIX per stabilire tempi e modi della migrazione. Dai nostri test, un singolo server di nuova architettura consente consolidamenti fisici che vanno da 2:1 a 25:1 a seconda dei sistemi di partenza, con grande vantaggio in termini di consumo d’energia e di spazio”.

Anche per Morgan Travi, responsabile infrastrutture IT di UnipolSai, oggi impegnato in un complesso progetto di fusione degli ambienti IT e applicativi di due aziende diverse (ad oggi la società dispone di tre centri informativi con un gran numero di server Windows, ma anche Linux, Unix oltre a Vmware con circa 2000 macchine virtuali) la nuova architettura permette di ridurre consumi elettrici e di spazio. “Abbiamo utilizzato un nuovo server per supportare la nostra applicazione di gestione del personale ottenendo una riduzione dei tempi di risposta agli utenti del 40%. Altri test con elaborazioni batch con SAP ERP e SQL Server ci hanno confermato le prestazioni superiori, ma anche la possibilità di fare sostituzioni “a caldo” dei sistemi esistenti, senza incorrere in problematiche software”.

Articolo 1 di 5