Vai al contenuto
News

Data Center design: dal mainframe al cloud

Data Center design
È l’epoca del Cloud. I dati si trovano in rete e sono gestiti da luoghi remoti. Vengono inseriti, immagazzinati, elaborati e depositati presso server speciali localizzati in luoghi specifici, i Data Center. Esploriamo la loro evoluzione e la complessità nell’era del cloud computing.

Indice dei contenuti

Data Center: cosa sono?

I Data Center sono parte integrante dell’infrastruttura cuore del  cloud computing. La loro funzione è quella di fornire la potenza di calcolo e la capacità di archiviazione necessaria per gestire una grande quantità di dati. Queste strutture fisiche si sono evolute da locali a remote per ospitare infrastrutture IT virtualizzate in grado di soddisfare un utilizzo collettivo e ospitare sempre più risorse. 

Un Data Center è un un edificio che ospita un’infrastruttura IT per la creazione, l’esecuzione, l’archiviazione e la fornitura di dati, applicazioni e servizi. Secondo un’altra definizione un Data Center è un’infrastruttura che comprende un gran numero di server interconnessi tra di loro. 

Ciò che è certo è che continuano ad evolversi e a diventare più complessi per rispondere meglio alle esigenze moderne, sia pubbliche che private. Per questo è necessario conoscerne i componenti principali nonché le soluzioni di rete e di sicurezza necessarie al mantenimento operativo della struttura efficiente e sicura.

Si compone così: 

  • server
  • dispositivi di archiviazione
  • apparecchiature di rete
  • sistemi di alimentazione e raffreddamento

I server sono la spina dorsale di qualsiasi tipologia di Data Center, in grado di fornire la potenza di elaborazione necessaria per avviare applicazioni ed eseguire calcoli. Per quanto riguarda i dispositivi di archiviazione si intende dischi rigidi e unità che vengono utilizzati per archiviare una grande quantità di dati. Le apparecchiature di rete consentono la comunicazione tra server e altri dispositivi. 

I sistemi di alimentazione e di raffreddamento garantiscono che i server e le altre apparecchiature restino operative e non si surriscaldano. Entrambi questi sistemi sono progettati per fornire alimentazione e raffreddamento ridondanti e garantiscono che il Data Center possa continuare a funzionare anche in caso di interruzione di corrente o guasto alle apparecchiature. 

Oltre a questi componenti principali, i Data Center richiedono anche una varietà di soluzioni di rete e di sicurezza per proteggersi dalle minacce informatiche e garantire che i dati siano mantenuti protetti e al sicuro, come: 

  • firewall, che proteggono dall’accesso non autorizzato;
  • sistemi di rilevamento e prevenzione delle intrusioni in grado di bloccare le attività dannose; 
  • tecnologie di rete privata virtuale o VPN, che stabiliscono connessioni sicure tra gli utenti remoti e il Data Center, garantendo che i dati non vengano intercettati o compromessi durante la loro trasmissione. 

I Data Center necessitano di flessibilità e agilità nella progettazione e gestione dell’infrastruttura per rispondere in maniera ottimale alla quantità di dati in trasmissione prevista. Il bisogno di flessibilità e agilità è amplificato nel caso di Data Center cloud computing, conosciuti anche come iperscalabili. 

Data Center: la storia tra passato, presente e futuro

Il termine Data Center è nato per indicare un’enorme sala contenente diversi computer ENIAC: era il 1940 e l’Electronic numerical integrator and computer era il quarto calcolatore elettronico digitale, prototipo dei moderni computer. Necessitava di ambienti di grandi dimensioni, con cavi, dispositivi di supporto e accessori costosi. Lo spazio richiesto era considerevole così come la capacità di raffreddamento: tra il 1950 e 1960 si presentavano ancora come ambienti incredibilmente complessi e primitivi con metri di cavi a collegare i dispositivi. Questi spazi erano conosciuti come mainframe

Negli anni ’70 venne progettato il primo processore Intel 4004 interamente programmabile, il decennio seguente arrivarono i primi personal computer e infine nel 1990 gli utenti iniziarono a interfacciarsi con internet, che gettò le basi per quelli che oggi conosciamo come Data Center veri e propri. Gli anni 2000 sono stati fondamentali per lo sviluppo e la regolamentazione.

Il futuro appartiene al cloud computing, all’intelligenza artificiale e i Data Center si porranno sempre al centro dell’economia digitale. Per soddisfare i severi requisiti di prestazioni, affidabilità e sicurezza, le aziende di oggi scelgono di abbandonare le strategie di Data Center on-premise a favore della colocation. Queste ultime, infatti, sfruttano tutta la connettività, la sostenibilità, l’efficienza, la resilienza e l’esperienza conquistate con tanta fatica nell’ultimo mezzo secolo al servizio dell’utente. 

Tipi di Data Center

Esistono diversi tipi di strutture. Spesso una singola azienda può usufruire di più di un tipo a seconda dei carichi di lavoro e delle esigenze. 

 

Data Center locali on-premise

Questo modello possiede un’infrastruttura IT che ospita i dati in sede. 

Diversi business model sono basati su Data Center localizzati per soddisfare un’esigenza di controllo e sicurezza delle informazioni. In questo modo è più semplice conformarsi a normative vigenti (come il Regolamento generale sulla protezione dei dati – GDPR). L’azienda è responsabile di tutte le attività di distribuzione, monitoraggio e gestione

 

Data Center gestiti (managed)

I Data Center gestiti sono un’opzione ideata per le organizzazioni che non dispongono dello spazio, del personale o delle competenze per distribuire e gestire parte o tutta la propria infrastruttura IT in sede.

Vengono distribuiti, amministrati e monitorati da un fornitore di servizi di terze parti. L’azienda noleggia server, storage e hardware di rete, mentre il fornitore supervisiona l’amministrazione, il monitoraggio e la gestione.

 

Data Center colocation o multi-tenant

In questo caso l’azienda affitta lo spazio all’interno di una struttura fisica non locale che ospita l’infrastruttura. 

Nel modello tradizionale di colocation, l’azienda cliente ha accesso esclusivo all’hardware e piena responsabilità della sua gestione, l’ideale per la privacy e la sicurezza. Al contempo però, questo sistema si presenta come poco pratico in caso di interruzione di corrente o emergenze e per questo oggi la maggior parte di fornitori di colocation e cloud offrono servizi di gestione a valore aggiunto, in grado di migliorare agilità,  prestazioni e flessibilità aziendale. 

Il modello colocation funziona per aziende di diverse dimensioni, anche per le grandi imprese che non vogliono spendere capitali nella creazione di Data Center, spesso con risultati non ottimali.

 

Data Center cloud 

Chiamati anche Data Center cloud computing o iperscalabili, questi ambienti ospitano risorse dell’infrastruttura IT per l’uso condiviso da più clienti, dalle decine a milioni di clienti tramite una connessione internet. 

I DC cloud sono gestiti da fornitori di servizi come Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure e Oracle Cloud Infrastructure.

Spesso, i colossi della fornitura di servizi cloud mantengono Data Center più piccoli e vicini per la gestione di carichi di lavoro ad alta intensità di dati in tempo reale, come analisi di big data, intelligenza artificiale e applicazioni. Sono chiamati Data Center edge e possono ridurre al minimo la latenza migliorando nel complesso le prestazioni e l’esperienza del cliente. 

L’architettura di un Data Center cloud: i vantaggi

 La maggior parte dei Data Center moderni si sono evoluti nelll’architettura cloud, in cui le risorse fisiche come CPU, storage e networking sono virtualizzate. Sono stati quindi superati molteplici vincoli fisici per poter allocare le applicazioni e i carichi di lavoro in base alle richieste. 

La virtualizzazione dei Data Center cloud consente poi l’infrastruttura definita dal software o SDI, ossia fornita, configurata, eseguita, mantenuta in modo programmatico, senza che vi sia un intervento umano. I vantaggi di riguardano: 

  • Migliore utilizzo delle risorse di elaborazione, archiviazione e rete. Tramite la virtualizzazione le aziende e i cloud possono servire più utenti e utilizzare meno hardware e minimizzare le inattività.
  • Scalabilità. Un’infrastruttura IT virtualizzata è molto più facile da scalare rispetto alla tradizionale. 
  • Rapidità nell’implementazione di applicazioni e servizi. Per mezzo dell’automazione SDI il provisioning di una nuova infrastruttura diventa facile e accessibile tramite portale self service. 
  • Più soluzioni e servizi disponibili. I fornitori cloud potranno offrire agli utenti una vasta gamma di soluzioni IT direttamente dalla stessa infrastruttura. Possibilità di sviluppare il cloud nativo. Grazie alle infrastrutture cloud è possibile creare un solido ecosistema Open Source, modernizzare le applicazioni e consentire lo sviluppo di app disponibili ovunque. 

I componenti chiave di un Data Center 

Per struttura del Data Center si intende lo spazio utilizzato fisicamente per ospitare le apparecchiature IT, un ambiente ottimizzato e controllato che viene mantenuto a una temperatura e un’umidità specifiche grazie a appositi impianti. I componenti principali di un Data Center sono i server, i sistemi di stoccaggio, la rete, l’alimentazione e la gestione dei cavi, la ridondanza e il ripristino d’emergenza. 

 

Server

Sono computer che forniscono applicazioni, servizi e dati direttamente agli utilizzatori finali e sono disponibili in diverse forme. I server rack sono ampi e piatti, forniti di proprio alimentatore, ventole di raffreddamento e switch di rete e porte; mentre i server blade sono progettati appositamente per risparmiare spazio e contengono processori e controller di rete e anche storage.  

I mainframe sono invece computer dalle elevate prestazioni e con processori in grado di svolgere il lavoro di un’intera stanza di server blade o rack. I mainframe sono i primi computer virtualizzabili e possono elaborare miliardi di calcoli in tempo reale. La scelta della forma dei server dipende da fattori come lo spazio a disposizione, i carichi di lavoro previsti, i costi e la potenza energetica disponibile. 

 

Storage System 

Spesso i server prevedono funzionalità di archiviazione locale chiamate DAS (Direct-Attached Storage, che consentono ai dati più utilizzati di rimanere nella CPU. Esistono configurazioni di stoccaggio come NAS (Network-Attached Storage e SAN (Storage Area Network). Il primo fornisce accesso ai dati ai server tramite connessione Ethernet standard e possiede supporti come disco rigido (HDD e unità a stato solido (SSD). 

Il SAN, pur fornendo un’archiviazione condivisa, utilizza una rete separata, ed è costituita da diversi server di archiviazione, applicativi e software di gestione dello storage. Un singolo Data Center può utilizzare tutte e tre le configurazioni di archiviazione file. 

 

Rete

Quella del Data Center è una rete in grado di portare traffico di rete attraverso i server da e verso i server ai client ed è composta da vari tipi di switch, router e fibra ottica. Spesso si tratta di servizi di rete virtualizzati. 

 

Alimentazione e gestione dei cavi

I Data Center devono essere sempre attivi e per questo dispongono spesso di doppi alimentatori. I gruppi di continuità a batteria proteggono da sbalzi di tensione e interruzioni di corrente. I generatori possono funzionare nel caso di interruzione di corrente più grave.

La gestione dei cavi è un aspetto rilevante in quanto una diafonia, ossia una disfunzione dovuta al raggruppamento dei cavi, può avere un impatto negativo sulla velocità di trasferimento dei dati e generare eccessivo calore. I Data Center devono per questo tenere conto di normative edilizie e standard di settore per la loro costruzione con il fine di garantire un cablaggio sicuro e ottimale. 

 

Ridondanza e ripristino di emergenza

Il fattore di ridondanza è fondamentale, come abbiamo già detto, per evitare i tempi di inattività. Aumentare la resilienza dei sistemi è il lavoro di operatori e architetti di Data Center, che impediscono così la perdita di dati, il danneggiamento in caso di guasti, etc. Spesso è per questo che le strutture di molti grandi fornitori si trovano in regioni del mondo distinte a livello geografico, per evitare che un disastro naturale o un cambiamento politico possano interferire con le operazioni. 

Il sistema di classificazione dei Data Center

I componenti descritti stabiliscono anche il livello di qualità dei Data Center e gli standard delle infrastrutture. Per la valutazione è necessario concentrarsi su standard di raffreddamento, densità del rack, ridondanza e tempi di inattività, nonché rete, sicurezza e conformità.  I livelli assegnati dall’Uptime Institute sono quattro: 

Livello 1: ridondanza di base, gruppo di continuità sempre attivo, protezione limitata.

Livello 2: ulteriori sottosistemi di alimentazione e raffreddamento ridondanti, come generatori e accumulo di energia contro le interruzioni. 

Livello 3: componenti ridondanti aggiunte come elemento chiave di differenziazione rispetto ad altri. 

Livello 4: aggiunge tolleranza agli errori e componenti a capacità ridondante e percorsi di distribuzione multipli indipendenti, che consentono la manutenibilità simultanea. Zero interruzioni dovute a eventi pianificati e non pianificati.

Ci sono altri fattori che qualificano il funzionamento delle strutture come le conformità ambientali che includono il controllo della temperatura, dei livelli di umidità, dell’elettricità statica e degli incendi. 

Green Data Center

Le necessità odierne includono, all’interno dell’efficienza operativa, anche quella energetica e sostenibile. I Data Center sono strutture che si avvalgono di  potenza di calcolo, quindi risorse energetiche, acqua ed emissioni di gas serra. Per essere un green un Data Center bisogna dimostrare di riuscire a ridurre al minimo il proprio impatto ambientale. 

Grazie allo sviluppo tecnologico e alla capacità globale di comunicare e sviluppare simultaneamente idee e progetti, è possibile mettere in atto strategie green legate allo sviluppo di Data Center sostenibili, tutelando la biodiversità e risparmiando acqua e rifiuti.

I 4 Data Center di Polo Strategico Nazionale 

I Data Center destinati ad ospitare i dati della Pubblica Amministrazione sono 4 e si trovano nel Lazio e in LombardiaAcilia, Pomezia, Rozzano e Santo Stefano Ticino

Seguendo le linee guida stabilite dal PNRR, 280 Amministrazioni si stanno preparando e molte hanno già completato il passaggio definitivo al cloud computing, comprese quelle centrali e le aziende sanitarie. 

La prima milestone prevedeva la migrazione delle prime 100 Amministrazioni entro settembre 2024, «I numeri ci dicono che siamo in anticipo. – ha detto, invece, Emanuele Iannetti, Amministratore Delegato di Polo Strategico Nazionale – Secondo i nostri piani avremmo dovuto chiudere l’anno con contratti firmati per 700 milioni di euro. A quanto ci consta dovremmo invece superare il miliardo».

Il processo di transizione digitale procede con risultati superiori alle aspettative; quella messa a punto da Polo Strategico Nazionale è un’infrastruttura cloud ad alta affidabilità e un sistema che accompagna le Amministrazioni e le supporta nel tempo. I dati dei cittadini saranno custoditi nei Data Center localizzati sul territorio e controllati 24 ore su 24 da sistemi di sicurezza fisica e cibernetica: siamo ad un passo dal futuro – protetto, efficiente e sostenibile.