IPU, Intel ci spiega cos’è e perché è importante per il mondo cloud

Another ICT Guy

IPU, Intel ci spiega cos’è e perché è importante per il mondo cloud

È passato qualche mese da quando Intel ha iniziato a parlare di IPU (Infrastructure Processing Unit), una nuova soluzione hardware pensata per il mondo del cloud, creata per rispondere ai carichi in continua evoluzione e alle nuove necessità delle aziende del settore. Cos’è e cosa fa una IPU? A questa domanda ha provato a rispondere Guido Appenzeller, CTO del Data Platforms Group dell’azienda statunitense, nel corso di una conference call.

Le architetture server tradizionali si affidano ai processori per la gestione di tutti i calcoli generali, occupandosi di tutto ciò di cui il sistema ha bisogno per continuare a operare. Questo significa farsi carico anche del traffico di rete e dello storage. L’evoluzione del cloud computing ha tuttavia portato a un netto aumento dei carichi di rete, recando non pochi grattacapi alle CPU che, così, si trovano a lapidare risorse. Anche se lo sviluppo di processori migliori può alleviare il problema, la forza bruta non è quasi mai la scelta migliore per affrontare un problema, specie se il traffico è destinato a crescere ed evolversi ulteriormente.

La soluzione più intelligente è quella di sgravare la CPU da questo lavoro, permettendole di fare cose più utili nel frattempo. Spostando il calcolo di rete a soluzioni dedicate, che è poi ciò che Intel chiama Infrastructure Processing Unit (IPU), l’azienda punta ad aiutare i provider cloud e gli hyperscaler a ottenere maggiori prestazioni di calcolo dai processori e aumentare l’efficienza dei server.

Separando il carico di rete dai calcoli dei clienti, inoltre, i provider di servizi cloud possono aggiungere un ulteriore layer di isolamento, utile per quanto concerne la sicurezza: il calcolo di rete è gestito dalla IPU, il che significa che i dati non passano sullo stesso hardware, con il rischio che diventino accessibili. Un altro importante beneficio per i clienti finali è che le risorse di calcolo affittate non vengono più consumate inutilmente dalle soluzioni di rete del loro fornitore di servizi, ma rimangono a disposizione del loro carico.

Intel ha rilevato che l’overhead dei microservizi sui cicli delle CPU può arrivare fino all’83% nel caso di clienti come Facebook. Utilizzando le IPU, Intel prevede di liberare queste prestazioni e consentire l’uso dei processori Xeon per lo scopo inizialmente previsto.

Se implementate correttamente, le IPU consentono quindi di completare i carichi di lavoro in modo più efficiente, ma non solo: secondo Appenzeller sono lo snodo verso la creazione di server diskless. In questo modo gli hyperscaler potranno ridurre il costo dei singoli server in quanto non avranno più bisogno di archiviazione dedicata per ogni macchina.

Inoltre, l’overhead sulla CPU potrà essere ridotto scaricando lo storage su una rete virtualizzata di storage condivisa. Questo passaggio permetterà a tutto lo storage di essere messo in rete, eliminando qualsiasi problema che potrebbe sorgere con un server specifico.

Il lavoro di Intel con le IPU prosegue su diversi fronti, con l’azienda che lavora su ASIC dedicati che forniscono prestazioni e consumi ottimizzati, ma anche soluzioni FPGA che possono evolvere con gli standard ed essere riprogrammate per le necessità specifiche di un cliente e in base a carichi.

L’azienda ci ha parlato di Oak Springs Canyon, una soluzione 100G basata su un processore Xeon D e un FPGA Agilex, con connettività PCIe 4.0 e un blocco per la crittografia in modo da rendere sicure le comunicazioni di rete.

Arrow Creek è invece  una smartNIC 100Gb pensata per essere usata con i server Xeon. A bordo c’è un FPGA Agilex, ed è una soluzione meno complessa e versatile di Oak Springs Canyon. Infine, ecco Mount Evans, nome in codice della prima IPU basata su ASIC. La nuova soluzione nasce “integrando molte delle funzionalità apprese sulle smartNIC basate su FPGA” e per offrire alte prestazioni. Si tratta anche della prima IPU 200G. A bordo 16 core arm Neoverse N1, tre canali di memoria e diversi engine per crittografia e compressione.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *