Sapphire Rapids a nudo, cosa c’è nel cuore della prossima CPU Intel Xeon

Another ICT Guy

Sapphire Rapids a nudo, cosa c’è nel cuore della prossima CPU Intel Xeon

Nel corso dell’Intel Architecture Day 2021 c’è stato spazio per parlare, oltre che di CPU client e delle prossime GPU dedicate gaming, anche del futuro processore server Xeon Scalable, nome in codice Sapphire Rapids. Sailesh Kottapalli, chief architect datacenter, ha dipinto una CPU piuttosto innovativa, basata su core Golden Cove (in maggior numero rispetto ai Sunny Cove di Ice lake) e in grado di restituire maggiori prestazioni anche grazie a diversi engine per l’accelerazione di funzioni specifiche con l’IA.

Golden Cove è lo stesso core che vedremo anche sulle CPU Intel Alder Lake per il mondo client, ma qui è “maggiorato” in termini di unità, istruzioni e cache: ad esempio, Sapphire Rapids metterà a disposizione una cache LLC condivisa poco sotto i 100 MB e quattro controller di memoria per gestire 8 canali.

Intel ha implementato il supporto al nuovo standard di memoria DDR5, quello alla prossima generazione di Optane e alla connettività PCI Express 5.0, CLX 1.1 e UPI 2.0. Vi saranno inoltre processori Sapphire Rapids con memoria HBM per carichi che richiedono una bandwidth elevata.

Tutto questo è stato inserito all’interno di un SoC modulare per garantire scaling tra socket, i nodi e il datacenter. In un certo senso, l’elemento fondamentale delle CPU Sapphire Rapids è rappresentato EMIB, sigla di Embedded Multi-Die Interconnect Bridge.

Visto da fuori EMIB non è altro che un pezzettino di silicio simile a un granello di riso, ma è un componente fondamentale che, posto in un substrato, ha il compito di fare da ponte favorendo il passaggio avanti e indietro di grandi quantità di dati a velocità di diversi gigabyte al secondo. EMIB serve sostanzialmente per collegare orizzontalmente due chiplet posti a breve distanza e creare così un processore composto da più moduli (tile) su un unico package.

Intel assicura che ogni thread in Sapphire Rapids ha pieno accesso a tutte le risorse presenti su tutte le tile, anche la cache, la memoria e l’I/O, garantendo così una latenza sempre ridotta e una bandwidth elevata sull’intero SoC. In termini di engine di accelerazione troviamo Intel Accelerator Interfacing Architecture (AIA), Intel Advanced Matrix Extensions (AMX) e Data Streaming Accelerator (DSA), insieme a nuove istruzioni rilevanti per il mondo datacenter.

AIA supporta comunicazione, sincronizzazione e signaling efficiente verso acceleratori e dispositivi, mentre AMX è un nuovo engine che a detta di Intel garantisce un deciso aumento prestazionale nell’accelerazione di carichi al centro degli algoritmi di deep learning. Può fornire infatti capacità di calcolo maggiori con 2K INT8 e 1K BFP16 operazioni per ciclo.

La società statunitense afferma che un chip di pre-produzione Sapphire Rapids in un test ad hoc si è dimostrato oltre 7 volte più veloce con Intel AMX rispetto alle istruzioni Intel AVX-512 VNNI, restituendo così grandi miglioramenti prestazionali tra i carichi di IA sia per l’addestramento che l’inferenza.

DSA serve invece a scaricare le più comuni attività di migrazione dei dati che causano overhead nelle implementazioni su scala di data center. Intel DSA migliora l’elaborazione di queste attività per garantire prestazioni complessivamente migliori e può spostare i dati tra CPU, memoria e cache, nonché tutta la memoria collegata, l’archiviazione e i dispositivi di rete.

I processori Intel Xeon Sapphire Rapids debutteranno all’inizio del prossimo anno e saranno prodotti con il processo produttivo Intel 7 (ex 10nm Enhanced SuperFin). Bisognerà quindi aspettare un altro po’ per sapere ufficialmente tutti i dettagli su questa nuova serie di CPU server e le loro effettive prestazioni rispetto alla concorrenza.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *