Meteor Lake, nella futura CPU di Intel c’è una VPU per l’intelligenza artificiale

Another ICT Guy

Meteor Lake, nella futura CPU di Intel c’è una VPU per l’intelligenza artificiale

Anche se mancano ancora alcuni mesi al debutto delle nuove CPU Meteor Lake, Intel ha deciso di parlare un po’ di più di una nuova, ma fondamentale, caratteristica di questo progetto: la VPU (Versatile Processing Unit) che affiancherà i nuovi core x86 e l’unità grafica Arc.

Non è un caso che Intel abbia deciso di entrare nel merito di Meteor Lake partendo proprio dalla VPU, centrale per la gestione dei carichi di inferenza che permetteranno ai modelli d’intelligenza artificiale di facilitarci la vita e velocizzare compiti che a volte richiedono ore di lavoro. Dopo la pubblicazione di ChatGPT, l’intelligenza artificiale (o meglio l’AI generativa) è il nuovo mantra dell’industria hi-tech.

Sfruttando le possibilità date dal suo primo progetto disaggregato, ovvero composto da più tile / chiplet su unico package, Intel si prepara a offrire per la prima volta un’unità dedicata all’accelerazione di carichi AI a basso consumo. Come ci ha spiegato la stessa società durante una conference call, l’unità deriva dalla terza generazione della Vision Processing Unit (VPU) di Movidius, una realtà acquisita nel 2016. 

L’obiettivo di Intel è quello di portare l’effettiva gestione dei carichi AI sempre di più sui dispositivi finali, sia per questioni di costo che prestazionali, ma anche di privacy. La VPU rappresenta un primo passo su quel percorso.

Intel, al momento, non è entrata nei dettagli tecnici di questa soluzione, ma ha confermato che la VPU farà integrata in tutte le SKU di Meteor Lake, diventando quindi una funzionalità standard, non un elemento su cui segmentare l’offerta di microprocessori.

Insieme alla CPU, alla GPU e alla Gaussian Neural Acceleration (GNA) (già presente nei processori consumer), la VPU si presenta come un’ulteriore opzione per la gestione dei calcoli di intelligenza artificiale sostenuti.

Laddove la VPU è pensata principalmente per gestire operazioni in background, la GPU sarà chiamata in causa solo quando sarà necessario avere alte prestazioni. La CPU, invece, si potrà occupare di compiti di inferenza leggera. GNA, invece, viene usata oggi per l’inferenza a basso consumo di audio e video.

Intel ha fatto intendere che molto probabilmente in futuro l’unità GNA sparirà a favore della sola VPU: la società, infatti, ha già fatto funzionare del codice pensato per GNA sulla VPU, ottenendo risultati migliori. Alcuni carichi, inoltre, possono funzionare simultaneamente su VPU e GPU. 

Ma se l’hardware è importante, costruire l’ecosistema software necessario non è da meno. ONNX, OpenVINO, W3C e DirectML sono disponibili come interfaccia o framework. I software di Adobe, Zoom, Blackmagic, Avid e molti altri dovrebbero quindi essere in grado di sfruttare l’accelerazione hardware AI dedicata offerta dalla VPU.

In una prima fase l’uso di un’unità o dell’altra sarà “codificato”: in poche parole, non c’è uno scheduler dinamico in grado d’indirizzare i carichi di lavoro verso la VPU, la GPU o la CPU, ma saranno Intel e gli sviluppatori di software a prendere quella decisione al fine di trovare il miglior bilanciamento tra prestazioni e consumo.

Secondo Intel, sono molteplici i carichi di lavoro che possono avvantaggiarsi dall’accelerazione IA locale, tra cui l’elaborazione di video e audio in tempo reale e il motion capture, sempre in real time, per Unreal Engine. Molti altri casi d’uso emergeranno con l’arrivo di Meteor Lake sul mercato: come sempre, la disponibilità dell’hardware accenderà la creatività degli sviluppatori.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *