HBM: tutto quello che c’è da sapere

La memoria della GPU è un componente fondamentale per il funzionamento di una qualsiasi scheda video. Come nel caso della più comune RAM delle CPU, la VRAM (Video Random Access Memory) si occupa di immagazzinare i dati di quello che sta per essere elaborato dalla GPU. I frame renderizzati, le texture e le luci sono alcuni esempi di quello con cui ha a che fare la memoria video. Da anni il panorama delle GPU è fermo alle GDDR5. AMD in particolare crede che sia arrivato l’orizzonte per questo tipo di memorie e, in collaborazione con SK Hynix, le due aziende hanno sviluppato un nuovo standard chiamato High Bandwidth Memory (HBM). Approfondiamo maggiormente la tecnologia HBM in questo focus cercando di capire, in parole semplici, di cosa si tratta e che riscontri potrà avere.

HBM: cos’è?

Come abbiamo detto, la tecnologia HBM non è altro che una nuova tipologia di memoria operativa dedicata alle schede video e, nello specifico, alle GPU. Ma quanto impatto ha davvero sulla performance? Una memoria più veloce porta generalmente a prestazioni migliori, ma il carico è come sempre più vincolato alla GPU in sé. Ci deve essere un giusto equilibrio tra memoria e GPU per far sì che funzionino a livello ottimale entrambi. La creazione della HBM è legata in particolar modo a questo equilibrio.

Secondo AMD le memorie GDDR5 arriveranno a pesare troppo sui consumi delle future schede video, i cui processori saranno di gran lunga più efficienti in relazione, diventando di fatto un bottleneck per le GPU. HBM si presenta come una valida alternativa, in grado di risolvere le incapacità di GDDR5 da pressoché qualsiasi punto di vista. Vediamo in dettaglio quali sono le novità introdotte. 

HBM

Una prima sostanziale differenza la notiamo dalla disposizione della memoria. Mentre nel caso delle GDDR5 i chip sono disposti in serie attorno alla GPU, le memorie HBM sono poste in prossimità dell’unità di calcolo principale, sfruttando la vicinanza per favorire performance migliori. Queste ultime sono inoltre di gran lunga meno ingombranti, permettendo soluzioni dalle dimensioni ridotte come la R9 Nano o eventuali integrazioni on-chip.

HBM

Un’ispezione più ravvicinata ci rivela i segreti di questa tecnologia. HBM propone stack 3D di chip DRAM che lavorano in parallelo. L’idea è che GDDR5 con la sua banda limitata è costretta ad aumentare il clock per ottenere la performance prevista dalle attuali VRAM, al costo di un consumo energetico maggiore. L’approccio di HBM è più efficiente, utilizzando chip di memoria con bus molto più ampi, ma a clock inferiori. Ciò permette bus da 4096 bit (1024 bit per stack), contro i comuni 256 bit (32 bit per chip) attuali delle GDDR5 e trasferimenti per secondo notevolmente incrementati. In particolare una stack di HBM è composta da 5 elementi, quattro di cui sono die di archiviazione ed un die logico alla base. Gli strati sono interconnessi fra di loro tramite through-silicon vias (TSVs) e μbumps che raggiungeranno l’interposer, la piattaforma su cui si congiungono la stack HBM e l’unità logica centrale. Non parliamo in specifico di acceleratori grafici, poiché HBM non è limitata alle GPU: potrebbe infatti essere eventualmente implementata in CPU o altri SoC.

Trattandosi di una nuova tecnologia, che come abbiamo visto si distanzia non poco dallo standard corrente, il costo della sua implementazione è un numero non trascurabile. GGDR5 è invece una memoria consolidata ormai da anni e i suoi costi sono molto più accessibili. La domanda rimane se il gioco vale la candela.

GDDR5X vs HBM

I rumor iniziali delle schede video Pascal con HBM2 sono stati smentiti con l’introduzione delle GDDR5X, integrate nei modelli top di gamma Nvidia come la GTX 1080 e la Titan XpGDDR5X raddoppia banda e clock speed per chip paragonato al predecessore GDDR5, da 28 GB/s e 7 Gb/s a 56 GB/s e 14 Gb/s rispettivamente. È inoltre più efficiente con il voltaggio ridotto a 1.35v dai precedenti 1.5v. Ma questo refresh delle GDDR5 tiene testa alle memorie HBM? In poche parole, no.

La larghezza del bus rimane invariata con i soliti 32 bit per chip confrontandosi contro i massivi 1024 bit per stack di HBM. La velocità di banda a più di 100GB/s per stack e il voltaggio a 1.3v non lasciano dubbi sulla tecnologia superiore. Ma le memorie GDDR5X hanno comunque un vantaggio significativo. Essendo basate sulle largamente approvate GDDR5, il loro costo di implementazione è di gran lunga inferiore a HBM. Molto probabilmente le vedremo popolare varie fasce di prezzo delle GPU, prima che HBM prenda totalmente piede.

HBM vs HBM2

La prima generazione di HBM ha dimostrato di avere le carte in regola per rimpiazzare le attuali memorie. Purtroppo però oltre al vincolo del costo, si aggiunge anche un limite di capacità di 1 GB per stack. Nella sua prima implementazione all’interno delle GPU Radeon R9 Fury e R9 Nano, abbiamo visto solo  4GB di VRAM in totale. Un bel limite visto che per gli standard attuali cominciano a starci stretti.

Fortunatamente HBM2, evoluzione della tecnologia, ci toglie queste preoccupazioni con un rigoroso aumento della densità, fornendo fino a 8 GB per stack. Anche la velocità della banda aumenta, raddoppiando dai precedenti 128 GB/s per stack a 256 GB/s per stack. La larghezza del bus per stack rimane però la stessa, vediamo infatti che le GPU Fiji presentano un bus da 4096 bit (4 stack da 1 GB) con 512 GB/s contro i 2048 di Vega (2 stack da 4GB) con 484 GB/s, un ottimo risultato considerando che vengono utilizzati la metà degli stack precedenti. La nuova generazione occupa anche leggermente più spazio, ma i benefici rafforzano ancor di più la posizione di HBM come futuro standard delle memorie.

Le nostre conclusioni su HBM

Concludendo possiamo dire che le memorie HBM sono un netto miglioramento delle attuali GDDR5, ma abbiamo la sensazione che diano molto più beneficio a quelle applicazioni professionali affamate di banda di memoria. Come menzionato precedentemente, la performance dipende più dalla GPU e dall’architettura che dalla memoria (per il momento). Sia nel caso dell’architettura Fiji che della serie Vega, non sembra che HBM e HBM2 abbiano dato lo slancio desiderato per competere contro il rivale verde nel gaming. Al contrario i miglioramenti nel campo della gestione della memoria sembrano aver sbalordito di più il settore business. Sicuramente un’ottima notizia, ma che lascia noi altri consumatori alquanto delusi.

Detto questo, è imprescindibile che la tecnologia HBM diventerà prima o poi lo standard di fatto delle memorie video. Samsung sta già lavorando ad una versione più “economica” da implementare in prodotti di fascia media ed il primo prodotto con architettura Volta di Nvidia, il chip V100, monta memorie HBM2. Speriamo di poter vedere i benefici di questa tecnologia nel vicino futuro. Per ora non possiamo che consigliarvi di guardare sempre e comunque i benchmark effettivi e dare meno importanza ai numeri nelle specifiche tecniche.

Top