Aprile 20, 2024

Lamezia in strada

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Questo è il brutale DGX GH200 per addestrare “modelli giganti”.

Questo è il brutale DGX GH200 per addestrare “modelli giganti”.

Non contenta di essere uno dei maggiori vincitori nel boom dell’intelligenza artificiale (AI), NVIDIA non è contenta. L’azienda americana continua a scommettere sul continuare a sviluppare il proprio modello di business al di là di soluzioni grafiche mirate singoli utenti Come noi. In altre parole, mira a rafforzare il proprio ruolo di azienda tecnologica leader nel campo dell’High Performance Computing (HPC).

Segni di ciò che determina il ritmo dello sviluppo di NVIDIA come azienda Vengono da noi direttamente da Taipeia Taiwan, dove Computex, uno degli eventi tecnologici più importanti dell’anno. Lì, il capo dell’azienda americana, Jen-Hsun Huang, ha annunciato importanti sviluppi legati all’intelligenza artificiale che non sono passati inosservati.

Il superchip NVIDIA Grace Hopper è in arrivo

Non è un segreto che viviamo in un mondo che richiede data center sempre più potenti. Ora, poiché questi complessi sistemi informatici sono costituiti da un’ampia varietà di componenti, ci sono diversi modi per farlo migliorare le tue prestazioni. Uno di questi, ad esempio, è migliorare la connettività tra di loro implementando architetture di collegamento migliorate.

In tal senso NVIDIA ha iniziato a produrre il Grace Hopper Superchip GH200, una soluzione che combina una CPU con architettura Grace (con 72 core ARM e fino a 480 GB di memoria LPDDR5X) con una gigantesca GPU H100 con architettura Hopper (con 528 Tensor core) . e 80 GB di memoria HBM3). Tutto questo è collegato all’efficientissimo sistema NVLink-C2C dello stesso produttore.

Vale la pena notare i promettenti progressi compiuti dal suddetto “superchip”. Se impostiamo la configurazione della CPU Grace con la GPU H100 collegata a PCI tradizionale, il rendimento complessivo sarà significativamente inferiore rispetto a questo approccio combinato. NVLink-C2C consente, come promesso dal produttore, di aumentare la larghezza di banda tra CPU e GPU di circa sette volte rispetto a PCIe.

READ  Rain World introduce un nuovo contenuto scaricabile, The Watcher, con il suo primo teaser

I 24 rack contenenti 256 Super Chip GH200 per DGX GH200

Ma non è tutto, diciamo così, l’impegno di NVIDIA nel mondo HPC sembra serio. E così, quelli guidati da Jen-Hsun hanno annunciato il Grace Hopper Superchip GH200 nella loro soluzione DGX che hanno definito un “supercomputer”. E questa definizione ha senso, perché questo non è un nodo del data center standard, ma un vero cluster ad alte prestazioni.

Stiamo parlando del DGX GH200 AI: Grace Hopper, un formidabile pezzo di alta tecnologia (destinato ad addestrare “modelli giganti” AI composto da Chip Super 256 GH200 Interconnessi dal sistema NVLink, che promette fino a 48 volte più larghezza di banda rispetto alla stessa configurazione basata sulla generazione precedente. Risultati? 144 TB di memoria integrata e 1 ExaFLOP di prestazioni.

NVIDIA ha già determinato chi saranno i principali clienti per il sistema AI DGX GH200: Grace Hopper. Nello specifico, Google, Meta e Microsoft stanno aspettando di iniziare a utilizzare il sistema quando sarà disponibile per le attività di intelligenza artificiale entro la fine dell’anno. Sebbene, in teoria, vi abbia accesso anche qualsiasi altra azienda in grado di pagarlo. E anche se non ne conosciamo il prezzo, di certo non sarà economico.

le immagini: nvidia

A Xataka: Dopo il disastro del 2022, le grandi aziende tecnologiche stanno conquistando il mercato azionario. E tutto grazie a un fattore