Novembre 26, 2022

Lamezia in strada

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Snapdragon AI divide le attività di inferenza per eseguire 4x



Pochi minuti fa parlavamo delle elevate prestazioni che abbiamo riscontrato nella NPU Hexagon del nuovo Qualcomm Snapdragon 8 Gen 2, Prestazioni più elevate che consentono persino di differenziare più articoli in tempo reale per elaborarli separatamenteMa la verità è che le sorprese non finiscono qui, poiché l’azienda ci ha sorpreso con un’altra nuova tecnologia in questo SoC.

Geeknetic Snapdragon AI divide le attività di inferenza per ottenere prestazioni 4 volte superiori1

Questa funzione è chiamata Inferenza sulle tessere piccoleche consente al chip di dividere le attività di inferenza in livelli più piccoli, Consentire l’uso delle tre NPU (Tensor, Scalar e Vectorial) per velocizzare le attività che lo consentono Esegui ciò che può essere efficacemente elaborato in parallelo, cosa che prima era impossibile perché queste attività non possono essere suddivise in attività più piccole e indipendenti.

Geeknetic Snapdragon AI divide le attività di inferenza per ottenere prestazioni 4 volte superiori2

In linea di principio, questa tecnologia di elaborazione può essere applicata a tutte le attività che una NPU deve eseguire, perché sebbene possiamo vedere come viene eseguito l’hashing semantico in tempo reale, È stato anche possibile assistere a una demo in cui l’audio viene trascritto istantaneamente in testo in due linguecosa che prima non era possibile.

Geeknetic Snapdragon AI divide le attività di inferenza per ottenere prestazioni 4 volte superiori 3

In tutto, abbiamo riscontrato un miglioramento delle prestazioni di oltre 4 volte rispetto ad altri chip Qualcomm, il che non è affatto un miglioramento insignificante, E questo, rispetto alla concorrenza, dimostra sicuramente l’importanza di questa tecnologia.

La fine dell’articolo. Raccontaci qualcosa nei commenti!