da Hardware Upgrade :

Recentemente il CEO di NVIDIA ha parlato di ChatGPT definendolo il “momento iPhone dell’intelligenza artificiale“, una previsione che andrà verificata sul lungo periodo ma che arriva da una persona di riferimento del settore, da chi gestisce una società che da anni ha abbracciato l’AI a 360 gradi e con successo.

ChatGPT, Midjourney, Stable Diffusion e tutti i servizi che stanno spuntando come funghi richiedono un’elevata potenza di calcolo per restituire quei risultati che, dall’altra parte dello schermo, possono apparirci come vera e propria magia nera. E tra le principali candidate a offrire “i cavalli” che servono per rispondere a una mole di utenti che si farà via via sempre maggiore c’è proprio NVIDIA.

Secondo TrendForce, l’AI generativa diventerà uno dei principali elementi di fatturato per NVIDIA. La società di analisi ritiene che ChatGPT arriverà a richiedere oltre 30.000 GPU NVIDIA: un numero elevato se pensiamo che si parla di un unico servizio.

Prendendo come riferimento le soluzioni NVIDIA A100 basate su architettura Ampere, TrendForce ha stimato che ChatGPT richiedeva circa 20.000 GPU nel 2020 per elaborare i dati alla base dell’addestramento del servizio (180 miliardi di parametri).

Il numero è destinato ad aumentare in modo significativo in futuro, oltre 30.000 unità, con la sua evoluzione ed espansione. L’IA generativa richiede un’enorme quantità di dati, e usare un grande numero di GPU consente di accorciare i tempi di addestramento.

Cifre alla mano, NVIDIA potrebbe incassare dal solo ChatGPT qualcosa come 250-450 milioni di dollari a seconda che la società pratichi qualche sconto per commesse così ingenti oppure no (in genere si parla di 10.000/15.000 dollari per l’acceleratore A100). Non solo, NVIDIA offre anche sistemi “già pronti”, come il cluster DGX, che conta otto acceleratori al suo interno.

Da qualche mese, inoltre, NVIDIA ha iniziato a commercializzare H100, il nuovo acceleratore basato su architettura Hopper che punta a offrire prestazioni nell’addestramento di AI diverse volte maggiori rispetto ad Ampere. H100, però, costa circa 30.000 dollari.

Nell’ultimo trimestre NVIDIA ha registrato ricavi in crescita dell’11% a 3,6 miliardi di dollari per la divisione Datacenter e con queste premesse il dato continuerà a salire nel corso degli anni. Non va infatti dimenticato che ChatGPT, grazie a un mega-accordo con Microsoft, sarà integrato praticamente in ogni soluzione della casa di Redmond, Windows compreso. E ciò richiederà molta potenza di calcolo e investimenti.

NVIDIA, chiaramente, non è l’unica a operare nel settore dell’intelligenza artificiale e anche realtà come AMD e Intel avranno la possibilità di passare all’incasso. La speranza è che questa potenziale richiesta di migliaia di GPU non vada a occupare le linee di produzione a tal punto da intaccare il business gaming, importante per NVIDIA e le altre, ma meno remunerativo, limitando la disponibilità delle schede video sul mercato.

Source link