Seleziona una pagina
Recensione OnePlus Watch 2 smartwatch: prezzo, caratteristiche, impressioni

Recensione OnePlus Watch 2 smartwatch: prezzo, caratteristiche, impressioni


GUARDA ANCHE – Della Marta, cantinette vino hi-tech e di design



fonte : skytg24

NVIDIA Blackwell B200: due chip in uno per rivoluzionare l’intelligenza artificiale

NVIDIA Blackwell B200: due chip in uno per rivoluzionare l’intelligenza artificiale

da Hardware Upgrade :

NVIDIA ha presentato alla GTC 2024 il nuovo le nuove soluzioni B100, B200 e GB200 per accelerare l’intelligenza artificiale. La B sta per Blackwell, in onore del matematico e statistico americano David Blackwell, e descrive l’architettura alla base della GPU che muove i diversi acceleratori.

Jensen Huang mostra Blackwell (a sinistra), confrontandone le dimensioni rispetto a Hopper – clicca per ingrandire

La GPU B100 sarà disponibile solo per i sistemi HGX di terze parti, al fine di integrarsi nei server esistenti grazie a un TDP più contenuto (700W) e prestazioni, di conseguenza, inferiori. Il focus di NVIDIA durante il keynote alla GTC 2024 è stato tutto per B200.

NVIDIA B200 Blackwell: due GPU ne formano una potentissima

La nuova GPU Blackwell B200 è composta da due chip (die) che ne compongono uno solo, prodotti con processo 4NP (una variante ottimizzata dell’N4P) di TSMC. I due chip sono collegati tra loro da un’interfaccia C2C (Chip-to-Chip) con una bandwidth di 10 TB/s, un valore estremamente elevato se si pensa che l’interconnessione UltraFusion delle soluzioni Apple Ultra arriva a 2,5 TB/s.

Clicca per ingrandire

Dal punto di vista produttivo, NVIDIA si è avvalsa della tecnologia di packaging CoWoS-L di TSMC, che, secondo la casa taiwanese, rende teoricamente possibile collegare insieme fino a sei di queste GPU. Secondo NVIDIA, al momento non è prevista una variante della GPU Blackwell con un solo chip, anche se tecnicamente ciascuno dei chip è in grado di funzionare da solo.

Questo profondo cambiamento nel design, con l’addio a un die monolitico per passare a una GPU multi-die, non è inedito nell’industria in quanto la sua introduzione si deve ad AMD con gli acceleratori Instinct MI250X e MI250 nel novembre 2021.

NVIDIA ci ha messo più tempo per passare al progetto MCM rispetto ad AMD, ma si è dovuta adeguare per coniugare la necessità di offrire una potenza elevatissima senza far impennare eccessivamente costi e consumi. Inoltre, produrre una GPU monolitica di dimensioni ancora maggiori rispetto a GH100 avrebbe rappresentato uno sforzo tecnicamente ai limiti dell’impossibile. D’altronde, la forza di un progetto MCM risiede nella maggior flessibilità in fase di progetto, fino ad arrivare alla selezione dei processi produttivi. Il tutto con ricadute anche in termini di temperature e consumi.

Clicca per ingrandire

I due chip che compongono la GPU Blackwell si spingono fino al limite del reticolo e, come tali, occupano un’area di circa 1600 mm2 e sono composti un totale di ben 208 miliardi di transistor, 104 miliardi per chip – 24 miliardi in più rispetto agli 80 miliardi della GPU GH100 Hopper.

Entrambi i chip sono collegati a quattro chip di memoria HBM3E da 24 GB (8-Hi), il che porta il totale a 192 GB di memoria HBM3E per l’acceleratore B100. La bandwidth della memoria HBM3E è pari a 8 TB/s, superiore ai 5 TB/s di GH200 e ai 5,3 TB/s di Instinct MI300X di AMD.

Clicca per ingrandire

Una capacità di memoria di 192 GB di memoria HBM3E rappresenta un incremento importante rispetto agli 80 GB di HBM3 di H100 e ai 141 GB di HBM3E di H200 e GH200, mentre è identico a quello offerto da AMD con l’acceleratore Instinct MI300X, dotato anch’esso di 192 GB di memoria ma di tipo HBM3.

Per quanto riguarda la potenza di calcolo, NVIDIA ha diffuso dati che sono relativi solo ai Tensor Core dell’architettura Blackwell, il che permette di vedere come Blackwell migliori mediamente di 2,5 volte, con punte fino a 5 volte, le prestazioni di Hopper con calcoli a precisione ridotta. Al momento, NVIDIA non ha fornito informazioni sulla potenza di calcolo FP64 delle unità shader o sul loro numero. Insomma, non abbiamo un quadro esaustivo su Blackwell in questo momento.

Clicca per ingrandire

Secondo NVIDIA la GPU Blackwell tocca 20 petaflops in FP4 e 10 petaflops in FP8 tramite i Tensor Core. Per confronto, H100 raggiunge circa 4 petaflops sotto forma di modulo SXM5 con calcoli FP8, 3 petaflops come scheda PCIe e poco meno di 8 petaflops nella configurazione NVL con due GPU. Poiché non è possibile svolgere operazioni FP4 usando i Tensor Core di Hopper, non è possibile un confronto diretto su tale campo.

Fulcro delle maggiori prestazioni è la seconda generazione del Transformer Engine, destinata ad aumentare significativamente il throughput grazie a una precisione di 4 bit che consente il doppio della produttività rispetto all’FP8 senza richiederne la stessa precisione.

Clicca per ingrandire

Come accennato all’inizio, NVIDIA indica per Blackwell un TDP che va da 700 a 1200 W. Le varianti raffreddate ad aria di B100 e B200 hanno un TDP rispettivamente di 700 e 1000 W, mentre il valore di 1200 W appartiene alle soluzioni B200 raffreddate a liquido.

Clicca per ingrandire

Tra le tante particolarità di Blackwell c’è anche la compatibilità con lo standard PCI Express 6.0. Come le precedenti soluzioni, anche Blackwell con le altre GPU grazie a un’interconnessione NVLink capace di toccare ben 1,8 TB/s, il doppio dei 900 GB/s della versione a bordo sugli acceleratori Hopper.

Clicca per ingrandire

Oltre a B100 e B200, NVIDIA ha messo a punto anche GB200, ovvero Grace Blackwell Superchip, un acceleratore che fonde su un’unica scheda una CPU Grace e due GPU Blackwell. La CPU Grace è identica a quella vista su GH100/GH200, mentre la capacità di memoria combinata è di 864 GB – 2 x 192 GB HBM3E per i due acceleratori Blackwell e 480 GB di memoria LPDDR5X collegati alla CPU Grace.

La connessione tra la CPU Grace e le GPU Blackwell avviene tramite a un’interconnessione bidirezionale NVLink C2C a 900 GB/s. Esternamente, ogni acceleratore GB200 ha un collegamento NVLink bidirezionale a 1,8 TB/s.

Clicca per ingrandire

Durante il keynote, NVIDIA ha parlato anche di GB200 NVL72, un rack raffreddato a liquido al cui interno sono presenti 36 acceleratori GB200 per un totale di 72 GPU e 36 CPU. L’obiettivo di GB200 NVL72 è quello di gestire LLM fino a 27 trilioni di parametri, un numero molto alto considerato che per gli attuali LLM si parla di diversi miliardi di parametri: NVIDIA non vuole farsi trovare impreparata all’avvento dei futuri LLM.

“GB200 NVL72 offre un aumento prestazionale fino a 30 volte rispetto allo stesso numero di GPU NVIDIA H100 Tensor Core per carichi di lavoro di inferenza LLM e riduce i costi e il consumo energetico fino a 25 volte”, afferma la società.

Clicca per ingrandire

Il rack GB200-NVL72 sarà accessibile tramite fornitori di servizi cloud come AWS, Google Cloud, Microsoft Azure e Oracle Cloud. AWS prevede di costruire un supercomputer AI chiamato Ceiba, che sarà basato su GB200-NVL72 per un totale di oltre 20.000 GPU Blackwell e una potenza con calcoli IA superiore a 400 exaflops.

Articolo in aggiornamento…

Source link

Gemini su iPhone: che cosa prevede il presunto accordo tra Apple e Google

Gemini su iPhone: che cosa prevede il presunto accordo tra Apple e Google



Da Wired.it :

Apple e Google hanno stretto un accordo che prevede l’utilizzo del modello di linguaggio Gemini su iPhone già dal prossimo, attesissimo, aggiornamento del sistema operativo degli smartphone della mela morsicata, ovvero iOs 18. L’anticipazione arriva da Bloomberg, che riporta come il colosso di Cupertino avrebbe chiesto la collaborazione dei rivali per colmare la lacuna di strumenti già maturi e collaudati per l’intelligenza artificiale generativa sia su dispositivo per operazioni semplici sia soprattutto in cloud per compiti più complessi.

È ancora una volta l’esperto Mark Gurman a raccontare qualche dettaglio sul futuro prossimo di Apple e la protagonista è quell’intelligenza artificiale che non è stata mai davvero ancora considerata dalle parti di Cupertino, se non con soluzioni molto semplici. Tuttavia, i rivali galoppano veloci e l’utenza è interessata alle potenzialità pressoché sconfinate (seppur con parecchie zone d’ombra) delle funzioni AI che vanno dalla generazione di testi a quella di immagini fino all’assistenza dell’esperienza quotidiana. Gemini è il modello di linguaggio di Google che vien già utilizzato sia sul top di gamma di casa Pixel 8 Pro sia sulla linea Samsung Galaxy S24 e può funzionare sul dispositivo in locale per esempio con Magic Compose che crea messaggi per le chat. Secondo quanto affermato da Bloomberg, Apple si è però rivolta a Google per sfruttare Gemini su iPhone nei compiti più complessi sui processi basati sul cloud come per esempio la generazione di immagini realistiche seguendo prompt scritti oppure la generazione di testi più lunghi e articolati, un po’ come si può fare con ChatGPT e Dall-E o con Copilot di Microsoft.

Insomma, nell’attesa di lavorare a una soluzione proprietaria come il misterioso progetto di modello multimodale open-source noto come Ferret oppure dare più concretezza a soluzioni ufficiose come le AI generative Ajax o il chatbot Apple GPT sviluppate internamente, i californiani sfrutterebbero la sponda dei rivali e connazionali. Google ha ufficializzato un mese fa la nuova evoluzione di Gemini, ora in grado di gestire audio, video e testi molto più grandi rispetto a GPT-4, con risultati che però spesso vengono giudicati troppo politicamente corretti e immagini generate che hanno scatenato polemiche oltreoceano, tanto da costringere Google a limitare la funzione.



[Fonte Wired.it]

Dell amplia la collaborazione con NVIDIA per accelerare l’adozione dell’IA generativa

Dell amplia la collaborazione con NVIDIA per accelerare l’adozione dell’IA generativa

da Hardware Upgrade :

Tutti vogliono adottare l’IA generativa, ma il passaggio non è banale. Non basta semplicemente acquistare una licenza di un software: è necessario mettere in piedi una strategia di adozione, comprendere rischi e opportunità di questa tecnologia, e avere in casa le competenze per integrare soluzioni di IA generativa all’interno della propria infrastruttura. 

I problemi principali indicati dalle imprese sono la scarsa accuratezza delle risposte fornite dall’IA, la gestione dell’enorme quantità di dati necessario per addestrare e far funzionare gli algoritmi e – soprattutto – la sicurezza, che a oggi rappresenta è la principale preoccupazione per le imprese. 

Date queste premesse, come si può pensare di accelerare l’adozione della GenAI? Una soluzione arriva da Dell, che insieme al partner NVIDIA ha messo in piedi una piattaforma end to end per introdurre l’IA nei processi lavorativi: Dell AI Factory with NVIDIA.

Arriva Dell AI Factory with NVIDIA, piattaforma end to end di IA generativa

Dell AI Factory with NVIDIA è una piattaforma che offre alle imprese tutto il necessario per introdurre l’IA generativa in azienda riducendo al minimo la complessità, dall’hardware al software. La soluzione, disponibile tramite Dell APEX, include i server Dell PowerEdge XE9680 equipaggiati con le più recenti GPU NVIDIA, fra cui NVIDIA B200 Tensor Core (raffreddate a liquido) e H200 Tensor Core. Secondo Dell, l’adozione di questi server dotati di GPU H200 garantisce prestazioni doppie e un TCO inferiore del 50% rispetto a server basati su GPU H100. In futuro verranno anche supportati i chip GB200 SuperChip, in grado di effettuare calcoli di inferenza in tempo reale su modelli con migliaia di miliardi di parametri e di abbattere il TCO fino al 40%, nel caso di calcoli particolarmente complessi. 

dell nvidia ai 2

Dell AI Factory with NVIDIA supporta infine le piattaforme di networking NVIDIA Quantum-2 InfiniBand e Spectrum-X Ethernet, in grado di trasferire dati a velocità molto più elevate delle tradizionali rei ethernet. 

L’hardware, però, è solo una parte dell’offerta che, come anticipato, copre tutte le esigenze per lo sviluppo di modelli di IA personalizzati. A partire dalla preparazione dei dati per arrivare ai calcoli dell’inferenza (che genera le risposte fornite dall’IA), passando per l’addestramento dei modelli, la loro ottimizzazione e anche il RAG, Retrieval-Augmented Generation. Fa parte dell’offerta anche il Dell Data Lakehouse, un data lake per analizzare e processare in un unico punto i dati provenienti da sistemi multicloud. 

Risposte più affidabili con RAG

La piattaforma end to end di Dell realizzata in collaborazione con NVIDIA supporta anche  RAG, Retrieval-Augmented Generation, una tecnologia per ottimizzare gli output di un modello linguistico e fornire risposte più precise. Si tratta di un sistema che oltre a tenere conto dei dati di addestramento del modello, verifica le risposte facendo riferimento anche su basi di conoscenza esterne al modello stesso, e considerate molto affidabili. 

dell nvidia ai

I nostri clienti enterprise cercano un modo semplice per implementare soluzioni di intelligenza artificiale – ed è esattamente ciò che Dell Technologies e NVIDIA stanno offrendo,” ha dichiarato Michael Dell, fondatore e CEO di Dell Technologies”.

Source link

un AFFARE da non perdere (-19%)

Da Punto-Informatico.it :

Hai mai desiderato un mini PC che offrisse prestazioni da desktop ma con la portabilità di un laptop? Beh, il NiPoGi AM06 PRO è qui per realizzare il tuo sogno. E con il suo super sconto del 19% su Amazon, è ora il momento perfetto per acquistarlo al prezzo speciale di soli 299,00 euro, anziché 369,00 euro.

Mini PC NiPoGi AM06 PRO: difficile trovare di meglio a questo prezzo

Dotato del potente processore Zen 3 AMD Ryzen 5 5500U, questo mini PC offre prestazioni straordinarie in un formato compatto. Con 6 core e 12 thread, sarà in grado di gestire senza sforzo qualsiasi compito, che tu stia lavorando su documenti di Office o giocando ai tuoi giochi preferiti.


NiPoGi AM06 PRO Mini PC Dual LAN, AMD Ryzen 5 5500U (6C/12T, fino a 4,0 GHz), Mini Computer Desktop 16 GB DDR4 512 GB M.2 SSD, HDMI+DP+Type-C 4K Triplo Display/WiFi 5/BT 4.2 per giochi/ufficio/HTPC

Ma le sorprese non finiscono qui. Con 16 GB di RAM DDR4 e un SSD M.2 da 512 GB, avrai spazio e velocità più che sufficienti per tutte le tue esigenze di memorizzazione e multitasking. E grazie alla possibilità di espansione fino a 2 TB, non dovrai mai più preoccuparti di rimanere senza spazio. E che dire dei display? Con capacità di uscita 4K su tre display diversi, potrai goderti un’esperienza visiva mozzafiato come mai prima d’ora. Che tu stia guardando film, giocando o lavorando su progetti grafici, l’AM06 PRO ti offrirà dettagli nitidi e colori vividi.

Ma non è tutto. Questo mini PC è anche dotato di doppia porta di rete gigabit, Wi-Fi 5 e Bluetooth 4.2 integrati, garantendo una connettività senza problemi in qualsiasi situazione. E con il suo avanzato sistema di raffreddamento, potrai goderti prestazioni elevate senza rumori fastidiosi.

In conclusione, se stai cercando un mini PC potente, flessibile e conveniente, il NiPoGi AM06 PRO è esattamente quello che fa per te. E con il suo sconto del 19% su Amazon è impossibile resistergli al prezzo vantaggioso di soli 299,00 euro.

Questo articolo contiene link di affiliazione: acquisti o ordini effettuati tramite tali link permetteranno al nostro sito di ricevere una commissione nel rispetto del codice etico. Le offerte potrebbero subire variazioni di prezzo dopo la pubblicazione.



Fonte Punto Informatico Source link