Seleziona una pagina
Llama 3, Meta introduce il Large Language Model open source più potente di tutti: sfida Google e OpenAI

Llama 3, Meta introduce il Large Language Model open source più potente di tutti: sfida Google e OpenAI

da Hardware Upgrade :

Meta ha annunciato la disponibilità in modalità open source di Llama 3, la nuova generazione del potente modello linguistico di grandi dimensioni (Large Language Model). 

Secondo la società guidata da Mark Zuckerberg, che ha annunciato Llama 3 e altre novità correlate sul proprio profilo Facebook, questa versione presenta “modelli linguistici pre-addestrati e ottimizzati per seguire istruzioni con 8B e 70B parametri, in grado di supportare un’ampia gamma di applicazioni d’uso”. Non solo, sul sito dell’annuncio si legge un inequivocabile: “Crediamo che questi siano i migliori modelli open source della loro classe, punto“.

Con Llama 3, Meta rende disponibili modelli aperti che puntano a essere alla pari con i migliori modelli proprietari attuali. “I modelli testuali che rilasciamo oggi sono i primi della collezione di modelli Llama 3. Il nostro obiettivo nel prossimo futuro è rendere Llama 3 multilingue e multimodale, avere una finestra di contesto più lunga e continuare a migliorare le prestazioni complessive delle funzionalità LLM fondamentali come il ragionamento e la codifica”.

Meta ha diffuso anche alcuni dati comparativi che vedono Llama 3 svettare sui modelli di Google e Mistral. Inoltre, i nuovi modelli Llama 3 con parametri 8B e 70B rappresentano un grande passo avanti rispetto a Llama 2, e sono il risultato di miglioramenti apportati al pre-addestramento e al post-addestramento.

Clicca per ingrandire

Per sviluppare Llama 3, Meta ha creato un nuovo set di valutazione umana di alta qualità. Questo set di valutazione contiene 1.800 suggerimenti che coprono 12 casi d’uso chiave: richiesta di consigli, brainstorming, classificazione, risposta a domande chiuse, codifica, scrittura creativa, estrazione, interpretazione di un personaggio/persona, risposta a domande aperte, ragionamento, riscrittura e sintesi. Il grafico seguente mostra i risultati aggregati delle valutazioni umane in queste categorie e prompt rispetto a Claude Sonnet, Mistral Medium e GPT-3.5 (non GPT-4).

Clicca per ingrandire

“Il ranking delle preferenze da parte di annotatori umani basato su questo set di valutazione evidenzia le ottime prestazioni del nostro modello 70B rispetto ai modelli concorrenti di dimensioni comparabili in scenari del mondo reale. Il nostro modello pre-addestrato stabilisce inoltre un nuovo stato dell’arte per i modelli LLM su queste scale”, spiega Meta.

Clicca per ingrandire

I risultati sono frutto di diversi miglioramenti chiave come “un tokenizzatore con un vocabolario di 128.000 token che codifica il linguaggio in modo molto più efficiente, il che porta a prestazioni del modello sostanzialmente migliorate”. Meta afferma che i benchmark “mostrano che il tokenizzatore offre una migliore efficienza dei token, producendo fino al 15% in meno di token rispetto a Llama 2“.

Per migliorare l’efficienza di inferenza dei modelli Llama 3, Meta ha adottato le Group Query Attention (GQA) nelle dimensioni 8B e 70B, addestrando i modelli su sequenze di 8192 token. “Abbiamo osservato che nonostante il modello abbia 1 miliardo di parametri in più rispetto a Llama 2 7B, l’efficienza del tokenizzatore e il GQA migliorato contribuiscono a mantenere l’efficienza dell’inferenza alla pari con Llama 2 7B”.

Meta ha inoltre investito molto nei dati di pre-addestramento. “Llama 3 è preaddestrato su oltre 15T token, tutti raccolti da fonti disponibili al pubblico. Il nostro set di dati di addestramento è sette volte più grande di quello utilizzato per Llama 2 e include quattro volte più codice. Per prepararsi ai futuri casi d’uso multilingue, oltre il 5% del set di dati di pre-addestramento di Llama 3 è costituito da dati non inglesi di alta qualità che coprono oltre 30 lingue. Tuttavia, non ci aspettiamo lo stesso livello di prestazioni in queste lingue come in inglese”.

Per garantire che Llama 3 sia addestrato su dati della massima qualità, Meta ha sviluppato una serie di pipeline di filtraggio dei dati usando Llama 2 per “generare i dati di addestramento per i classificatori di qualità del testo che stanno alimentando Llama 3”.

Esperimenti approfonditi hanno permesso di combinare dati provenienti da diverse fonti al set di dati di pre-addestramento finale. “Questi esperimenti ci hanno permesso di selezionare un mix di dati che garantisce che Llama 3 funzioni bene in tutti i casi d’uso, tra cui domande trivia, STEM, codifica, conoscenza storica, ecc”, afferma Meta.

Gli ingegneri di Meta hanno addestrato Llama 3 su due cluster contenenti un totale di 24.576 GPU NVIDIA H100 Tensor Core, collegate a una rete NVIDIA Quantum-2 InfiniBand. Con il supporto di NVIDIA, Meta ha ottimizzato la rete, il software e le architetture dei modelli. In future, per far avanzare ulteriormente lo stato dell’arte dell’intelligenza artificiale generativa, Meta scalerà la propria infrastruttura fino a 350.000 GPU H100.

Clicca per ingrandire

“Ci siamo impegnati a sviluppare Llama 3 in modo responsabile e stiamo offrendo diverse risorse per aiutare le persone a utilizzarlo in modo altrettanto responsabile, tra cui nuovi strumenti di protezione e sicurezza con Llama Guard 2, Code Shield e CyberSec Eval 2. Nei prossimi mesi, prevediamo di introdurre nuove funzionalità, finestre contestuali più lunghe, ulteriori dimensioni del modello e prestazioni più elevate. Abbiamo anche avviato l’addestramento di Llama 3 su un modello con 400B parametri“.

I modelli di Llama 3 saranno presto disponibili su AWS, Databricks, Vertex AI di Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA e Snowflake, con il supporto delle piattaforme hardware offerte da AMD, AWS, Dell, Intel, NVIDIA e Qualcomm.

NVIDIA è già pronta per Llama 3

In un post, NVIDIA afferma che una singola GPU NVIDIA H200 Tensor core ha generato circa 3000 token al secondo, abbastanza per servire simultaneamente 300mila utenti – in un test iniziale usando Llama 3 con 70B di parametri. “Questo significa che un singolo server NVIDIA HGX con otto GPU H200 può fornire 24.000 token al secondo e supportare oltre 2400 utenti nello stesso momento”. Per i dispositivi edge, la versione con 8 miliardi di parametri di Llama 3 ha generato fino a 40 token al secondo su Jetson AGX Orin e 15 token al secondo su Jetson Orin Nano.

Anche Intel accoglie Llama 3

Contestualmente all’annuncio di Meta, Intel ha dichiarato di aver validato il suo portfolio di prodotti IA per i primi modelli Llama 3 8B e 70B sugli acceleratori Gaudi, i processori Xeon, Core Ultra e sulle schede video Arc. La casa di Santa Clara ha condiviso alcuni benchmark che chi è interessato può trovare a questo indirizzo

In particolare, Intel segnala che i processori Intel Xeon 6 di prossimo arrivo, le soluzioni Granite Rapids basate interamente su P-core, “mostrano un miglioramento di 2 volte nella latenza di inferenza su Llama 3 8B rispetto ai processori Xeon di 4a generazione e la capacità di eseguire LLM come Llama 3 70B sotto i 100 ms per token generato”. Infine, i processori Core Ultra “generano già velocità di lettura migliori rispetto a quelle tipiche di un essere umano“.

Source link

SAMSUNG Smartwatch Galaxy Watch4 Classic LTE in acciaio inossidabile, anello girevole, monitoraggio del benessere, fitness tracker, 2021, nero, 46 mm (versione italiana)

SAMSUNG Smartwatch Galaxy Watch4 Classic LTE in acciaio inossidabile, anello girevole, monitoraggio del benessere, fitness tracker, 2021, nero, 46 mm (versione italiana)


OFFERTA AMAZON
Prezzo : 293,75 €
(as of Apr 19, 2024 06:38:44 UTC – Details)



Design raffinato: aggiungi un tocco di raffinatezza al tuo polso, grazie allo smartwatch android realizzato con materiali di elevata qualità, come l’acciaio inossidabile, che esprimono la sua funzionalità potente e intuitiva
Monitora la tua salute: tieni traccia dei tuoi progressi fitness con il nostro primo smartwatch fitness che misura in tutta praticità la composizione corporea
Sfida amici e familiari: monitora i tuoi passi e gareggia con gli amici in una competizione divertente tramite una bacheca in tempo reale. Le sfide prevedono medaglie e un sistema a punti per rendere l’esercizio socialmente divertente e gratificante
Fitness Tracker: registra le tue attività e i tuoi punteggi di fitness sull’orologio e sul telefono. Conta i passi, controlla le calorie e rimani sul tuo percorso grazie al GPS dell’orologio cardiofrequenzimetro da polso
Misuratore di pressione ed ECG: il sensore Samsung BioActive monitora ECG e misura la pressione sanguigna in tempo reale. Dopo la calibratura iniziale, i sensori controllano rapidamente la pressione sanguigna
Analisi del sonno: rileva e analizza in modalità olistica le fasi del sonno mentre riposi. Le opzioni di misurazione migliorate ti consentono di controllare i livelli di ossigeno nel sangue e i modelli di russamento
Compatibile con Smartphone con sistema operativo Android versione 6.0 o successiva e RAM superiore a 1.5 GB
Wear OS: il primo smartwatch con Wear OS Powered by Samsung, Galaxy Watch4 Classic è l’orologio fitness che ti consente di accedere senza problemi alle tue app preferite dal tuo polso

ban in Cina, rimosse da App Store

ban in Cina, rimosse da App Store

Da Punto-Informatico.it :

Le versioni iOS di WhatsApp e di Threads non sono più disponibili per il download in Cina, attraverso la piattaforma ufficiale App Store. Le altre gestite da Meta, come Facebook, Instagram o Messenger, continuano invece a essere distribuite regolarmente.

La prima testata a scriverne è stata il Wall Street Journal. Apple poi ha confermato la rimozione delle applicazioni, giustificandola con un ordine ricevuto direttamente da Pechino, più precisamente dall’autorità nazionale Cyberspace Administration of China. Riportiamo di seguito, in forma tradotta, una dichiarazione della mela morsicata affidata alle pagine di Reuters.

La Cyberspace Administration of China ha ordinato la rimozione di queste applicazioni dallo store, basandosi sulle preoccupazioni per la sicurezza nazionale. Siamo obbligati a rispettare le leggi nei paesi in cui operiamo, anche quando non siamo d’accordo.

Al momento, non è chiaro quali siano i fattori legati alle preoccupazioni per la sicurezza nazionale appena citate. Secondo alcuni, potrebbe essere la conseguenza delle nuove regole introdotte dal paese nell’agosto scorso, che obbligano tutti i gestori dei software distribuiti nel territorio nazionale a una registrazione presso le istituzioni di Pechino. È entrata in vigore nelle scorse settimane, l’1 aprile, dunque le tempistiche sembrano combaciare.

L’ordinanza non ha invece interessato le altre app pubblicate da realtà occidentali come nel caso di YouTube per Google o dell’omonimo social network per X. Quella di YouTube, ad esempio, continua a essere disponibile.

Non è la prima volta che Apple si trova nella condizione di dover rimuovere forzatamente alcune applicazioni dalla propria piattaforma attiva in Cina. È accaduto anche lo scorso anno, con diversi software di intelligenza artificiale generativa simili a ChatGPT, mentre le autorità stavano ancora lavorando alla definizione di una normativa dedicata. In passato, nel 2017, è toccato invece a quella ufficiale del New York Times, innescando una discussione sulla censura nel paese.



Fonte Punto Informatico Source link