this post was submitted on 13 Mar 2024
4 points (100.0% liked)

Intelligenza Artificiale

346 readers
18 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
MODERATORS
 

Il Wafer Scale Engine (WSE-3) di terza generazione a 5 nm alimenta i supercomputer AI più scalabili del settore, fino a 256 exaFLOP attraverso 2048 nodi.

Cerebras Systems, pioniere nell'accelerazione dell'intelligenza artificiale generativa, ha raddoppiato il suo record mondiale di chip AI più veloce con l'introduzione del Wafer Scale Engine 3. Il WSE-3 offre il doppio delle prestazioni del precedente record, il Cerebras WSE-2, a parità di consumo energetico e di prezzo. Il WSE-3 offre prestazioni doppie rispetto al precedente detentore del record, il Cerebras WSE-2, a parità di potenza e di prezzo. Costruito appositamente per l'addestramento dei più grandi modelli di intelligenza artificiale del settore, il WSE-3, basato su 5 nm e con 4 trilioni di transistor, alimenta il supercomputer Cerebras CS-3 AI, offrendo 125 petaflops di prestazioni AI di picco grazie a 900.000 core di calcolo ottimizzati per l'AI.

Con un sistema di memoria enorme, fino a 1,2 petabyte, il CS-3 è stato progettato per addestrare modelli di frontiera di prossima generazione con dimensioni 10 volte superiori a GPT-4 e Gemini. 24 trilioni di modelli di parametri possono essere memorizzati in un unico spazio di memoria logica senza partizionamento o refactoring, semplificando notevolmente il flusso di lavoro di addestramento e accelerando la produttività degli sviluppatori. L'addestramento di un modello da un trilione di parametri sul CS-3 è semplice come l'addestramento di un modello da un miliardo di parametri sulle GPU.

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 2 points 6 months ago

Il cosiddetto chippone.