Maia 100 e Cobalt 100, i processori custom di Microsoft sotto il segno di IA e Azure

Durante l’evento Ignite, Microsoft ha svelato due processori custom, uno destinato all’intelligenza artificiale e l’altro a carichi di lavoro cloud generali: entrambi sono indirizzati alla propria infrastruttura Azure. I chip inizieranno a essere inseriti nei datacenter di Microsoft all’inizio del prossimo anno e, oltre a supportare il lavoro interno, saranno accessibili anche ai clienti Azure.

La prima soluzione un acceleratore AI chiamato Maia 100, rivolto ai datacenter che eseguono prodotti come Windows Copilot, Bing Chat e, pi in generale, alla gestione dei modelli linguistici di grandi dimensioni. Questo chip realizzato a 5 nanometri presso TSMC e integra 105 miliardi di transistor. Al momento non ci sono informazioni sulla sua architettura.

Siamo rimasti entusiasti quando Microsoft ha condiviso per la prima volta i progetti per il chip Maia e abbiamo lavorato insieme per perfezionarlo e testarlo con i nostri modelli“, ha dichiarato Sam Altman, CEO di OpenAI.

Il chip sar montato in rack custom raffreddati a liquido che offrono fino a 4 chip. “I server di Maia sono progettati con un protocollo di rete basato su Ethernet totalmente personalizzato, con larghezza di banda aggregata di 4,8 terabit per acceleratore per consentire una migliore scalabilit e prestazioni del carico di lavoro end-to-end“, ha spiegato Microsoft.

Il secondo processore, chiamato Cobalt 100, sar invece integrato nei datacenter di Azure: si tratta di un chip ARM – prevede 128 core Armv9 – e Microsoft lo considera ideale per eseguire carichi di lavoro cloud generici con maggiore efficienza rispetto alle soluzioni hardware attuali. Anche Cobalt dovrebbe essere prodotto a 5 nm da TSMC.

Al momento non ci sono informazioni specifiche sulle prestazioni, ma si parla di un miglioramento fino al 40% rispetto all’attuale generazione di server ARM commerciali implementata nel cloud di Azure.

La casa di Redmond considera la realizzazione di processori custom come l’ultimo tassello di una strategia che negli anni l’ha portata a ottimizzare tutta l’infrastruttura Azure per distinguersi dalla concorrenza di Google e Amazon – anch’esse impegnate da anni nella progettazione di chip custom per i propri server.

In questo modo, inoltre, Microsoft riduce la dipendenza dalla filiera tradizionale, potendo optare per soluzioni ingegnerizzate internamente qualora le proposte dei partner come NVIDIA non fossero disponibili perch molto richieste. Infine, progettandosi i chip in casa Microsoft pu avere un controllo maggiore su target prestazionali e costi complessivi, dai consumi energetici fino al costo del singolo componente hardware.

L’arrivo di Maia 100 e Cobalt 100 non significa l’addio all’hardware dei fornitori canonici come Intel, AMD e NVIDIA, almeno non al momento. A Ignite Microsoft ha infatti annunciato un’espansione delle sue partnership con NVIDIA e AMD per offrire la potenza di calcolo degli acceleratori AI NVIDIA H100 e H200 nel cloud, nonch AMD Instinct MI300X.

Leave a Comment