SHADOW OF NINJIA
SHADOW OF NINJA

Intel: il primo chiplet ottico di I/O completamente integrato per un’infrastruttura IA più scalabile

Il colosso Usa Intel – in occasione della recente Optical Fiber Communication Conference (OFC) 2024 – ha presentato, per primo nel settore, il più avanzato chiplet di interconnessione ottica bidirezionale (OCI), realizzato come co-packaging con una CPU Intel e in grado di elaborare dati in tempo reale. Si tratta di un importante passo avanti nell’interconnessione ad elevata ampiezza di banda, consentendo input/output (I/O) ottici all’interno dello stesso package nelle nuove infrastrutture IA dei data center e nelle applicazioni di high-performance computing (HPC).

IA: le applicazioni vengono implementate a livello globale

Questo primo chiplet OCI è progettato per supportare 64 canali di trasmissione dati a 32 Gbps in ciascuna direzione su un massimo di 100 metri di fibra ottica, e si prevede che soddisferà le sempre crescenti richieste di ampiezza di banda dell’infrastruttura AI, offrendo minori consumi energetici e maggiore portata. Consente inoltre la futura scalabilità della connettività dei cluster CPU/GPU e nuove architetture di elaborazione, tra cui l’espansione coerente della memoria e la disaggregazione delle risorse.

Intel Corporation’s Integrated Photonics Solutions (IPS) Group has demonstrated the industry’s first fully integrated optical compute interconnect (OCI) chiplet co-packaged with an Intel CPU and running live data. Intel’s OCI chiplet enables co-packaged optical input/output in emerging AI infrastructure for data centers and high performance computing applications. (Credit: Intel Corporation)

La sua importanza è legata al fatto che sempre più applicazioni basate sull’Intelligenza Artificiale vengono implementate a livello globale e i recenti sviluppi degli LLM (Large Language Model) e dell’AI generativa stanno accelerando questa tendenza. Modelli di machine learning (ML) più grandi ed efficienti svolgeranno un ruolo fondamentale nel soddisfare i requisiti emergenti dei carichi di lavoro di accelerazione dell’AI. La necessità di scalare le future piattaforme informatiche per l’intelligenza artificiale sta portando a una crescita esponenziale dell’ampiezza di banda I/O e della portata per supportare cluster e architetture CPU/GPU/IPU di maggiori dimensioni con un utilizzo più efficiente delle risorse, come la disaggregazione della xPU e il pooling della memoria. L’I/O elettrico (ovvero connettività con cavi in rame) sostiene un’elevata ampiezza di banda e bassi consumi, ma consente di coprire distanze molto brevi: un metro o meno. I moduli ricetrasmittenti ottici plug in utilizzati nei data center e nei primi cluster AI possono incrementare la portata, ma con costi e consumi energetici non sostenibili con i requisiti di scalabilità dei carichi di lavoro AI. Una soluzione I/O ottica xPU in co-packaging può supportare ampiezze di banda più elevate con maggiore efficienza energetica, bassa latenza e maggiore portata, esattamente ciò che richiede la scalabilità dell’infrastruttura AI/ML.

Chiplet OCI, come funziona

Le soluzioni di I/O ottico, come il chiplet OCI di Intel, offrono a queste persone una motocicletta, consentendo loro di spostare più merce alla volta e coprire distanze più lunghe, oltre l’isolato, raggiungendo altre abitazioni del quartiere, senza spendere molta energia in più. Tale maggiore livello di prestazioni è quanto richiederà la scalabilità intelligenza artificiale. Il chiplet OCI completamente integrato sfrutta la collaudata tecnologia fotonica basata su silicio di Intel integrano un circuito integrato fotonico (PIC) che include laser su chip e amplificatori ottici, con un circuito integrato elettrico. Il chiplet OCI è realizzato in packaging insieme a una CPU Intel, ma può anche essere integrato con altre CPU, GPU, IPU e altri sistemi su chip (SOC) di nuova generazione. L’attuale chiplet supporta 64 canali dati a 32 Gbps in ciascuna direzione fino a 100 metri (benché le applicazioni pratiche possano essere limitate a decine di metri a causa della time-of-flight latency), utilizzando otto coppie di fibre, ciascuna portante otto lunghezze d’onda DWDM (dense wavelength division multiplexing). La soluzione in co-packaging è anche molto efficiente dal punto di vista energetico, utilizzando solo 5 pico-Joule (pJ) per bit rispetto ai moduli ricetrasmettitori ottici pluggable con circa 15 pJ/bit. Questo livello di iperefficienza è fondamentale per i data center e gli ambienti informatici ad alte prestazioni e potrebbe aiutare ad affrontare gli elevati requisiti energetici dell’intelligenza artificiale.

La leadership di Intel nella fotonica basata su silicio

In qualità di leader di mercato nella fotonica basata su silicio, Intel sfrutta oltre 25 anni di ricerca interna degli Intel Labs, pionieri della fotonica integrata. È stata la prima azienda a sviluppare e offrire ai principali fornitori di servizi cloud prodotti affidabili di connettività basati sulla fotonica in silicio. Intel è stata la prima azienda a sviluppare e fornire ai cloud service provider prodotti di connettività in silicio basati sulla fotonica, con un’affidabilità ai vertici della categoria e in grandi volumi. Intel sta inoltre implementando un nuovo nodo di processo di fabbricazione per la fotonica in silicio con prestazioni state-of-the-art (SOA), densità più elevata, migliore accoppiamento e costi notevolmente ridotti. Continuiamo a migliorare le prestazioni del laser su chip e della SOA, i costi (riduzione dell’area della matrice maggiore del 40%) e i consumi (riduzione maggiore del 15%). L’attuale chiplet OCI di Intel è un prototipo. Intel sta collaborando con clienti selezionati per implementare OCI in co-package con i loro system on chip (SOC) come soluzione di I/O ottico.

SHADOW OF NINJA
GAMEPEOPLE
DIFUZED
FIZZ
PALADONE
OTL
CROCKPOT
LEXAR
SUBSONIC