EO 517

Kioxia ha sviluppato XL-FLASH come soluzione specifi- ca per questo livello nella gerarchia della memoria (Fig. 4). Utilizzando un’architettura a 16 piani che abbrevia i percorsi dei dati sul chip, si ottengono latenze di lettura inferiori a 5 μs, dieci volte più veloci della memoria fla- sh convenzionale. XL-FLASH può essere integrata nel- le strutture di archiviazione utilizzando un’interfaccia PCIe NVMe con una dimensione della pagina di 4 KB, invece dei 16 KB di un dispositivo flash convenzionale. Inoltre, è scalabile, basata sulla tecnologia BiCS FLASH 3D multi-die e offre gli stessi livelli di affidabilità delle celle, tempi di lettura/programmazione rapidi e rap- porto qualità-prezzo competitivo. L’ultima sfida è l’integrazione di questa memoria in modo tale da poter sfruttare al meglio i miglioramenti in termini di latenza e larghezza di banda. NVMe utiliz- za PCIe per accedere ai dispositivi del blocco, ma questo protocollo presenta alcune inefficienze in quanto deve ipotizzare che i dati a cui deve accedere possono variare in termini di dimensioni. Tuttavia, questa non è l’obiet- tivo della memoria SCM, che si propone di diventare parte della mappa di memoria. CXL (Compute Express Link) viene proposto come un’alternativa basata su PCIe 5 e versioni successive. Questa tecnologia opera al livello di collegamento (link layer), garantendo un accesso efficiente alle memorie e agli acceleratori con dispositivi di caching opzionali. Il protocollo è più ve- loce, in quanto CXL.mem utilizza la semantica dei byte per accedere alla memoria: ciò è possibile poiché gli accessi sono sempre delle stesse dimensioni e i dispo- sitivi appaiono nello spazio degli indirizzi di memoria allo stesso modo della DRAM. Un’altra considerazione importante è che entrambe le architetture di proces- sori Intel e Arm dispongono del supporto CXL, quindi XL-FLASH come DRAM a basso costo e flash a bassa la- tenza rappresenteranno sicuramente una valida opzio- ne, indipendentemente dal fatto che le applicazioni AI siano distribuite su server o dispositivi edge. Riepilogo Mentre la società e le autorità di regolamentazione di- scutono dei risvolti sociali dell’AI e del suo impatto sul- la vita quotidiana delle persone, aumenta la richiesta di hardware ottimizzato capace di supportare l’ampia gamma di applicazioni pratiche dell’AI. Finora la DRAM è stata la memoria scelta per i server e le applicazioni finali più per prassi che per motivazioni tecniche. Analizzando le varie fasi della pipeline dei dati dell’AI, è chiaro che sono le fasi in cui i dati hanno accesso più frequente (“hot data”) a trarre beneficio da questa ri- sorsa costosa, a differenza dei dati con accesso meno frequente (“Warm data”). SCM rappresenta un’alterna- tiva per le soluzioni di archiviazione per l’AI, caratte- rizzata da una latenza intermedia tra quella di DRAM e SSD. In combinazione con l’introduzione di CXL, una memoria flash a bassa latenza, come XL-FLASH, assi- cura miglioramenti in termini di prezzo, prestazioni di sistema e consumo energetico per qualsiasi applicazio- ne, dai server ai dispositivi edge che sfruttano la po- tenza dell’intelligenza artificiale. DIGITAL AI MEMORIES RIFERIMENTI [1] https://www.crucial.com/articles/about-memory/ everything-about-ddr5-ram Fig. 4 – L’XL-Flash di Kioxia rappresenta un’alternativa SCM alla DRAM in applicazioni ad alta intensità di lettura [Fonte: https://www.kioxia.com/en-jp/rd/technology/topics/topics-20.html ] ELETTRONICA OGGI 517 - APRILE 2024 49

RkJQdWJsaXNoZXIy Mzg4NjYz