CXL, yapay zeka için bellek teknolojisi olarak ilerliyor


Geçtiğimiz hafta Santa Clara’da düzenlenen Bellek ve Depolama Geleceği zirvesinin temaları arasında, belleği bağlama teknolojisi olan Compute Express Link (CXL) de yer aldı.

CXL, yüksek hızlı, işlemci-cihaz ve işlemci-bellek bağlantıları için açık bir standarttır. Yüksek performanslı veri merkezi sunucuları için tasarlanmıştır ve işlemci modüllerinin belleği paylaşmasını sağlar.

Bellek erişimi, ana işlemciler arasındaki iletişim ve bellek kaynaklarını paylaşması gereken aygıtlar için düşük gecikmeli ara bağlantı yolları sağlamak üzere PCIe 5.0 fiziksel katmanını ve elektrik arayüzlerini kullanan CXL.io protokolüne dayalı bir arayüz sağlar. Bu, tüm bellek yuvaları (Dimm soketleri) dolu olsa bile, CXL’in PCI express (PCIe) genişletme veri yolunu kullanması nedeniyle PC sunucularındaki belleğin artırılabileceği anlamına gelir.

Samsung’a göre CXL, ek bir teknoloji altyapısı kullanmaya gerek kalmadan bellek paylaşımı ve bellek genişletmeyi sorunsuz bir şekilde mümkün kılıyor.

CXL Bellek Modülleri (CMM’ler), AI uygulamalarında yüksek bellek kapasitesine yönelik hızla artan talebi karşılamayı amaçlamaktadır. Kullanımları arasında büyük dil AI modelleri tarafından ihtiyaç duyulan bellek mimarilerini desteklemek de yer almaktadır.

Intel, Mart ayında topluluk blogunda yayınladığı bir yazıda, GPT-4, Llama 2 ve PaLM 2 gibi büyük dil modelleri (LLM) eğitiminin büyük bellek kapasitesi ve hesaplama yetenekleri gerektirdiğini belirtmişti.

Yonga üreticisi, CXL’in sunucu üreticilerinin daha ucuz bellek kullanarak donanım maliyetini düşürmesini nasıl sağladığını anlattı. Intel, blogda Micron’un DDR4 belleği, eski nesil çift veri hızı senkron dinamik rastgele erişimli bellek yongalarını kullanan 128 GB CXL modülleri sağladığını söyledi.

Sunucu uygulamaları için CXL

Samsung, 2022’den beri mevcut ve yeni bellek ve depolama ürünleri için açık kaynaklı yazılımların geliştirilmesi ve doğrulanmasına odaklanmak üzere Red Hat ile ortaklık kurdu. Bunlara NVMe SSD’ler; CXL bellek; hesaplamalı bellek/depolama ve kumaşlar dahildir.

Samsung, Mayıs ayında Denver’da düzenlenen Red Hat Zirvesi’nde, Red Hat Enterprise Linux 9.3’e gömülü CMM-D1 bellek modelini tanıtmıştı. Bu modelin, derin öğrenme öneri modellerinin (DLRM) performansını artırdığını belirtmişti.

Bu, Red Hat Enterprise Linux için Red Hat tarafından onaylanan CXL altyapısının ilk gösterimini temsil ediyor.

Demoda, bellek erişim performansını iyileştirmek için Samsung’un açık kaynaklı Ölçeklenebilir Bellek Geliştirme Kiti (SMDK) bellek iç içe geçirme yazılım teknolojisi kullanıldı. Samsung, CXL’i destekleyen SMDK donanımlı CMM-D belleğinin, geliştiricilerin önemli yatırımlar yapmak zorunda kalmadan yüksek performanslı AI modelleri oluşturmasına olanak tanıdığını söyledi. Samsung’a göre teknoloji, veri işleme, AI öğrenme ve çıkarım hızlarını artırıyor.

Red Hat Kore Genel Müdürü Kyeong Sang Kim, demoyu değerlendirirken şunları söyledi: “Samsung’un donanımının Red Hat’in yazılımları için optimize edilmesi, CMM-D gibi yeni nesil bellek çözümlerinin genişletilmesi söz konusu olduğunda açık kaynak teknolojisinin bir zorunluluk olarak değerini vurguluyor.”

Red Hat ekosistemi katalog listesinde Samsung, RHEL’deki bellek katmanlaması olarak adlandırılan işlevselliğin CMM-D bellek modüllerini nasıl desteklediğini açıklıyor. Samsung’a göre, nadiren erişilen veriler yerel bellekte depolandığında, bellek katmanlaması sık kullanılan veya “sıcak” belleğin performansını azaltır. RHEL bellek katmanlaması işlevi, sıcak belleği yerel bellek katmanına ve nadiren kullanılan belleği CXL katmanına tahsis etmek üzere tasarlanmıştır ve gerektiğinde katmanlar arasında veri geçişine olanak tanır.



Source link