Yapay zeka (AI) şu anda bir dalganın zirvesinde. Ve tartışmasız Nvidia da öyle. Bu nedenle, geçen hafta düzenlenen GTC 2024 etkinliğinde birçok depolama oyuncusu, grafik işleme birimi (GPU) deviyle olan bağlantıları duyurma fırsatını değerlendirdi.
Depolama tedarikçilerinin yanıtları, verilerin çok sayıda (çok maliyetli) GPU'ya verimli bir şekilde iletilebilmesi için giriş/çıkış (G/Ç) darboğazının üstesinden gelmeye odaklandı.
Bu çabalar, Nvidia mikro hizmetleri (özellikle eğitim için NeMo ve çıkarım için NIM) aracılığıyla entegrasyonlardan, Nvidia AI altyapı teklifleriyle (BasePOD gibi) depolama ürünü doğrulamaya ve HPE'nin sunduğu gibi tüm AI altyapı tekliflerine kadar geniş bir yelpazeyi kapsıyor.
Son duyurularda açıkça görülen bir diğer hamle ise, artırılmış üretim (RAG) işlem hatları ve donanım mimarilerinin geliştirilmesiydi. RAG, kısmen halüsinasyonlarla mücadele etmek için yapay zekanın bulgularını harici, güvenilir bilgilerle entegre ederek doğrulamayı amaçlıyor.
Nvidia'nın GTC 2024'teki temel mesajı neydi?
Nvidia'nın GTC 2024'te CEO Jensen Huang tarafından iletilen mesajının özü, bilgisayar endüstrisinde yapay zeka iş yüklerine ve bunların veri almaktan ziyade veri üretmeye yönelik eğilimlerine dayalı bir değişimdir. Tabii ki, veriler eğitim çalışmalarına emildiği için yapay zekada oldukça fazla bilgi alma işlemi var.
Nvidia'daki ürün geliştirmenin temelinde, 200 milyar transistöre kadar çalışan yeni Blackwell çipi ve bir trilyon parametreli büyük dil modellerini (LLM'ler) çok daha düşük bir maliyet ve güç kullanımıyla işleme yeteneği ile daha büyük ve daha güçlü GPU'lar ve işlemcileri yer alıyor. selefi.
Bu tür bilgi işlem gücü ve GPU'lar, Nvidia tarafından sunucu sistemlerine (OGX ve DGX (ve OEMed HGX)) ve referans mimarilerine ve anahtar teslim altyapı tekliflerine (BasePOD ve SuperPOD) dahil edilmiştir.
Burada Nvidia GTC 2024 ile ilgili bazı depolama tedarikçisi duyurularına bakıyoruz.
Tutarlılık
Yedekleme sağlayıcısı Cohesity, Nvidia NIM mikro hizmetlerini ve Nvidia AI Enterprise'ın Gaia çoklu bulut veri platformuna entegrasyonunu sunacağını duyurdu. Tutarlılık Gaia, yedekleme ve arşiv verilerinin bir eğitim verisi kaynağı ve ardından bir şirket istihbaratı kaynağı oluşturmak için kullanılmasına olanak tanır.
Cohesity ayrıca Nvidia'nın yatırımcı olduğunu da duyurdu.
DataDirect Ağları
Uzun süredir yüksek performanslı bilgi işlem (HPC) depolama uzmanı DataDirect Networks (DDN), AI iş yüklerini hedefleyen ve bellekteki artış ve daha iyi özellikler nedeniyle aynı form faktöründeki AI400X2'ye göre %33 bant genişliği artışı sağlayan AI400X2 Turbo'yu duyurdu. ağ oluşturma.
DDN, hizmet olarak GPU sunan hizmet sağlayıcılar arasında büyük bir oyuncudur. GPU'ları doyurma yeteneği, HPC depolama sağlayıcısından önemli bir AI depolama oynatıcısına geçişini sağladı.
AI400X2 Turbo, AI400X2'nin 90 GBps'lik bant genişliğine kıyasla maksimum 120 GBps'lik bant genişliğine sahiptir.
Dell
Dell, masaüstü, dizüstü bilgisayar ve sunucu PowerEdge XE9680 bilgi işlem, PowerScale F710 depolama, yazılım ve Nvidia'nın yapay zeka altyapısı ve Spectrum-X Ethernet ağ yapısı ile doğrulanmış hizmetleri kapsayan entegre bir yığın olarak gelen Dell Yapay Zeka Fabrikasını tanıttı.
Dell AI Factory, kullandıkça öde Apex abonelikleri aracılığıyla satın alınabilir.
HPE
HPE, Nvidia bileşenleri ve Cray AMD bilgi işlem içeren üretken yapay zeka (GenAI) süper bilgi işlem sistemlerinin, Nvidia bileşenlerine sahip GenAI kurumsal bilgi işlem sistemlerinin, Nvidia'nın NeMo mikro hizmetlerini kullanan bir RAG referans mimarisinin, çıkarım iş yükleri ve gelecekteki ürünlere dayalı olarak Nvidia'nın NIM mikro hizmetlerini kullanmayı planladığını duyurdu. Nvidia'nın Blackwell platformunda.
HPE'nin kurumsal GenAI sistemi, yapay zeka modeli ayarlama ve çıkarımına odaklanır ve ProLiant DL380a sunucuları, Nvidia L40S GPU'lar, BlueField-3 DPU'lar ve Spectrum-X Ethernet ağının yanı sıra HPE'nin makine öğrenimi ve analiz yazılımı etrafında önceden yapılandırılmıştır.
RAG referans mimarisi, Nvidia'nın NeMo Retriever mikro hizmetlerinden, HPE Ezmeral veri yapısı yazılımından ve Alletra MP donanımı ve VAST Veri depolama yazılımı olan GreenLake for File Storage'dan oluşur.
Hitachi Vantara
Hitachi Vantara, şirketin depolama alanıyla birlikte Nvidia DGX ve HGX GPU'ları kullanan sektöre özel yapay zeka sistemleri sağlayan Hitachi iQ'yu piyasaya sürdü.
Hitachi iQ, 2024'ün ikinci çeyreğinde satışa sunulacak ve çeşitli Nvidia GPU seçenekleriyle Nvidia BasePOD sertifikasını, Nvidia AI Enterprise yazılım desteğini ve ayrıca WekaIO'nun yeniden markalanan WekaFS dosya sistemi yazılımı olan Hitachi Content Software for File'ın (HCFS) en son sürümünü içerecek. – Yapay zeka iş yükleri için hızlandırılmış depolama düğümleriyle.
NetApp
NetApp, OnTap müşteri hibrit bulut depolama alanına doğrudan bağlanan bir RAG yazılımı teklifi olan Nvidia NeMo Retriever mikro hizmetini tanıttı. Nvidia AI Enterprise yazılım platformuna abone olan OnTap müşterilerinin kullanımına açıktır ve LLM'nin ayrı bir depo oluşturmaya gerek kalmadan bir kuruluşun yapılandırılmamış verilerine erişmesine olanak tanır.
Saf Depolama
Pure Storage, Nvidia NeMo tabanlı mikro hizmetleri Nvidia GPU'lar ve depolama birimleriyle birlikte kullanan bir RAG işlem hattı oluşturduğunu duyurdu.
Pure Storage, yine RAG bölgesinde, belirli sektör sektörlerine yönelik RAG'leri duyurdu; şimdilik yalnızca finansal hizmetleri hedefleyen, ancak bunu sağlık ve kamu sektörü de takip edecek.
Pure ayrıca, geçen yıl duyurulan mevcut Nvidia DGX BasePod bilgi işlem uyumluluğuna eklenen Nvidia OVX sunucu altyapısıyla depolaması için doğrulama kazandığını da duyurdu.
Weka
Paralel hibrit bulut NAS üreticisi Weka, Nvidia'nın DGX SuperPod AI veri merkezi altyapısıyla çalışmak üzere sertifikalı bir donanım cihazının piyasaya sürüldüğünü duyurdu.
WEKApod, en yeni PCIe 5'i kullanır ve tek bir 1PB (petabayt), sekiz düğümlü kümede saniyede 18,3 milyon giriş/çıkış işlemi (IOPS) ve 765 GBps performans rakamlarıyla birlikte gelir.
Weka, Nvidia DGX BasePod'un sertifikalı ortağıdır ve fuarda bunun Nvidia OVX doğrulamasının bir parçası olacağını duyurdu.