DDN, AI depolama teklifinde kurumsal şekilli deliği hedefler


Yapay Zeka (AI) patlaması henüz gerçekten kırılmadı ve yüksek performanslı bilgi işlemlerde (HPC) ve daha yakın zamanda AI’da büyük hesaplama kümelerini desteklemek için depolama alanında uzun süredir uzmanlığa sahip olan depolama dizisi üreticisi DDN’ye göre işletmeler milyarlarca harcayacaklar.

DDN’nin kurucu ortağı ve başkanı Paul Bloch, şunları ekleyerek DDN depolamasına zaten bağlı HPC hesaplama kümeleri muhtemelen 2027 yılına kadar üçlü veya dörtlü siparişler verecek. [Elon Musk’s] Memphis’teki Xai kümesi ve bu sayı bir milyona ulaşacak. GPU’ların performansının büyümesi, veri depolama gereksinimlerini giderek daha fazla yönlendiriyor, çünkü bununla başa çıkmanın tek yolu, verileri gerçek zamanlı olarak almaktır. ”

Kardeş yayınla yapılan son toplantı sırasında Limonlu Silikon Vadisi’ndeki BT basın turunun bir parçası olarak DNN CTO Sven Oehme, İşletme Pazarı’nın kendisinin de umut verici olduğunu belirtti.

Oehme, “AI henüz potansiyelini elde etmedi, ancak işletmeler olası evrimi ve neyin mümkün olduğunu görebilir” dedi. “İşletmeler tam olarak çıkarım yapmaya başladığında ve tüm faaliyet sektörlerinde yapay zeka çıkardıklarında patlama gerçekten gelecek.”

DDN 5 milyar dolar değerinde ve 2025’te 1 milyar dolarlık bir ciro gerçekleştirecek. Bu yılın başında, işletme Blackstone’un% 6’sı ve tahtadaki bir koltuk karşılığında 300 milyon dolarlık finansman sağladı.

Bloch’a göre, Blackstone’un desteği şirketin geleneksel müşteri tabanı dışında müşterileri bulmasına yardımcı olacak: “1 milyar dolar ile 2 milyar dolar arasında AI yatırımı, isimleri henüz bilmediğimiz şirketler tarafından gerçekleşecek.

“Bu kararlar genel yönetim veya veri yönetimi tarafından AI çevresindeki potansiyel tasarruflar etrafında, özellikle endüstriyel uygulamalarda alınacak. Bu bağlamda Blackstone sadece bir yatırımcı değil, daha çok iletişim kitabımızı açtığımız bir ortak gibi.”

Kurumsal müşteriler için daha sağlam bir exascaler

Hedeflerine ulaşmak için DDN temel ürün hattını güncelledi. Geçen yıl Exascaler AI400X2 Turbo piyasaya sürüldükten sonra, 24 NVME SSD ile gelen AI400X3’ü duyurdu ve NVME-OvertCP aracılığıyla ek SSD rafları destekledi.

140Gbps (Read) ve 75Gbps ve 100Gbps (WRITE) verimi ile performans% 55 okumalarda ve yazılar için% 70’den fazla iyileştirildi. Bu hız kazancı, satıcının Spectrumx protokolünü kullanan dört Nvidia Bluefield kartının kullanımından geliyor.

Oehme, “Yeni Blackwell GPU’ları için zaten bir referans mimarimiz var” dedi. “Başka yerlerde, Blackwell için tüm test ve geliştirme DDN ekipmanı ile gerçekleşiyor.”

Diğer iyileştirmeler güvenlik ve havuzda idi. İkincisi, farklı ve genellikle çok sayıda müşteri için dizinin bölümlerini dinamik olarak sağlaması gereken bulut hizmetleri için MSP’lerin ihtiyaçlarını ele alır.

İşletmeler arasında yeni bir müşteri tabanı açısından bakıldığında, Exascaler AI400x3, Dell, HPE veya NetApp gibi tedarikçilerde olduğu gibi, kullanılabilir kapasite ham kapasitesinden çok daha büyük olan veri sıkıştırması getiriyor.

“Ve şimdi esnekliğini önemli ölçüde geliştirdik,” dedi Oehme. “Artık diziyi durdurmadan herhangi bir donanım veya yazılım bileşenini değiştirebiliriz. Kesinti riski asgari seviyeye düşürülür. Bu temeldir, çünkü işletmeler herhangi bir kesinti eğlendiremez. Bu, olay durumunda, sorunu bize gelmeden önce kendilerini teşhis etmeyi tercih eden HPC müşterilerinden farklıdır.”

Infinia 2.1: AI için Hızlandırılmış Nesne Depolama

Exascaler AI400 içeriğini dosya modunda paylaşırken, Enterprise AI kullanıcılarının yönü nesne depolamaya yöneliktir. Bu, erişim açısından daha az hızlıdır, ancak yeniden eğitim için veya RAG aracılığıyla çıkarımda özel veriler için içeriği etiketleme veya filtreleme kapasitesi ve seçenekleri sunar. Bu ihtiyaç için DDN, 2024’te Nesne Depolama Ürünü Infinia’yı başlattı.

Infinia şimdi DDN’nin hızın 100 kat arttığını iddia ettiği 2.1 sürümüne ulaştı. Burada, GPU’ları desteklemek için son zamanlarda gPU’ları desteklemek için performansı hızlandıran diğer nesne depolama çözümleriyle rekabet ediyor.

DDN, işletmelerin bulutunda AI görevlerini yerine getirmesine izin veren AWS’nin S3 Express ile teklifini karşılaştırıyor. Infinia 2.1 erişim süresi açısından 10 kat daha hızlı ve talepler açısından 25 kat daha hızlı olacaktır.

DDN ürünü, TensorFlow, Pytorch ve Apache Spark gibi çoğu AI yazılım yığınına ve NVIDIA’nın AI Enterprise Suite’ten NIM modüllerine konektörlere sahiptir. Tüm bunlar sürüm 2.0’da mevcuttu. 2.1 güncellemesi, gözlemlenebilirlik platformları datadog ve kronosfer ile ve açık kaynak opentelemetri standardında duran entegrasyonlar ekledi. Artık Hadoop tabanlı veri göllerine de bağlanabilir.

Infinia 2.1 DDN Donanımı’nda gelir veya Google Cloud platformunda sanal örnek aracılığıyla kullanılabilir.

DDN ayrıca diğer iki donanım ürünü sunar, XfusionAi ve Inferno – XfusionAi, parlak dosya sistemini ve Infinia 2.1’i çalıştıran bir exascaler AI400x3’tür, böylece aynı verilere içeriği indeksleyen metadata erişebilme avantajını getiren S3 nesne depolama yoluyla erişebilir.

Inferno, nesne depolama ve parlaklık dosyası depolama alanı arasındaki iletişimi hızlandırmak için Infinia cihazı ve sunucular arasında yüklü bir ağ proxy sağlar. Cihaz, GPU’larla doğrudan iletişim ve NVME SSD önbelleği için Spectrumx protokolünü ve GPUDirect’i kullanan NVIDIA Bluefield’a dayanan bir anahtara sahiptir.

AI’da 11.000 müşteri, 4.000

DDN, 7.000 müşteriye 700.000 GPU’yu destekleyen depolama alanını dağıttığını ve 4.000’inin AI iş yükleriyle uğraştığını söyledi. Şirket, 600’ü mühendis olan 1.100 kişiyi istihdam etmektedir, bu yıl 200 ila 250 daha fazla işe alım planlanmıştır.

1998’deki kökenlerinde DDN, birkaç süper bilgisayar merkezi için depolama dizileri sağladı. Anahtar bilgisi, çok sayıda hesaplama düğümünü paralel olarak beslemekten geliyor ve Nvidia’yı 2010’dan beri onunla ortak olmaya ikna eden bu.

“10.000 GPU hayal edin,” dedi Bloch. “GPU başına okumalarda 1 Gbps almak istiyorsanız, tüm dizi için 10tbps verimine ihtiyacınız olacak. Dünyada okumalarda ve yazmalarda 10 Tbps sağlayabilen az sayıda sistem var. Ustalaştık.”



Source link