Cloudian, Corporate LLM’de Object Storage AI platformunu başlattı


Cloudian, şirket içi bir depolama platformu artı yapay zeka (AI) altyapı paketi olan hiperscale AI veri platformunu, kurumsal bilgilerden hızlı cevaplar isteyen işletmelere yönelik olarak başlattı.

Teklif, Cloudtian Object Storage ve NVIDIA RTX Pro 6000 Blackwell Grafik İşleme Birimleri (GPU’lar), genellikle kullanılmayan kurumsal veri kütlesi üzerinde eğitilmiş büyük dil modeli (LLM) işlevselliğini güçlendirmek için bir geri alma artırılmış nesil (RAG) mimarisinde kullanıyor.

Hedef kullanım durumu, çalışanların şirket prosedürleri, pazarlama veya ürün geliştirme için yararlı veriler, geçmiş kod tabanları vb. Cloudian, ürünün tam şirket içinde çalıştığını ve kuruluşun verilerinin güvenliğini sağlamak için “hava kaplı” olduğunu vurgular.

Bu durumda şirket içinde üç S3 nesne depolama düğümünü içerir ve NVIDIA ile geliştirilen uzaktan doğrudan bellek erişimi (RDMA) üzerinden S3 kullanılarak bağlanır. Bu, Merkezi İşleme Birimi (CPU) kaynaklarına basmazken, verilerin yüksek verimli, düşük gecikme işlemleri için bir sunucunun belleğinden diğerine geçmesine izin vermek için geliştirilen RDMA kullanarak depolama düğümleri arasında hızlı bağlantı sağlar.

RDMA üzerinden S3, TCP/IP yığınını atlayarak gecikmeyi azaltmak için bu yaklaşımı kullanır. Bu, yapay zeka performansı üzerinde temel bir kısıtlama olan AI işleme sırasında depolama düğümleri arasında meydana gelebilecek darboğazları ele almayı amaçlamaktadır.

Bunun üstünde oturmak, ancak platformun merkezinde, milyar ölçekli bir vektör veritabanı. Vektör veritabanları ön plana çıktığı için AI için çekirdek olarak ortaya çıkmıştır. Veriler bir AI sistemine alındıkça, özelliklerine birden fazla sayısal değer verilir. Bu değerler daha sonra benzerliği, bağlamı hesaplamak ve anlamların bir kısmını vermek için hesaplanabilir.

Cloudian’ın hiper ölçekli yapay zeka veri platformunda, mimarlık tüm corpus’u yeniden eğitmeye gerek kalmadan yeni bilgiler yutulabilirken, mimari ayrıca ürünlerin esas olarak hedeflendiği yapılandırılmamış verilerdeki görüntüleri ve yapılandırılmış verileri destekler.

Cloudian, Enterprise Nesne Mağazası ürünleri sunan bir dizi tedarikçidir. Aslında, Analist House Gigaom’un 2025 nesne depolama radarında 22 nesne depolama oyuncusu var. Bunlardan birkaçı, AI kullanım durumlarını hedefleyen nesne depolama platformlarında bir tür oyuna sahiptir ve Cloudian aralarında en yenilikçi olanlar arasında yer almaktadır.

Nesne depolama, rag ve vektör veritabanı özelliği ile bu alanda ayrıca Scality ve Minio gibi uzmanlar ve Pure Storage ve NetApp gibi genel depolama oyuncuları bulunmaktadır.

Cloudian’ın nesne depolaması hiperstore ailesinin altına geliyor. Native S3’tür, ancak SMB ve NFS dosya erişimine de izin verir. Hiperstore düğümleri bir dizi eğirme disk HDD modelinde ve TLC NVME sürücülerine sahip bir tüm flash seçeneğinde gelir.

Cloudian’ın Hiperscale AI veri platformu Lama 3.2-3b-In-In-In-In-In-In-In-Instruct LLM kullanıyor. Bu arada, dört NVIDIA GPU’ları, iş yükündeki farklı aşamalara, yani LLM çıkarım, vektör veritabanı işlemleri, yeniden yönlendirme ve alaka düzeyi ve vektör gömme ve diğer işlevler için paylaşılan.

Kullanıcılar, herhangi bir popüler LLM kullandıkları gibi, doğal dilde soru sormalarını ve ardından bunları hassaslaştırmalarını sağlayan kullanımı kolay bir grafik kullanıcı arayüzü alırlar.

Hedef kullanım durumları arasında kurumsal bilgi madenciliği, güvenli belge zekası, video içeriği analizi ve uyum ve yönetişim amaçları için veri soyu ve denetim yolları bulunmaktadır.



Source link