Vultr, yeni sunucusuz bir platform olan Vultr Cloud Inference'ı başlattı. Vultr'un altı kıtaya ve 32 konuma yayılan küresel altyapısından yararlanan Vultr Cloud Inference, müşterilere yapay zeka dağıtımları için ölçeklenebilirlik, azaltılmış gecikme süresi ve gelişmiş maliyet verimliliği sağlıyor.
Günümüzün hızla gelişen dijital ortamı, farklı sektörlerdeki işletmeleri yapay zeka modellerini verimli ve etkili bir şekilde dağıtmaya ve yönetmeye zorladı. Bu, tutarlı yüksek performans sağlamak için hem küresel erişime hem de ölçeklenebilirliğe sahip, çıkarımı optimize edilmiş bulut altyapı platformlarına yönelik artan bir ihtiyaç yarattı. Kuruluşlar modellerini üretime geçirirken çıkarım harcamalarına giderek daha fazla odaklandıkça bu durum önceliklerde bir değişime neden oluyor. Ancak daha büyük modellerle birlikte artan karmaşıklık da gelir. Geliştiriciler, farklı bölgeler için yapay zeka modellerini optimize etme, dağıtılmış sunucu altyapısını yönetme ve yüksek kullanılabilirlik ile düşük gecikme süresi sağlama konusunda zorluk yaşıyor.
Bunu akılda tutarak Vultr, Bulut Çıkarımı'nı oluşturdu. Vultr Cloud Inference, farklı bölgelerde ilgi çekici bir kullanıcı deneyimi sunarken, tahmine dayalı ve gerçek zamanlı karar verme gibi yapay zeka destekli özelliklerin pazara çıkış süresini hızlandıracak. Kullanıcılar herhangi bir platformda, bulutta veya şirket içinde eğitilmiş kendi modellerini kolayca getirebilirler ve bu model, Vultr'un küresel NVIDIA GPU destekli altyapısına sorunsuz bir şekilde entegre edilebilir ve dağıtılabilir.
Altı kıtada bulunan özel bilgi işlem kümeleriyle Vultr Cloud Inference, işletmelerin yapay zeka uygulamalarını yasal gereksinimlere ve iş hedeflerine uygun bölgelerde dağıtarak yerel veri egemenliği, veri yerleşimi ve gizlilik düzenlemelerine uyum sağlamasını sağlar.
“Eğitim, yapay zekanın etkili olması için temel sağlıyor ancak yapay zekanın potansiyelini etkiye dönüştüren şey çıkarımdır. Artan sayıda yapay zeka modeli eğitimden üretime geçtikçe, çıkarım iş yüklerinin hacmi hızla artıyor ancak yapay zeka altyapısının büyük bir kısmı dünyanın çıkarım ihtiyaçlarını karşılayacak şekilde optimize edilmiyor” dedi Vultr'un ana şirketi Constant'ın CEO'su JJ Kardwell. “Vultr Cloud Inference'ın piyasaya sürülmesi, yapay zeka dağıtımını basitleştirerek ve ölçeklenebilirlik, verimlilik ve küresel erişim için tasarlanmış bir platform aracılığıyla dünya çapında düşük gecikmeli çıkarımlar sunarak yapay zeka yeniliklerinin maksimum etkiye sahip olmasını sağlıyor.”
Kendi kendini optimize etme ve küresel olarak gerçek zamanlı olarak otomatik ölçeklendirme yeteneğiyle Vultr Cloud Inference, yapay zeka uygulamalarının dünya çapındaki kullanıcılara tutarlı, uygun maliyetli, düşük gecikme süreli deneyimler sunmasını sağlar. Üstelik sunucusuz mimarisi, altyapıyı yönetme ve ölçeklendirmenin karmaşıklığını ortadan kaldırarak aşağıdakiler de dahil olmak üzere benzersiz bir etki sağlar:
Yapay zeka modeli entegrasyonu ve geçişinde esneklik: Vultr Cloud Inference ile kullanıcılar, nerede eğitildiklerine bakılmaksızın yapay zeka modellerinin kolay entegrasyonuna olanak tanıyan basit, sunucusuz bir yapay zeka çıkarım platformuna sahip olabilir. NVIDIA tarafından desteklenen Vultr Cloud GPU'larda, kullanıcıların kendi veri merkezinde veya başka bir bulutta geliştirilen modeller için Vultr Cloud Inference, sorunsuz küresel çıkarım sağlar.
Azaltılmış yapay zeka altyapısı karmaşıklığı: İşletmeler, Vultr Cloud Inference'ın sunucusuz mimarisinden yararlanarak altyapı yönetimine odaklanmak yerine inovasyona ve yapay zeka girişimleri aracılığıyla değer yaratmaya odaklanabilir. Cloud Inference, dağıtım sürecini kolaylaştırarak gelişmiş yapay zeka yeteneklerini altyapı yönetiminde kapsamlı şirket içi uzmanlığa sahip olmayan şirketler için erişilebilir hale getiriyor ve böylece yapay zeka odaklı çözümlerin pazara çıkış süresini hızlandırıyor.
Çıkarım açısından optimize edilmiş altyapının otomatik ölçeklendirilmesi: Yapay zeka uygulama iş yüklerinin ve çıkarım açısından optimize edilmiş bulut GPU'ların gerçek zamanlı eşleştirilmesi sayesinde mühendislik ekipleri, kaynakların en verimli şekilde kullanılmasını sağlarken sorunsuz bir şekilde performans sunabilir. Yalnızca ihtiyaç duyulan ve kullanılanlar için ödeme yaptıklarından, bu önemli maliyet tasarrufuna ve çevresel etkinin azalmasına yol açar.
Özel, ayrılmış bilgi işlem kaynakları: Vultr Cloud Inference ile işletmeler, hassas veya yüksek talep gören iş yükleri için yalıtılmış bir ortama erişebilir. Bu, kritik uygulamalar için gelişmiş güvenlik ve performans sağlar, veri koruma, mevzuat uyumluluğu ile ilgili hedeflere uyum sağlar ve en yüksek yükler altında yüksek performansı korur.
NVIDIA bulut ortakları küresel iş geliştirme direktörü Matt McGrigg, “Dünya çapında yapay zeka iş yüklerini güçlendirebilecek en son yapay zeka teknolojilerine olan talep hızla artıyor” dedi. “Vultr Cloud Inference'ın piyasaya sürülmesi, işletmelerin NVIDIA GPU altyapısı üzerinde eğitilmiş yapay zeka modellerini sorunsuz bir şekilde entegre etmelerine ve dağıtmalarına olanak tanıyacak ve yapay zeka uygulamalarını küresel olarak ölçeklendirmelerine yardımcı olacak.”
Yapay zeka mümkün olanın sınırlarını zorlamaya devam ettikçe ve kuruluşların bulut ve uç bilişim hakkındaki düşüncelerini değiştirdikçe, büyük yapay zeka modellerini eğitmek ve küresel olarak dağıtılmış çıkarım ihtiyaçlarını desteklemek için gereken altyapının ölçeği hiç bu kadar büyük olmamıştı.
Medya ve içerik dağıtımını dünya çapında ölçeklendirmek için Vultr CDN'nin kısa süre önce piyasaya sürülmesinin ardından Vultr Cloud Inference, inovasyonu mümkün kılmak, maliyet verimliliğini artırmak ve dünya çapındaki kuruluşlar için sektörler arası küresel erişimi genişletmek ve yapay zekanın gücünü erişilebilir kılmak için teknolojik temeli sağlayacak. herkese.