Microsoft, yapay zeka (AI) stratejisini güçlendirirken, Copilot ve Azure OpenAI hizmeti için dahili olarak kullanacağı özel bir yarı iletken olan Maia AI Hızlandırıcıyı geliştirdi. Teknolojinin Azure müşterilerinin kullanımına sunulmasına yönelik planlar da mevcut.
Maia’yı geliştirmenin ana etkenleri arasında, Microsoft Bulut veri merkezlerinde yeni yarı iletken tabanlı sunucular kullanıldığında daha fazla verimlilik ve optimizasyon yer alıyor.
Azure Maia ekibine liderlik eden Microsoft teknik görevlisi Brian Harry’ye göre Maia 100 AI Hızlandırıcı, Azure donanım yığını için özel olarak tasarlandı. Çip tasarımını Microsoft’un iş yükleri için tasarlanan daha büyük yapay zeka altyapısıyla uyumlu hale getiren bu dikey entegrasyonun performans ve verimlilikte büyük kazanımlar sağlayabileceğini iddia etti.
OpenAI CEO’su Sam Altman şunları söyledi: “Microsoft ile ilk ortaklığımızdan bu yana, modellerimiz ve benzeri görülmemiş eğitim ihtiyaçlarımız için Azure’un AI altyapısını her katmanda birlikte tasarlamak üzere işbirliği yaptık. Microsoft, Maia çipine yönelik tasarımlarını ilk kez paylaştığında heyecanlandık ve bunu geliştirmek ve modellerimizle test etmek için birlikte çalıştık. Azure’un artık Maia ile silikona kadar optimize edilen uçtan uca yapay zeka mimarisi, daha yetenekli modeller yetiştirmenin ve bu modelleri müşterilerimiz için daha ucuz hale getirmenin yolunu açıyor.”
Şirket, Maia AI’nın yanı sıra, müşterilere daha fazla altyapı seçeneği sunmak için genişleyen endüstri ortaklıklarının yanı sıra Microsoft Bulut üzerinde genel amaçlı bilgi işlem iş yüklerini çalıştırmak üzere tasarlanmış Arm tabanlı bir işlemci olan Microsoft Azure Cobalt CPU’yu da tanıttı. Bu ortaklıklar arasında Nvidia H100 Tensor Core GPU’ları için oluşturulmuş yeni bir NC H100 v5 Sanal Makine Serisi ve gecikmede artış olmadan daha büyük model çıkarımını desteklemek için gelecek yıl filosuna Nvidia H200 Tensor Core GPU’nun eklenmesi yer alıyor.
Microsoft ayrıca, yüksek aralıklı yapay zeka modeli eğitimi ve üretken çıkarım için yapay zeka iş yüklerinin işlenmesini hızlandırmak üzere tasarlandığını söylediği ND MI300 sanal makinelerdeki portföyüne AMD destekli yapay zeka donanımını da ekledi. ND MI300, AMD’nin en yeni GPU’su olan AMD Instinct MI300X’i kullanır.
Microsoft’un Bulut + Yapay Zeka Grubu başkan yardımcısı Scott Guthrie şunları söyledi: “Microsoft, yapay zeka inovasyonunu destekleyecek altyapıyı inşa ediyor ve biz de müşterilerimizin ihtiyaçlarını karşılamak için veri merkezlerimizi her yönüyle yeniden tasarlıyoruz. Faaliyet gösterdiğimiz ölçekte, performansı en üst düzeye çıkarmak, tedarik zincirimizi çeşitlendirmek ve müşterilerimize altyapı seçeneği sunmak amacıyla altyapı yığınının her katmanını optimize etmek ve entegre etmek bizim için önemli.”
Yapay zeka iş yüklerini ve özellikle büyük dil modellerini çalıştırmak için gereken hesaplama gücünün büyük miktarda enerji tükettiğine dair giderek artan kanıtlar var.
Şubat ayında araştırma şirketi SemiAnaliz, OpenAI’nin ChatGPT’yi desteklemek için toplam 28.936 grafik işlem birimine sahip 3.617 adet Nvidia HGX A100 sunucusuna ihtiyaç duyduğunu ve bunun da günlük 564 MWh enerji talebine işaret ettiğini ileri sürdü. Araştırma, ChatGPT’nin günlük çalıştırma maliyetinin 694.444 dolar olduğunu tahmin ediyor.
Yakın zamanda New York Times makale, yapay zekayı çalıştırmak için gereken elektriğin dünyanın karbon emisyonlarını önemli ölçüde artırabileceğini öngören bir araştırmacıdan alıntı yaptı; ancak bu, veri merkezlerinin fosil yakıtlarla mı yoksa yenilenebilir enerji kaynaklarıyla mı çalıştırıldığına bağlı olacaktır.
Donanım ürünleri geliştirmeden sorumlu kurumsal başkan yardımcısı Wes McCullough, Arm teknolojisini seçmenin Microsoft’un sürdürülebilirlik hedefinde önemli bir unsur olduğunu söyledi.
“Mimari ve uygulama, güç verimliliği göz önünde bulundurularak tasarlandı” dedi. “Silikon üzerindeki transistörlerden en verimli şekilde faydalanıyoruz. Tüm veri merkezlerimizdeki sunucularda elde edilen verimlilik kazanımlarını çarptığınızda oldukça büyük bir sayı elde edersiniz.”