ARM’nin Meta için kendi veri merkezli işlemcilerini geliştirmeye başladığı haberleri, Finansal Zamanlarçip tasarımcının teknoloji endüstrisinin uygun fiyatlı, enerji tasarruflu yapay zeka (AI) iştahından yararlanma hareketinin bir göstergesidir.
Meta gibi hiper ölçekler ve sosyal medya devleri, AI hızlanması gerektiren iş yüklerini çalıştırmak için pahalı grafik işleme birimlerinin (GPU) geniş dizilerini kullanır. Ancak maliyetle birlikte, GPU’lar çok fazla enerji kullanma eğilimindedir ve sıvı soğutma altyapısına yatırım gerektirir.
Meta, AI’yı Facebook, Instagram ve Whatapp dahil olmak üzere platformlarını kapsayan stratejik bir teknoloji girişimi olarak görüyor. CEO Mark Zuckerberg, Meta Ai’yi herkesin kullanacağı yapay zeka olarak konumlandırıyor. Şirketin son kazanç çağrısında şunları söyledi: “Yapay zeka içinde, bunun son derece zeki ve kişiselleştirilmiş bir AI asistanının bir milyardan fazla insana ulaştığı yıl olacağını ve Meta AI’nın önde gelen AI asistanı olmasını bekliyorum. “
Bu kişiye ulaşmak için şirket, AI altyapısını ölçeklendirmek için çalışıyor ve iş yükleri ve veri merkezleri için optimize edilmiş GPU tabanlı AI hızlanmasından özel silikon yongalarına göç etmeyi planlıyor.
Kazanç çağrısı sırasında Meta Baş Finans Direktörü Susan Li, şirketin “hazır silikonun mutlaka optimal olmadığı benzersiz iş yükleri için kendi özel silikonumuzu geliştirmeye çok yatırım yaptığını” söyledi.
2023’te şirket, benzersiz iş yükleri için en verimli mimariyi sağlamak için Meta Eğitim ve Çıkarım Hızlandırıcı (MTIA) adlı uzun vadeli bir girişim başlattı.
Li, Meta’nın 2024’ün ilk yarısında MTIA’yı çekirdek sıralama ve önerilerin çıkarımı için benimsemeye başladığını söyledi. “2025 yılı boyunca hem artımlı kapasite için kullandığımız hem de bazı GPU tabanlı sunucuların yararlı yaşamlarının sonuna ulaştıklarında değiştirildiği için bu iş yükleri için evlat edinmeye devam edeceğiz” diye ekledi. “Gelecek yıl, bazı temel AI eğitim iş yüklerimizi desteklemek için MTIA’yı genişletmeyi umuyoruz ve zamanla bazı Genai [generative AI] Kullanım durumları. “
Sürüş Verimliliği ve Toplam Sahiplik Maliyeti
Meta daha önce verimliliğin, MTIA’nın veri merkezlerine dağıtılması için en önemli faktörlerden biri olduğunu söyledi. Bu, toplam sahiplik maliyetinin temel bir bileşeni olduğunu söylediği Watt başına performans metrik (TFLOPS/W) olarak ölçülür. MTIA çipi, yaklaşık 35W tüketen açık bir hesaplama platformu (OCP) eklenti modülüne takılmıştır. Ancak MTIA mimarisi, bağlantı için bellek ve yongalarla birlikte merkezi bir işleme ünitesi (CPU) gerektirir.
ARM ile yaptığı bildirilen çalışma, şirketin ilk nesil çip MTIA 1 için geliştirdiği son derece özelleştirilmiş uygulamaya özgü entegre devrelerden (ASICS) genel amaçlı kol işlemci çekirdeklerine dayanan yeni nesil mimariye geçmesine yardımcı olabilir. .
Arm’ın son kazançlarına baktığımızda, şirket gücü verimli bir şekilde ölçeklendirebilecek AI sunacak şekilde konumlandırıyor. ARM, NVIDIA Blackwell Grace Mimarisi’nde güç tasarruflu AI sunmak için daha önce Nvidia ile ortaklık kurdu.
Ocak ayında tüketici elektroniği gösterisinde Nvidia, prototipleme, ince ayar ve büyük AI modelleri çalıştırmak için AI hesaplama performansı petaflop sunduğunu iddia ettiği ARM tabanlı GB10 Grace Blackwell Superchip’i tanıttı. Çip, AI iş yüklerinin performansını artırmak için Nvidia’nın Blackwell hızlandırıcısıyla bir kol işlemci kullanıyor.
Yarı iletken endüstrisi, çeşitli bilgisayar yapım taşlarının tek bir çipe entegre edildiği bir çip (SOC) cihazlarında sistem sunar. Grace Blackwell bir SOC örneğidir. Meta’nın MTIA çipini geliştirmek için yaptığı çalışma göz önüne alındığında, şirket tek bir cihazda ARM CPU ile kendi teknolojisini entegre etmek için ARM ile nasıl çalışabileceğini araştırıyor olabilir.
Bir SOC, bir çip imalat perspektifinden daha karmaşık olsa da, üretim arttığında ölçek ekonomileri ve cihazın birkaç harici bileşeni bir pakete entegre edebilmesi, sistem inşaatçıları için önemli ölçüde daha uygun maliyetli hale getirir.
Li’nin GPU sunucularını değiştirme konusundaki açıklamaları ve MTIA’nın Meta’nın AI için toplam sahip olma maliyetini azaltma hedefi, AI maliyetini etkili bir şekilde ölçeklendirmesini ve GPU tabanlı AI hızlanmasına olan bağımlılığını azaltmasını sağlayacak olan AR ile bildirilen anlaşma ile ilişkilidir.
Kolun AI kimlik bilgilerini artırma
SoftBank şirketi olan ARM, yakın zamanda kendisini ABD’de egemen AI yeteneklerini dağıtmak için yazılım destekli bir girişim olan Trump yönetiminin Stargate projesinin merkezinde buldu.
Arm’ın son üç aylık sonuçları için kazanç çağrısı sırasında CEO Rene Haas, Stargate’i “son derece önemli bir altyapı projesi” olarak nitelendirerek şunları ekleyerek “ [ARM-based] Lütuf. İleride, o alanda teknoloji yeniliği için büyük bir potansiyel olacak. ”
Haas ayrıca AI ajanlarının donanım ekosisteminin her düğümünde hareket etmesini sağladığını söyledi. “Kulaklıklar gibi en küçük cihazları, DataCentre’ye kadar düşünüyorsanız, bu gerçekten arayüz ve/veya cihazın içindeki AI’yı yönlendiren her şeyin sürücüsü olmakla ilgilidir” diye ekledi.