Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
‘Frontier AI çerçevesi’ risk kategorilerini, eylem planını tanımlar
Rashmi Ramesh (Rashmiramesh_) •
4 Şubat 2025
Meta, gelişmiş yapay zeka modellerinin piyasaya sürülmesinde yeni sınırlar belirledi ve kamuoyunu serbest bırakma için çok tehlikeli kabul edilen sistemleri kısıtlamak için kriterler belirledi.
Ayrıca bakınız: İkinci Yıllık Üretici AI Çalışması: İş Ödülleri ve Güvenlik Riskleri
Şirketin sınır AI çerçevesi iki risk kategorisini tanımlar: yüksek ve kritik. Yüksek riskli sistemler, siber güvenlik ihlallerine veya kimyasal ve biyolojik saldırılara yardımcı olabilir, ancak olumsuz bir olumsuz sonuç garanti etmez. Kritik riskli sistemler felaket olaylarını mümkün kılabilir ve bu sonuçları önlemek için azaltılamaz.
Potansiyel tehditler arasında yapay zeka odaklı kurumsal siber müdahaleler ve yüksek etkili biyolojik silahların çoğalmasını içerir. Facebook, bu listenin kapsamlı olmadığını, ancak güçlü AI modellerini serbest bırakmanın en acil kaygılarını temsil ettiğini söyledi.
Sosyal medya devi, riski değerlendirmek için ampirik bir testi olmadığını söyledi. Bunun yerine, iç ve dış araştırmacıların değerlendirmelerini kullanarak, üst düzey karar vericilerin gözetimiyle modelleri değerlendirir. Şirket, mevcut değerlendirme yöntemlerinin kesin risk ölçümleri üretecek kadar gelişmiş olmadığını söyledi.
Meta, yüksek riskli modellere iç erişimi sınırlayacak ve hafifletme önlemleri onu ılımlı bir risk seviyesine getirene kadar serbest bırakılmasını geciktirecektir. Şirket, bir model kritik risk olarak kabul edilirse, kalkınma durdurulacağını ve sızıntıları önlemek için güvenlik önlemleri verileceğini söyledi.
Çerçeve, Meta’nın AI politikaları üzerindeki artan incelemeye bir yanıt gibi görünmektedir. Şirket, kendisini Open AI gelişiminin savunucusu olarak konumlandırdı ve Lama Serisi gibi modelleri Openai gibi rakiplerden daha az kısıtlamaya sahip, sistemlerini bir API’nın arkasında tuttu. Meta’nın yaklaşımı yaygın olarak benimsenmesine yol açarken, ABD’li düşmanların AI güdümlü savunma araçları geliştirmek için Lama modellerini kullandıkları raporları da dahil olmak üzere eleştiri de çekti.
Meta, sınır AI çerçevesinin AI yetenekleri ve risk değiştikçe gelişeceğini söylüyor.
Hareket, meta’yı benzer şekilde açık bir yaklaşım benimseyen ancak modellerin koruma eksikliği için eleştiriyle karşılaşan Çin AI şirketi Deepseek’ten ayırt etmeyi amaçlayabilir.
Meta, “Gelişmiş AI’nın nasıl geliştirileceği ve dağıtılacağı konusunda kararlar vermenin hem faydaları hem de riskleri göz önünde bulundurarak, bu teknolojiyi uygun bir risk seviyesini korurken faydalarını koruyacak şekilde topluma sunmanın mümkün olduğuna inanıyoruz.” Dedi.
Şirket, kritik riskli AI sistemleri için belirli güvenlik önlemlerini ayrıntılı olarak açıklamamıştır veya harici denetimlerin risk değerlendirme sürecinde rol oynayıp oynamayacağını açıklamıştır.