Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Claude 3.7 sonnet, istemlere hızlı veya kasıtlı, karmaşık cevaplar verebilir
Rashmi Ramesh (Rashmiramesh_) •
26 Şubat 2025

Antropic, akıl yürütme süresini kullanıcı tercihlerine göre uyarlamak için tasarlanmış yeni bir yapay zeka modeli tanıttı. Endüstrinin ilk “hibrit AI akıl yürütme modeli” olarak pazarlanan Claude 3.7 sonnet, hızlı tepkiler ve istemlere daha kasıtlı, karmaşık cevaplar vermeyi amaçlıyor.
Ayrıca bakınız: Bulut Güvenliği ve SOC yakınsama için Kapsamlı Kılavuz
Kullanıcıların hız, doğruluk veya maliyete dayalı farklı sürümler arasında seçim yapmalarını gerektiren geleneksel AI modellerinin aksine, Claude 3.7 sonnet süreci düzene sokmayı amaçlamaktadır. Kullanıcılar, modelin “akıl yürütme” yeteneklerini değiştirebilir ve yanıt vermeden önce kısa veya uzun bir süre “düşünmesine” izin verebilir.
Antropik’in yaklaşımı, bugün AI Chatbots’ta yaygın olan model toplama arayüzü ile tezat oluşturuyor. Şirket bunu kullanıcı dostu bir değişim olarak görürken, kullanıcılara akıl yürütme süresi üzerinde kontrol vermek, yanıt güvenilirliği ve hesaplama maliyetleri hakkında belirsizlik getirebilir.
Claude 3.7 Sonnet tüm kullanıcılara ve geliştiricilere yayılıyor, ancak tüm yetenekleri aboneler ödemekle sınırlı. Serbest katmanlı kullanıcılar yalnızca modelin mantıksız bir sürümüne erişecektir. Milyon giriş jetonları başına 3 $ ve milyon çıktı jetonları başına 15 $ olan Claude 3.7 sonnet, Openai’nin O3-Mini ve Deepseek’in R1 gibi rakiplerinden daha yüksek fiyatlandırılıyor.
Claude 3.7 Sonnet, Antropic’in Openai, Google ve Xai gibi rakiplerin adımlar attığı bir alan olan açıkça yapılandırılmış AI akıl yürütmesine ilk baskısıdır. Akıl yürütme odaklı modeller, karmaşık problemleri daha küçük adımlara ayırarak yanıt doğruluğunu artırmayı amaçlamaktadır. Bu yaklaşım umut vaat etse de, daha fazla hesaplama gücü gerektirir.
Antropic, Claude modellerinin en uygun akıl yürütme süresini otomatik olarak belirleyeceği ve kullanıcıların parametreleri ayarlama ihtiyacını ortadan kaldıracağı bir geleceğe odaklanıyor. Şirket, kullanıcıların modelin düşünce sürecinin bazı bölümlerini gözlemlemelerine olanak tanıyan bir “görünür çizik pedi” özelliği tanıttı. Bazı bölümler güven ve güvenlik nedenleriyle düzeltilebilir, kullanıcıları kararların nasıl alındığına dair eksik bir resim bırakır (bkz:: AI Kaçırıldı: Yeni Jailbreak Sinemset Şefi Zinciri).
Antropik, Claude 3.7 sonnet’in gerçek dünya uygulamalarında, özellikle kodlama ve ajan görevlerinde mükemmel olduğunu iddia ediyor. Benchmark testlerinde, model Openai’nin O3-Mini’den SWE-Bench, bir kodlama doğruluğu testi ve harici API’larla yapay zeka etkileşimini ölçen Tau-Bench’den daha iyi performans gösterdi. Bu sonuçlar rekabetçi performans önermekle birlikte, modelin gerçek dünyadaki etkinliğini doğrulamada bağımsız değerlendirmeler daha güvenilir olabilir.
Şirket ayrıca, modelin selefi Claude 3.5 sonnet’ten% 45 daha az soruları cevaplamayı reddettiğini söylüyor. Bu kullanılabilirliği artırabilirken, modelin güvenlik korkuluklarının kötüye kullanımı önleyecek kadar sağlam kalıp kalmadığı konusunda endişeleri de gündeme getiriyor.