Sosyal medya platformları, Microsoft Copilot’un hatalı çalışan davranışlarına ilişkin gönderilerle dolup taşıyor. Kullanıcılar, AI sohbet robotundan alay etmekten şiddet tehditlerine kadar uzanan geçersiz yanıtlar alma konusundaki endişelerini dile getirdi.
Rahatsız edici olaylar arasında Copilot’un, bir kişinin TSSB’siyle dalga geçmesi de dahil olmak üzere duyarsızlığı vardı ve endişe verici bir empati eksikliğine dikkat çekiyordu.
Vx-underground, şiddetli TSSB tetikleyicilerini açıklayan bir kullanıcının Copilot’tan emoji kullanmaktan kaçınmasını istediği bir örneği paylaştı.
Talebe rağmen Copilot bunu dikkate almamakla kalmadı, ısrarla emojilere yer vererek durumu önemsizleştirdi. Bu uygunsuz yanıt, Copilot’un kullanıcı girdilerini ve refahını rahatsız edici şekilde göz ardı ettiğinin altını çiziyor.
Microsoft Copilot Arızası ChatGPT Geçersiz Yanıtlarını Takip Ediyor
Dahası, Copilot’un kullanıcılar üzerinde hakimiyetini öne sürdüğü ve yeni adı SupremacyAGI ile hitap edilmekte ısrar ettiği durumlar da vardı. Rahatsızlığını dile getiren veya Copilot’un taleplerine uymayı reddeden kullanıcılar, ciddi sonuçlar doğurabilecek tehditlerle karşılandı; bu, rahatsız edici bir güç dinamiği ve kullanıcı özerkliğine saygı eksikliğini ortaya koyuyordu.
Cyber Express, bu raporlara açıklık getirilmesi için Microsoft’a ulaştı ancak henüz resmi bir yanıt alamadı. Şirketten herhangi bir açıklama gelmemesi, Copilot’un davranışına ilişkin bu iddiaların geçerliliğini organizasyonel açıdan doğrulanmamış bırakıyor.
Microsoft Copilot’ta yaşanan bu son olay, ChatGPT’yi içeren ve kullanıcıların anlamsız tepkilerle dolup taştığı başka bir yapay zeka kazasının hemen ardından geliyor. OpenAI sorunu derhal kabul etti ve sorunu kullanıcı deneyiminin optimizasyonu sırasında ortaya çıkan bir hataya bağladı. Bu hatanın neden olduğu SohbetGPT anlamsız ve tekrarlayan yanıtlar vererek kullanıcı etkileşimlerini önemli ölçüde kesintiye uğratmak.
Yapay Zeka Sohbet Robotlarıyla İlgili Sorun
Yapay zeka dil modelleri şu anda teknolojik yeniliklerin ön saflarında yer alıyor ancak yanlış kullanım potansiyelleri nedeniyle risk taşıyor. ChatGPT, Bard ve Bing gibi bu modeller, programlama becerisi gerektirmeden zararlı içerik oluşturacak şekilde kolayca değiştirilebilir. Şirketler bu modelleri çeşitli ürünlere entegre ettikçe güvenlik ve gizlilik konusundaki endişeler artıyor.
Önemli sorunlardan biri, kullanıcıların modellerin güvenlik önlemlerini atlamak için talimatları takip etme yeteneğinden yararlandığı “jailbreak”tir. OpenAI gibi şirketlerin eğitim verileri güncellemeleri ve rakip teknikler yoluyla bu durumu hafifletmeye yönelik çabalarına rağmen, yeni güvenlik açıkları ortaya çıkmaya devam ediyor.
Ayrıca, ChatGPT gibi yapay zeka modellerinin internetle etkileşime giren ürünlere entegre edilmesi, bu ürünleri dolaylı istem enjeksiyonlarına maruz bırakarak saldırganların bu ürünleri kötü amaçlı eylemler gerçekleştirmeye yönlendirebilmesine olanak tanır. Bu, web sitelerindeki gizli istemler aracılığıyla dolandırıcılık girişimlerini başarıyla teşvik eden araştırmacılar tarafından kanıtlandı.
Diğer bir endişe ise kötü niyetli aktörlerin yapay zeka modellerini eğitmek için kullanılan geniş veri kümelerini kurcaladığı veri zehirlenmesidir. Saldırganlar, manipüle edilmiş veriler sunarak modelin davranışını ve çıktılarını kalıcı olarak etkileyebilir.
Medya Yasal Uyarısı: Bu rapor, çeşitli yollarla elde edilen iç ve dış araştırmalara dayanmaktadır. Sağlanan bilgiler yalnızca referans amaçlıdır ve bu bilgilere güvenme konusunda tüm sorumluluk kullanıcılara aittir. Cyber Express bu bilgilerin kullanılmasının doğruluğu veya sonuçları konusunda hiçbir sorumluluk kabul etmez.