Microsoft Copilot Studio ile Güvensiz Yapay Zeka Asistanları Oluşturmak Kolaydır


BLACK HAT USA – Las Vegas – Çarşamba, 7 Ağustos – Microsoft’un Copilot Studio’sunun kurumsal kullanımı otomatik chatbot oluşturma aracıo zamandan beri önemli ölçüde büyüdü serbest bırakılması dokuz aydan daha kısa bir süre önce. Ancak herkesin sözde “yardımcı pilotlar” yaratması için kapıları açmasına rağmen, hizmetle oluşturulan veya değiştirilen tüm botlar varsayılan olarak güvenli değildir.

Microsoft Azure Güvenlik CTO ofisinde eski kıdemli güvenlik mimarı ve şu anda Azure Security’nin proje lideri olan güvenlik araştırmacısı Michael Bargury şöyle diyor: OWASP Düşük Kodlu/Kodsuz İlk 10 Güvenlik Riski Zenity’de proje ve CTO.

Çarşamba günü saat 19:00’da Siyah Şapka ABD Bargury, Las Vegas’ta geliştiricilerin farkında olmadan nasıl veri sızdıran veya veri kaybı önleme kontrollerini ve politikalarını atlatan yardımcı pilotlar oluşturabileceğini gösterdi.

“Bu kodsuz araçla hata yapmak ve bir yardımcı pilota ciddi bir güvenlik açığı sokmak çok, çok kolay,” diyor Bargury Dark Reading’e. “Aslında her şeyi doğru yapmak çok zor çünkü yanlış yapmanın çok fazla yolu var.”

Copilot Studio’nun Hızlı Benimsenmesi

Sürükle ve bırak özelliğine sahip, sihirbaz tabanlı Copilot Oluşturma aracı, Microsoft 365 üretkenlik paketinin tüm kullanıcılarının kullanımına sunuldu ve iş kollarındaki ileri düzey kullanıcıların, iş akışlarını otomatikleştirmek ve daha verimli toplantılar sağlamak gibi özellikler sunan copilotlar veya yapay zeka asistanları oluşturmalarına olanak tanıyan kolay bir yol sundu.

Copilot Studio’nun ekibe dahil edilmesi, müşterilerin bu botların yeteneklerini genişletmelerine ve özel yardımcı pilotlar oluşturmalarına olanak tanıyor.

Microsoft’un dördüncü çeyrek, 2024 mali yılı kazanç çağrısı 30 Temmuz’da, başkan ve CEO Satya Nadella, Copilots kullanımının son çeyrekte %60 arttığını duyurdu. Copilot Studio kullanan kuruluşların sayısı ise geçen çeyrekte %70 artarak Carnival, Cognizant, Eaton, KPMG, Majesco ve McKinsey dahil 50.000 mağazaya ulaştı.

İlk Yayın “Çok Fazla İzin Almıştı”

Bargury’nin fark ettiği ilk sorunlar arasında Copilot Creator tarafından oluşturulan copilot botlarındaki varsayılan ayarlar da vardı. Özellikle, botların çoğu kimlik doğrulaması gerektirmeden herkese açıktı. Ayrıca, bir kullanıcıyı kolayca taklit edebiliyorlardı.

“Kimliğinizi içine yerleştiren bir yardımcı pilot yaratabilirsiniz,” diye açıklıyor. “Şimdi, o yardımcı pilotla oturum açmadan internet üzerinden konuşuyorum ve kimliğinizi kullanıyorum. Çok fazla izin verilmişti.”

Bargury, Copilot Studio’nun piyasaya sürülmesinin ardından çeşitli başka güvenlik hataları keşfettiğini söylüyor. Örneğin, genel SharePoint sitelerini aramak üzere tasarlanmış bir yardımcı pilot oluşturmaya çalışan biri, aynı ağdaki özel bir SharePoint sitesine de erişebilir. Yardımcı pilotlar bir organizasyonun dışında kolayca keşfedilebildiği için, uzaktan saldırılar için kanal haline gelebilirler.

“Web’de açık Copilot Studio botlarını arayabilirdim ve bunlardan on binlercesini bulduk,” diyor Bargury. “Ve sonra bu yardımcı pilotları yapay zeka ile karıştırabilir ve hangi yardımcı pilotlarla konuşabileceğimi bulabilir, benimle konuşmaya istekli olup olmadıklarını ve ne tür bilgiler ve işlemler gerçekleştirebileceğini öğrenebilirdim. Ve sonra onlardan bilgi alabilirdim.”

Microsoft’un sorunları düzelttiğini ve yanlışlıkla güvenli olmayan eylemler oluşturma yeteneğini ortadan kaldırmak için tasarlanmış yeni yönetici denetimleri getirdiğini söylüyor, örneğin bir yöneticinin kullanıcıların herkese açık olarak paylaşılabilen botlar oluşturmasına izin vermemesine izin vermek gibi. Yöneticiler, kuruluşlarını korumak için uygulamalarını güncellemelidir.

Düşük Kod ve Sohbet Robotları: Üretkenlik ve Güvenliği Dengeleme

Microsoft Copilot ve benzeri botların çekiciliği, kullanıcıların daha üretken olmasını sağlamaları ve birçok rutin görevi otomatikleştirmeleridir. Ancak bu araştırmanın gösterdiği gibi, bir organizasyon içinde zayıf bir halka da olabilirler. Bargury, Microsoft’un Copilot Studio’nun bundan sonra daha iyi güvenliğe sahip olmasını sağlamaya kararlı olduğuna inandığını söylüyor.

“Yöneticilere daha fazla kontrol sağlamak için yatırım yapmaya devam edeceklerini düşünüyorum,” diyor. “Ancak zor bir durumdalar çünkü üretkenliği güvenlikle dengelemeleri gerekiyor. Ve dengenin nerede bittiğini biliyoruz. Microsoft’un birçok farklı kuruluşu var ancak Copilots Studio’yu öne çıkaran kuruluş güvenlikle değil, büyüme ve benimsemeyle yönlendiriliyor.”

Black Hat oturumunda Bargury ayrıca şunları da gösterdi: Yardımcı Pilot AvcısıMicrosoft’un düşük kodlu/kodsuz Power Platformu için Power Pwn güvenlik araç seti için yeni bir modül olan bu modül, açık Copilot Studio botlarını tarayarak bunların arkasındaki verilere erişmelerini sağlar. GitHub’da mevcut.

Copilot Studio’yu Bozmanın 15 Yolu

Bargury, sonuç bölümünde Copilot Security ile keşfettiği 15 güvenlik sorununu açıkladı.

  1. Güvenilir olmayan ve güvenilmeyen girdi

  2. Birden fazla veri sızıntısı senaryosu

  3. Hassas verilerin aşırı paylaşılması

  4. Beklenmeyen yürütme yolu

  5. Beklenmeyen yürütme yolu ve işlemleri

  6. Kuruluşun uyumluluk ve coğrafi sınırlarının dışına akan veriler

  7. Hassas verilerin aşırı paylaşımı ve sızdırılması

  8. Yıkıcı, öngörülemeyen yardımcı pilot eylemleri

  9. İstenmeyen veri erişimi elde edin

  10. Sabit kodlu kimlik bilgileri, yardımcı pilot cevabının bir parçası olarak sağlanabilir

  11. Kanallar aracılığıyla yardımcı pilot erişiminin aşırı paylaşılması

  12. Yardımcı pilotluk mülkiyetinin üyelerle aşırı paylaşılması

  13. Yardımcı pilotluk mülkiyetini (ve daha fazlasını) misafirlerle aşırı paylaşmak





Source link