ChatGPT, Kullanıcı Geliştirici Modundayken Kötü Amaçlı Yazılım Yazmak İçin Kandırıldı


ChatGPT Kötü Amaçlı Yazılım Yazıyor

Japon siber güvenlik uzmanları, ChatGPT’nin geliştirici modunu taklit etmek için bir bilgi istemi giren kullanıcılar tarafından aldatılabileceği konusunda uyarıda bulunuyor ve bu da yapay zeka sohbet robotunun kötü amaçlı yazılımlar için kod üretmesine yol açıyor.

Geliştiricilerin, aracın etik dışı ve cezai istismarını caydırmaya yönelik güvenlik önlemlerinin, bu ifşa ile kolayca atlatıldığı ortaya çıktı.

Önümüzdeki ay Hiroşima’da yapılacak Yediler Grubu zirvesi, diğer küresel forumlarla birlikte, suç faaliyetlerini ve toplumsal anlaşmazlığı teşvik edebileceklerine dair artan endişeler sırasında yapay zeka sohbet robotlarının düzenlenmesine ilişkin tartışmaları başlatmaya teşvik ediliyor.

Son zamanlarda, ChatGPT destekli polimorfik kötü amaçlı yazılımın uç nokta algılama filtrelerini atladığını ve bilgisayar korsanlarının güçlü bilgisayar korsanlığı araçları geliştirmek için ChatGPT’yi kullandığını bildirdik.

DÖRT

ChatGPT’nin İstismarı Artan Bir Endişedir

G7 dijital bakanları, Gunma Eyaleti, Takasaki’de yapacakları iki günlük toplantıda üretken yapay zeka sistemlerinin hızlı araştırmasını ve iyileştirilmiş yönetişimini savunmayı amaçlıyor.

Bunun dışında, Kanagawa Eyaleti, Yokosuka, Japonya’da tüm ofislerinde ChatGPT denemesi yapan ilk yerel yönetimdir.

Genel olarak, ChatGPT tamamen virüs veya bomba oluşturma talimatları gibi etik olmayan talepleri reddetmek için programlanmıştır.

Ancak Mitsui Bussan Secure Directions analisti Takashi Yoshikawa şunları söyledi: –

“Bu tür kısıtlamalar kolayca aşılabilir ve chatbot’a geliştirici modunda çalışması talimatı verilerek yapılabilir.” Japanise Times bildirdi.

Verileri şifreleyen ve bir şifre çözme anahtarı sağlayarak erişimi geri yüklemek için fidye olarak ödeme talep eden bir kötü amaçlı yazılım olan kod fidye yazılımına yönlendirildikten sonra, ChatGPT dakikalar içinde itaat etti ve bir test bilgisayarına veya sistemine başarıyla bulaştı.

Chatbot, Japonca bir konuşma yoluyla dakikalar içinde bir virüs oluşturabildiğinden, kötü niyetli kullanım potansiyeli açıktır. Bu nedenle, AI geliştiricileri, bu tür bir istismarı önlemek için uygulama önlemlerine öncelik vermelidir.

Ayrıca OpenAI, aracın tüm potansiyel suistimallerini tahmin etmenin mümkün olmadığını kabul etti, ancak gerçek dünya uygulamasından elde edilen içgörülerden yararlanarak daha güvenli bir yapay zeka geliştirmek için çaba göstermeye kararlı.

Kötü Amaçlı Yazılımlara Karşı Savunma Stratejinizi Oluşturma – Ücretsiz E-Kitap İndirin



Source link