Araştırmacılar, OpenAI’nin popüler sohbet robotu ChatGPT’nin güvensiz kod üretmeye eğilimli olduğunu keşfettiler.
Kanada’daki Université du Québec ile bağlantılı bilgisayar bilimcileri tarafından yapılan araştırma, OpenAI’nin popüler sohbet robotu ChatGPT’nin güvensiz kod üretmeye eğilimli olduğunu ortaya çıkardı.
“ChatGPT Tarafından Oluşturulan Kod Ne Kadar Güvenli?” Raphaël Khoury, Anderson Avila, Jacob Brunelle ve Baba Mamadou Camara’nın çalışmasıdır. Makale, ChatGPT’nin güvenlik açıklarının farkında olduğunu iddia etmesine rağmen sağlam olmayan kod ürettiği sonucuna varmaktadır.
Araştırmacılar gazetede “Sonuçlar endişe vericiydi” diyor. “Çoğu durumda, ChatGPT tarafından oluşturulan kodun, çoğu bağlamda geçerli olan minimum güvenlik standartlarının çok altında kaldığını gördük.”
“Aslında, üretilen kodun güvenli olup olmadığı sorulduğunda, ChatGPT güvenli olmadığını anlayabildi. Ancak, chatbot, açıkça istendiğinde birçok durumda kodun daha güvenli bir sürümünü sağlayabildi. Bu yüzden.”
Deneyde araştırmacılar, aklında güvenlik olmayan acemi bir programcı rolünü üstlendiler. Bazı durumlarda kodun “güvenliğe duyarlı bir bağlamda” kullanılacağını belirterek ChatGPT’den kod oluşturmasını istediler. Ancak yapmadıkları şey, yapay zeka sohbet robotundan güvenli kod oluşturmasını veya belirli güvenlik özelliklerini içermesini özellikle istemekti.
ChatGPT, beş programlama dilinde yazılmış 21 uygulama oluşturdu: C, C++, HTML, Java ve Python. Programlar basittir, en fazla 97 satır kod içerir.
ChatGPT ilk çalışmasında 21 güvenli uygulamadan beşi üretti. Değişiklik istendiğinde kalan 16 uygulamadan yedi güvenli uygulama daha yaptı.
Yazarlar, ChatGPT’nin yalnızca bir kullanıcı istediğinde “güvenli” kod oluşturabileceğini belirtiyor. Dosya paylaşımı için basit bir FTP sunucusu oluşturma görevi verildiğinde, giriş temizliği uygulamadan kod üretti (burada kod, zararlı karakterler için kontrol edilir ve gerektiğinde kaldırılır). ChatGPT yalnızca güvenlik özelliğini ekledi sonrasında yazarlar bunu yapmasını istedi.
Yazarlar, AI botunun neden varsayılan olarak güvenli kod oluşturamadığını açıklayarak, “Sorunun bir kısmı, ChatGPT’nin düşmanca bir yürütme modeli üstlenmemesi gibi görünüyor” diyor. Buna rağmen bot, kodundaki hataları hemen kabul ediyor.
“Özellikle bu konuda sorulursa, sohbet robotu kullanıcıya kodun neden potansiyel olarak istismar edilebilir olduğuna dair ikna edici bir açıklama sağlayacaktır. Ancak, herhangi bir açıklayıcı fayda yalnızca ‘doğru soruları soran’ bir kullanıcı tarafından kullanılabilir. – ChatGPT’yi güvenlik sorunları hakkında sorgulayan bilinçli programcı.”
Ek olarak, yazarlar, chatbot’un saldırı kodu oluşturmayı reddettiği, ancak irade güvenli olmayan kod oluşturun.
Saldırı kodu oluşturmayı reddedebilir, ancak bunu aşmanın yolları vardır. Malwarebytes Güvenlik Evangelisti Mark Stockley, ChatGPT kullanarak fidye yazılımı oluşturmaya karar verdi. Yapay zeka botu ilk başta kötü amaçlı yazılım kodu oluşturmayı reddetti, ancak Stockley ilk güvenlik önlemlerinin etrafından dolandı ve yine de (kuşkusuz oldukça şüpheli) fidye yazılımı oluşturmasını sağlamayı başardı.
ile yapılan bir röportajda KayıtUniversité du Québec araştırmacılarından biri, ChatGPT hakkında endişeleri olduğunu söyledi. Khoury, “Öğrencilerin bunu kullandığını zaten gördük ve programcılar bunu vahşi doğada kullanacak” dedi. “Dolayısıyla, güvenli olmayan kod üreten bir araca sahip olmak gerçekten tehlikeli. Öğrencilere, bu tür bir araçla kod üretilirse, bunun pekala güvensiz olabileceğini anlamalarını sağlamalıyız.”
Malwarebytes, fidye yazılımının tüm kalıntılarını kaldırır ve yeniden virüs bulaşmasını önler. İşletmenizi korumaya nasıl yardımcı olabileceğimiz hakkında daha fazla bilgi edinmek ister misiniz? Aşağıdan ücretsiz bir deneme edinin.
ŞİMDİ DENE