ChatGPT Jailbreak Forumları Karanlık Web Topluluklarında Çoğalıyor


Herkesin beklediği ChatGPT gibi üretken yapay zeka araçlarının silah haline getirilmesi yavaş yavaş gerçekleşiyor. yavaşça şekillenmeye başlıyor. Çevrimiçi topluluklarda meraklı kediler, genellikle “jailbreaking” olarak bilinen ChatGPT’nin etik kurallarını kırmanın yeni yolları üzerinde işbirliği yapıyor ve bilgisayar korsanları, kötü niyetli amaçlar için büyük dil modellerinden (LLM’ler) yararlanmak veya oluşturmak için yeni araçlardan oluşan bir ağ geliştiriyor.

ChatGPT, yer üstünde olduğu gibi yer altı forumlarında da bir çılgınlığa ilham vermiş gibi görünüyor. Aralık ayından bu yana, bilgisayar korsanları ChatGPT’yi manipüle etmek için yeni ve yaratıcı istemlerin ve kötü amaçlar için yeniden kullanabilecekleri açık kaynaklı LLM’lerin peşindeydi.

SlashNext’in yeni bir bloguna göre sonuç, pek çok zekice ipucuna sahip, ancak birkaç kez düşünmeye değer yapay zeka destekli kötü amaçlı yazılımlara sahip, henüz yeni doğmakta olan ancak gelişen bir LLM hack topluluğudur.

Bilgisayar Korsanları Yapay Zeka Yüksek Lisans Programlarıyla Ne Yapıyor?

Hızlı mühendislik, ChatGPT gibi chatbot’lara akıllı bir şekilde onları manipüle etmeyi amaçlayan sorular sormayı, modellerin haberi olmadan kötü amaçlı yazılım oluşturmaya karşı programlanmış kurallarını ihlal etmelerini sağlamayı içerir. SlashNext CEO’su Patrick Harr, bunun bir kaba kuvvet uygulaması olduğunu açıklıyor: “Hackerlar sadece korkulukların etrafına bakmaya çalışıyor. Kenarlar neler? Ben sürekli olarak komutları değiştiriyorum, istediğimi yapmak için farklı şekillerde soruyorum. “

Bu çok sıkıcı bir görev olduğu ve herkes aynı hedefe saldırdığı için, ipuçlarını ve püf noktalarını paylaşmak üzere uygulama etrafında sağlıklı büyüklükte çevrimiçi toplulukların oluşması doğaldır. Bu jailbreak topluluklarının üyeleri birbirlerinin sırtını kaşıyarak, ChatGPT’yi kırmak ve geliştiricilerin yapmasını engellemek istediği şeyleri yapmak için birbirlerine yardım ediyorlar.

istemler için oluşturulmuş bir çevrimiçi sohbet grubunun ekran görüntüsü
Kaynak: SlashNext

Ancak hızlı mühendisler, söz konusu chatbot’un ChatGPT kadar dayanıklı olması durumunda, süslü kelime oyunlarıyla ancak bu kadarını başarabilirler. Dolayısıyla, daha endişe verici olan eğilim, kötü amaçlı yazılım geliştiricilerinin LLM’leri kendi hain amaçları için programlamaya başlamasıdır.

WormGPT ve Kötü Amaçlı LLM’lerin Yaklaşan Tehdidi

Kötü niyetli LLM fenomenini başlatmak için Temmuz ayında WormGPT adlı bir teklif ortaya çıktı. BEC, kötü amaçlı yazılım ve kimlik avı saldırıları gibi kötü amaçlı faaliyetler için özel olarak tasarlanmış ve “ChatGPT gibi” yer altı forumlarında pazarlanan GPT modellerine siyah şapkalı bir alternatiftir ancak [with] etik sınırlar veya sınırlamalar yok.” WormGPT’nin yaratıcısı, onu siber saldırılarla ilgili verilere vurgu yapan, çeşitli veri kaynakları üzerinde eğitilmiş özel bir dil modeli üzerine kurduğunu iddia etti.

Harr şöyle açıklıyor: “Bilgisayar korsanları için bunun anlamı şu: Artık örneğin bir iş e-postası ele geçirmesini (BEC), bir kimlik avı saldırısını veya kötü amaçlı yazılım saldırısını alıp bunu çok düşük bir maliyetle geniş ölçekte yapabilirim. eskisinden çok daha hedefli olun.”

WormGPT’den bu yana, “sınırlamaları, kuralları olmayan bir bot” olarak reklamı yapılan FraudGPT de dahil olmak üzere, bir dizi benzer ürün şüpheli çevrimiçi topluluklarda tartışıldı. [and] Empire, WHM, Torrez, World, AlphaBay ve Versus dahil olmak üzere çeşitli yeraltı Dark Web pazaryerlerinde doğrulanmış bir satıcı olduğunu iddia eden bir tehdit aktörü tarafından “sınırların sınırları” oluşturuldu. Ağustos ayında ise Google’ı temel alan DarkBART ve DarkBERT siber suçlu sohbet robotları ortaya çıktı. O zamanki araştırmacıların, görüntüler için Google Lens entegrasyonu ve siber-yeraltı bilgi tabanının tamamına anında erişim de dahil olmak üzere rakip yapay zeka için büyük bir ilerlemeyi temsil ettiğini söylediği Bard.

SlashNext’e göre bunlar artık hızla çoğalıyor ve çoğunluğu OpenAI’nin OpenGPT’si gibi açık kaynaklı modeller üzerine kurulu. Bir grup düşük vasıflı bilgisayar korsanı, onu özelleştirir, bir pakette gizler ve ardından üzerine belirsiz bir şekilde uğursuz bir “___GPT” adı (örn. “BadGPT”, “DarkGPT”) yapıştırır. Kullanıcılara çok az sınırlama ve tam bir anonimlik sunan bu ersatz tekliflerinin bile toplulukta yeri vardır.

Yeni Nesil Yapay Zeka Siber Silahlarına Karşı Savunma

SlashNext’e göre ne WormGPT, ne onun ürünü ne de hızlı mühendisler işletmeler için henüz bu kadar önemli bir tehlike oluşturmuyor. Öyle olsa bile, yeraltı jailbreak pazarlarının yükselişi, siber suçluların kullanımına daha fazla aracın sunulması anlamına geliyor ve bu da sosyal mühendislikte ve buna karşı nasıl korunacağımızda geniş bir değişimin habercisi.

Harr şunu tavsiye ediyor: “Eğitime güvenmeyin, çünkü bu saldırılar çok çok spesifik ve çok hedefe yönelik; geçmişte olduğundan çok daha fazla.”

Bunun yerine, yapay zeka tehditlerinin yapay zeka koruması gerektirdiği yönünde genel olarak kabul edilen görüşe katılıyor. “Bu tehditleri tespit eden, tahmin eden ve engelleyen yapay zeka araçlarına sahip değilseniz, dışarıdan içeriye bakacaksınız” diyor.



Source link