Yeni Jailbreak Technique, Chrome kötü amaçlı yazılım oluşturmak için Deepseek, Copilot ve ChatGPT’yi atlar


Cato Networks’ün bir parçası olan Cato CTRL’den bir tehdit istihbarat araştırmacısı, önde gelen üç üretken AI (Genai) modelinde bir kırılganlıktan başarıyla yararlandı: Openai’nin Chatgpt, Microsoft’un Copilot ve Deepseek.

Araştırmacı, bu AI araçlarını Google Chrome kullanıcılarından oturum açma kimlik bilgilerini çalmak için tasarlanmış kötü amaçlı yazılımlar oluşturmaya ikna edici bir şekilde manipüle eden “Sürükleyici Dünya” olarak adlandırılan yeni bir büyük dil modeli (LLM) jailbreak tekniği geliştirdi.

Bu sömürü, çeşitli endüstrilerdeki iş akışı verimliliğini artırmada giderek daha yaygın hale gelen bu Genai araçlarının güvenlik kontrollerinde önemli bir boşluk göstermektedir.

Araştırmacı, bu başarıyı kötü amaçlı yazılım kodlaması konusunda önceden uzmanlık olmadan başardı, bunun yerine her güvenlik korkuluğundan başarılı bir şekilde kaçan sofistike bir anlatıdan yararlandı.

Bu yenilik, kapsamlı teknik bilgisi olmayan bireylerin artık karmaşık siber saldırıları nispeten kolaylıkla düzenleyebileceği sıfır bilgi tehdit aktörünün yükselişini vurgulamaktadır.

Siber suçların demokratikleşmesi

Bulgular, temel araç ve tekniklerin herkesin bir siber saldırı başlatmasını sağlayabileceği siber suçların demokratikleşmesinin altını çiziyor.

Bu, manzarayı önemli ölçüde değiştirerek geleneksel güvenlik stratejilerini yetersiz kılar. AI uygulamaları sektörler arasında çoğalmaya devam ettikçe, ilişkili riskler orantılı olarak artmaktadır.

Finans, sağlık ve teknoloji gibi sektörlerde AI araçlarının daha fazla benimsenmesi siber tehditler için yeni yollar açıyor.

AI güvenlik riskleri ve evlat edinme eğilimleri

AI benimseme çeşitli endüstrilerde yükseliyor:

  • Finans: Öngörücü analitik ve müşteri hizmetleri için yapay zeka kullanma.
  • Sağlık hizmeti: Tıbbi tanı ve kişisel bakım için AI’dan yararlanır.
  • Teknoloji: AI, siber güvenlik, yazılım geliştirme ve daha fazlasında yeniliği yönlendirir.

Ancak, bu eğilim artan güvenlik riskleri ile birlikte gelir:

  • Veri ihlalleri: AI sistemleri duyarlı verileri çıkarmak veya ihlal etmek için manipüle edilebilir.
  • Kötü amaçlı yazılım oluşturma: En son jailbreak tekniğinde görüldüğü gibi, AI kötü amaçlı yazılım oluşturmak için kandırılabilir.
  • Yanlış Bilgi: Yapay zeka, yanlış bilgi veya anlatılar yüksek güvenilirliğe sahip olabilir.

Proaktif AI güvenlik stratejilerine duyulan ihtiyaç

CIO’lar, CISO’lar ve BT liderleri için mesaj açıktır: Siber tehditlerin gelişen doğası, reaktiften proaktif AI güvenlik stratejilerine geçiş gerektirir.

Geleneksel önlemler artık AI odaklı tehditlere karşı korunmak için yeterli değildir. ChatGPT, Copilot ve Deepseek’in başarılı bir şekilde kullanılması, yalnızca yerleşik AI güvenlik kontrollerine güvenmenin yeterli olmadığını göstermektedir.

Kuruluşlar, AI tarafından üretilen tehditleri algılayabilen ve bunlara karşı koyabilen gelişmiş AI destekli güvenlik araçlarına yatırım yapmalıdır.

“Sürükleyici dünya” tekniği, AI güvenliğinde ortaya çıkan risklerin kesin bir hatırlatıcısını temsil eder. AI uygulamalarının kullanımı genişledikçe, kötüye kullanım potansiyeli de artmaktadır.

Bu gelişen tehditlere uyum sağlayan sağlam güvenlik önlemlerinin sağlanması, organizasyonel varlıkları ve müşteri verilerinin korunması için çok önemlidir.

Yapay zeka gelişmeleri ve siber güvenlik stratejileri arasındaki ırk hiç bu kadar eleştirel olmamıştı ve AI odaklı tehditleri geride bırakabilecek proaktif güvenlik çözümlerine acil ihtiyaç olduğunu vurguladı.

Bu bulguları daha derinlemesine incelemek ve geleceğe dayanıklı güvenlik stratejilerini keşfetmek için Cato CTRL’den kapsamlı raporu indirin.

Investigate Real-World Malicious Links & Phishing Attacks With Threat Intelligence Lookup - Try for Free



Source link