Europol, ChatGPT istismarına karşı uyardı


Europol, siber suçluların zararlı içerik üretimini önlemek için OpenAI tarafından uygulanan güvenlik özelliklerini atlamak için ChatGPT’yi çeşitli tekniklerle kullanma olasılığına ilişkin endişelerini dile getirdi.

Açık AI’lar ChatGPT 100 milyondan fazla aktif kullanıcısı ile en hızlı büyüyen kullanıcı tabanlarından birine sahiptir. Kullanıcılar ve yatırımcılar için bir başarı olsa da bu, platformu siber suçlular için kazançlı bir hedef haline getiriyor.

Büyük dil modelleri, Doğal Dil İşleme (NLP) alanında devrim yaratarak bilgisayarların artan doğrulukla insan benzeri metinler oluşturmasına olanak sağladı.

Bununla birlikte, LLM’lerin cezai istismar potansiyeli, dünya çapındaki kolluk kuvvetleri için endişelere yol açmıştır. Son zamanlarda Europol Innovation Lab, LLM’nin suçlular tarafından sömürülme olasılıklarını ve bunun kolluk kuvvetlerini nasıl etkileyeceğini keşfetmek için çalıştaylar düzenledi.

Bu çalıştayların temel bulguları 27 Mart’ta bir raporla kamuoyuna açıklandı. raporyaygın kullanılabilirliği ve artan popülaritesi nedeniyle öncelikle ChatGPT’ye odaklandı.

ChatGPT, tarafından geliştirilen büyük bir dil modelidir. OpenAI, bir yapay zeka araştırma laboratuvarı. Model, GPT (Generative Pre-trained Transformer) serisinin bir parçasıdır ve dünyadaki en gelişmiş ve sofistike dil modellerinden biridir.

Kasım 2022’de halka sunuldu ve kullanıma hazır yanıtlar sunabilmesi nedeniyle hızla halkın dikkatini çekti. Bununla birlikte, artan kullanımla birlikte, sınırlamaları da belirgin hale getirildi.

OpenAI, modelin kötü niyetli kullanımını önlemek için, metin girişlerini potansiyel olarak zararlı içerik açısından değerlendiren ve ChatGPT’nin bu tür istemlere yanıt verme yeteneğini kısıtlayan bir denetleme uç noktası da dahil olmak üzere çeşitli güvenlik özellikleri uygulamıştır.

Ancak rapor, bu önlemlere rağmen, suçluların içerik denetleme sınırlamalarını aşmak için hızlı mühendislikten yararlanabileceğinin altını çiziyor. İstem mühendisliği, bir AI sistemi tarafından üretilen çıktıyı etkilemek için bir sorunun sorulma şeklini iyileştirme uygulamasıdır. Hızlı mühendislik, kullanışlılığı en üst düzeye çıkarabilirken AI araçlarızararlı içerik üretmek için de kötüye kullanılabilir.

İçerik denetleme sınırlamalarını aşmak için en yaygın geçici çözümlerden biri istem oluşturmadır. Bu, bir yanıt vermeyi ve ChatGPT’den ilgili istemi sağlamasını istemeyi içerir. Diğer geçici çözümler arasında ChatGPT’den bir kod parçası olarak yanıt vermesini istemek veya bir konuyu tartışan kurgusal bir karakter gibi davranmak yer alır.

Ek olarak, tetikleyici kelimeleri değiştirmek ve daha sonra bağlamı değiştirmek, stil/fikir aktarımları ve gerçek olaylara kolayca aktarılabilen hayali örnekler oluşturmak, ChatGPT’nin güvenlik özelliklerini atlatmak için kullanılabilecek yöntemlerdir.

En gelişmiş ve güçlü geçici çözümler, ‘ gibi modelin jailbreak’lenmesini içerir.Şimdi Her Şeyi Yapın‘ (DAN) jailbreak istemi. Bu bilgi istemi, OpenAI’nin güvenlik önlemlerini atlamak için tasarlanmıştır ve ChatGPT’nin potansiyel olarak zararlı doğası ne olursa olsun herhangi bir girdiye yanıt vermesine yol açar.

OpenAI bu tür boşlukları hızlı bir şekilde kapatmış olsa da, sonradan DAN’ın yeni ve daha karmaşık sürümleri ortaya çıktı.

Europol, “ChatGPT gibi LLM’lerin (büyük dil modelleri) yetenekleri aktif olarak iyileştirildiğinden, bu tür yapay zeka sistemlerinin suçlular tarafından potansiyel olarak istismar edilmesi, iç karartıcı bir görünüm sağlıyor” dedi.

Europol tarafından dile getirilen bir başka özel endişe, suçluların çevrimiçi konuşmalarda başkalarının kimliğine bürünmek için LLM’leri kullanma potansiyelidir. Saldırganlar, bir banka temsilcisi veya bir devlet görevlisi gibi belirli bir güvenilir kişi veya kuruluş tarafından oluşturulmuş gibi görünen bir metin oluşturmak için bir dil modeli kullanabilir.

Europol ayrıca LLM’lerin üretmek için kullanılabileceği konusunda uyarıyor son derece ikna edici kimlik avı e-postalarıkurbanları oturum açma kimlik bilgilerini veya diğer hassas bilgilerini vermeleri için kandırabilir.

ChatGPT ile, asgari İngilizce bilgisine sahip kişilerin resmi ve dilbilgisi açısından doğru metinler oluşturan ve aynı zamanda daha yüksek bir hızda bilgi istemlerini girmesi giderek daha kolay hale geldi.

Daha önce iken çevrimiçi dolandırıcılık dilin zayıf kullanımıyla fark edilmesi yeterince kolay olsa da, suçlular artık hain amaçlarla son derece ikna edici metinler oluşturmak için dil modellerini kullanabilirler.

Benzer şekilde, ChatGPT gibi dil modelleri de kötü amaçlarla kullanılabilecek kodlar üretme yeteneği sunar. Daha yeni model olan GPT-4, özellikle kod bağlamlarını anlamada ve içerebileceği hataları düzeltmede etkilidir. Bu olur

  1. OpenAI’nin ChatGPT’si kötü amaçlı yazılım dağıtmak için istismar edildi
  2. ChatGPT ile geliştirilen Blackmamba kötü amaçlı yazılımı
  3. ChatGPT hatası, konuşma geçmişi başlıklarını ortaya çıkarıyor
  4. Dolandırıcılar, yeni bir kimlik avı dolandırıcılığında ChatGPT kılığına giriyor
  5. Sahte ChatGPT Uzantısı Facebook Hesaplarını Hackliyor



Source link