Europol, polisleri kötü niyetli AI suistimaline hazırlanmaları konusunda uyardı


Avrupa Birliği Kolluk Kuvvetleri Teşkilatı veya Europol, büyük dil modellerinin (LLM’ler) – ChatGPT gibi ürünlerin temelini oluşturan yapay zeka (AI) modellerinin olumlu ve olumsuz etkilerine karşı yasa uygulama camiasına hazırlanması gereken bir dizi tavsiyede bulundu. bu süreç, manipüle etme ve metin oluşturma – suç ortamına sahip olacak.

raporda ChatGPT – büyük dil modellerinin kolluk kuvvetleri üzerindeki etkisiEuropol’ün İnovasyon Laboratuvarı, yalnızca siber suçluların değil, suçluların da işlerinde LLM’leri nasıl kötüye kullanabileceklerini ve LLM’lerin gelecekte müfettişlere nasıl yardımcı olabileceğini keşfetmek için bir dizi çalıştayın ve uzman kriminologların bulgularını derledi.

Europol, “Bu raporun amacı, LLM’lerin olası kötüye kullanımı hakkında farkındalık yaratmak, AI şirketleriyle daha iyi koruma önlemleri oluşturmalarına yardımcı olmak için bir diyalog başlatmak ve güvenli ve güvenilir AI sistemlerinin geliştirilmesini teşvik etmektir” dedi.

Europol araştırmacıları, LLM’lerin ve AI’ların suçlular tarafından potansiyel olarak sömürülmesine ilişkin görünümü “acımasız” olarak tanımladılar. Teknolojiyi araştıran diğer araştırmacılarla ortak olarak, üç önemli endişe alanı buldular:

  1. LLM’lerin dil kalıplarını yeniden üretme ve belirli bireylerin veya grupların stilini taklit etme yeteneği, ikna edici kimlik avı tuzakları oluşturmak için ölçekte son derece gerçekçi metinler yazabileceği anlamına gelir.
  2. LLM’lerin gerçek görünen metinleri hız ve ölçekte üretme yeteneği, onu propaganda ve dezenformasyon yaratmak için sömürü için çok uygun hale getirir.
  3. LLM’lerin farklı programlamalarda potansiyel olarak kullanılabilir kod üretme yeteneği, siber suçlular için yeni kötü amaçlı yazılımlar ve fidye yazılımı dolapları oluşturmada bir araç olarak kullanmayı potansiyel olarak ilgi çekici kılmaktadır. Siber güvenlik camiasının bu etkiyi bu noktada biraz daha uzun vadeli olarak değerlendirdiğini unutmayın, ancak bu durum teknoloji geliştikçe değişebilir.

Europol, LLM’lerin etkisine daha iyi hazırlanmak için kolluk kuvvetleri profesyonellerinin düşüncelerine dahil etmeleri için bir dizi tavsiyede bulundu:

  • Zarar verme potansiyeli göz önüne alındığında, ajansların suç amaçlı kullanıma yönelik olası boşlukların bulunmasını ve kapatılmasını sağlamak için sorunlar hakkında farkındalık yaratmaya başlaması gerekir;
  • Ajansların ayrıca, farklı AI kötüye kullanım türlerini tahmin etmek, önlemek ve araştırmak için LLM’lerin yalnızca dijital olarak etkinleştirilen suçlar değil, potansiyel olarak etkilenen tüm suç alanları üzerindeki etkisini anlamaları gerekir;
  • Ayrıca LLM’lerden en iyi şekilde yararlanmak için gerekli kurum içi becerileri geliştirmeye başlamalılar – bu tür sistemlerin bilgi oluşturmak, mevcut uzmanlığı genişletmek ve gerekli yanıtı elde etmek için nasıl yararlı bir şekilde kullanılabileceğini anlamak. Hizmet veren polis memurlarının, LLM’ler tarafından üretilen içeriğin doğruluk ve önyargı açısından nasıl değerlendirileceği konusunda eğitilmesi gerekecektir;
  • Ajanslar, LLM özellikli teknolojilerin geliştirilmesi sırasında güvenlik mekanizmalarının dikkate alındığından ve sürekli bir iyileştirme sürecine tabi olduğundan emin olmak için dış paydaşlarla, yani teknoloji sektörüyle de ilişki kurmalıdır;
  • Son olarak, ajanslar ayrıca kendi ellerinde bulundurdukları veriler üzerinde eğitilen özelleştirilmiş, özel LLM’lerin olanaklarını keşfetmek isteyebilirler, bu da daha özel ve özel kullanım durumlarına yol açar. Bu, kapsamlı bir etik değerlendirme gerektirecek ve hizmet veren polis memurlarının LLM’leri kendilerinin kötüye kullanmasını önlemek için yeni süreçlerin ve önlemlerin benimsenmesi gerekecektir.

MyCena Security Solutions’ın CEO’su Julia O’Toole şunları söyledi: “Europol’ün bu yeni raporu, kuruluşları ve tüketicileri ChatGPT ile ilgili riskler hakkında uyarması şaşırtıcı değil, çünkü araç kimlik avı dünyasını tamamen reform yapma potansiyeline sahip. kötu adamlar.

“Suçlular ChatGPT kullandığında dil veya kültür engeli yoktur. Uygulamayı olağanüstü bir hızla kuruluşlar, katıldıkları etkinlikler, birlikte çalıştıkları şirketler hakkında bilgi toplamaya yönlendirebilirler.

“Daha sonra, ChatGPT’den bu bilgileri son derece güvenilir dolandırıcılık e-postaları yazmak için kullanmasını isteyebilirler. Hedef, ‘görünen’ bankasından, CEO’sundan veya tedarikçisinden bir e-posta aldığında, e-postanın sahte olduğuna dair herhangi bir dil belirtisi yoktur.

“Banka havalesini gerçekleştirmenin tonu, içeriği ve nedeni, e-postanın bir aldatmaca olduğunu düşündürecek hiçbir kanıt sağlamıyor. Bu, ChatGPT tarafından oluşturulan kimlik avı e-postalarını tespit etmeyi çok zor ve tehlikeli hale getiriyor” diye ekledi.



Source link