Son yıllarda, Çin’den gelen hack gruplarının ve tehdit aktörlerinin batı rakiplerini siber saldırılarla sürekli olarak hedefledikleri rahatsız edici bir eğilim gözlemledik. Bu saldırılar, ister politik ister ekonomik olarak motive olsun, genellikle hükümet veya askeri istihbarat desteği ile bağlantılıdır. Ancak durum şimdi biraz beklenmedik bir dönüş yaptı, ancak Çinli hackerlar için büyük ölçüde avantajlı.
Kontrol noktasından yapılan araştırmaya göre, siber suçlular artık fidye yazılımı gibi sofistike kötü amaçlı yazılımlar oluşturmak ve kimlik avı saldırıları yapmak için büyük dil modelleri (LLMS) gibi gelişmiş araçlardan yararlanıyor. Özellikle endişe verici olan şey, bu bilgisayar korsanlarının çoğunun, her ikisi de kötü niyetli aktörler arasında iyilik kazanan Alibaba Qwen LLM ve Deepseek AI gibi medya ilgisi almayan daha az bilinen araçlara yönelmesidir.
Bu acil bir soruyu gündeme getiriyor: Bu tür zararlı faaliyetlerde LLM’lerin yetkisiz kullanımını önlemek için yasal bir çerçeve var mı?
Ne yazık ki, şu anda, özellikle coğrafi sınırlamalar söz konusu olduğunda, bu gibi AI araçlarının yetkisiz kullanımını ele alan belirli bir yasa yoktur. Küresel olarak koordine edilmiş bir yaklaşımın olmaması, şirketler veya geliştiriciler bir yargı alanında köşeye sıkıştırılırsa, operasyonlarını daha yumuşak düzenlemelere sahip olabilecek başka bir bölgeye veya ülkeye taşıyabilecekleri anlamına gelir. Bu, AI’nın kötü niyetli amaçlar için kötüye kullanılmasını önleme yeteneğinde önemli bir boşluk bırakır.
Peki, bu tür kötüye kullanımı önlemek için kim sorumluluk almalı?
Onus, bu güçlü araçları yaratan ve kontrol eden geliştiricilere ve işletmelere düşüyor. Kötüye kullanım potansiyelini engellemek için şirketler, LLM’lerin açık kaynaklı doğasını yeniden gözden geçirmelidir. Erişim kısıtlayarak ve bu araçları yalnızca resmi oturum açma veya doğrulanmış platformlar aracılığıyla kullanılabilir hale getirerek, bu modellerin nasıl kullanıldığını izlemek ve izlemek ve kötü niyetli faaliyetleri tanımlamak mümkün olur. Bu tür kısıtlamalar daha fazla hesap verebilirlik sağlayacak ve kötüye kullanıldığında bu ileri teknolojilerin neden olduğu hasarı en aza indirmeye yardımcı olacaktır.
Bu bağlamda, Başkan Xi Jinping liderliğindeki Çin hükümeti, LLM’lerinin kullanımını düzenlemede daha proaktif bir duruş almalıdır. Bu modellerin kötü amaçlı yazılım geliştirmek veya kimlik avı planlarına katılmak için sömürülmesini önlemek için katı önlemler vermelidir. Bu tür güvenceler olmadan, küresel güvenlik ihlalleri ve siber suç riskleri artmaya devam edecektir.
Alternatif olarak, Çin AI platformlarının kullanımını etkili bir şekilde düzenleyemezse, uluslararası toplum daha güçlü bir tavır almalıdır. Potansiyel bir hareket tarzı, siber suçları kolaylaştıran AI platformlarına yasaklar olabilir. Aslında, bu zaten bazı AI teknolojilerinde oluyor.
Örneğin, Deepseek AI, Teksas, Tayvan ve Hindistan da dahil olmak üzere birçok ülkede yasaklandı. Buna ek olarak, İtalya, Fransa, Avrupa Birliği ve Avustralya gibi ülkelerdeki finans yetkilileri, zarar verme potansiyellerini engellemek için bu platformların kullanımına kısıtlamalar uygulayarak davayı takip ettiler.
Kötü niyetli AI araçlarını yasaklamanın bu artan eğilimi bir uyarı olarak hizmet etmelidir. Uluslararası topluluk, AI teknolojisinin siber suç ve kötü niyetli faaliyetleri beslemek için değil, toplumun yararına kullanılmasını sağlamak için bir araya gelmelidir. Eğer geliştiriciler ve hükümetler sorumluluk almazlarsa, dünya AI’nın kötüye kullanılmasından daha da büyük tehditlerle karşılaşabilir.
Reklam
LinkedIn grubumuz “Bilgi Güvenliği Topluluğu” nda 500.000’den fazla siber güvenlik uzmanına katılın!