Openai, bir grup Çinli hacker’a bağlı hesapları yasaklayarak chatgpt modellerinin kötüye kullanılmasını durdurmak için kararlı bir eylemde bulundu.
Bu hareket, Openai’nin yapay genel zeka herkese fayda sağlama temel amacını yansıtır. Açık kurallar belirleyerek ve politika ihlallerine hızlı bir şekilde hareket ederek Openai, AI araçlarını meşru kullanıcılar için güvenli ve erişilebilir tutmayı umuyor.
Şubat 2024’te kamu tehdidi raporlamasının başlatılmasından bu yana Openai, hizmetlerini kötüye kullanan 40’tan fazla ağ izledi ve parçaladı.
Son üç aylık güncellemesinde şirket, Çin’de kötü amaçlı yazılım kodunu yazmak ve geliştirmek için ChatGPT kullanan bir hacker hücresi belirlediğini açıkladı.
Bu bilgisayar korsanları, AI önerilerini saldırılarını hızlandırmak için eski istismar yöntemleriyle birleştirdi. Openai’nin tehdit istihbarat ekibi, olağandışı sorgu kalıplarını ve kötü niyetli yükler hakkında tekrarlanan istemleri tespit etti.


Hesaplar açık politika ihlalleri gösterdiğinde, ekip onları yasakladı ve daha fazla erişimi başardı.
Rapor, kötü niyetli aktörlerin tamamen yenilerini icat etmek yerine genellikle eski taktikleri uyarladığını vurguluyor.
Geçtiğimiz çeyrekte, çoğu tehdit AI destekli kimlik avı senaryoları, otomatik sosyal mühendislik istemleri ve kaçınma tespiti için kod içeriyordu.
Bu vaka çalışmalarını belgeleyerek Openai, tehdit gruplarının AI’yi mevcut oyun kitaplarına nasıl cıvataladığını, hız için yenilikçilik yapmayı göstermeyi amaçlamaktadır.
Engellenen Çin hücresi bu tür birçok örnek arasında birini temsil eder, ancak maruz kalması güçlü bir uyarı gönderir, AI’yi kötüye kullanma hızlı, şeffaf karşı önlemleri tetikler.
Openai, kötüye kullanımı tespit etmek için sinyallerin, insan incelemesinin ve model davranış analizinin bir karışımına dayanır.
Otomatik Sistemler, gizlenmiş kabuk kodu oluşturmak için tekrarlanan denemeler veya kullanıcı onayı olmadan dosyaları şifrelemek için talimatlar gibi şüpheli etkinlikleri işaretleyin.
Ateş tetiklediğinde, eğitimli bir ekip konuşma günlüklerini gözden geçirir ve kötü niyetli niyet arar. Bir ihlal onayladığında, hesaplar hemen devre dışı bırakılır.
Bu olaylardan elde edilen temel bilgiler, siber güvenlik ortakları ve kolluk kuvvetleri ile paylaşılır ve daha geniş savunma çabalarına yardımcı olur.
Şeffaflık bu yaklaşımın temel taşını oluşturur. Her çeyreğin tehdit raporu, kötü aktörler tarafından kullanılan yöntemleri özetler ve ortaya çıkan eğilimleri vurgular.
Openai ayrıca bilgiyi bir araya getirmek ve savunmaları güçlendirmek için diğer AI geliştiricileri, güvenlik firmaları ve akademik araştırmacılarla işbirliği yapar.
Bu açık duruş, daha geniş topluluğun gelişen tehditlerin önünde kalmasına ve model güvenliği etrafında en iyi uygulamaları güçlendirmesine yardımcı olur.
AI tehdit manzarasını şekillendirmeye devam ettikçe, Openai’nin eylemleri proaktif politikaların ve açık raporlamanın zararı nasıl sınırlayabileceğini göstermektedir.
Openai, Çinli bilgisayar korsanlarına ve diğer kötü aktörlere bağlı hesapları ortaya çıkararak ve engelleyerek güvenli, sorumlu AI’ya olan bağlılığını güçlendirir.
Anında güncellemeler almak ve GBH’yi Google’da tercih edilen bir kaynak olarak ayarlamak için bizi Google News, LinkedIn ve X’te takip edin.