OpenAI Hassas Yapay Zeka Araştırmasının Hacklenmesi Konusunda Sessiz Kaldı


Nisan 2023’te bilgisayar korsanlarının hassas yapay zeka projeleriyle ilgili tartışmalara erişmesinin ardından, güvenlik ihlali yapay zeka araştırma firması OpenAI’daki dahili sırları ifşa etmiş olabilir. OpenAI saldırısı ve bunun kapsamlı etkileri hakkında daha fazla bilgi edinin.

Yapay zeka (AI) alanında lider bir araştırma şirketi olan San Francisco merkezli OpenAI’da bir güvenlik ihlali meydana geldi. SohbetGPT Chatbot’un ana şirketi olan Chatbot, ABD ulusal güvenliği ve gelişmiş yapay zeka teknolojisinin potansiyel kötüye kullanımı konusunda endişelere yol açtı.

Birine göre rapor New York Times’ın (NYT) haberine göre, geçen yılın başlarında bilgisayar korsanları, OpenAI çalışanları tarafından kullanılan ve hassas yapay zeka araştırma ve geliştirme projeleriyle ilgili tartışmaların yer aldığı bildirilen dahili mesajlaşma sistemine yetkisiz erişim sağladı.

Bilgisayar korsanı hassas bilgileri çaldı OpenAI teknolojileri çalışanların şirketin en son teknolojilerini tartıştığı bir çevrimiçi forumu hedef alarak. Ancak, müşteri veya ortak verileri çalınmadı ve bilgisayar korsanı ayrıca “şirketin yapay zekasını barındırdığı ve inşa ettiği” sistemlere erişemedi, NYT açıkladı.

OpenAI yöneticileri bu olayı Nisan 2023’te tüm çalışanların katıldığı bir toplantıda çalışanlara ve yönetim kuruluna açıkladılar ancak bunu kamuoyuna açıklamadılar; bu hareket çalışanları tarafından eleştirildi. OpenAI’nin teknik program yöneticisi Leopold Aschenbrenner şirketin güvenlik önlemleri konusunda şüpheler uyandırdı.

Yönetim kuruluna gönderilen bir yazıda Aschenbrenner, şirketin yabancı düşmanları, özellikle de Çin Hükumetisırlarının çalınmasını önledi.

OpenAI, Aschenbrenner’in bilgi sızdırdığı gerekçesiyle görevinden alındığını, bunun siyasi amaçlı bir hareket olduğunu düşündüğünü belirtirken, şirket bunun Aschenbrenner’in açıklamasıyla ilgisi olmadığını ve dijital güvenlik altyapılarına ilişkin değerlendirmesine katılmadığını iddia ediyor.

Şirketin sözcüsü Liz Bourgeois, Leopold’un taahhütlerini paylaşırken, güvenli AI oluşturmaŞirketin güvenliğiyle ilgili iddialarına, özellikle de yönetim kuruluna katılmadan önce ele alınan bir olaya katılmıyorlar.

OpenAI, olayı ulusal güvenlik tehdidi olarak değerlendirmediğini ve saldırganın özel bir kişi olduğuna inandığı ve yabancı bir hükümetin olaya dahil olduğundan şüphelenmediği için federal kolluk kuvvetlerine bilgi vermediğini belirtiyor.

Bu olay, Çin’in yapay zeka teknolojisini çalması da dahil olmak üzere ABD ulusal güvenliğine yönelik olası yabancı tehditler konusunda endişelere yol açtı. OpenAI’nin güvenlik önlemlerive yapay zeka risklerine ilişkin iç sorunları ortaya koyuyor.

AI endüstrisi için bir uyarı niteliğindedir ve şirketler, hükümetler ve halk arasında AI gelişimi için etkili güvenlik önlemleri ve etik kurallar geliştirmek üzere iş birliğini teşvik eder. Güvenliği sağlamak için şirketler siber güvenliği iyileştirmeli, güçlü önlemler uygulamalı ve bir güvenlik farkındalığı kültürü oluşturmalıdır.

  1. Çin’in Baidu’su ChatGPT Rakibi Ernie Bot’u Tanıttı
  2. ChatGPT Eklentileri Güvenlik Açıkları Kullanıcı Verilerini Riske Attı
  3. Hacklenen ChatGPT Kimlik Bilgilerinin Büyük Satışı Keşfedildi
  4. Binlerce Dark Web Gönderisi ChatGPT Kötüye Kullanım Planlarını Açığa Çıkarıyor
  5. WormGPT’den sonra, AI Destekli Siber Suçlar İçin FraudGPT Ortaya Çıktı





Source link