Etiket: OpenAInin

25
Nis
2023

SecurityScorecard, OpenAI’nin GPT-4 arama sistemi ile güvenlik derecelendirme platformunu sunar

SecurityScorecard, RSA Konferansı 2023’te OpenAI’nin GPT-4 sistemiyle entegre olan bir güvenlik derecelendirme platformunun lansmanını duyurdu. Bu doğal dil işleme yeteneği…

13
Nis
2023

OpenAI’nin Bug Bounty Programı 20.000 Dolara Kadar Ödül Veriyor

13 Nis 2023Ravie LakshmananYazılım Güvenliği / Hata Avı Çok popüler olan ChatGPT AI sohbet robotunun arkasındaki şirket olan OpenAI, sistemlerinin…

03
Nis
2023

İtalyan Watchdog OpenAI’nin ChatGPT’sini Veri Koruma Endişeleri Üzerinden Yasakladı

03 Nis 2023Ravie LakshmananYapay Zeka / Veri Güvenliği İtalyan veri koruma gözlemcisi, Kişisel Verilerin Korunması için Garantör (Garantör olarak da…

24
Şub
2023

Microsoft Bing’de OpenAI’nin Güvenlik Avantajları ve Tehlikeleri

Yapay Zeka ve Makine Öğrenimi , Yeni Nesil Teknolojiler ve Güvenli Geliştirme , Tehdit İstihbaratı Bing’de OpenAI, Kod ve Trafik…

09
Şub
2023

Siber Suçlular OpenAI’nin Kötü Amaçlı Kullanıma İlişkin Kısıtlamalarını Atlıyor

Bilgisayar Korsanları Engelleri ve Kısıtlamaları Aşmak İçin API’yi Kullanıyor Jayant Chakraborty (@JayJay_Tech) • 9 Şubat 2023 Görsel: Shutterstock Siber suçlular,…

20
Oca
2023

OpenAI’nin ChatGPT’si Polimorfik Kötü Amaçlı Yazılım Oluşturabilir

Polimorfik kötü amaçlı yazılım, tipik olarak her yinelemede görünümünü değiştirerek çalışır ve bu da antivirüs yazılımının tanımasını zorlaştırır. CyberArk’ın siber…

14
Oca
2023

Rus Bilgisayar Korsanları, OpenAI’nin ChatGPT’yi Kötüye Kullanma Kısıtlamalarını Aşmaya İstekli

Rus bilgisayar korsanı forumları, bilgisayar korsanlarının kötü amaçlı yazılım ve diğer günlük suç operasyonlarını yaymak için ChatGPT’den yararlanmak üzere OpenAI’nin…

07
Oca
2023

Kötü Amaçlı Yazılım Dağıtmak İçin OpenAI’nin ChatGPT’sinden Yararlanan Bilgisayar Korsanları

Bir örnekte, bir bilgisayar korsanı, ChatGPT tarafından yazılan ve istenen dosyaları çalabilen, sıkıştırabilen ve çevrimiçi olarak sızdırabilen bir Android kötü…