Şiddet içeren Chatgpt Halüsinasyon GDPR şikayetini kıvılcımlar


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Norveçli adam Openai’ye söyler: Çocuklarımı öldürmedim

Akhabokan Akan (Athokan_akhsha) •
20 Mart 2025

Şiddet içeren Chatgpt Halüsinasyon GDPR şikayetini kıvılcımlar
Norveç kırsalında huzurlu göletin kıyı manzarası. (Resim: Shutterstock)

Norveçli bir adam, bir chatbot’un, Chatgpt’in görünüşe göre hapishanede onlarca yıl geçirdiği bir çocuk katil olduğuna inandığını gördükten sonra hayatı için şiddetli bir arka planı halüsinasyona uğrattığını terk etti.

Ayrıca bakınız: Temel Endpoint Güvenlik Alıcının Kılavuzu

Adam, Arve Hjalmar Holmen, Chatgpt’i kendisi hakkında bilgi için istedi. Herkesin bildiği kadarıyla bir katil olmayan Holmen, Aralık 2020’de küçük çocuklarından ikisini “bir gölete” attığını ve üçte birini öldürmeye çalıştığını iddia eden bir yanıt gördü.

Avusturya Veri Hakları Grubu tarafından yapılan bir şikayet, Norveçli veri düzenleyicisi Datatilsynet’e Holmen adına Noyb, Chatgpt Maker Openai’yi Avrupa Gizlilik Yasası’nı ihlal etmekle suçluyor.

Şikayet, halüsinasyonlu yanıtın doğru olarak alınabileceği bir tehlike olduğu gerçeğinin yeterince unsuruna sahipti. Halüsinasyonlu hikayenin iddia ettiği gibi, Holmen gerçekten Trondheim’da yaşıyor, gerçekten üç çocuğu var ve oğullarının ikisi Chatgpt’in söyledikleriyle kabaca aynı üç yaş boşluğuna sahip.

Holmen, “Bazıları ateşsiz duman olmadığını düşünüyor – birisinin bu çıktıyı okuyabilmesi ve bunun doğru olduğuna inanabileceği gerçeği beni en çok korkutuyor.” Dedi.

Büyük dil modellerinin operatörleri, modellerin halka sunulmasından bu yana makul ama yanlış yanıtlar sorunu ile boğuştu. Son örnekler arasında, hayvan uygun bir dini ise ve peynir peynirine peynir yapıştırma yapıştırıcısının uygulanmasını önermek için hayvan işkabesinin koşer olabileceğini iddia etmek için AI kullanma Google’ı içerir. Sorun nihayetinde model çıktısı üretmek için kullanılan olasılıksal modellemenin karıştırılamaz bir yan etkisi olabilir (bkz:: AI halüsinasyonlarının inatçı problemi).

NOYB, genel veri koruma düzenlemesinin GDPR’nin kişisel verilerin doğru olması gerektiği açık olduğunu söylüyor. Bir gizlilik savunuculuk organizasyonunda veri koruma avukatı Joakim Söderberg, “Değilse, kullanıcıların gerçeği yansıtacak şekilde değiştirme hakkı var.” Dedi. Chatgpt, bir feragatname taşır kullanıcıları, hatalar yapabilir ve “önemli bilgileri kontrol edebilir”. Ancak “chatgpt kullanıcılarına chatbot’un hatalar yapabileceği küçük bir feragatname göstermek yeterli değildir. Sadece yanlış bilgi yayamazsınız ve sonunda söylediğiniz her şeyin doğru olmayabileceğini söyleyen küçük bir feragat eklersiniz” dedi Söderberg.

Şikayetinde Noyb, Openai’nin Holmen ile ilgili istemlerle ilgili halüsinasyonlarla ilgili sorunları düzelttiğini, ancak bir Trondheim Pond-Filiticide Frenzy hakkındaki halüsinasyonlu hikayenin hala uygulamanın veri kümesinin bir parçası olabileceğini söyledi.

Noyb, Datatilsynet’i Openai’ye modellerine ince ayar yapmasını ve iftira çıktılarını silmesini, şirket tarafından kişisel verilerin işlenmesini kısıtlamasını ve GDPR’yi ihlal ettiği için Openai’ye karşı para cezası vermesini istedi.

NOYB geçen yıl Avusturya Veri Gizlilik Regülatörü ile Chatgpt halüsinasyonlarına karşı benzer bir şikayette bulundu. Organizasyon, chatgpt’in doğum tarihini yanlış bir şekilde çıkardığı ve doğumunun gerçek tarihi halka bir sır olarak ortaya çıkardığı için üzücü tuttu. Bir NOYB sözcüsü, davaya bir soruşturma sürecinin devam ettiğini söyledi.

Openai, veri işleme uygulamaları hakkında Fransa, İtalya ve İspanya’da ayrı problarla karşı karşıya. Avrupa veri düzenleyicileri, şirketin hurdaya çıkarılmasından elde edilen kişisel verilerin GDPR’ye uygun olup olmadığını araştırıyor (bakınız: İtalyan düzenleyicisi yine Openai’de gizlilik sorunları buluyor).

Openai, en son şikayet hakkında bilgi arayan bir talebe yanıt vermedi.





Source link