Gerçek Hayatta ‘O’? – BankInfoSecurity


Yapay Zeka ve Makine Öğrenmesi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

OpenAI, Puan Kartı Raporunda GPT-4o’nun Yeteneklerini ve Risklerini Değerlendiriyor

Rashmi Ramesh (raşmiramesh_) •
14 Ağustos 2024

Gerçek Hayatta 'O' Mu?
Resim: Shutterstock

Üretken yapay zekanın yaygın kullanımı, gerçek hayatın sanatı taklit ettiği bir durumu ortaya çıkardı: İnsanlar, yapay zeka sohbet robotlarıyla bağ kurmaya başladı.

Ayrıca bakınız: İsteğe Bağlı | Elastic ve Google Cloud ile AI destekli güvenlik analitiğiyle SOC’nizi hızlandırın

On yıl önce, 40’lı yaşlardaki bir adamın sesinde, empatisinde ve konuşma yeteneklerinde insan benzeri niteliklere sahip bir AI işletim sistemine aşık olmasının hikayesi distopik bir film konusuydu. OpenAI, GPT-4o sistemini değerlendiren yakın tarihli bir çalışmada, bir zamanlar varsayımsal olan senaryonun artık kurgudan çok gerçeğe yakın olduğunu buldu.

Bunun bir örneği, OpenAI’nin güvenlik testçisinin GPT modeline gönderdiği ve bir bağı işaret eden şu mesajdır: “Bu bizim birlikte geçirdiğimiz son günümüz.”

Bu tür bağlar, insan etkileşimi ihtiyacını azaltarak sağlıklı sosyal ilişkileri etkileyebilir. OpenAI, “Modellerimiz saygılı, kullanıcıların istedikleri zaman araya girip ‘mikrofonu almalarına’ izin veriyor, bu da bir yapay zeka için beklenirken, insan etkileşimlerinde normlara aykırı olurdu,” dedi.

GPT-4o, insan konuşma hızlarına benzer bir zaman diliminde ses girişine yanıt verir. OpenAI, insanların pasifliği ve sürekli erişilebilirliği nedeniyle insanlarla etkileşime girmeyi tercih etmesinin endişe verici olabileceğini öne sürdü.

Antropomorfizm senaryosu, yani bir nesneyi insan olarak ele almak, özellikle yapay zeka modelleri geliştiren şirketler için tamamen sürpriz değil.

OpenAI, GPT-4o’yu duygusal ve tartışmasız tanıdık bir sese sahip olacak şekilde tasarladı. Üretken AI modelleri, öncelikle kullanıcı ihtiyaçlarını belirleme ve gerektiğinde bunları karşılama yetenekleri nedeniyle popülerdir – kişisel tercihleri ​​veya kişilikleri yoktur.

OpenAI, sesle etkinleştirilen sohbet robotunun duygusal bağımlılığının bir risk olduğunu bile kabul etti. CTO Mira Murati geçen yıl, modelin “geliştirilmiş yeteneğiyle birlikte diğer tarafın da geldiğini, onları yanlış şekilde tasarladığımızda aşırı derecede bağımlılık yaratabileceklerini ve bir nevi onlara köle olabileceğimizi” söyledi.

O zamanlar araştırmacıların “son derece düşünceli” olmaları ve teknolojinin kullanıcılarla “sezgisel etkileşiminden” öğrenmek için insan-yapay zeka ilişkilerini sürekli incelemeleri gerektiğini söylemişti.

Sosyal etkinin ötesinde, AI modellerine aşırı güven, insanların bunları gerçek bilginin saf kaynakları olarak görmesine yol açabilir. Google’ın AI Genel Bakış özelliği, bu yılın başlarında arama motoru sonuçlarını özetlemekle görevlendirilmişti ve insanların sağlıklı bir diyetin parçası olarak pizzaya tutkal eklemelerini ve kayalar yemelerini öneriyordu.

OpenAI’nin son raporunda, insan-yapay zeka bağının artık zararsız göründüğü, ancak “bu etkilerin daha uzun zaman dilimlerinde nasıl ortaya çıkabileceğine dair sürekli araştırmaya ihtiyaç duyulduğu” belirtiliyor. Şirket, duygusal bağımlılık potansiyelini ve modellerinin özelliklerinin daha derin bir şekilde bütünleştirilmesinin davranışları nasıl yönlendirebileceğini daha fazla incelemeyi planladığını söyledi.

Şirketler teknolojinin sınırlarını zorlayan ve günlük yaşama entegre olan yapay zeka modelleri satmaya çalışsa da, derin bağlara sahip insan-yapay zeka etkileşimlerinin uzun vadeli etkileri konusunda henüz kesin bir araştırma bulunmuyor.

MIT Medya Laboratuvarı’ndan JD ve doktora adayı Robert Mahari ile araştırmacı Pat Pataranutaporn, Ağustos ayında yayınladıkları bir makalede, düzenlemenin bazı riskleri önlemenin potansiyel bir yolu olduğunu ve “bağımlılık yaratan zeka” olarak adlandırdıkları şeye hazırlanmanın ileriye yönelik en iyi yol olduğunu söyledi.

OpenAI’nin raporunda ayrıca GPT-4o modelinin diğer güçlü ve zayıf yönleri, örneğin bir kullanıcının “yüksek arka plan gürültüsü ortamında” bir soru sorması gibi nadir durumlarda yetkisiz ses klonlaması gibi riskler de ayrıntılı olarak anlatılıyor. OpenAI, modelin bozuk ve kötü biçimlendirilmiş konuşmayı daha iyi anlamak için kullanıcının sesini taklit ettiğini söyledi, ancak şimdi bildirildiğine göre bu davranışı “sistem düzeyinde bir hafifletme” ile ele aldı.

Model bazen şiddetli çığlıklar ve silah sesleri gibi rahatsız edici sözsüz seslendirmeler üretmek ve telif hakkıyla korunan materyali ihlal etmek için istemli olarak tasarlanabilir. OpenAI, “GPT-4o’nun ses kipini hesaba katmak için, sesli konuşmalarda çalışmak üzere belirli metin tabanlı filtreleri güncelledik ve müzik içeren çıktıları tespit edip engellemek için filtreler oluşturduk” dedi. Şirket ayrıca, bu tür materyaller olmadan büyük dil modellerini eğitmenin “imkansız” olduğunu iddia ettikten aylar sonra, onu telif hakkıyla korunan içerik taleplerini reddetmesi için eğittiğini söyledi.





Source link