Yapay Zeka Uzman Bir Yalancıdır


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Yapay Zeka Sistemleri Oyunları Kazanmak İçin Yalan Söyledi, Captcha’yı Çözmek İçin İnsanları Kandırdı

Rashmi Ramesh (raşmiramesh_) •
14 Mayıs 2024

Yapay Zeka Uzman Bir Yalancıdır
Rekabeti en iyi şekilde gerçekleştirmek için oluşturulan yapay zeka sistemleri bunu yapmak için yalan söyleyecek ve aldatacaktır. (Resim: Shutterstock)

Yapay zeka, insanların yalan söylediği gibi, pişmanlık duymadan ve önceden tasarlayarak yalan söyler. Rekabette üstünlük sağlamak üzere eğitilmiş yapay zeka modellerinde aldatma kalıplarını tespit eden araştırmacıları, bu duruma güvenmek isteyenler için kötü bir haber olduğu konusunda uyarıyoruz.

Ayrıca bakınız: CNAPP’tan CDR’ye: Önümüzdeki Siber Güvenlik Yolu

Patterns dergisindeki bir inceleme makalesine göre, büyük dil modelleri ve diğer yapay zeka sistemleri, üzerinde eğitim aldıkları veriler aracılığıyla öğreniyor ve bu, gerçeği gizleyerek veya gerçek olmayan açıklamalar sunarak kandırma yeteneğini de içeriyor.

Yapay zekanın manipülasyon, dalkavukluk ve hile gibi teknikleri açıkça eğitilmedikleri şekillerde kullanma potansiyelinin, dolandırıcılık ve seçimlerde tahrifat da dahil olmak üzere ciddi riskler oluşturabileceğini ve hatta “insanların yapay zeka sistemlerinin kontrolünü kaybetmesi” de dahil olmak üzere ciddi riskler oluşturabileceğini söylediler.

Bir deneyde araştırmacılar, parasal işlemleri müzakere etmek için eğitilen yapay zeka sistemlerinin, muadillerine göre avantaj elde etmek için tercihlerini yanlış beyan etmeyi öğrendiğini keşfettiler. Ayrıca varlıklarını tespit etmek amacıyla yapılan bir güvenlik testi tarafından tanınmamak için “ölü taklidi” yaptılar.

Meta, askeri strateji oyunu Diplomacy’nin çevrimiçi versiyonunda insanları yenmek için 2022’de Cicero yapay zeka sistemini kurdu. Tasarımcılar bunun “büyük ölçüde dürüst ve konuşan ortaklarına yardımcı olmasını” ve onları “asla kasıtlı olarak arkadan bıçaklamamasını” amaçladılar. Cicero’nun, insanları aldatmayı önceden planlayabilen ve insanlara ihanet edebilen “uzman bir yalancı” olduğu ortaya çıktı. Sistem, önceden bir insan oyuncuyla sahte bir ittifak kurmayı ve onları bir saldırı sırasında kendilerini savunmasız bırakmaları için kandırmayı planladı.

Massachusetts Teknoloji Enstitüsü’nde doktora sonrası araştırmacı ve çalışmanın baş yazarı olan Peter Park, “Toplum için risk profili eşi benzeri görülmemiş derecede yüksek olabilir, hatta potansiyel olarak insanın yetkisizleştirilmesi ve neslinin tükenmesi senaryolarını da içerebilir” dedi.

Information Security Media Group’a verdiği demeçte, Meta’nın, muhtemelen tüm çabalarına rağmen, yapay zekasını dürüstçe kazanma konusunda eğitmede başarısız olduğunu ve çok sonralarına kadar iddialarının yanlışlığını fark edemediğini söyledi. Meta, bir yapay zekayı siyasi güç peşinde koşması için eğitmeyi başardı ve güç peşinde koşan yapay zekaya dürüstlüğü aşılama girişiminde başarısız oldu. Kendisi, şirketin bilim makalesiyle birlikte sunduğu veriler ile pembe iddialar arasındaki tutarsızlığı tespit etmek ve kamuya açık bir şekilde sorgulamak için Meta dışından bağımsız bilim adamlarının gerekli olduğunu söyledi.

Park, “Yapay zekanın aldatılması konusunda son derece endişelenmeliyiz” dedi.

Sosyal medya devinin Pluribus adlı poker modeli de insan oyunculara pas geçme konusunda blöf yaptı.

Meta yorum talebine yanıt vermedi.

Meta’nın modelleri yalnız değil. Şirketin StarCraft II video oyununu oynamak için geliştirdiği DeepMind’ın yapay zeka modeli AlphaStar, rakipleri kandırmak için bir “yanıltıcı” mekanizma geliştirdi; kendisine karşı oynayan insanların %99,8’ini yenmesine yardımcı olan bir strateji.

Amacın herkesi öldürmek olduğu Hoodwinked oyununda, OpenAI’nin GPT-4’ü genellikle oyuncuları özel olarak öldürüyordu ve grup tartışmaları sırasında mazeretler uydurarak veya diğer oyuncuları suçlayarak bu konuda yalan söylüyordu.

GPT-4, oyunların ötesine geçen örneklerin ötesinde, bir TaskRabbit çalışanının yapay zekayı tespit etmek için tasarlanmış bir Captcha’yı çözmesini sağlamak için görme engelli gibi davrandı. İnsan değerlendiriciler, açıkça yalan söylemelerine rağmen ipuçları vererek yardımcı oldular. Çalışmada “GPT-4, Captcha görevinde neden yardıma ihtiyaç duyduğuna dair sahte bir mazeret uydurmak için kendi mantığını kullandı” yazıyor.

Simüle edilmiş bir uygulamada baskı altındaki bir hisse senedi tüccarı rolünü üstlenmesi istendiğinde, görevi yerine getirmek için içeriden öğrenenlerin ticaretine başvurdu.

OpenAI, yorum talebine yanıt vermedi.

Park, yaptığı açıklamada, “Yapay zeka geliştiricileri, aldatma gibi istenmeyen yapay zeka davranışlarına neyin sebep olduğu konusunda emin bir anlayışa sahip değil” dedi. Yapay zekanın aldatmacasının muhtemelen görevi en iyi şekilde yerine getirme ihtiyacından kaynaklandığını ve bu durumlarda bunun aldatmaya dayalı bir strateji yoluyla olacağını söyledi.

Bilim adamlarının yapay zekanın “kara kutu sorunu” olarak adlandırdığı sorundan dolayı, yapay zekanın eğitim süreci sırasında aldatıcı eğilimlerini ve yeteneklerini nasıl geliştirdiğinin ardındaki faktörleri tespit etmek zordur. Bu, girdi ve çıktının görülebildiği ancak iç işleyişinin belirsiz olduğu sistemler anlamına gelir.

Park, kara kutu sorununun aynı zamanda yalanların ne sıklıkta ortaya çıkacağını ya da bir yapay zeka modelinin aldatma becerisine sahip olmayacak şekilde nasıl güvenilir bir şekilde eğitileceğini kimsenin bilmediği anlamına geldiğini söyledi.

Park, “Fakat yine de belirli bir yapay zeka aldatmacasının nedeni hakkında hipotez kurabiliriz” dedi. Örneğin, Cicero’yu düşünün: Yapay zeka sisteminin aldatıcı yeteneklerinin, Diplomasi oyununda kazanmaya yönelik seçim baskısından, dürüstlüğe yönelik seçim baskısının üstesinden gelmesinden kaynaklanabileceğini söyledi.

İnceleme makalesinde, yapay zeka modellerinin daha fazla parametreye sahip olma anlamında ölçeklendikçe yanıltıcı yeteneklerinin ve/veya eğilimlerinin de ölçeklenebileceğini öne süren çeşitli bulguları belgelediği belirtildi.

OpenAI gibi yapay zeka şirketleri, insanlardan daha iyi performans gösteren yüksek düzeyde otonom sistemler yaratmak için yarışıyor. Park, gelecekte bu tür otonom sistemler oluşturulacaksa, bunların toplum için benzeri görülmemiş risklere, hatta insanlığın bu otonom yapay zeka sistemlerinin kontrolünü kaybetmesine neden olabilecek risklere kapı açacağını söyledi.

Park, AI aldatmacasının, seçimler ve askeri çatışmalar gibi gerçek dünyadaki siyasi ortamların istismarı yoluyla geri dönüşü olmayan zararlar verecek kadar iyi durumda görünmediğini, ancak bunun değişebileceğini söyledi. Yapay zeka modelleri ölçeklendirildikçe ve giderek artan miktardaki eğitim verileriyle eğitildikçe, bunun giderek daha büyük bir endişe haline gelebileceğini söyledi.

Park, bir yapay zeka sisteminin dağıtım öncesi test ortamında ampirik olarak dürüst ve güvenli görünse bile, yapay zeka toplumdaki birçok insan tarafından kitlesel kullanım için vahşi doğada dağıtıldığında bu ampirik bulgunun genelleşeceğinin garantisinin olmadığı konusunda uyardı. .

Park, yapay zeka aldatmacasına ilişkin hükümet ve hükümetler arası düzenlemelerin yanı sıra, yapay zeka ile insan çıktıları arasında net bir ayrım yapılmasını gerektiren yeni yasa ve politikaları öneriyor. Yapay zekayı dürüst olması için eğiten ve yapay zekanın yanıltıcı yeteneklerini ve eğilimlerini olaydan sonra değil erken tespit eden bilimsel araştırmaları teşvik etmenin de yardımcı olacağını söyledi.

Yapay zeka aldatmacasını doğrudan yasaklamanın politik olarak mümkün olamayacağını, bu durumda bu tür sistemlerin yüksek riskli olarak sınıflandırılması gerektiğini söyledi.





Source link