Güvenlik savunuculuğu grubu The Dawn Project, yapay zeka (YZ) sistemlerinin başarısızlıklarını ve neden güvenliğin kritik olduğu kullanım durumlarında kullanılmaması gerektiğini göstermek için kampanyasını hızlandırdı.
Dawn Projesi, su sistemleri ve elektrik şebekesi gibi güvenlik açısından kritik uygulamalarda kolayca hacklenebilen, hatalarla dolu ticari düzeydeki yazılımların kullanımından kaynaklanan “felaket niteliğinde siber saldırı” tehlikesine ilişkin farkındalığı artırmak için kampanya yürütüyor.
Grup, web sitesinde, AI sistemlerindeki bariz kusurlara rağmen, örneğin chatbot’ların hala temel soruları yanıtlayamaması veya eğitim girdisinin yanlış anlaşılmasına dayanarak gerçekleri yeniden yazması gibi, AI “öncülerinin” bu sistemlerin kaydettiği ilerlemeyi abartmaya devam ettiğini belirtti. The Dawn Project’e göre bu ilerleme, AI geliştiricilerinin artık AI sistemlerini dünyanın dört bir yanındaki büyük altyapılara dağıtmaya hazır olduğunu gösteriyor.
Grup, “Yapay zeka sistemleri potansiyel olarak yıkıcı etkiye sahip büyük teknolojilerde kullanıldığında, hiçbir zaman güvenlik açısından kritik bir olayda başarısız olmamaları çok önemlidir” dedi. “Bu teknolojilerin silahlar veya arabalar da dahil olmak üzere ağır makineler için daha geniş bir ölçekte serbest bırakılmasının tehlikeleri göz ardı edilemez veya hafife alınamaz.”
Kampanyasının bir parçası olarak, reklamcılık da içeren The Wall Street Dergisi Ve The New York Times Yapay zekanın içsel riskleri konusunda farkındalık yaratmak için yazılım girişimcisi ve The Dawn Project’in kurucusu Dan O’Dowd, Tesla’nın yapay zeka destekli Tam Otonom Sürüş yazılımını kınadı. 10 yıllık geliştirmeden sonra bile Tesla’nın yapay zeka teknolojisinin hala duran bir okul otobüsünü yasadışı bir şekilde solladığını ve yoldan geçen çocukları ezdiğini söyledi.
ABD Ulusal Karayolları Trafik Güvenliği İdaresi daha önce Tesla’nın Otopilotunun motorlu taşıt güvenliği için mantıksız bir risk oluşturan bir kusur içerip içermediğini araştırmıştı. Değerlendirmesi kapsamlı çarpışma analizi, insan faktörleri analizi, araç değerlendirmeleri ve araç kontrol yetkisi ve sürücü katılım teknolojilerinin değerlendirilmesini içeriyordu.
NHTSA Arıza Ofisi’nin yaptığı incelemede, en az 13 kazada bir veya daha fazla ölüm ve çok sayıda ciddi yaralanmanın meydana geldiği ve sürücülerin sistemi yanlış kullanmasının bu kazalarda açıkça rol oynadığı belirtildi.
The Dawn Project, internet sitesinde, “sisteminin” sağlam olduğunu iddia eden kumarbaz ile daha büyük yapay zeka sistemleri inşa etmek için büyük miktarda para ve enerji santralleri isteyen yapay zeka savunucuları arasında bir benzetme yaptı.
Grup, “İnsanlığı herkesin istediği her şeye sahip olduğu ve kimsenin çalışmak zorunda olmadığı bir cennete taşıyacak teknolojinin efendileri olduklarını iddia ediyorlar, ya da belki de herkesi yok edecekler,” dedi. “Onlar sadece patentli ilaç satan modern zaman gezgin vaizleri.”
Reklamda Microsoft, Google ve OpenAI’nin AI yılan yağı satan kuruluşlar olarak tasvir ediliyor. Reklamda Microsoft’un OpenAl’ın ChatGPT’sine 13 milyar dolar döktüğü iddia ediliyor, ancak ‘Y’ harfiyle biten ABD eyaletlerini listelemesi istendiğinde verdiği beş cevaptan üçü yanlıştı.
“AI araştırmacıları, ‘halüsinasyonların’ büyük dil modellerinin temel ve çözülemez bir zayıflığı olduğunu kabul ediyor ve AI’ların neden belirli kötü kararlar aldığını açıklayamadıklarını itiraf ediyorlar,” dedi O’Dowd. “Güvenlik açısından kritik sistemlerimizde tutarlılık ve güvenilirlik talep etmeliyiz. Halüsinasyon gören AI’ları reddetmeli ve nükleer güvenlik için talep ettiğimiz aynı titiz yazılım güvenliği standartlarını toplumun ve milyonlarca hayatın bağlı olduğu kritik altyapıya uygulamalıyız.”
Dawn Projesi, ticari sınıf yazılımların bir kişiye zarar verme veya onu öldürme potansiyeli olan hiçbir uygulama için kullanılmaması gerektiği konusunda uyardı. “Bu sistemlerin amaca uygun olmadığı zaten kanıtlandı,” dedi. “Peki teknoloji uzmanları, bunların potansiyel olarak ölümcül altyapı çözümlerinde kullanılmaya hazır olduğunu nasıl iddia edebilirler?”