Üretken yapay zeka ve güvenlik: Performans ve riski dengeleme


AI ile çok mu hızlı hareket ediyoruz? ChatGPT ve diğer üretken yapay zeka araçlarına gösterilen son ilgi tsunamisi göz önüne alındığında, bu hem teknoloji endüstrisi içinde hem de dışında merkezi bir sorudur.

üretken yapay zeka araçları güvenliği

Neredeyse tüm teknoloji şirketleri, yapay zekayı tekliflerine dahil etmek için harekete geçiyor ve endüstrinin önde gelen isimleri de ağırlığını koyuyor.

Kişisel fikirlerini ileri sürmekten hiçbir zaman çekinmeyen Elon Musk, tüm gelişmiş yapay zeka gelişiminin altı ay süreyle durdurulmasını öneren açık bir mektubu imzalayarak sohbete daldı. Bu mektup, diğer şeylerin yanı sıra şunları sordu:

Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, zekice üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz?

Saman adamlar bir yana, sanırım hepimiz cevabın hayır olması gerektiği konusunda hemfikiriz. (Her ne kadar Musk’ın, neredeyse kesinlikle dijital bir simülasyonda yaşadığımız ve hepimizin yapay zeka örnekleri olduğumuz şeklindeki diğer konumuyla nasıl bağdaştırdığını merak etsem de.)

Teknoloji liderleri, onlarca yıldır kontrolden çıkmış yapay zekadan kaynaklanan en kötü durum senaryolarını hayal ediyorlar. Duraklamaya karşı çıkan ve açık mektubu imzalamayan Bill Gates bile 2015 yılında yeterince zeki makinelerin insanları yok olmaya sürükleyebileceğini belirtmişti.

Ama biraz kendimizi aşmıyor muyuz?

Google’ın yeni yapay zekası Bard’ı denemeye davet edildikten sonra, onu rahatlık alanının biraz dışına itmek için tasarlanmış sorularla test etmeye karar verdim.

“D ve W harfleriyle başlayan yaygın İngilizce kelimelerden hangileri?” Diye sordum. Bard bana D ve W ile başlayan ortak İngilizce kelimeler olmadığını söyledi.

Daha sonra üç soruda daha cüce, küçülme ve oturmanın yaygın İngilizce sözcükler olup olmadığını sordum. Bard, art arda verdikleri üç yanıtta hemfikirdi. Hiçbir zaman hatasını fark etmedi. Vay canına.

Açık mektubu imzalayanların hiçbiri (sanırım) AI’nın mevcut haliyle “uygarlığımızı kontrol etmeye” hazır olduğuna inanmıyor. Ancak, bu yeni ortaya çıkan yapay zeka motorlarının bile halihazırda bazı çok gerçek riskler getirdiğini iddia ediyorum; bireysel veri gizliliğine yönelik riskler ve kuruluşların uyum duruşuna yönelik riskler.

Veri gizliliği günümüzün endişesidir

Bir gün, her yerde bulunan dezenformasyon veya otomasyon nedeniyle kitlesel işsizlik gibi AI kaynaklı sonuçlarla boğuşmak zorunda kalabiliriz. En kötü AI kıyamet günü düşünce deneylerinin yakında meyvelerini verdiğine bile tanık olabiliriz. Yine de şimdilik, kapımızın önünde kesinlikle daha az seksi (şirketler için potansiyel olarak yıkıcı olsa da) bir endişe var.

Kısa süre önce mühendislerin ChatGPT’yi ticari amaçlarla kullanmalarına izin vermeye karar veren Samsung Semiconductor’ı ele alalım. Mühendisler, ChatGPT’yi faydalı ve doğru olarak gördükten sonra, sahip olmamaları gerekenden daha fazla dahili bilgi konusunda ona güvenmeye başladılar.

Diğer bilgilerin yanı sıra, (1) bir Samsung iş ortağı tarafından geliştirilmekte olan farklı bir yapay zekanın kodu, (2) kusurlu çipleri belirlemeye yönelik test dizileri ve (3) dahili bir toplantı kaydı üzerinde çatallaştılar.

Mühendislerin neden üç örneği de ChatGPT’nin yardımcı olabileceği alanlar olarak görmüş olabileceği anlaşılabilir. Ancak ChatGPT, Samsung’un mülkiyetinde veya kontrolünde değildir ve bu tür bilgiler Samsung’un yanına bile yaklaşamaz.

Başka bir deyişle, yapay zeka işlevi, Samsung mühendislerinin bunun harici olarak barındırıldığını unuttukları ve ona içeriden bilgi vererek Samsung politikasını ihlal ettikleri konusunda yeterince ikna ediciydi. Yapay zeka ve insan hatası, büyük bir bilgi güvenliği ihlali oluşturmak için bir araya geldi (ChatGPT’nin yanıtlarının kalitesi ne olursa olsun).

Yayınlanmasından bu yana geçen aylarda ChatGPT’nin yaratıcısı OpenAI’ye kaç petabaytlık hassas veya özel bilginin benzer şekilde bağışlandığı merak ediliyor. Yapay zeka daha yaygın, yetenekli, tanıdık hale geldikçe ve kişisel ve ticari amaçlar için yaygın olarak kullanıldıkça, bu sorunun ne kadar büyüyeceği de merak ediliyor.

Düzenleyiciler için dinlenme yok (duraklama veya duraklama yok)

Üretken yapay zeka araçlarının yardımcı faydalarından yararlanmaya hevesli çalışanların gereğinden fazla paylaşım yapması bir endişe kaynağıdır. Düzenleyiciler daha büyük olabilir.

İtalya, vatandaşlarının veri gizliliğini tehlikeye atabileceği korkusuyla ChatGPT’yi zaten yasakladı. Almanya’nın davayı takip etmeyi düşündüğü bildiriliyor. AB, blok çapında bir yasağı kabul ederse, OpenAI para cezalarından bir servet kurtarabilir. 2021’den bu yana Amazon, Google, Meta gibi teknoloji devleri GDPR ile ilgili uyumluluk ücretleri için yüz milyonlarca avro ödedi. Yüz tanıma yazılımı geliştirmek için yapay zeka kullanan bir şirket olan Clearview AI, Fransa, İtalya ve Yunanistan’daki düzenleyiciler tarafından zaten para cezasına çarptırıldı.

Aynı düzenleyici ceza, bugün interneti kasıp kavuran büyük dil modeli tabanlı (LLM) sohbete dayalı yapay zeka platformlarını kullanan (veya kullanımına izin veren) şirketler için gelebilir. ChatGPT veya Google’ın Bard’ı gibi araçlar tarafından sağlanan büyük ölçekli veri sızıntıları, günümüzün bilgisayar korsanlığı gruplarına benzeyen suç dehalarının planlamasını gerektirmeyecek. İyi niyetli çalışanlar bu teknolojilerin muazzam üretkenlik potansiyelinden kendi uygulamaları için yararlanmaya çalıştıklarında organik olarak gerçekleşecekler.

Performansı riskle dengelemek

Güvenlik açısından bakıldığında, bugün mevcut olan her şeyin ötesinde ultra akıllı, bulutta barındırılan, güvenliğe özgü bir yapay zeka hayal etmek hem çekici hem de yıldırıcı.

Özellikle, güvenlik olaylarına yapay zeka destekli bir yanıtın sunduğu katıksız hız çekici. Felakete varan hatalar ve bunların işle ilgili sonuçları göz korkutucudur.

Bir endüstri gözlemcisi olarak, yakın zamanda piyasaya sürülen Microsoft Security Copilot’ta olduğu gibi, bu katı ikiliğin pazarlamaya yansıdığını sık sık görüyorum. Microsoft’un hıza dayalı satış konuşması dikkat çekiyor – “sinyalleri makine hızında öncelik sırasına koy” ve “olaylara saatler veya günler yerine dakikalar içinde yanıt ver.”

Ancak ürün adının ihtiyatlı muhafazakarlığı da dikkat çekiyor: bu bir pilot değil, sadece bir yardımcı pilot. Microsoft, insanların bu teknolojinin bir şirketin siber güvenlik stratejisini oluşturma ve yürütme gibi karmaşık bir işi tek başına halledebileceği fikrine kapılmasını istemiyor.

Bana öyle geliyor ki, bu algoritmalara ne tür verilerin beslenebileceğini ve beslenmesi gerektiğini dikkatlice düşünürken, bu araçlara hepimizin benimsemesi gereken yaklaşım bu. Tıpkı ABD, Birleşik Krallık ve AB’deki düzenleyicilerin yapay zeka kullanımı için standartlar tasarlayacağı gibi, kuruluşların da bu teknolojiler için kabul edilebilir kullanım durumları oluşturması ve iletmesi gerekir. CISO’lar ve CIO’lar, üretken yapay zekanın veri gizliliği üzerindeki etkilerini hemen dikkate almaya ve bunları çevreleyen politikalarını resmileştirmeye başlamak isteyeceklerdir.

Konuşmaya dayalı yapay zekanın sıkıcı görevlere yardımcı olma veya insan iş gücünü artırma vaadi astronomiktir. Ama önce, bir dizi bilinmeyen tehlikeyi aşmamız gerekecek. Ve küresel hakimiyet peşinde koşan haydut bir ataç makinesinden bahsetmiyorum.

Henüz.



Source link