Asya Hükümetleri Küresel Evlat Edinme Artışları Nedeniyle Yapay Zekanın Kötüye Kullanımıyla Mücadele Ediyor


Yapay Zeka Tabanlı Saldırılar, Yapay Zeka ve Makine Öğrenimi, Dolandırıcılık Yönetimi ve Siber Suçlar

Yapay Zeka Bağlantılı Suç, Önyargı ve Deepfake Konusunda Hükümetin Endişeleri Gündemde

Jayant Chakravarti (@JayJay_Tech) •
22 Kasım 2023

Asya Hükümetleri Küresel Evlat Edinme Artışları Nedeniyle Yapay Zekanın Kötüye Kullanımıyla Mücadele Ediyor
Resim: Shutterstock

Hindistan Başbakanı Narendra Modi Cuma günü, derin sahte videolar gibi yapay zeka tarafından oluşturulan içeriklerin toplumsal sürtüşmeye neden olabileceği konusunda uyardı. Kendisi, yapay zeka teknolojisinin potansiyel olarak kötüye kullanılmasından endişe duyan, sayıları giderek artan Asyalı liderler arasında yer alıyor.

Ayrıca bakınız: İsteğe Bağlı | İnsan Davranışını Anlamak: Perakendenin ATO ve Dolandırıcılığı Önleme Zorluklarıyla Mücadele

Modi, “Yapay zeka, özellikle de deepfake teknolojisi nedeniyle yeni bir kriz ortaya çıktı” dedi. “İnsanların genel olarak video veya resimli içerik için bir doğrulama mekanizmasına erişimi yok, bu nedenle deepfake içeriğin yayılması halk arasında istikrarsızlık yaratabilir ve hatta büyük ölçekli hoşnutsuzluk yaratabilir.”

Yeni Delhi’deki Bharatiya Janata Partisi genel merkezinde medya temsilcilerinin katıldığı bir toplantıda konuşan Modi, hükümetin ve medyanın kitleleri yapay zeka tarafından oluşturulan içeriğin tehlikeleri konusunda eğitmesi gerektiğini söyledi. “Geçenlerde birisi beni bir türkü eşliğinde dans ederken gördüğüm bir video hazırladı, çok komikti ve sosyal medyada geniş çapta paylaşıldı. Ancak bu yetenek aynı zamanda büyük bir endişeye de yol açıyor. İnsanların bu durumun derin etkisini anlamasını sağlamalıyız. Deepfake’ler sosyal düzene sahip olabilir” dedi.

Modi, ChatGPT’nin yapımcıları OpenAI ile görüştüğünü ve onlara sigara paketlerindeki sağlık uyarılarına benzer şekilde yapay zeka tarafından oluşturulan içeriklere de uyarılar eklemelerini tavsiye ettiğini söyledi. Şirket temsilcilerinin “tehlikeleri anladığını ancak tehdidin nasıl durdurulabileceğini bilmediklerini” söyledi.

Modi’nin yorumları, Hintli yetkililerin sosyal medya aracılarına, platformlarındaki dezenformasyon ve deepfake’leri tespit etmeleri ve bir kullanıcıdan veya hükümet yetkilisinden rapor aldıktan sonra 36 saat içinde bunları kaldırmaları yönündeki bir fermanın ardından geldi (bkz: Hindistan, Deepfake’lerin 36 Saat İçinde Kaldırılmasını Emrediyor).

Üretken yapay zeka teknolojisinin benimsenmesinde 2022’den bu yana Asya-Pasifik bölgesinde patlama yaşandı ve benimsenmenin 2030’a kadar hızla artması bekleniyor. Yapay zeka araçları, herkese birkaç saniye içinde yüksek kaliteli görsel-işitsel, metin tabanlı ve grafiksel içerik oluşturma olanağı sağlıyor. .

Hindistan’daki 245 milyar dolarlık teknoloji sektörünün lider kuruluşu Nasscom, Hindistan’daki üretken yapay zeka yatırımlarının 2022’de on iki kattan fazla arttığını söyledi. Şu ana kadar teknolojiye 19 milyar dolardan fazla yatırım yapıldı. Inc42, Hindistan’ın üretken yapay zeka pazarının, kod oluşturma ve veri analizi alanlarında üretken yapay zeka girişimleri arasındaki şiddetli rekabet nedeniyle önümüzdeki yedi yıl içinde 15 kattan fazla büyüyeceğini tahmin ediyor.

Yapay Zekanın Kötüye Kullanım Endişeleri Artıyor

Dijital değişim finansal dolandırıcılıklara, siber casusluğa ve dijital suçlara yol açtı ve uzmanlar, üretken yapay zekanın yükselişinin teknolojinin fırsatçı bir şekilde kötüye kullanılması dalgasını tetikleyebileceğinden korkuyor. Yapay zeka algoritmaları aynı zamanda önyargılardan ve yanlışlıklardan da zarar görüyor ve bu da hükümetlerin kontrol ve denge kurmadan yapay zekayı benimseme konusunda temkinli davranmasına neden oluyor.

Güney Kore Devlet Başkanı Yoon Suk Yeol, geçtiğimiz günlerde Birleşmiş Milletler Genel Kurulu’nda yaptığı konuşmada endişelerini dile getirdi. “Yapay zeka ve dijital teknolojilerin kötüye kullanılmasından kaynaklanan sahte haberlerin yayılmasını engellemeyi başaramazsak, özgürlüğümüz riske girecek, liberal demokrasiye bağlı piyasa ekonomisi tehlikeye girecek ve geleceğimiz tehdit altında olacak.” dedi.

Yakın zamanda sahte bir videonun kurbanı olan Japonya Başbakanı Fumio Kishida, yapay zeka geliştiricileri için uluslararası standartlar ve yönergeleri uygularken yapay zeka gelişimini finanse eden bir orta yolu savundu.

Hükümetlerin ve düzenleyicilerin iki temel zorluğun üstesinden gelmesi gerekiyor: teknoloji firmalarının yapay zeka araçlarını hatalardan, yanlışlıklardan ve önyargılardan uzak tutmasını sağlamak ve ayrıca yapay zekanın deepfake, ses klonlama veya kimlik avı şeklinde suç amaçlı kullanımının bir krize dönüşmeden önce azaltılmasını sağlamak.

Recorded Future’ın Insikt Grubu, bir raporda siber suçluların, derin sahte video teknolojisi, metin tabanlı büyük dil modelleri ve üretken sanat ve açık kaynak veya ücretsiz yapay zeka platformları gibi diğer yapay zeka teknolojileriyle birlikte ses klonlama teknolojisinin kullanımında ustalaştığını söyledi. düşük vasıflı tehdit aktörlerine yönelik engeli düşürdü.

“Bu platformların kullanım kolaylığı ve kullanıma hazır işlevselliği, tehdit aktörlerinin, aksi takdirde harekete geçecek donanıma sahip olamayacakları siber suç görevlerini kolaylaştırmasına ve otomatikleştirmesine olanak tanıyor. Tehdit aktörleri, ses klonlama hizmetlerinden para kazanmaya başladı. Şirket, Telegram’da satın alınabilen kendi klonlama araçlarının, bir hizmet olarak ses klonlamanın ortaya çıkmasına yol açtığını söyledi.

Fujitsu’nun baş teknoloji sorumlusu Vivek Mahajan, Information Security Media Group’a “Güvenlik ve yapay zekanın el ele gittiğini söylemenin ötesine geçiyor” dedi. “Kuruluşlar, güvenlik süreçleri olmadan yapay zekayı kullanmayacaktır. Ben-Gurion Üniversitesi ile İsrail’de bir laboratuvar kurduk; burada yapay zeka platform kullanıcılarının, verilerin geldiği IP adreslerinin kökenini nasıl daha iyi tespit edebilecekleri konusunda araştırma yapıyoruz. Bu, yapay zekanın bir parçası olarak yaptığımız işin önemli bir parçası.”

Yapay Zeka Önyargıları ve Yanlışlıklarla Mücadele

Hükümetler ve kuruluşlar, yapay zeka sistemlerinin diğer potansiyel görevlerin yanı sıra gelecekteki stratejileri oluşturmalarına, operasyonlarını planlamalarına, riskleri ve fırsatları belirlemelerine ve performansı izlemelerine yardımcı olmasını bekliyor. Ancak bir yapay zeka modelinin etkinliği, algoritmayı eğitmek için kullanılan veri kümelerinin kalitesine ve geliştiricilerin önyargıları veya varsayımları engellemek için gösterdiği çabaya bağlıdır.

Hükümetler halihazırda yapay zeka sistemlerini çözülmemiş yanlışlıklar veya önyargılarla çalıştırmanın düzenleyici eylemlerle sonuçlanabileceğini açıkça belirtiyor. Hindistan Elektronik ve Bilişimden Sorumlu Devlet Bakanı Rajeev Chandrasekhar, Perşembe günü bir X kullanıcısının Google’dan Bard’ın haber portalının önyargılı ve yanlış bilgiler yaydığını belirterek bir medya makalesini özetlemeyi reddettiğini bildirmesinin ardından hükümetin niyetini açıkça ortaya koydu.

“Arama önyargısı, algoritmik önyargı ve önyargılı yapay zeka modelleri, Hindistan’daki düzenleyici çerçeve kapsamındaki BT kurallarının Kural 3(1)(b)’si kapsamında platformlara uygulanan güvenlik ve güven yükümlülüklerinin gerçek ihlalleridir. Bundan mağdur olanlar FIR’lara başvuruda bulunabilirler. Bu tür platformlara karşı koruma ve Sec79 kapsamındaki güvenli liman/dokunulmazlık bu vakalara uygulanmayacaktır.” Chandrasekhar tweet attı.

NIST’te yapay zeka önyargısı baş araştırmacısı Reva Schwartz, yapay zeka sistemlerinin tek başına çalışmadığını ve karar verme yeteneklerinin bağlama dayalı olması gerektiğini söyledi. “Bağlam her şeydir” dedi. “Güvenilir yapay zeka sistemleri geliştirmek istiyorsak, halkın yapay zekaya olan güvenini sarsabilecek tüm faktörleri dikkate almamız gerekiyor.”

Fujitsu Yapay Zeka Başkanı Amitkumar Shrivastava, ISMG’ye, bir yapay zeka sistemini önyargılara ve yanlışlıklara daha az eğilimli hale getirmenin muhtemelen tek yolunun, onu belirli bir coğrafya veya bölgedeki bir grup insana göstermek ve sistem kurulmadan önce geri bildirimlerini ve bağlamlarını kullanmak olduğunu söyledi. küresel ölçekte başlatılıyor.

“Temel olarak teknolojinizi insanların kullanımına sunmuyorsanız, uygun geri bildirim almanın gerçekten zor olacağını düşünüyorum. Ve eğer uygun geri bildirim almıyorsanız, teknolojinin gerçek boşluklarını anlayamayacaksınız. teknoloji” dedi ve ChatGPT gibi açık kaynaklı araçların milyonlarca kullanıcıdan gelen geri bildirimlere dayanarak zaman içinde geliştiğini ekledi.

Gartner’a göre yapay zeka geliştirme, bir kuruluş içinde yapay zekanın benimsenmesi, iş hedefleri ve kullanıcı kabulü için koordineli bir yaklaşım gerektiriyor. Gartner başkan yardımcısı ve analisti Mark Horvath, “Yapay zeka, geleneksel kontrollerin sağlayamadığı yeni güven, risk ve güvenlik yönetimi biçimlerini gerektiriyor” dedi. “Bilgi güvenliği yöneticilerinin, yapay zeka modelinden üretime geçiş hızını artırarak, daha iyi yönetişim sağlayarak veya hatalı ve hatalı verileri %80’e kadar ortadan kaldırabilecek yapay zeka model portföyünü rasyonelleştirerek yapay zeka sonuçlarını iyileştirmek için yapay zeka TRiSM’yi desteklemesi gerekiyor. Yasal olmayan bilgi.”

Horvath, “AI TRiSM’nin uygulanması, kuruluşların AI modellerinin ne yaptığını, orijinal niyetlerle ne kadar iyi uyum sağladıklarını ve performans ve iş değeri açısından ne beklenebileceğini anlamalarını sağlıyor.” dedi. “Güçlü bir AI TRiSM programı olmadan, AI modelleri, olumsuz model sonuçlarına, gizlilik ihlallerine, ciddi itibar hasarına ve diğer olumsuz sonuçlara neden olan beklenmeyen riskler ortaya çıkararak işletmenin aleyhine çalışabilir.”

Birleşik Öğrenme Yapay Zeka Modellerini İyileştirebilir

Shrivastava, bir yapay zeka modeli geliştirmek ve eğitmek için geliştiricilerin hassas bilgiler içerebilecek çok büyük miktarda canlı veriye erişmesi gerektiğini söyledi. Bu bilgilerin saklanması sadece karmaşık olmakla kalmıyor, aynı zamanda bir ihlal veya kasıtsız bir ifşa durumunda milyonlarca kişinin veri güvenliğini ve mahremiyetini de tehlikeye atıyor.

Yapay zeka sistemleri oluşturmaya niyetli kuruluşların birleşik öğrenme yaklaşımını seçmesi durumunda risklerin azaltılabileceğini söyledi. Bu yaklaşım, geliştiricilerin verileri gerçekten görmeden veya verilere erişmeden bir veri deposu üzerinde bir yapay zeka modelini eğitmesini içerir.

“Gelecekte makine öğrenimi yapmanın yeni bir yolu olarak birleşik öğrenme gibi teknolojilerin, kuruluşların verileri merkezi konumda depolamayı değil, yapay zeka modellerini istemci sistemin kendisinde eğitmeyi seçeceği bir senaryo yaratabileceğini düşünüyorum” dedi.

“Müşteri sistemi üzerinde eğitilen yapay zeka modelleri, önyargılardan, halüsinasyonlardan veya yanlışlıklardan arınmış küresel bir model oluşturmak için bir araya getirilebilir ve kuruluşlar daha sonra bu modeli belirli coğrafyalara veya ülkelere uygulamak için kullanabilir.”





Source link