Google, AI’yı Kontrol Altında Tutmak İçin Korkuluklar Ekliyor



GOOGLE I/O 2023, DAĞ MANZARALI, KALİF. — Google I/O’daki büyük duyuruların arasına sıkıştırılan şirket yöneticileri, sorumlu bir şekilde kullanılmalarını ve kötüye kullanılmamalarını sağlamak için yeni AI ürünlerinin korkuluklarını tartıştı.

Google CEO’su Sundar Pichai de dahil olmak üzere yöneticilerin çoğu, laboratuvarlardan çıkan gelişmiş yapay zeka teknolojileriyle ilgili bazı güvenlik endişelerine dikkat çekti. CCS Insight’ın baş analisti James Sanders, yapay zeka tarafından üretilen yanlış bilgilerin, derin sahtelerin ve taciz edici metin veya görüntülerin yayılmasının, bu içeriği oluşturan modelden Google’ın sorumlu olması durumunda büyük ölçüde zararlı olacağını söylüyor.

Sanders, “Yapay zeka bağlamında güvenlik, yapay zekanın toplum üzerindeki etkisiyle ilgilidir. Google’ın sorumlu yapay zeka konusundaki çıkarları, en azından kısmen, itibarın korunması ve düzenleyicilerin caydırıcı müdahalesinden kaynaklanmaktadır” diyor.

Örneğin, Universal Translator, Google Translate’in konuşan bir kişinin görüntülerini alıp konuşmayı başka bir dile çevirebilen bir video yapay zeka yan ürünüdür. Uygulama, potansiyel olarak videonun hedef kitlesini orijinal dili konuşmayanları da içerecek şekilde genişletebilir.

Ancak Google’ın yapay zekanın sorumlu bir şekilde geliştirilmesinden sorumlu kıdemli başkan yardımcısı James Manyika, yapay zekanın dudak hareketini değiştirip kişinin tercüme edilen dilde konuşuyormuş gibi görünmesi nedeniyle, teknolojinin kaynak malzemeye olan güveni de aşındırabileceğini söyledi. uygulamasını sahnede sergiledi.

“Burada doğal bir gerilim var. Bunun nasıl inanılmaz derecede yararlı olabileceğini görebilirsiniz, ancak aynı temel teknolojinin bir kısmı kötü kişiler tarafından derin sahtekarlıklar oluşturmak için kötüye kullanılabilir. Kötüye kullanımı önlemek ve erişilebilir kılmak için hizmeti korkuluklar etrafında oluşturduk. sadece yetkili ortaklara,” dedi Manyika.

Özel Korkulukları Ayarlama

Farklı şirketler yapay zeka korkuluklarına farklı şekilde yaklaşıyor. Google, yapay zeka araçları tarafından üretilen çıktıları kontrol etmeye ve teknolojileri gerçekten kimlerin kullanabileceğini sınırlamaya odaklanmıştır. Örneğin, Universal Translators 10’dan az iş ortağı tarafından kullanılabilir. ChatGPT, soru veya yanıtın zarar verme olasılığı varsa, belirli soru türlerini yanıtlayamayacağını söyleyecek şekilde programlanmıştır.

Nvidia, yanıtların belirli parametrelere uymasını sağlamak için açık kaynaklı bir araç olan NeMo Guardrails’e sahiptir. Teknoloji aynı zamanda AI’nın eğitim verileri tarafından doğrulanmayan kendinden emin bir yanıt verme terimi olan halüsinasyon görmesini de engeller. Nvidia programı, cevabın belirli parametrelerle alakalı olmadığını tespit ederse, soruyu cevaplamayı reddedebilir veya daha alakalı cevaplar bulmak için bilgileri başka bir sisteme gönderebilir.

Google, yine Google I/O’da duyurulan yeni PaLM-2 geniş dil modelindeki güvenlik önlemleriyle ilgili araştırmasını paylaştı. Bu Palm-2 teknik makalesi, belirli kategorilerde AI motorunun dokunmayacağı bazı sorular olduğunu açıklıyor.

CCS Insight’tan Sanders, “Google, bu çıktıları belirlemek ve azaltmak için otomatik rakip testine güveniyor. Google’ın bu amaçla oluşturulan Perspective API’si, akademik araştırmacılar tarafından diğerlerinin yanı sıra OpenAI ve Anthropic modellerini test etmek için kullanılıyor.”

DEF CON’da Lastikleri Tekmelemek

Manyika’nın yorumları, kimlik avı yaklaşımları oluşturmak veya sistemlere girmek için kötü niyetli kodlar oluşturmak için ChatGPT gibi teknolojileri kötüye kullanan kötü kişilerle ilgili endişelerden sonra daha fazla aciliyet kazanan yapay zekanın sorumlu kullanımı anlatısına uyuyor.

AI zaten derin sahte videolar ve sesler için kullanılıyordu. Savunma Bakanlığı’nı müşterisi olarak kabul eden yapay zeka şirketi Graphika, yakın zamanda kamuoyunu etkilemeye çalışmak için kullanılan yapay zeka tarafından oluşturulan görüntülerin örneklerini belirledi. Graphika ekibi deepfakes raporunda, “Ticari olarak temin edilebilen AI ürünlerinin kullanılmasının, IO aktörlerinin daha yüksek ölçek ve hızda giderek daha yüksek kaliteli aldatıcı içerik oluşturmasına olanak sağlayacağına inanıyoruz.”

Beyaz Saray, AI teknolojisinin kötüye kullanımını azaltmak için korkuluk çağrısı yaptı. Bu ayın başlarında Biden yönetimi, Ağustos ayında Las Vegas’ta yapılacak olan DEF CON 31 sırasında Google, Microsoft, Nvidia, OpenAI ve Stability AI gibi şirketlerin, katılımcıların yapay zeka sistemlerini herkese açık bir şekilde değerlendirmelerine izin verme taahhüdünü aldı. Modeller, Scale AI tarafından geliştirilen bir değerlendirme platformu kullanılarak kırmızı takım haline getirilecek.

Beyaz Saray’dan yapılan açıklamada, “Bu bağımsız uygulama, araştırmacılara ve halka bu modellerin etkileri hakkında kritik bilgiler sağlayacak ve yapay zeka şirketlerinin ve geliştiricilerin bu modellerde bulunan sorunları düzeltmek için adımlar atmasına olanak tanıyacak” denildi.



Source link