Pişirmeden Önce Büyük Dil Modelleri Kullanmanın Tehlikeleri



Berryville Makine Öğrenimi Enstitüsü (BIML) kısa süre önce katıldı Calypso AI’s Accelerate AI 2023 Washington, DC’deki konferans. Toplantıya hem hükümetten hem de endüstriden uygulayıcılar, düzenleyiciler ve akademisyenler katıldı. “NATSEC ve Ötesinde LLM’lerin Yükselen Riskleri ve Fırsatları” başlıklı çok zamanında bir panele katıldım. Bu panel bu makaleyi teşvik etti.

Bu sütundaki içeriğin hiçbiri bir LLM tarafından oluşturulmamıştır.

Büyük dil modelleri (LLM’ler), dünyayı kasıp kavuran bir tür makine öğrenimi sistemidir. OpenAI tarafından üretilen ve sahaya sürülen bir LLM olan ChaptGPT (aka GPT-3.5), metin için birçok üretken AI modeli arasında en yaygın ve popüler olanlardan biridir. Diğer üretici modeller, görüntü oluşturucular Dall-E, Midjourney ve Stable Diffusion ile kod oluşturucu Copilot’u içerir.

LLM’ler ve diğer üretken araçlar, uygulamalar için inanılmaz fırsatlar sunar ve bu tür sistemleri sahaya çıkarma telaşı dörtnaladır. LLM’ler çok eğlenceli olma, bilimdeki zor sorunları çözme, bilgi yönetiminin çetrefilli sorunlarına yardımcı olma, ilginç içerikler oluşturma ve benim görüşüme göre en önemlisi dünyayı yapay genel zekaya (AGI) biraz daha yakınlaştırma potansiyeline sahiptir. devasa bilişsel bilim atılımları üreten bir temsil teorisi.

Ancak günümüzün gelişmekte olan LLM’lerini ve herhangi bir üretken yapay zeka aracını kullanmak, gerçek riskleri beraberinde getirir.

Papağanlar ve Kirlilik

LLM’ler, büyük bilgi külliyatları (300 milyar kelime, çoğu İnternetten alıntı) üzerinde eğitilir ve bir cümledeki bir sonraki kelimeyi tahmin etmek için otomatik ilişkilendirmeyi kullanır. Bu nedenle, çoğu bilim insanı, LLM’lerin gerçekten hiçbir şeyi “anlamadığı” veya herhangi bir gerçek düşünme yapmadığı konusunda hemfikirdir. Aksine, bazı araştırmacıların dediği gibi “rastlantısal papağanlar”. LLM’ler, bağlam içinde ve genellikle yararlı ve son derece şaşırtıcı bir şekilde etkileyici metin akışları oluşturmaya devam ediyor.

Geri bildirim döngüleri, her tür makine öğrenimi modelinde önemli bir sorun sınıfıdır (ve BIML’nin birkaç yıl önce “[raw:8:looping]”). İşte o zaman ne demiştik:

İnce geri bildirim döngüleriyle karıştırılan model. Modelden çıkan veriler daha sonra aynı modele girdi olarak kullanılırsa ne olur? Bunun, makine tarafından yapılan sayfaların çevirilerinin makinenin kendisini eğitmek için kullanıldığı ilk günlerde Google çevirinin başına geldiği söylentisine dikkat edin. Neşe ortaya çıktı. Google, bugüne kadar bazı çevrilmiş arama sonuçlarını kendi politikaları aracılığıyla kısıtlamaktadır..

İnternetten kolayca kazınabilen şeylerin çoğu, kalitesi şüpheli yapay zeka modelleri tarafından oluşturulduğunda ve ardından bu LLM’ler kendi kuyruklarını yemeye başladığında ne olacağını hayal edin. Bilgi kirliliği hakkında konuşun.

Bazı AI araştırmacıları ve bilgi güvenliği uzmanları, günümüzde bilgi kirliliği konusunda zaten derinden endişe duyuyorlar, ancak sonsuz bir bilgi kirliliği boru hattı kulağa kötü geliyor.

Hizmet Olarak Mansplaining

LLM’ler çok iyi BS sanatçılarıdır. Bu modeller, düzenli olarak yanlış fikirleri ve alternatif gerçekleri büyük bir güvenle ifade eder ve genellikle bir konuşmada (sahte bilimsel referanslar dahil) cevaplarını haklı çıkarmak için bilgiler uydurur. Pek çok yanlış şey içeren internetten kazınmış ortalama bilgi yeni içerik oluşturmak için kullanıldığında ne olduğunu hayal edin.

Nihai “cevap adamı”, gelecekte bizim için haber hikayeleri yazmasına ihtiyacımız olan kişi değil. Gerçekler aslında önemlidir.

Kırık Güvenliği Yansıtma

LLM’ler genellikle birçok yönden önyargılı olan veriler üzerinde eğitilir. Cinsiyetçi, ırkçı, yabancı düşmanı ve kadın düşmanı sistemler, toplumun daha az ilerici olduğu zamanlarda toplanan veri setlerinden modellenebilir ve modellenecektir. Önyargı, LLM’lerde ciddi bir sorundur ve operasyonel Band-Aids’in düzeltmesi pek olası değildir.

Deepfake’lere Güvenmek

Deepfake’ler, bir süredir tartışılan üretken yapay zekanın bir yan etkisidir. Sahte veya sahtekarlık, güvenlik açısından her zaman bir risktir, ancak inanması kolay, daha yüksek kaliteli sahte ürünler yapma kapasitesi buradadır. Bazı bariz en kötü durum senaryoları var: pazarları hareket ettirmek, savaşlara neden olmak, kültürel bölünmeleri alevlendirmek vb. Videonun nereden geldiğine dikkat edin.

Her Şeyi Otomatikleştirmek

LLM’ler gibi üretken modeller, düşük seviyeli beyaz yakalı işler de dahil olmak üzere birçok işi değiştirme kapasitesine sahiptir. Milyonlarca insan işlerinden fazlasıyla tatmin oluyor, ancak ya tüm bu işlerin yerini ister istemez daha ucuz olan makine öğrenimi sistemleri alırsa? Bunu, örneğin yerel spor hikayelerinde ve pazarlama metinlerinde içerik oluşturma işlerinin yazılmasında zaten görüyoruz. LLM’ler makalelerimizi yazmalı mı? Hukuk mu uygulamalılar? Tıbbi teşhis yapmaya ne dersiniz?

Kötülük İçin Bir Araç Kullanmak

Üretken yapay zeka bazı eğlenceli şeyler yaratabilir. ChapGPT ile oynamadıysanız, bir şans vermelisiniz. 1981’de ilk Apple ][+’mıaldığımdanveya1995’teJavaapplet’leriçıktığındanberiyeniteknolojiylebukadareğlenmemiştim[+in1981orsinceJavaappletscameoutin1995

Ancak üretici yapay zekanın gücü kötülük için de kullanılabilir. Örneğin, ML’yi COVID’in yayılma kabiliyetine ve kuduzun gecikmiş başlangıç ​​parametrelerine sahip yeni bir virüs tasarlama görevine koyarsak ne olur? Veya aynı zamanda bir nörotoksin olan polenli bir bitki yaratma görevine ne dersiniz? Bu korkakça şeyleri mutfağımda düşünebilirsem, gerçek bir kötü insan makine öğrenimi ile beyin fırtınası yapmaya başladığında ne olur?

Aletlerin içsel bir ahlakı veya etiği yoktur. Ve kayıt için, “bilgi istemlerini koruma” fikri, komut satırı filtrelemesi ile süper bilgisayar erişimini korumaya benzer bir hayali çözümdür.

Bilgileri Kırık Bir Kupada Tutmak

Veri hendekleri artık bir şey. Bunun nedeni, eğer bir makine öğrenimi modeli (insanların yardımıyla) verilerinize ulaşabilir ve verileriniz üzerinde eğitim alarak yaptıklarınızı karlı bir şekilde papağan gibi tekrarlamayı öğrenebilirse, bunu yapacaktır. Bu, veri kümelerinizi bir makine öğrenimi modeline sığdırmak ve modeli genel kamuoyuna sunmak yerine dikkatli bir şekilde koruyarak en iyi şekilde çözülen birden çok riske yol açar. Makine öğreniminin altına hücum dünyasında altın veridir.

Verileri korumak göründüğünden daha zordur. Devletin mevcut bilgi sınıflandırma sisteminin, sınıflandırılmış bilgileri nasıl her zaman koruyamadığını bir düşünün. Açıkçası, hassas ve gizli bilgileri korumak zaten büyük bir zorluktur, bu nedenle makine öğrenimi sistemlerimizi gizli bilgiler konusunda kasıtlı olarak eğittiğimizde ve onları dünyaya açtığımızda ne olacağını hayal edin.

Çıkarma ve aktarma saldırıları günümüzde mevcuttur, bu nedenle makine öğrenimi kabınıza ne döktüğünüze dikkat edin.

LLM Riski Hakkında Ne Yapmalıyız?

Öyleyse, bazı teknoloji uzmanlarının kendi kendine hizmet ederek önerdiği gibi, makine öğrenimi araştırmalarına birkaç aylığına sihirli bir moratoryum koymalı mıyız? Hayır, bu çok saçma. Yapmamız gereken bu riskleri tanımak ve doğrudan yüzleşmek.

İyi haber şu ki, makine öğrenimi güvenliği veya MLsec olarak adlandırdığım makine öğrenimi sistemlerini güvence altına almak için tüm bir endüstri inşa ediliyor. Makine öğrenimi riskini kontrol etmek için bu yeni yeni girişimlerin neler oluşturduğuna bakın, ancak bunu şüpheci ve bilgili bir gözle yapın.



Source link