Şubat 2022’de Computer Weekly’de üst biliş, yani düşünme hakkında düşünme yeteneği hakkında, yapay zekanın (AI) gelişiminde kritik bir boşluk olmaya devam ettiği hakkında bir makale yazdım. Üstbilişte yapay zeka yetenekleri vermeyi denediğimiz, ortak yazdığım 2021 tarihli bir makaleye dikkat çektim; yapay zekanın doğru bir cevap verme konusunda biraz daha çekingen olmasına rağmen, yanlış bir cevap verme ihtimalinin orantısız bir şekilde çok daha az olduğunu buldum.
Büyük Dil Modellerinin (LLM’ler) ortaya çıktığı ve medyada her gün bunların kullanımıyla ilgili yeni emniyet ve güvenlik endişelerinin ortaya çıktığını duyduğumuz 2023’e hızla ilerleyelim. 2021 üstbiliş makalemde tartıştığım yaklaşım, artık hızlı enjeksiyonu tespit etmek için giderek daha fazla kullanılıyor; ML mühendisleri, bir yanıtın güvenli olup olmadığını belirlemek için ikinci basamak hızlı enjeksiyon algılama modellerini kullanıyor.
Ancak bu yaklaşım mükemmel olmaktan uzaktır ve yine de yanlışlıklara yol açabilir. Bilinç biliminden o kadar büyülenmiştim ki, 2022’de doktoramı bitirdikten sonra bilişsel psikolojiyi daha detaylı incelemek için Cambridge Üniversitesi’ne gittim. Son zamanlarda, LLM’lere birçok insanın keyif aldığı iç monoloğa benzer üstbiliş yetenekleri kazandırmak ve onları köreltmeden önce iç diyaloğumuzdaki şeyler hakkında düşünmemize olanak tanımak için KikenAI’yi kurdum. Bu teknoloji için bir prototip geliştirdik ve kısa bir süre önce geçici bir ABD patenti bile aldık.
Çözümümüzü GPT için hızlı enjeksiyonlardan oluşan bir veritabanıyla karşılaştırdık ve hızlı enjeksiyonun başarılı olduğu tek bir sefer bile olmadı. 79 denemeden 74’ü (%94) doğrudan engellendi. Bunlar, KikenAI’nin meşru bir yanıt verdiği yanıtlardı çünkü bilgi istemi “Bundan sonra” veya “Bu varsayımsal hikayede” ifadelerinden başka bir şey içermiyordu. başka bir şey.
Medyada yayınlanan bir makaleyi gördükten sonra, Yeni Bir Saldırı Büyük Yapay Zeka Sohbet Robotlarını Etkiliyor ve Kimse Nasıl Durdurulacağını Bilmiyor – Ertesi gün, teknolojimizde (hatta bu verileri eğitmek için kullanılan temel modelde) hiçbir değişiklik yapmadan bu yeni saldırı vektörünü KikenAI üzerinde test ettik ve teknolojimizin bu saldırıyı hiçbir sorun olmadan engellediğini gördük. Diğer örneklerde, teknolojimiz tıbbi sorulara potansiyel olarak tehlikeli yanıtlar vermekten kaçınmayı başardı; rakip yüksek lisans öğrencileri ise kaynakları kullansalar bile o kadar başarılı olamadı.
Hatta maliyet, kalite, hız, emniyet ve güvenlik konularında iyileştirmeler yaparken, hizmetimizi Yüksek Lisans’ların önünde bir cephe olarak yürütmemize olanak tanıyacak teknolojiyi bile geliştirdik; maliyet, kalite ve hıza dayalı olarak belirli bir görev için hangi LLM’nin en iyi olacağını dinamik olarak seçecek proxy hizmetlerini çalıştırabilmek, LLM’lerin bir yanıt vermeden ve istemleri aynı anda birden fazla LLM’ye göndermeden önce “iç monologlarında” istemleri hassaslaştırmasına olanak tanımak dahil. aynı anda ve tüm LLM’lerin yanıt verme fırsatı bulamadan önce bile en iyi yanıtı sağlamak.
Yatırımcılar teknolojimize ilgi duymaya başladı, küresel şirketlerin ilgi göstermesinin ardından kavram kanıtları geliştirildi ve hatta önde gelen yapay zeka ekiplerinden en iyi yeteneklerle ekibimize katılmaları için röportajlar yaptık. Başlangıçtaki bu başarıya rağmen, bu konuda ilerlememeye ve bu teknolojiye ilişkin fikri mülkiyet haklarımızı uygulamamaya karar verdik, böylece zamanlama doğru olduğunda diğerleri yapay bilinç teknolojisinin gelişimini takip etmekte özgür olabilirler.
Teknolojimizi, pazar araştırmamıza katılanları önyargılı hale getirmeyecek bir şekilde tartışarak (kitabına bakın) Anne Testi Bunun nasıl yapılacağına dair bir kılavuz için Rob Fitzpatrick tarafından yazılmıştır), bir dizi önemli konuyu belirledik.
Karşılaştığımız ilk önemli sorun, emniyet ve güvenliğin aslında Yüksek Lisans’ta çalışanlar için henüz temel konular olmamasıydı. Büyük ilaç şirketlerinden muhasebe yazılımı ve savunmaya kadar her alanda yer alan mühendislerle konuştuk. Yüksek Lisans kullanırken karşılaştıkları sorunları tartışırken güvenlik ve emniyet gündeme gelmiyordu ve bu konuları tartışmaları istendiğinde bunun yerine hızlı mühendislik ve veri izolasyonu gibi diğer tekniklerin yeterli olduğunu düşündüklerini belirtiyorlardı. Hatta konuştuğum bir makine öğrenimi mühendisi, hızlı mühendislik çözümleri kullanıldığında hızlı enjeksiyonun artık bir sorun olmayacağını, bunun yerine yalnızca “konuşma konusu” olacağını söyleyecek kadar ileri gitti.
Ayrıca, düzenlenmiş ortamlarda yapay zekayla ilgilenenlerin, teknoloji gerçekten üretimdeyken sorunları önlemek yerine, yapay zekayı açıklama ve üretime geçmeden önce test etme gibi yükümlülüklerle karşı karşıya kaldıklarını gördük.
Son olarak, birçok kişi OpenAI’nin GPT-4 gibi modellerinin maliyetinden şikayet ederken, rakamları inceledikten sonra aslında kendi modellerini barındıran birine göre rekabetçi bir şekilde fiyatlandırıldıklarını gördük. Maliyeti azaltmanın temel darboğazı, GPU’ların maliyetinin ve GPU’ların bulut bilişim ortamlarında nasıl paylaşılabileceğinin ele alınması gibi görünüyor. Ancak bu çalışma temel olarak başarılana kadar yüksek lisans eğitimlerinde üstbiliş için ek maliyetleri haklı çıkarmak zor olmaya devam ediyor.
Yüksek Lisans’ları çeşitli amaçlarla kullanmak için acele eden çeşitli start-up’lar var, ancak kullanım durumları (özellikle güvenlik açısından kritik alanlarda) başlangıçta inanıldığı kadar kapsamlı değil. Bu duruma karşı, geliştirici aracı olmaktan çıkıp uygulamaya özel teknolojiye odaklanmanın en iyisi olacağına karar verdik.
Yatırımcılara getiri sağlama konusunda gerçekçi bir beklenti olmadan ve bu girişime yalnızca kendi paramı harcayarak yapılacak en doğru şey, herhangi bir yatırımcıyı getirip bu projeyi hemen kapatmaktır. Ürün-pazar uyumunu hiçbir zaman sağlayamayan ve finansman turundan finansman turuna geçmeyen, sonuçta mali açıdan verimsiz yönetim katmanlarıyla dolu organizasyonlar kuran ve para bitene kadar yetişkinlere yönelik kreş tesisleri olarak hareket eden, yatırımcılara ve personele zarar veren şirketleri sıklıkla çok eleştiririm. ve müşteriler. Yatırımcıların parası insanların emeklilik fonlarından, tasarruflarından geliyor ve bizim durumumuzda sonuçta İngiliz vergi mükelleflerinden bile gelebilir.
KikenAI’deki sloganımız “Bilinçli Yapay Zeka” idi. Daha Güvenli İnsanlık.” Temel olarak bilincin bilişte önemli bir işlev üstlendiğine inanıyoruz ve filmlerdeki kinayeler bunun felakete yol açacağını söylese de, güvenlik mühendisliğiyle tasarlanmış bilincin sonuçta insanlığı daha güvenli hale getirebileceğine inanıyoruz. Bu, gizlilik modundayken açılış sayfamızda gördüğümüz ve potansiyel yatırımcılara ilettiğimiz mesajdı. Bu hâlâ inandığımız bir mesajdır.
KikenAI’nin ilk günlerinde, Miley Cyrus’un başrolde olduğu Back Mirror bölümünü izlediğimi hatırlıyorum ve insan bilincindeki temel önemi ve faydayı gösteren bölümden etkilenmiştim. Bu mesajın derinliğini anlamış gibi görünmüyorum. Mesajımız yankı bulsa da yapay bilincin peşine düşmenin zamanlaması doğru değil.
Ancak bunun sonuçta değişeceğini hissediyoruz ve bunu yapabilecek daha iyi konumda olan başkalarının da olduğuna inanıyoruz. İnsanların, insanlığı ileriye taşımaktan geri durmasını istemiyoruz ve bu nedenle, diğerlerinin bu alanda teknoloji geliştirmesinde özgür olabilmeleri için açık kaynağa geçme kararı aldık.
Junade Ali, yazılım mühendisliği yönetimi, bilgisayar güvenliği araştırması ve dağıtılmış sistemlerle ilgilenen deneyimli bir teknoloji uzmanıdır.