Kabine Ofisi 10 maddelik üretken yapay zeka rehberini yayınladı


Hükümet, teknolojiyi kullanan geliştiricilerin ve hükümet personelinin dikkate alması gereken 10 ilkeyi listeleyen üretken yapay zeka (GenAI) çerçeve belgesindeki ilk denemesini yayınladı. 10 ortak ilke, GenAI’nin devlet kuruluşlarında güvenli, sorumlu ve etkili kullanımına ilişkin rehberlik sağlar.

Hükümetin baş teknoloji sorumlusu David Knott, kılavuzun üretken bir yapay zeka sistemi planlayan veya geliştiren herkes için pratik düşünceler sunduğunu söyledi.

“GenAI, önemli üretkenlik avantajlarının kilidini açma potansiyeline sahip. Bu çerçeve, okuyucuların üretken yapay zekayı anlamalarına yardımcı olmayı, GenAI çözümleri geliştiren herkese rehberlik etmeyi ve en önemlisi, üretken yapay zekayı güvenli ve sorumlu bir şekilde kullanmak için nelerin dikkate alınması gerektiğini ortaya koymayı amaçlıyor.” .

Rapor, hükümetteki karar vericileri teknolojinin sınırlamalarını takdir etmeye çağırıyor. Örneğin, Majestelerinin Hükümeti için Üretken Yapay Zeka Çerçevesi’nin (HGM) belirttiğine göre, büyük dil modelleri (LLM’ler) kişisel deneyimlerden ve duygulardan yoksundur ve doğası gereği bağlamsal farkındalığa sahip değildir, ancak bazılarının artık internete erişimi vardır.

Teknolojinin aynı zamanda yasal, etik ve sorumlu bir şekilde kullanılması da gerekiyor. Rehberlik raporundaki ikinci prensip, hükümet departmanındaki karar vericileri veri koruma, gizlilik ve hukuk uzmanları gibi uyum uzmanlarıyla erkenden iletişime geçmeye teşvik ediyor. Raporda şunlar belirtiliyor: “Üretici yapay zeka kullanımınız için fikri mülkiyet eşitliğinin sonuçları, adalet ve veri koruma sonuçları hakkında hukuki tavsiye almalısınız.”

Güvenlik, raporun yazarlarının “doğru aşamada anlamlı insan kontrolüne sahip olma ihtiyacı” olarak adlandırdığı üçüncü odak alanıdır.

Kılavuz raporu şunu belirtiyor: “Bir web sitesine sohbet robotu işlevselliği eklemek için üretken yapay zeka kullandığınızda veya bir kullanıcıya verilen yanıtın hızının, insan tarafından inceleme sürecinin mümkün olmadığı anlamına geldiği diğer kullanımlarda, insan kontrolüne güvenmeniz gerekir. Ürün yaşam döngüsünün diğer aşamalarında.

“Ürünü dağıtımdan önce tamamen test etmiş olmanız ve sağlam bir güvenceye sahip olmanız ve canlı aracın düzenli kontrollerini yapmış olmanız gerekir. Hiçbir zaman istenmeyen veya hayali çıktılar (yani halüsinasyonlar) üretmeyen modeller oluşturmak mümkün olmadığından, son kullanıcı geri bildirimlerini dahil etmek hayati önem taşıyor.”

Üretken yapay zeka ürünlerinin yaşam döngüsü, üretken yapay zeka sürüklenmesinin, yanlılığının ve halüsinasyonlarının nasıl izleneceğini ve azaltılacağını anlamaya çalışan beşinci prensipte ele alınmaktadır. Rapor, hükümet departmanındaki karar vericilerin bu sorunları tespit etmek için sağlam bir test ve izleme sürecine sahip olmasını öneriyor.

Altıncı ve yedinci ilkeler, iş için doğru araçların seçilmesini ve açık işbirliğinin gerekliliğini kapsar. Kılavuz aynı zamanda devlet dairelerinin başlangıçtan itibaren ticari meslektaşlarla birlikte çalışmasını da tavsiye ediyor.

Raporun kapsadığı sekizinci ilke şöyle diyor: “Üretken yapay zeka araçları yenidir ve projeniz için sonuçları konusunda ticari meslektaşlarınızdan özel tavsiyelere ihtiyacınız olacaktır. Üretken yapay zekanın ticari gereksinimlere uygun olarak nasıl kullanılacağını anlamak için yolculuğunuzun başlarında ticari meslektaşlarınıza ulaşmalısınız.”

Doğru becerilere sahip olma ihtiyacı ve yerleşik bir güvence süreci, 10 ilkeyi tamamlamaktadır. Raporun yazarları, devlet dairelerinin açıkça belgelenmiş inceleme ve üst kademeye iletme süreçlerini uygulamaya koymasını tavsiye ediyor. Bu, üretken bir yapay zeka inceleme kurulu veya program düzeyinde bir kurul olabilir.



Source link