ABD Uzay Kuvvetleri, ChatGPT – Yazılım gibi yapay zeka araçlarının kullanımını duraklattı


ABD Uzay Kuvvetleri, iş gücü için ChatGPT gibi web tabanlı üretken yapay zeka araçlarının kullanımını veri güvenliği endişeleri nedeniyle durdurdu. Reuters.

ABD Uzay Kuvvetleri, ChatGPT gibi yapay zeka araçlarının kullanımını duraklatıyor


29 Eylül tarihli ve Uzay Kuvvetleri’nin işgücü olarak adlandırdığı Muhafızlara gönderilen bir not, personelin, kuvvetin Baş Teknoloji ve Yenilik Ofisi tarafından resmi onay alana kadar, geniş dilli modeller de dahil olmak üzere bu tür yapay zeka araçlarını devlet bilgisayarlarında kullanmasını yasaklıyor.

Geçici yasağın “veri toplama risklerinden kaynaklandığını” söyledi.

Öğrenmek için geçmişe ait devasa veri hazinelerini kullanan büyük dil modelleriyle desteklenen üretken yapay zekanın kullanımları geçen yıl hızla arttı ve OpenAI’nin ChatGPT’si gibi bir metin, resim veya video gibi içerikleri hızlı bir şekilde oluşturabilen, sürekli gelişen ürünlerin temelini oluşturdu. basit istem.

Uzay Kuvvetleri’nin baş teknoloji ve inovasyon sorumlusu Lisa Costa, notta teknolojinin “şüphesiz iş gücümüzde devrim yaratacağını ve Guardian’ın hızlı çalışma yeteneğini geliştireceğini” söyledi.

Bir Hava Kuvvetleri sözcüsü, ilk kez tarafından bildirilen geçici yasağı doğruladı. Bloomberg.

Hava Kuvvetleri sözcüsü Tanya Downsworth, “Bu yetenekleri Muhafızların rollerine ve USSF misyonuna entegre etmek için ileriye dönük en iyi yolu belirlerken, ABD Uzay Kuvvetleri içinde Üretken Yapay Zeka ve Büyük Dil Modellerinin kullanımına stratejik bir duraklama uygulandı.” dedi. Bir deyim.

“Bu, hizmetimizin ve Koruyucularımızın verilerini korumak için geçici bir önlemdir” diye ekledi.

Costa notta, kendi ofisinin, teknolojiyi “sorumlu ve stratejik bir şekilde” kullanmanın yollarını bulmak için diğer Pentagon ofisleriyle birlikte üretken bir yapay zeka görev gücü oluşturduğunu söyledi.

Uzay Kuvvetlerinin üretken yapay zeka kullanımına ilişkin daha fazla rehberliğin önümüzdeki ay yayınlanacağını da sözlerine ekledi.



Source link