Üretken yapay zeka her yerde – ancak politika hâlâ eksik


Üretken yapay zeka (GenAI) işyerinin her yerinde ortaya çıkıyor, ancak şirketler, dağıtımların ters gitmemesini sağlayacak politikalara veya eğitime sahip değil.

Teknoloji profesyonel kuruluşu ISACA tarafından yapılan araştırmaya göre, Avrupa’daki kuruluşların neredeyse dörtte üçündeki personel halihazırda iş yerinde yapay zeka kullanıyor ancak yalnızca %17’sinin bu tür teknolojilerin kullanımını yöneten resmi, kapsamlı bir politikası var.

ISACA tarafından ankete katılanların yaklaşık yarısı (%45) kuruluşlarında GenAI kullanımına izin verildiğini söyledi; bu oran yalnızca altı ay önce %29’dan önemli ölçüde arttı.

Bununla birlikte, ankete katılanların yüzde 62’sinin yazılı içerik oluşturmak, üretkenliği artırmak ve tekrarlanan görevleri otomatikleştirmek için GenAI’yı kullanması nedeniyle personelin benimsemeyi patronların fark edebileceğinden daha ileri götürdüğü görülüyor.

Yapay zeka anlayışının eksikliği

ISACA araştırması, kuruluşların %30’unun teknolojiyle ilgili pozisyonlardaki çalışanlara yapay zeka konusunda sınırlı bir eğitim verdiğini, %40’ının ise hiç eğitim vermediğini ortaya çıkardı.

Araştırma, üretken yapay zeka hakkındaki muazzam miktardaki abartılı reklama rağmen çoğu işletme ve BT profesyonelinin teknolojiye ilişkin farkındalığının sınırlı olduğunu, dörtte üçünün (%74) bu teknolojiye yalnızca bir şekilde aşina olduklarını ya da hiç aşina olmadıklarını bildirdi. Yalnızca %24’ü yapay zekaya son derece veya çok aşina olduklarını söylerken, %37’si kendilerini yeni başlayanlar olarak tanımladı.

Bu, personelin yapay zekanın potansiyel olumsuz etkisi konusunda endişelenmesini engellemiyor gibi görünüyor; ancak yanıt verenlerin %61’i, üretken yapay zekanın kötü aktörler tarafından istismar edilebileceğinden aşırı veya çok endişe duyduklarını itiraf ediyor.

ISACA tarafından ankete katılan işletme ve BT profesyonellerinin yaklaşık %89’u, yanlış bilgi ve dezenformasyonun yapay zekanın en büyük riskleri olduğunu belirtti ancak yalnızca %21’i kendilerinin veya şirketlerinin bunu tespit etme becerisine güvendi

Dörtte biri (%25) kuruluşların etik yapay zeka standartlarına yeterince dikkat ettiğini düşünüyor ancak yalnızca %23’ü kuruluşların yapay zekayla ilgili veri gizliliği ve önyargı riski gibi endişeleri doğru şekilde ele aldığına inanıyor.

Önemli bir çoğunluk (%89), yapay zekanın en büyük risklerinin yanlış bilgi ve dezenformasyon olduğunu belirtti ancak yalnızca %21’i kendilerinin veya şirketlerinin bunu tespit etme becerisine güvendi.

Ankete katılan çalışanların yüzde 38’i önümüzdeki beş yıl içinde birçok işin yapay zeka tarafından ortadan kaldırılacağını beklerken, çok daha fazlası (%79) işlerin yapay zeka tarafından değiştirileceğini söyledi.

Dijital güven profesyonelleri kendi alanları hakkında daha iyimserdi; %82’si yapay zekanın kendi kariyerleri üzerinde tarafsız ve hatta olumlu bir etkisi olacağını iddia ediyordu. Ancak başarılı olmak için yeni becerilere ihtiyaç duyulacağını kabul ettiler ve %86’sı, işlerinde ilerlemek veya işlerinde ilerlemek için iki yıl içinde yapay zeka konusundaki bilgi ve becerilerini artırmaları gerektiğini düşünüyor.

Bu çalışma için ISACA, Avrupa’daki 601 işletme ve BT profesyoneliyle anket yaptı. Sonuçlar, yine gerçekleştirilen daha büyük bir uluslararası anketle uyumluydu.

ISACA’nın küresel strateji sorumlusu Chris Dimitriadis, işyerinde yapay zekanın anlaşılması konusunda yapılması gereken çok iş olduğunu söyledi. “Teknolojiyi derinlemesine anlamazsanız değer yaratamazsınız. Eğer teknolojiyi anlamazsanız riski gerçekten ortadan kaldıramazsınız” dedi.

Dimitriadis, yapay zeka ile ilgili mevcut durumun daha önce ortaya çıkan teknolojilerle aynı olduğunu ekledi. “Bunu çözmeye, politikalarını oluşturmaya ve becerileri oluşturmak için ekipleri bir araya getirmeye çalışan kuruluşlarımız var” dedi.

“Fakat aynı zamanda bu teknolojinin benimsenmesi aslında tüm bunların gerçekleşmesini beklemiyor. Çalışanların yazılı içerik oluşturmak için üretken yapay zeka kullandığını görüyoruz [and] ürün ekipleri, kuruluşa anlamlı bir şekilde yardımcı olabilecek bir çerçeveye yerleştirilmeden yapay zeka sağlayıcılarıyla yeni ortaklıkları test etmeye çalışıyor” diye ekledi.

Dimitriadis, şirketlerin yapay zekanın vaadini yakalama ve değer yaratma konusunda istekli olmasına rağmen birçoğunun eğitimi henüz ciddiye almadığı veya yapay zekayı güvenli bir şekilde kullanmak için personeline yeniden beceri kazandırmadığı konusunda uyardı. Computer Weekly’ye “Yenilik yapma ve yeni bir şey yaratma konusundaki susuzluğumuz bazen kurumsal politika yapılarını geride bırakıyor” dedi.

Örneğin daha büyük bir organizasyonda bazı bireysel departmanlar, üst yönetimin bu yeni teknoloji hakkında bilgi sahibi olmasına izin vermeden yapay zekayı kullanmaya başlayabilir. Diğer durumlarda, pazara çıkış süresi baskılarının siber güvenlik, güvence ve gizlilik çabalarını geride bırakabileceğini söyledi.

Yapay zeka riskleri konusunda eğitime ihtiyaç var

Ancak yapay zeka kullanımı ile yapay zeka yönetişimi arasındaki farkın en büyük nedeninin beceri eksikliği olduğu düşünülüyordu. “Örneğin siber güvenlik konusunda zaten çok büyük bir açığımız var. Şimdi yapay zeka ile bu uçurumun nasıl çok daha ciddi bir şeye dönüştüğünü hayal edin” dedi.

Bunun nedeni özellikle GenAI’nin sektöre ve uygulamaya bağlı olarak yeni güvenlik riskleri oluşturabilmesidir. Kişisel verileri işleyen şirketlerin, yapay zekanın önyargı yaratma, hatta kayıtlara eklenecek yeni ayrıntıları halüsinasyona uğratma riskinin farkında olması gerekir.

Ayrıca, dışarıdan gelen saldırı tehdidi de var; belki de yapay zeka sistemlerini kandırarak hassas verileri açığa çıkarabilecek istekler hazırlıyorlar. Diğer bir zorluk ise bazı yargı bölgelerinde yapay zekayla ilgili belirli düzenlemeler ortaya çıkarken, uzman olmayanların yapay zeka kullanımlarının hangi kuralları ihlal ettiğini görmelerinin zor olmasıdır.

Bu nedenle kuruluşların, kullanıcının beklentilerine göre çalıştığından emin olmak için yapay zekayı sonuçları açısından sürekli denetleme konusunda çok dikkatli olmaları gerektiğini söyledi.

Dimitriadis’e göre yapay zekaya ilişkin politika ve gözetim eksikliğini gidermeye yönelik ilk adım, kuruluş içindeki doğru kişileri eğitmek.

“Her şey her zaman insanlarla başlar. Eğer insanları eğitmişseniz o zaman bu insanlar doğru politikaları uygulamaya koyabilirler. Önce riski anlamanız, sonra politikayı yazmanız gerekiyor” dedi.

Aynı zamanda yapay zeka hakkındaki bu farkındalığın ve eğitimin uzmanların ötesine geçmesini sağlamakla da ilgili olduğunu, böylece çalışanların yapay zeka kullanımına ilişkin risklerin farkında olduğunu ve kasıtsız ihlallerden kaçınabileceğini söyledi.

“Bu, yapay zekanın benimsenmesiyle üretilecek değerin aynı zamanda risklerle dengede olmasını sağlamak açısından bir toplantı odası tartışmasıdır” diye ekledi.

Bunun bir kısmı, bilgi güvenliği sorumlusunun (CISO) yanı sıra eğitimli gizlilik ve risk uzmanlarının da hazır bulundurulması ve belirli bir kuruluşun işleyişi bağlamında zorluklar hakkında kurullarla konuşabilmesi olacaktır.

“Eğer yönetim kuruluna tehditlerle ilgili genel bir hikaye ile giderseniz, bu hiçbir zaman ikna edici olmayacaktır çünkü bu, şirket içindeki belirli bir gelir akışı bağlamına oturtulmayacaktır” dedi. “Her şey insanı eğitmekle başlar”



Source link