ChatGPT’nin Kasım 2022’de Open AI tarafından piyasaya sürülmesinden bu yana, üretken yapay zeka (GenAI) araçlarına olan ilgi önemli ölçüde arttı. Bir soruya veya talebe dayalı olarak yanıt oluşturma yeteneği, e-posta yazmaktan sohbet robotlarını desteklemeye kadar çeşitli amaçlarla kullanıldığını gördü.
Son zamanlarda Çalışma eğilimi endeksi Microsoft’un 31.000’den fazla profesyonel çalışanın katıldığı bir ankete dayanan raporu, bilgi çalışanlarının %75’inin artık işlerinde bir çeşit GenAI kullandığını ve ankete katılanların neredeyse yarısının bunu son altı ay içinde kullanmaya başladığını gösteriyor. Bununla birlikte, GenAI kullananların yaklaşık %80’i işe kendi yapay zekalarını getiriyor ve küçük işletmelere odaklanıldığında bu oran biraz artıyor. Bu benimsemenin yalnızca yeni teknolojiyi benimseme olasılığı daha yüksek olan genç kullanıcılar tarafından değil, her yaştan kullanıcılar tarafından da benimsendiğini belirtmekte fayda var.
Daha fazla bilgi üretilip işlenmesi gerektikçe, dijital borç olarak bilinen durumla giderek daha fazla mücadele ediyoruz. Bunun bir örneği aşırı e-postadır. Microsoft raporu, e-postaların yaklaşık %85’inin 15 saniyeden kısa sürede okunduğunu belirtiyor; bu da insanların neden çalışma hayatlarındaki sıradan görevleri kolaylaştırmaya yardımcı olan araçlara yönelmeye istekli olduklarını gösteriyor.
Microsoft’un modern çalışma iş grubu kıdemli yöneticisi Nick Hedderman, “On yıllardır biriken bir dijital borç var, ancak salgın sırasında daha da hızlandı” diyor. “Konuştuğumuz kişilerin %68’i iş yoğunluğu ve temposundan dolayı zorluk yaşadıklarını söyledi. Neredeyse %50’si tükenmiş hissettiklerini söyledi.”
Genellikle profesyoneller tarafından kullanılan üretken yapay zeka araçları, akıllı telefonlarda (Galaxy AI gibi) veya internette (ChatGPT gibi) bulunan araçlardır. Ne yazık ki bu araçlar açık kaynak olduğundan kurumsal gözetimin dışındadır. Ayrıca, çevrimiçi bir araç ücretsiz olduğunda, bilgileri başkaları tarafından da kullanılabilen kullanıcı genellikle ürün olur.
“Eğer ücretsizse, bunu herhangi bir sosyal medya sitesiyle aynı şekilde düşünmeniz gerekir. Hangi veriler üzerinde eğitim veriliyor? Esasen, artık meta mısın?” Microsoft’un güvenlik şefi Sarah Armstrong-Smith diyor. “Ne koyarsanız koyun, eğitim modellerine de giriyor mu? Verilerin güvenli bir şekilde tutulduğunu ve başka amaçlarla kullanılmadığını nasıl doğruluyorsunuz?
Her şeyden önemlisi, harici üretim araçlarının kullanımı, bir Yapay Zeka sorunu olmaktan ziyade bir veri yönetimi sorunudur; çünkü bu, BT departmanı tarafından denetlenmeyen bir kuruluşta kullanılan donanım veya yazılım olan gölge BT’ye dayanır.
“Her zaman onaylanmış ve onaylanmamış başvurularınız oldu. Bulut platformları arasında veri paylaşımı konusunda her zaman zorluklarla karşılaştınız” diyor Armstrong-Smith. “Herhangi bir kurumsal sistemden bir şeyi kesip yapıştırmak ve bunu bir bulut uygulamasına koymak bu kadar kolaysa, ister üretken bir yapay zeka uygulaması ister başka bir uygulama olsun, veri yönetimi ve veri sızıntısı ile ilgili bir sorununuz var demektir. Veri kontrolü, veri yönetimi ve tüm bunlara ilişkin temel konular ortadan kalkmıyor. Aslında vurgulanan şey yönetişim ve kontrol eksikliğidir.”
Veri yönetimi
Harici üretken yapay zeka araçlarını kullanmanın veri yönetimi sorunu iki yönlüdür.
Birincisi, kullanıcıların potansiyel olarak gizli bilgileri kopyalayıp üzerinde kontrol sahibi olmadıkları çevrimiçi bir araca yapıştırdıkları veri sızıntısı var. Bu verilere başkaları tarafından erişilebilir ve yapay zeka araçlarının eğitiminde kullanılabilir.
Sarah Armstrong-Smith, Microsoft
Bir kuruluşun bilgi tabanına doğrulanmamış ve doğrulanmamış bilgilerin eklenmesi durumunda da kuruluşa sızıntı söz konusudur. Kullanıcılar çoğunlukla harici bir GenAI aracı tarafından sağlanan bilgilerin doğru ve uygun olduğunu varsayıyorlar; verilerin gerçek anlamda doğru olduğundan emin olmak için verileri doğrulamıyorlar ve internette bilgi ararken bunu yapma olasılıkları daha yüksek.
“Tehlike şu ki, doğrulamadığınız ve ne üzerinde eğitildiğini bilmediğiniz rastgele bir veri kümesini alıp daha sonra bu veri kümesini kurumsal bir ortama getirirseniz veya tam tersi olursa, gerçek modeli veya algoritmayı bile zehirleyebilirsiniz çünkü Doğrulanmamış verileri kurumsal veri kümesine dahil ediyorsunuz” diyor Armstrong-Smith.
Bu ikincisi daha ciddi bir sorundur çünkü potansiyel olarak yanlış veya yanıltıcı veriler bir bilgi tabanına dahil edilir ve karar alma süreçlerini bilgilendirmek için kullanılır. Ayrıca şirket içi yapay zekayı eğitmek için kullanılan veri kümelerini zehirleyebilir ve böylece yapay zekanın yanıltıcı veya yanlış bilgi vermesine neden olabilir.
Uygunsuz şekilde kullanılan GenAI araçlarının kötü sonuçlara yol açtığını zaten gördük. Üretken yapay zeka, yasal belgelerin yazılmasına yardımcı olacak olası bir araç olarak hukuk mesleğinde deneniyor. Bir örnekte, bir avukat bir dosya hazırlamak için ChatGPT’yi kullandı, ancak üretken yapay zeka, mahkemeye sunulan sahte davaları halüsinasyona uğrattı.
Armstrong-Smith, “Kurumsal bir ortamda bunların iş verileri olduğu konusunda dikkatli olmanız gerekir” diyor. “Bu bir iş bağlamı, peki bugün tüm yönetişimi yerinde tutacak hangi araçlara sahipsiniz? Güvenliği olacak; dayanıklılığa sahip olacak. Tasarım gereği tüm bu şeylere sahip olacak.”
Çalışanların önemli bir kısmı rutin olarak harici uygulamalara güveniyorsa, o zaman bu dijital araca açıkça ihtiyaç vardır. En uygun üretken yapay zeka çözümünü belirlemek için en iyisi kullanım senaryolarını belirlemektir. Bu şekilde, çalışanların ihtiyaçlarını karşılamak ve mevcut iş akışlarına sorunsuz bir şekilde uyum sağlamak için en uygun araç devreye alınabilir.
ChatGPT gibi açık bir platform yerine kurumsal üretken bir yapay zeka aracı kullanmanın temel avantajı, veri yönetiminin geliştirme süreci boyunca sürdürülmesidir. Araç ağ sınırları içerisinde tutulduğu için kurumsal veriler korunabilmektedir. Bu, harici araçların kullanılmasından kaynaklanan olası sızıntıları azaltır.
Kurumsal bir yapay zeka aracı kullanılarak sunulan koruma, arka uç sistemin yapay zeka sağlayıcısı tarafından korunmasıdır. Ancak kullanım senaryolarında ve dağıtım modellerinde olduğu gibi ön uç korumasının kullanıcı kuruluşunun sorumluluğunda olmaya devam ettiğini belirtmekte fayda var. Veri yönetiminin kilit nokta olmaya devam ettiği ve üretken yapay zeka araçlarını devreye alırken herhangi bir geliştirme sürecinin temel bir unsuru olarak düşünülmesi gereken yer burasıdır.
Armstrong-Smith, “Buna her zaman ortak sorumluluk modeli olarak değindik” diyor. “Platform sağlayıcıları altyapıdan ve platformdan sorumludur ancak verileriniz ve kullanıcılarınız açısından platformla ne yaptığınız müşterinin sorumluluğundadır. Doğru yönetime sahip olmaları gerekiyor. Bu kontrollerin çoğu zaten varsayılan olarak yerleşiktir; sadece onlardan faydalanmaları gerekiyor.
Kullanıcılar arasında farkındalık
Üretken yapay zeka araçları şirket içinde kullanıma sunulduktan sonra çalışanların bunların kullanılabilmesi için onların varlığından haberdar olmaları gerekir. Çalışanların harici GenAI platformlarını kullanmaya dayanan bir çalışma yöntemi geliştirmeleri durumunda bunların benimsenmesini teşvik etmek zor olabilir.
Bu nedenle, üretken yapay zeka aracını destekleyen bir farkındalık programı, kullanıcıları aracın erişilebilirliği ve işlevselliği konusunda eğitecektir. İnternet denetleme sistemleri, kullanıcıları harici platformlardan şirket içi GenAI aracına da yönlendirebilir.
Üretken yapay zeka kalıcı olacak ve beklentiler zirveye ulaşmış olsa da kullanımlarının artması ve her yerde yaygınlaşması bekleniyor.
Henderson, “Bence pek çok şirket için Microsoft’un odaklandığını kesinlikle göreceğiniz yer, bu aracılı üretken yapay zeka kavramıdır” diyor. “Burası bir iş sürecini ele aldığınız ve bir temsilcinin bir kuruluşa dahili olarak nasıl hizmet edebileceğini çözdüğünüz yerdir.” Bir temsilci, bir kuruluşun ağı içinde çalışabilir ve toplantı planlamak veya fatura göndermek gibi belirli işlevleri yerine getirebilir.
Üretken yapay zeka, sıradan ve zaman alıcı görevleri hafifletebilecek yeni bir teknoloji olmasına rağmen, veri koruması temel bir endişe kaynağı olmaya devam ediyor. Bu nedenle, çalışanların harici araçların kullanılmasının oluşturduğu riskler konusunda bilinçlendirilmesi ve verilerinin kutsallığını korumak için kendi ağlarında uygun üretken yapay zeka araçlarına sahip olması kuruluşların sorumluluğundadır.
Armstrong şu sonuca varıyor: “Teknolojiyle ilgili bildiğimiz gibi, metalaştıkça fiyat düşecek, bu da yapay zekanın genel olarak daha yaygın olacağı ve hangi modeli kullanacağınız konusunda daha fazla seçeneğiniz olacağı anlamına geliyor.” Smith.