Yapay zeka eğilimi veri yönetimini sıfır güven modellerine doğru itiyor


Yapay zeka (AI) modellerinin ürettiği doğrulanmamış ve düşük kaliteli veriler (genellikle AI eğilimi olarak bilinir), daha fazla güvenlik liderini veri yönetimi için sıfır güven modellerine bakmaya zorluyor; Gartner’ın öngörülerine göre kuruluşların %50’si muhtemelen 2028 yılına kadar bu tür politikaları benimsemeye başlayacak.

Şu anda, büyük dil modelleri (LLM’ler) genellikle dünya çapındaki ağdan ve kitaplar, araştırma makaleleri ve kod depoları dahil olmak üzere diğer kaynaklardan – izinli veya izinsiz – alınan veriler üzerinde eğitilmektedir. Bu kaynakların birçoğu zaten yapay zeka tarafından üretilen verileri içeriyor ve mevcut yayılma hızıyla birlikte, neredeyse tamamı eninde sonunda bunlarla doldurulacak.

Gartner’ın CIO’lar ve teknoloji yöneticileri üzerinde Ekim 2025’te yayınlanan bir araştırması, yanıt verenlerin %84’ünün 2026’da üretken yapay zeka (GenAI) fonlarını artırmayı beklediklerini ve bu eğilim hızlandıkça yapay zeka tarafından üretilen verilerin hacminin de artacağını, yani gelecekteki LLM’lerin mevcut olanlardan elde edilen çıktılarla giderek daha fazla eğitileceği anlamına geliyor.

Analist evi, bunun, modellerin kendi halüsinasyonlarının ve yanlış gerçekliklerinin birikmiş ağırlığı altında tamamen çökme riskini artıracağını söyledi.

Gartner, yapay zeka tarafından üretilen verilerin artan hacminin yüksek lisansların güvenilirliğine yönelik açık ve mevcut bir tehdit olduğunun açık olduğu konusunda uyardı ve genel başkan yardımcısı Wan Fui Chan, kuruluşların artık verilere örtülü olarak güvenemeyeceğini veya bunların bir insan tarafından oluşturulduğunu bile varsayamayacağını söyledi.

Chan, “Yapay zeka tarafından oluşturulan veriler yaygınlaştıkça ve insan tarafından oluşturulan verilerden ayırt edilemez hale geldikçe, kimlik doğrulama ve doğrulama önlemlerini belirleyen sıfır güven duruşu, iş ve finansal sonuçları korumak için hayati önem taşıyor” dedi.

‘Yapay zeka içermeyen’ veriler doğrulanıyor

Chan, yapay zeka tarafından üretilen veriler daha yaygın hale geldikçe, kendi deyimiyle “Yapay Zeka içermeyen” verilerin doğrulanmasına yönelik düzenleyici gerekliliklerin birçok bölgede muhtemelen yoğunlaşacağını, ancak bu düzenleyici rejimlerin katılıklarının kaçınılmaz olarak değişeceğini söyledi.

“Bu gelişen düzenleyici ortamda, tüm kuruluşların yapay zeka tarafından oluşturulan verileri tanımlama ve etiketleme yeteneğine ihtiyacı olacak” dedi. “Başarı, doğru araçlara ve bilgi ve bilgi yönetimi konusunda yetenekli bir iş gücünün yanı sıra veri kataloglama için gerekli olan meta veri yönetimi çözümlerine bağlı olacaktır.”

Chan, aktif meta veri yönetimi uygulamalarının bu gelecekte önemli bir fark yaratacağını ve kuruluşların çeşitli veri varlıkları genelinde karar alma sürecini analiz etmesine, uyarmasına ve otomatikleştirmesine olanak tanıyacağını öngörüyor.

Bu tür uygulamalar, veriler eskidiğinde veya yeniden sertifikalandırılması gerektiğinde gerçek zamanlı uyarı verilmesini sağlayarak kuruluşların, iş açısından kritik sistemlerin ne zaman bir saçmalık akışına maruz kalmak üzere olabileceğini belirlemelerine yardımcı olabilir.

Riskleri yönetmek

Gartner’a göre kuruluşların güvenilmez yapay zeka verilerinin risklerini yönetmek ve azaltmak için kullanabilecekleri başka yollar da var.

İş dünyası liderleri, risk yönetimi, uyumluluk ve sıfır güven konularını kapsayan özel bir yapay zeka yönetişim liderliği rolü oluşturmayı düşünebilir. İdeal olarak, belki de CAIGO olarak adlandırılan bu yapay zeka yönetişim yetkilisinin, veri ve analiz (D&A) ekipleriyle yakın çalışma konusunda yetkilendirilmesi gerekir.

Buna ek olarak kuruluşlar, yapay zeka tarafından oluşturulan veri risklerini belirleyen veri risk değerlendirmelerini yürütmek ve hangilerinin mevcut politikalar kapsamında ele alınabileceğini ve hangilerinin yeni stratejilere ihtiyaç duyduğunu belirlemek için D&A ve siber güvenliği bir araya getiren işlevler arası ekipler oluşturmaya çalışmalıdır. Bu ekipler, bu haber risklerini ele almak amacıyla güvenlik, meta veri yönetimi ve etikle ilgili politikaların güncellenmesine odaklanmak için mevcut D&A yönetişim çerçevelerini geliştirebilmelidir.



Source link