Ancak, odada büyük bir fil var. Açık hesap verebilirlik çerçeveleri olmadan, bu 50 noktalı yol haritası, bir başarı hikayesinden ziyade uyarıcı bir masal olma riskiyle karşı karşıya. Bir AI sistemi halüsinasyona girdiğinde, önyargı sergilediğinde veya güvenlik ihlali yaşadığında, kim sorumluluk alır? Şu anda, cevap genellikle ‘bağlıdır’ ve bu belirsizlik inovasyonun en büyük tehdididir.
Gerçekten de, yirmi yılı aşkın bir süredir hükümet, eğitim ve ticari sektörlerde çalıştıktan sonra, hesap verebilirlik boşluklarının en iyi niyetli dijital programları bile nasıl raydan çıkarabileceğini gördüm. Tedarikten dağıtıma kadar net sorumluluk hatları oluşturma konusunda ciddileşmedikçe, hükümetin yapay zeka baskısı farklı olmayacak.
Tedarik şeffaflığı neden isteğe bağlı değil
Çoğu zaman, tedarik ekipleri, hangi veri modellerini eğittiklerini, kararların nasıl verildiğini veya AI’nın kendileri için doğru çözüm olup olmadığını anlamadan AI araçlarına taahhüt ediyorlar.
BT sağlayıcıların opaklığı burada önemli bir rol oynuyor. Birçok tedarikçi, eğitim verilerini ve algoritmaları tescilli sır olarak ele alır ve anlamlı şeffaflık yerine yalnızca üst düzey açıklamalar sunar. Bu arada, tedarik personeli genellikle AI’ye özgü riskleri değerlendirmek için eğitilmez, bu nedenle önyargı veya açıklanabilirlik hakkında kritik sorular sorulmaz.
Bir “AI çözümü” sağlamak için siyasi baskı, uygun tespiti geçersiz kılabilir. Yapay zeka o kadar bir inovasyon işareti haline geldi ki bazen temel sağduyu demiryolu olabilir – bunun yerine, geri adım atmalı ve bunun aslında iş için doğru araç olup olmadığını sormalıyız.
Kararlar birden fazla departman içerdiğinde ve hiç kimse AI’nın teknik temellerini doğrulamak için tamamen sorumlu olmadığında, boşluklar kaçınılmaz hale gelir. Alıcıların uygulanmadan önce araçlarla uygulamalı olmaları ve önyargıyı ölçebilen kıyaslama araçları kullanmaları gerekir. Tedarikçiler şeffaflık konusunda tereddüt ederse, alıcılar uzaklaşmalıdır.
İlk günden itibaren hesap verebilirlik tasarlamak
Peki, anlamlı tedarikçi hesap verebilirliği pratikte neye benziyor? Bir AI sisteminin verdiği her karar için satır satır sorumluluğu içeren sözleşmelerle başlar.
Tedarikçiler tamamen şeffaf karar akışları sağlamalı ve belirli çıktılar için akıl yürütmelerini, hangi verileri ve nedenini açıklamalıdır. Alıcılar daha sonra benzer AI tabanlı sistemler uygulayan referans istemcilerle konuşabilmelidir. En önemlisi, tedarikçilerin sistemlerinin işler ters gittiğinde nasıl izlenebileceğini, denetlenebileceğini ve açıklanabileceğini göstermeleri gerekir.
Sorumluluğu tahsis etmek için GDPR tarzı bir yaklaşımı destekliyorum, bu da kontrolle bağlantılı. Tedarikçiler kara kutuları minimum şeffaflık ile satmakta ısrar ederse, riskin çoğunu kabul etmelidirler. Flipside, alıcılara ne kadar şeffaflık, yapılandırma ve kontrol verirlerse, bu riski o kadar çok paylaşabilirler.
Örneğin, bir tedarikçi, önyargıyı ciddi şekilde değiştiren bir veri kümesinde eğitilmiş yeni bir model bırakırsa, bunlarda, ancak bir alıcı RAG tabanlı bir araç satın alır ve yanlışlıkla hassas veriler sunarsa, sorumluluk alıcıya aittir. Sözleşmelerin olası her bir başarısızlık senaryosunu açıkça tanımlaması, hesap verebilirlik ataması ve sonuçları açıklaması gerekir.
Amazon dronlarının ve sürücüsüz otomobillerin kaderinden kaçınmak için – yani, belirsiz sorumluluk zincirleri nedeniyle var olan ancak yasal limboda sıkışmış teknolojiler – kamu sektörü AI projeleri, başlangıçtan itibaren insan gözetimi ile tasarlanmalıdır. Her zaman çıktıları ve kararları kontrol edecek biri olmalı, sistemler doğruluklarını sürekli olarak kanıtladıkça yavaş yavaş gevşeyen yüksek başlangıç eşikleri ile.
Anahtar, çok fazla partinin gri sorumluluk alanları yarattığı durumlardan kaçınmaktır. Yasal uzmanlar, sorumluluk soruları cevaplanmamış olduğu için özerk araçlar ve teslimat dronlarında ilerlemeyi engellemek için yıllar geçirdiler. AI’nın aynı yolu izlemesine izin veremeyiz.
Sigorta Gerçekliği Kontrolü
Peki ya sigorta sektörünün tüm bunlardaki yeri? Künt gerçek, en azından şu anda, sigorta şirketlerinin AI’ya özgü risklere hazır olmadığı ve bu kamu sektörünün benimsenmesi için büyük bir sorun.
Sigortacılar, tarihsel kayıp verilerine dayalı fiyat riski, ancak yapay zeka o kadar hızlı gelişmektedir ki, model kayması, önyargılı zarar veya sistemik halüsinasyon hatalarını içeren iddialar için neredeyse hiçbir emsal yoktur. Birden fazla partiyi içeren AI dağıtımlarında, sigorta şirketleri kristal berraklığında sözleşmeye dayalı risk tahsisi olmadan maruziyeti değerlendirmek için mücadele etmektedir.
Teknik opaklık sorunu birleştirir. Sigortacılar, modellerin nasıl çalıştığı veya hangi veriler üzerinde eğitildikleri hakkında nadiren yeterli fikir edinir, bu da önyargı veya hızlı enjeksiyon saldırıları etrafındaki riskleri ölçmeyi neredeyse imkansız hale getirir.
Düzenleyici belirsizlik başka bir karmaşıklık katmanı ekler. AB AI Yasası, Birleşik Krallık’ın inovasyon yanlısı yaklaşımı ve sektöre özgü düzenlemeler akışta ve bu, sigorta şirketlerinin tutarlı terimler belirlemelerini ve alıcıların hangi kapsama ihtiyaç duyduklarını bilmelerini zorlaştırıyor.
AI çerçevelerinin ve politikalarının çoğalması cesaret vericidir, ancak uygulama mekanizmaları olmadan, pahalı evraklardan başka bir şey olma riskiyle karşı karşıya kalırlar. Bir engelleyici yerine kolaylaştırıcı yapmak için hesap verebilirliği tüm hükümet standartlarına yerleştirmemiz gerekiyor. Hükümetin AI Fırsatları Eylem Planı teknik olarak ulaşılabilir, ancak sadece sonradan düşünülmüş davranmanın aksine, başlangıçtan itibaren açık hesap verebilirlik önlemleri oluşturursak.
Alastair Williamson-Pound, hükümet, eğitim ve ticari sektörlerde 20 yılı aşkın deneyime sahip olan Mercator Digital’in baş teknoloji görevlisidir. HMRC, GDS ve Merkezi Hükümet için büyük programlar yürüttü.