Hindistan’ın Yapay Zeka Politikası Dişlere Karşı Güveni Seçiyor


Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme

Gönüllü Kurallar İnovasyonu Teşvik Edebilir, Ancak Risk Tekrarlayan Politika Tuzakları

Rashmi Ramesh (raşmiramesh_) •
14 Kasım 2025

Hindistan'ın Yapay Zeka Politikası Dişlere Karşı Güveni Seçiyor
Resim: Freepik

Avrupa Birliği, cezaları 35 milyon avroya ulaşan 459 sayfalık bir yapay zeka yasası hazırlamak için yıllarını harcarken ve Singapur’un gönüllü çerçevesi bu Aralık ayında bankalar için yapay zeka denetimlerini zorunlu kılacak şekilde gelişirken, Hindistan bu Kasım ayında farklı bir iddiaya girdi: hiçbir yeni yasa yok.

Ayrıca bakınız: Yapay Zeka Güvenlik Duvarları Yeni Gelişen API Saldırılarıyla Gerçek Zamanlı Mücadele Ediyor

Elektronik ve Bilgi Teknolojileri Bakanlığı bunun yerine, şirketlere kendi denetimlerini yapmalarını, mevcut düzenleyicilerle koordinasyon sağlamalarını ve gönüllü güvenlik protokollerini takip etmelerini tavsiye eden Yapay Zeka Yönetişim Kılavuzlarını açıkladı. Hindistan’ın Yapay Zeka Yönetişim Yönergeleri Ölçeklenebilir Yapay Zekayı Destekleyebilir mi?).

Bu, Hindistan’ın daha önce denediği bir strateji. Aadhaar, kapsamlı gizlilik yasalarının ortaya çıkmasından yıllar önce bir milyardan fazla insanı biyometrik veri tabanına kaydettirmişti. UPI, dijital ödemeleri ağır düzenlemeler yerine koordineli standartlar yoluyla dönüştürdü. Artık yapay zeka sistemleri güçlendikçe Hindistan, gönüllü çerçevelerin yasa koyuculardan daha hızlı ilerleyebileceğine inanarak, yasaklama yerine iknayı bir kez daha seçti.

Singapur da benzer gönüllülüğü denedi ancak kritik sektörlerde uyumu zorunlu kılmaya başladı. Japonya, yapay zeka eğitim verileri için yasal korumaları kanunlaştırdı. Güney Kore yapay zeka etiğini araştırma finansmanına bağlıyor. Hindistan henüz bunların hiçbirini yapmadı.

Bu yaklaşımın tarihi iki hikaye anlatır. UPI’nin milyarlarca aylık işlemi işlemesi gibi bazen muhteşem bir şekilde çalışıyor. Aadhaar’ın 2009’daki lansmanından Yüksek Mahkeme’nin 2018’deki kararına ve nihayet 2023’te kabul edilen veri koruma yasasına kadar olan yolculuğunda olduğu gibi, bazen korumaları güçlendirmek on yıldan fazla zaman alıyor. Şimdi soru, yapay zekanın hangi modeli izleyeceğidir.

Tanıdık Bir Başucu Kitabı

Aadhaar programı, kapsamlı veri koruma mevzuatı olmadan hızla ölçeklendi. Bu genişleme sırasında gizlilik endişeleri ve veri ihlalleri ortaya çıktı. 2016 yılında Hindistan Ulusal Ödemeler Kurumu tarafından RBI rehberliğinde başlatılan UPI, başlangıçtan itibaren iki faktörlü kimlik doğrulama da dahil olmak üzere güvenlik önlemleriyle tasarlanan farklı bir yol izledi. Sosyal medyaya yönelik BT Kuralları, yinelemeler yoluyla gelişti; en son 2021 kuralları, dijital platformlara önemli uyumluluk gereksinimleri getiriyor.

Yapay Zeka Yönetişim Yönergeleri, kuralcı talimatlar yerine gönüllü çerçevelere ve koordinasyona dayanarak bu modeli sürdürüyor. Önerilen Yapay Zeka Güvenlik Enstitüsü ve Yapay Zeka Yönetişim Grubunun bu çerçeveyi uygulamak için kurulması ve kaynak sağlanması gerekecektir.

Düzenleyici Olmayan Yaklaşım

Hindistan’ın stratejisi Avrupa’nınkinden önemli ölçüde farklı. Ağustos 2024’te yürürlüğe giren AB Yapay Zeka Yasası, yüksek riskli sistemler için belirli yükümlülükler ve uygunluk değerlendirmeleriyle birlikte kabul edilemez, yüksek, sınırlı ve minimum riski içeren risk bazlı sınıflandırmayı kullanır. Hindistan’ın yönergeleri yukarıdan aşağıya sınıflandırmayı reddediyor, riski bağlamsal olarak ele alıyor ve Dijital Kişisel Verileri Koruma Yasası ve BT Yasası gibi mevcut yasalar aracılığıyla yönetiliyor. Yapay zekanın tarımı, sağlık hizmetlerini ve kamu hizmetlerini etkilemesinin beklendiği bir ülkede politika yapıcılar yapay zekaya özel yeni mevzuatı tercih etmedi.

Ancak bu esnekliğin bazı ödünleşimleri var. AB uygulanabilir hesap verebilirlik yaratır; Hindistan, sorumluluğu sektörel düzenleyiciler (finans için Hindistan Merkez Bankası, telekomünikasyon için Hindistan Telekom Düzenleme Otoritesi ve menkul kıymetler için Hindistan Menkul Kıymetler ve Borsa Kurulu) arasında dağıtırken denemelere de olanak tanıyor. Her biri yapay zeka yönetimini bağımsız olarak yorumladığında koordinasyon zorlaşır.

Akranlardan Öğrenmek ve Farklılaşmak

Singapur’un 2019’da başlatılan Model Yapay Zeka Yönetişim Çerçevesi, hesap verebilirlik çerçeveleri ve denetimlerle birlikte yumuşak kanunları kullanıyor. Singapur Para Otoritesi, büyük ölçüde gönüllü olmasına rağmen, Aralık 2024’te finansal kurumlar için belirli gereklilikleri zorunlu hale getirdi. Güney Kore’nin Yapay Zeka Etik Tüzüğü, gönüllü kuralları devlet tarafından finanse edilen araştırma ve geliştirmeye bağlayarak finansmana dayalı teşvikler yaratıyor.

Hindistan’ın yönergeleri farklıdır. Periyodik denetimler veya bağımsız doğrulama için belirlenmiş bir gereklilik yoktur. Modeller zarar verdiğinde hiçbir yetki açıklama gerektirmez. Önerilen yapay zeka olay veritabanı, zorlayıcı raporlar için uygulama mekanizmalarından yoksundur. Yönergeler GPU erişimini genişletmeyi ele alıyor ancak Singapur ve Güney Kore’nin de dahil ettiği hükümler olan hesaplama konsantrasyonuna ilişkin gözetimi atlıyor.

Fikri mülkiyet ve veri kümesi yönetimi konusunda yönergeler henüz oluşturulmamış bir komiteye devrediliyor. Japonya, telif hakkı yasasında metin ve veri madenciliği istisnalarını düzenleyerek yapay zeka eğitimi için net sınırlar oluşturdu. Hindistan bunu yapmadı.

Gönüllü Çerçevelerin Zorluklarla Karşı Karşıya Olduğu Yerler

Gönüllü uyum, şirketlerin sorumlu davranışı avantajlı olarak görmesi durumunda işe yarar. Hindistan’ın BT sektörünün veri koruma konusundaki ilk öz düzenlemesi, küresel müşterilerin sertifika talep etmesiyle gelişti. Benzer bir durum yapay zeka için de geçerli olabilir: Yabancı alıcılar AB Yapay Zeka Yasası standartlarına bağlı kalmayı talep edebilir ve bu da yerel düzenlemelere bakılmaksızın uyumluluğu teşvik edebilir.

Komiteye dayalı yönetişim, iyi kaynaklara sahip kuruluşların lehine olabilir. Büyük platformlar, güvenlik denetimlerini ve şeffaflık raporlamasını start-up şirketlere göre daha kolay karşılayabilir. Farklılaştırılmış gereklilikler olmadan, gönüllü çerçeveler yerleşik oyunculara istemeden de olsa avantaj sağlayabilir.

Yönergelerin “derecelendirilmiş sorumluluk” kavramı, yapay zeka geliştiricileri ve dağıtımcıları arasında ayrım yapıyor ancak “durum tespiti”nin belirli yasal tanımları belirsiz. Uygulama zaman çizelgeleri veya yaptırım yolları olmadan hesap verebilirlik mekanizmaları belirlenmemiştir.

Küresel Konumlandırma

Hindistan, ne AB’nin yasama yaklaşımını ne de Çin’in devlet kontrolündeki modelini tercih ederek, uluslararası yapay zeka yönetişiminde farklı bir konum ediniyor. Bu, Dijital Kamu Altyapı çerçevelerinin Afrika, Latin Amerika ve Güneydoğu Asya’ya ihraç edilmesiyle uyumludur.

Güvenilirlik kanıtlanabilir uygulamaya bağlıdır. İçerik kimlik doğrulaması, şeffaf denetimler ve işleyen bir şikayet mekanizması gibi görünür sonuçlar olmadan çerçevenin uluslararası etkisi belirsizdir. Gelişimi, kurumların nasıl kaynak sağladığına, düzenleyicilerin nasıl koordine ettiğine ve yapay zeka teknolojisi geliştikçe nasıl uyum sağladığına bağlı olacaktır.





Source link