AI teknolojisi ilerledikçe, tanıdık ve ortaya çıkan risklere karşı dikkatli olmak önemlidir. Teknolojiyi ve sınırlamalarını anlamak standartları yükselttiği ve herkese fayda sağladığı için eğitim, sorumlu AI inovasyonunu teşvik etmek için kritik öneme sahiptir.
Bu Help Net Security röportajında, Armis’in kurucu ortağı ve CTO’su Nadir Izrael, sorumlu yapay zekayı teşvik etme konusundaki küresel çabaları ve varyasyonları ve ayrıca ABD’de sorumlu yapay zeka yeniliğini sağlamak için gerekli önlemleri tartışıyor.
Biden-Harris Yönetiminin sorumlu yapay zekayı ilerletme çabalarına ilişkin ilk izlenimleriniz nelerdir? AI ile ilişkili riskleri yönetmede doğru yoldalar mı?
Sorumlu yapay zeka sorununu ele alma çabası, doğru yönde atılmış proaktif bir adımdır. Bununla birlikte, AI ile ilişkili riskleri yönetmede doğru yolda olup olmadıkları hala belirsizdir ve yenilik ile düzenleme arasında doğru dengeyi bulmak da dahil olmak üzere çeşitli faktörlere bağlı olacaktır.
Serbest bir piyasada, sorumlu AI araştırma ve geliştirmeye öncelik vermek için yeterli teşvik olmayabilir. Dolayısıyla yönetimin bu konuda inisiyatif alması takdire şayan. İnisiyatiflerin inovasyon ve finansal ödüle izin veren bir denge kurması çok önemlidir. Bu tür bir esneklik olmadan, yapay zeka geliştiricileri, potansiyel olarak amaçladıkları amacı baltalayarak girişimleri atlatmanın yollarını arayabilir.
Öne sürülen plan harika bir başlangıç olsa da, sadece bu, bir başlangıç. AI Haklar Bildirgesi, bu alanda doğru politika ve düzenlemelere ilişkin sorumlu bir çerçeveye doğru yolculuğumuzun temelini atıyor.
Yönetim, kritik yapay zeka sorunları hakkında bir Bilgi Talebi (RFI) aracılığıyla kamu girdisi arar. Hükümetin yapay zeka risklerini yönetme ve fırsatlardan yararlanma stratejisini şekillendirmede kamu girdisinin önemi nedir? Halkın geneliyle olan bu etkileşim, politika kararlarını nasıl etkileyebilir?
İdarenin kamuoyu görüşüne yönelik talebi, farklı bakış açılarının önemini kabul eden kapsayıcı bir yaklaşımı göstermektedir. Hükümetin endüstri, akademi, sivil toplum ve genel halk dahil olmak üzere çok çeşitli paydaşlardan içgörü toplamasına olanak tanıdığı için kamu girdisi aramak hayati bir bileşendir. Bu girdi, AI ile ilişkili benzersiz fırsatların ve risklerin belirlenmesinde, politikaların şekillendirilmesinde ve halkın değerleri ve endişeleriyle uyumlu düzenlemeler oluşturulmasında etkilidir.
Genel halkla etkileşimde bulunmak, hükümet ile halk arasında güveni artırırken yapay zeka ile ilgili konularda farkındalığı ve anlayışı da teşvik eder. Hükümet, AI politikalarının ve düzenlemelerinin geliştirilmesine halkı dahil ederek, AI’nın toplumun çıkarlarına en iyi şekilde hizmet eden sorumlu dağıtımını teşvik edebilir.
ABD Eğitim Bakanlığı’nın eğitimde yapay zeka hakkındaki raporu, öğretme ve öğrenmede yapay zeka ile ilgili hem fırsatları hem de riskleri vurgulamaktadır. Raporda belirtilen bazı riskleri, özellikle de algoritmik önyargıyı detaylandırabilir misiniz? Eğitim ortamlarında yapay zekanın uygulanmasında güven, güvenlik ve uygun korkuluklar nasıl sağlanabilir?
AI ile ilgili ele almamız gereken çeşitli riskler var. Bunlardan bazıları şunlardır:
1. Etik kaygılar: AI sistemleri genellikle tüketicilere nesnel araçlar olarak pazarlanır. Ancak bunlar, teknolojilere dahil edilen, kendi öznel deneyimleri ve önyargıları ile insanlar tarafından tasarlanmış araçlardır. Bu etik zorluklar belirlenmeli ve öğretmenlere ve öğrencilere tanıtılmalıdır.
2. Algoritmik önyargı ve ayrımcılık: AI sistemleri, mevcut önyargıları ve ayrımcılığı sürdürebilir ve güçlendirebilir. İlk olarak, bir AI sistemi önyargılı veriler üzerinde eğitilebilir. İkincisi, AI sistemi, eğitim verilerinde açıkça kategorize edilmemiş olsalar bile, ırk veya cinsiyet gibi korunan özelliklerle ilişkili özelliklere dayalı olarak ayrımcılık yapmayı öğrenebilir. Bu, öğrenciler de dahil olmak üzere belirli insan gruplarına karşı haksız muameleye yol açabilir.
3. Siber güvenlik riskleri: Eğitimde AI kullanımı, özellikle hassas öğrenci verileri savunmasız bir şekilde toplanır ve saklanırsa, siber güvenlik risklerini artırabilir. AI, beslendiği verilerden öğrendiği için, topladığı gizli bilgileri istemeden diğer kullanıcılarla paylaşabilir.
4. Gizlilik endişeleri: Eğitimde yapay zekanın kullanılması, özellikle hassas öğrenci verilerinin uygun izin veya koruma olmadan toplanması ve kullanılması durumunda gizlilik endişelerini artırabilir.
5. yanlışlık: Yapay zeka sistemleri yalnızca üzerinde eğitildikleri veriler kadar doğrudur ve verilerdeki hatalar hatalı sonuçlara ve kararlara yol açabilir. “Halüsinasyonlar” olarak bilinen AI, veriler veya kanıtlarla desteklenmeyen yanlış sonuçlar üretebilir.
6. aşırı genelleme: Yapay zeka sistemleri, sınırlı verilerden aşırı genelleme yaparak yine yanlış veya haksız kararlara yol açabilir.
Siber güvenlik açısından, gizlilik ve güvenlik endişelerini ele almalıyız. Kötü aktörler, yapay zeka sistemlerinden hassas bilgileri çıkarmak için gizlilik saldırılarını başarıyla kullanıyor. Uygun güvenlik önlemleri olmadan, kurumlar ve bireyler risk altındadır. Örneğin, öğrencileri korumak için kurumlar, belirli durumlarda yapay zeka araçlarının kullanımını engelleyen politikalar uygulayabilir veya onları gizli bilgileri yapay zeka platformlarıyla paylaşmamaları konusunda uyaran eğitim içeriği sağlayabilir.
Algoritmik önyargılar, yanlışlıklar, aşırı genellemeler, modeller üzerinde eğitildikleri verilerin bir yansıması olduğundan, teknolojinin içsel sınırlamalarını temsil eder. Girilen verilerin doğrulanmış ve doğru olduğundan emin olunmasına özen gösterilse bile halüsinasyonlar yine de meydana gelebilir. Bu nedenle, AI kullanımında bir insan unsuru hala önemlidir. Doğruluk kontrolleri ve ayırt edici gözler, yanlışlıkların ayıklanmasına yardımcı olabilir. Topluluk odaklı etik yönergeler tarafından yönlendirilen konseyler önyargıları azaltmaya yardımcı olabilir.
Ulusal güvenlikle ilgili olarak, AI sistemleriyle ilgili hangi endişelerin ele alınması gerekiyor? Yapay zeka sistemlerine yönelik bazı siber tehdit örnekleri verebilir misiniz?
Jeopolitik bir bakış açısıyla, yapay zeka inovasyon yarışının düşmanca doğasını görmezden gelemeyiz. Yapay zeka destekli siber savaş, düşmanların dünya düzenini bozması için inanılmaz derecede etkili, uygun maliyetli bir araçtır. AI, hem ağlara hem de insanlara karşı silahlandırılabilir ve rekabet avantajı elde etmek için kullanılabilir.
Örneğin, suç grupları, kritik altyapıyı bozmak için yapay zeka destekli bilgisayar korsanlığı araçlarını kullanabilir. Çinli devlet destekli bilgisayar korsanlarının ulaşım ve denizcilik dahil olmak üzere sektörleri tehlikeye attığına dair son uyarıların ışığında, bu endişe çok önemlidir.
Ek olarak, deepfake kullanımının yaygınlaşması, ses ve görüntü oluşturma ve manipülasyon, özellikle yükselişte olan endişe verici bir tehdittir. Bu ikna edici manipülasyonlar, hassas ulusal güvenlik bilgilerini çıkarmak için kullanılabilir.
Politika yapıcılar bu risklerin farkındalar ve ulusal güvenlik çıkarlarını ve vatandaşlarımızın bireysel haklarını korurken ABD teknoloji şirketlerinin yenilik yapmasına izin verecek, rekabet gücü yüksek bir ortamı teşvik etmek için çalışıyorlar.
Biden-Harris Yönetimi tarafından gerçekleştirilen eylemler, sorumlu yapay zekayı teşvik etmeye yönelik küresel çabalarla karşılaştırıldığında nasıldır? ABD’nin diğer ülkelerin yaklaşımlarından öğrenebileceği dikkate değer farklılıklar veya alanlar var mı?
Birleşik Krallık, AB ve Kanada, kendi ülkelerinde sorumlu yapay zeka geliştirmeyi teşvik eden etik yönergeler yayınladı.
ABD, Biden yönetiminin son açıklamasıyla kulübe katılıyor. Hâlâ erken aşamalarda olmasına rağmen, yönetim, uzmanların içgörülerine güvenerek ve kamuoyundan bilgi talep ederek konuyu ciddi şekilde değerlendiriyor.
Amerika Birleşik Devletleri’nde sorumlu AI inovasyonunu sağlamak için hangi ek adımlar veya önlemler gereklidir? Hala ele alınması gereken alanlar veya daha fazla dikkat gerektiren potansiyel riskler var mı?
Doğru modeli tasarlamak ve geliştirmek, kamu ve özel sektör arasındaki kamu-özel sektör ortaklıklarına artan bir vurgu yapılmasını gerektirir. İyi bir başlangıç yaptık ancak geçmişin eski işbirlikçi modelleri yeterli olmayacak. Diğer ülkelerin AI araştırmalarında hızlı ilerlemeler kaydettiğini biliyoruz, bu nedenle bu konuyu ele alma ve üretken ve koruyucu bir ortam yaratma konusunda daha önce hiç görülmemiş bir hız ve hızda hareket etmemiz gerekiyor.
AI teknolojisi, ilerlemekte olan bir devrimdir. Tanıdık risklere ek olarak, dikkatli olmalı ve teknolojinin sunabileceği yeni riskleri sürekli olarak değerlendirmeliyiz. Sorumlu AI inovasyonunu sağlamak için önemli bir bileşen eğitimdir. İnsanlar tükettikleri teknolojinin ve mevcut sınırlamalarının arkasında ne olduğunu anladıklarında, standart yükselir ve hepimiz faydalanırız.