Açık Yapay Zeka Yöneticisi, Yapay Zekanın “Son Derece Bağımlılık Yapıcı” Olduğu ve İnsanlığın “Köleleştirilebileceği” Uyarısında Bulundu


Yazan: Sai Mattapalli ve Rohan Kalahasty, Kurucu Ortaklar — Vytal.ai

Teknolojinin kötüye gitmesi ve yaratıcılarına yönelmesi fikri yeni değil. 200 yıldan fazla bir süre önce Mary Shelley, Frankenstein'ın canavarını yarattığında bunun neye benzeyebileceğini anlattı.

Son raporlar, kültürümüzün neredeyse her alanına nüfuz eden yapay zekanın, toplumun mücadele etmesi gereken bir sonraki teknolojik canavar olabileceğini öne sürüyor. Üretken yapay zeka devi OpenAI'nin CTO'su Mira Murati'ye göre bu raporlar çok uzakta olmayabilir.

Yakın zamanda yapılan bir röportajda Murati, yapay zekanın yanlış uygulanmasının trajik sonuçlara yol açabileceği konusunda uyardı. Yapay zekanın “yanlış şekilde” tasarlanabileceği ve bunun “aşırı derecede bağımlılık yapıcı” hale gelmesine ve kullanıcıların “köleleştirilmesine” yol açabileceği ihtimaline dikkat çekti.

Murati'den gelen yorum anlamlıdır. Kendisi “Yapay Zekadaki en güçlü kadın” olarak adlandırıldı. Çalıştığı şirket OpenAI, üretken yapay zeka alanında küresel bir liderdir. Ele alınması gereken risklere işaret ederse teknoloji dünyasının bunu dikkate alması gerekir.

Yapay zeka bağımlılığı nedir?

Yapay zeka bağımlılığı riski, teknolojinin kullanıcıların ne istediğini ayırt etme ve bunu daha ilgi çekici yollarla sunma yeteneğinden kaynaklanıyor. Örneğin yapay zeka, e-ticaret dünyasında son derece kişiselleştirilmiş alışveriş deneyimleri sağlamak için kullanılıyor. Yapay zeka, alışveriş yapanların neye harcama yapmak istediklerini hızlı bir şekilde belirleyebilir ve geçmiş satın alımlarla ilgili neredeyse sonsuz sayıda fırsat örneği sunabilir.

E-ticaret dünyasında kullanılan yapay zeka destekli kişiselleştirmenin aynısı diğer platformlara da uygulanabilir. Yayın platformları bunu izleyicileri belirli içerik türlerine bağlı tutmak için kullanabilir. Oyun platformları, uyarlanabilir zorluk ve diğer kişiselleştirme stratejilerini güçlendirerek oyuncuları daha derin etkileşime teşvik etmek için yapay zekayı kullanabilir. İnsanlığın yapay zeka tarafından köleleştirildiğine dair vizyonlar biraz distopik olsa da yapay zekanın bizi sağlıksız davranış kalıplarına yönlendirebileceği fikri uzmanların açıkça ifade ettiği bir konu.

Başlıca endişelerden biri yapay zekaya aşırı bağımlı hale gelmemizdir. Karar verme sürecimizi sürdürmekten arabalarımızı sürmeye kadar giderek artan sayıda görevi yerine getirmesi için ona güveniyoruz. Aşırı güvenme tam güvenmeye doğru ilerledikçe, perspektifi, bilgeliği ve değerli ve temel becerileri gerçekleştirme yeteneğini kaybetme potansiyeli artar.

Yapay zeka büyümesi ve siber güvenlik endişeleri

Yapay zekanın kullanımı arttıkça kötüye kullanım potansiyeli de artıyor. Yapay zeka esas olarak veri toplama ve işleme üzerine kuruludur, bu da siber saldırılarla tehlikeye atılabileceği anlamına gelir. Sağlıklı yapay zeka tehlikeli olarak görülmeye başlandıysa, kötü aktörler tarafından bozulan yapay zeka daha da tehlikelidir.

Örneğin, yapay zeka eğitim verilerine erişim sağlayan kötü aktörler bu verileri bozabilir ve yapay zekanın istenmeyen şekillerde davranmasına neden olabilir. Yapay zekanın, sürücüsüz bir arabanın trafik işaretlerini ve sinyallerini yanlış tanımlamasına neden olan zehirli verilerle beslenmesini yönlendirmek için tasarlandığını hayal edin. Sonuçları yıkıcı olabilir.

Yapay zeka önyargısına yol açan veri ihlalleri başka bir tehlikedir. Yapay zeka halihazırda tıbbi teşhis gibi hassas alanlarda karar alma sürecini yönlendirmek için kullanılıyor. Yanlış tanıya veya yanlış tedavi önerilerine yol açan önyargılar, hayatları riske atıyor.

Sorumlu yapay zeka kullanımını teşvik etmek

Yapay zekanın kötüye kullanımına karşı koruma, geliştirilmesine ve kullanımına etik hususların dahil edilmesiyle başlar. Geliştiricilerin potansiyel tehlikeleri düşünmesi ve yapay zeka araçlarını bunlara hitap edecek şekilde tasarlaması gerekiyor. Veriler yapay zeka öğreniminin temeli olduğundan, eğitim için kullanılan veriler dikkatli bir şekilde kaynaklanmalı ve korunmalıdır.

Yapay zekanın gelişimine çok sayıda bakış açısı getirmek de önemlidir. Yapay zeka bir teknoloji aracıdır ancak etkisi teknoloji dünyasının çok ötesinde hissedilmektedir. Farklı geçmişlere ve disiplinlere sahip kişileri içeren geliştirme ekipleri, ele alınması gereken tehlikelerin daha derinlemesine anlaşılmasına katkıda bulunur.

Yapay zekayı kullananlar için etik de devreye giriyor. İşletmeler yapay zeka kullanımını yönetecek politikalar geliştirmelidir. Yapay zekayla ilgilenen tüm çalışanlar, yapay zekanın etik olarak nasıl kullanılacağı ve kötüye kullanımın meydana geldiği durumların nasıl belirleneceği konusunda eğitim almalıdır.

Yapay zekanın kötüye kullanılması potansiyeli daha belirgin hale geldikçe hesap verebilirlik ihtiyacı da artıyor. Yapay zeka söz konusu olduğunda neyin kabul edilebilir olduğunu tanımlamaktan kim sorumludur? Gelişim yolundan saptığında düdüğü kim çalacak? Bizi köle olmaktan kim alıkoyacak? Uzmanların yapay zekayla ilgili yayınladığı yeni uyarı dalgasını göz önünde bulundurduğumuzda bunlar yanıtlanması gereken büyük sorulardan sadece birkaçı.

yazar hakkında

Açık Yapay Zeka Yöneticisi, Yapay Zekanın “Son Derece Bağımlılık Yapıcı” Olduğu ve İnsanlığın “Köleleştirilebileceği” Uyarısında BulunduRohan Kalahasty, Vytal.ai'nin kurucu ortağıdır. Üç yıldır Harvard Oftalmoloji Yapay Zeka Laboratuvarı'nda araştırmacı olarak görev yaptı; burada NeuroOS'u yönetti ve kuluçkaladı ve göz hastalığı teşhisini geliştirmek için matematiksel, istatistiksel ve yapay zeka modellemesinden yararlanan projeler üzerinde çalıştı. Ayrıca, Roivant Sciences'ta kuluçka lideri olarak görev yaptı ve potansiyel yeni bir vant'ın ilk aşamalarına liderlik etti. Ayrıca MIT'deki Beyin, Zihin ve Makine Merkezi'nde araştırma yaptı ve burada zamanını yapay zekayı kullanarak insan zekası ve hafızasını incelemeye adadı. Bu gruplarla çalışırken yapay zeka ile tıbbın kesişimine ve dijital biyobelirteçlerin yaratılmasına ilişkin derin bir içgörü geliştirdi; bu içgörünün Vytal'in gelişimi için çok önemli olduğu kanıtlandı. Thomas Jefferson Bilim ve Teknoloji Lisesi'nde son sınıf öğrencisidir.

Sai Mattapalli, Vytal.ai'nin kurucu ortağıdır. Sinirbilim alanında derin bir geçmişe sahip olan Sai, Georgetown Üniversitesi Nörofizyoloji Laboratuvarı'nda araştırma stajyeri olarak çalıştı ve burada Zebra balığının işitsel öğrenmesini test etmek için davranışsal paradigmalar geliştirdi. Aynı zamanda Harvard Med'deki Beyin Devresi Terapötikleri Merkezi'nde stajyer olarak görev yapıyor ve burada göz versiyonları yaşayan nöbet geçiren hastalar için oyundaki beyin ağlarının haritalanması üzerinde çalışıyor. Daha sonra girişimcilik ve finansa yönelen Sai, Quantbase'de (YC W23) iş geliştirme stajyeri olarak görev yaptı ve Wharton Yatırım Yarışması'nı kazanan DMV Finest'in bir parçası oldu.

Sai Mattapalli ve Rohan Kalahasty'ye şirketimizin web sitesi https://vytal.ai/ adresinden ulaşılabilir.



Source link