İnsan-yapay zeka ortaklığı: güvenli kodlamaya yönelik bir rehber


[Pieter Danhieux Co-Founder and CEO, Secure Code Warrior]

Felaket tellalları şu ana kadar tartışmayı kaybediyorlar. Yapay zekanın insanların yerini almasıyla ilgili paniğe yeni bir anlatıyla karşılık verildi: “Yapay zekanın işinizi değiştirmek yerine yeniden tanımlamasına izin verin.” Stack Overflow tarafından yakın zamanda yapılan bir ankete göre, geliştiricilerin %44'ü yapay zeka araçlarını kullanıyor veya kullanmayı planlıyor; ancak yalnızca %3'ü sonuçların doğruluğuna “oldukça güveniyor”. İki kat daha fazlası (%6), güvenlik kaygıları ve yanlışlık nedeniyle yapay zekaya son derece güvenmediklerini söylüyor.

Geliştiriciler arasında bu araçların benimsenip benimsenmeyeceği konusunda en azından bazı tartışmalar devam ediyor, ancak birçok işletme bunları mümkün olduğunca test ediyor. Birleşik Krallık hükümetinin tutumu, “düzenleme konusunda acele etmemek” ve işletmeleri yapay zekanın faydalarını keşfetmeye teşvik etmek suretiyle “bırakınız yapsınlar” yönünde olmuştur. Pek çok geliştirici iyi sonuçlar bildiriyor; bazıları ise bunun üretkenliklerini artırdığını ve tekrarlanan görevlere harcanan zamanı azalttığını iddia ediyor.

Yapay zekanın geliştiricileri desteklemedeki rolü zamanla artacak ancak bu, güvenli kodlama uygulamalarının pahasına olamaz. Çabuk memnun etme zihniyeti ve “halüsinasyona” olan eğilimi, tamamen güvenmeyi imkansız kılan önemli bir endişe kaynağıdır. Bu sorun çözülene kadar (eğer çözülebiliyorsa), güvenliğin ön planda olmasını sağlayabilecek ve yapay zeka tarafından oluşturulan kodu olası güvenlik açıklarına karşı kontrol edebilecek yetenekli geliştiricilere ihtiyacımız olacak.

GenAI: bir yolculuk arkadaşı

Yapay zeka araçları, zaman alıcı ve monoton görevleri kolaylaştırmanın ötesinde, proaktif olarak yeni kod satırları önerebilir, teknik sorulara hızlı yanıtlar sağlayabilir, değerli araştırma desteği sunabilir, karmaşık süreçleri açığa çıkarabilir ve çok zor olan işi daha erişilebilir hale getirebilir. Github, yöneticilerin üretkenliği, işbirliğini ve yapay zeka kodlama araçlarını nasıl dikkate alması gerektiği konusunda geliştiricilere anket yaptı. Geliştiricilerin %80'inden fazlası, AI kodlama araçlarının ekipleri içinde daha fazla işbirliğini teşvik edeceğini öngörüyor ve %70'i, AI kodlama araçlarının, kod kalitesi, hız ve olay çözümü avantajlarıyla birlikte profesyonel rollerinde kendilerine rekabet avantajı sağlayacağına inanıyor.

Ancak bu aynı zamanda yeni bir güvenlik sorununu da beraberinde getiriyor; artık güvenlik açıklarına karşı kendi kodunuzu değil, yapay zeka yardımcınızın kodunu kontrol etmek yeterli. Yazılım geliştirmede güvenli kodlama uygulamalarına güçlü bir şekilde odaklanmak zaten çok önemli. İç Güvenlik Bakanlığı'nın son araştırması, yazılım açıklarının %90'ının tasarım ve yazılım kodlamasındaki kusurlardan kaynaklanabileceğini tahmin ediyor.

Yani yapay zeka üretkenlikte önemli ilerlemeler sunsa da yanılabilir ve dikkatli olunması gerekir, böylece avantajlar daha fazla güvenlik sorunu pahasına gelmez.

Güvenlik şerifleri olarak geliştiriciler

Doğrulama olmadan yapay zeka çıktılarına körü körüne güvenmek Vikipedi kullanmaya benzer: başlamak için iyi bir yer olsa da güvenilirliğinden emin olamazsınız. Hepimiz hâlâ Vikipedi kullanıyoruz; yalnızca risklerin farkında olmamız ve olası sorunları tespit etmek için doğru süreçleri uygulamaya koymamız gerekiyor.

Birleşik Krallık, Yapay Zeka Güvenlik Zirvesi'nden başlayarak halihazırda bazı girişimlerde bulundu. Bu toplantı, yapay zeka konusunda küresel bir fikir birliğine varılmasına yardımcı olmayı ve güvenliği artırmaya yönelik uluslararası çabaları teşvik etmeyi amaçlıyordu. Bu kurallar yapay zeka güvenliğinin geleceğini şekillendirmede kritik öneme sahip olacak. Yine de hükümetlerin bunları hazırlamasını bekleyemeyiz; geliştiriciler yeni teknolojilerin sorumlu bir şekilde kullanılmasını sağlamak için harekete geçmeli veya güvensiz yazılımlarla yapay zeka tarafından oluşturulan bir kabusu riske atmalıdır.

Geliştiricilerin, korumalı kod üretirken güvenli stratejileri yönlendirmek için kuruluşlarında güvenlik şerifleri olarak hareket etmelerine olanak sağlanmalıdır. Bu şu şekilde yapılabilir:

  • İnsan gözetimi ve uzmanlığı: Belirli yapay zeka araçları potansiyel güvenlik açıklarını ve tutarsızlıkları işaretlese de yine de insanların bu süreci denetlemesi gerekiyor. Üretilen kod ancak yapay zeka önerilerinin projenin daha geniş bağlamında nasıl uygulandığını anlaması gereken geliştiricinin sağladığı yönlendirmeler kadar doğru olabilir.
  • Karmaşıklıklara ve genel stratejiye dikkat edin: Yazılım üretiminde geliştiriciler kalite kontrol ekibinin rolünü üstlenebilirler. Yapay zeka tarafından oluşturulan kodu incelemek ve projenin standartlarını karşıladığından emin olmak için eğitilebilirler. Yapay zeka henüz karmaşık bileşenleri bağımsız olarak ele alma veya DevOps zorluklarına yönelik yenilikçi çözümler üretme becerisine sahip değil.

Neden “şerifler?” Günümüzün yapay zeka sınırı, çok az düzenlemeye ve gerçek bir tehlike potansiyeline sahip olan vahşi batıdır. Kuruluşlar sağlam düzenlemeleri bekleyemez; tüm işletmeyi kapsayan bir güvenlik kültürünü bugünden entegre etmeleri gerekiyor.

Reklam



Source link