Üretken yapay zekanın veri merkezi üzerindeki etkisi


Daha fazla işleme, depolama ve güç ihtiyacı söz konusu olduğunda bile, üretken yapay zekanın (AI) benimsenmesinin veri merkezleri üzerindeki potansiyel etkisine ilişkin sorular devam etmektedir. Kesin olan bir şey varsa o da bir etkisinin olacağıdır.

Vertiv’in uygulama mühendisliği direktörü Slawomir Dziedziula, hiç kimsenin bireysel uygulamalar için güç tüketimini tam olarak hesaplamadığı konusunda uyarıyor. Bu nedenle, bu kadar çok talebin özellikle yazılım ve donanım gereksinimlerini nasıl etkileyeceği belirsizliğini koruyor.

Kripto madenciliğini yasaklayan ülkelerin altyapı etkileri ve sürdürülebilirlik konusunda benzer endişeleri olduğuna işaret ederek, “Kesin olarak söylemek için henüz erken,” diye katılıyor.

Dziedziula, “Bir taraf, üretici yapay zekaya ne kadar güvenebileceğinizdir, ancak onu kesinlikle bilginizi ve becerilerinizi geliştirmek için kullanabilirsiniz” diyor.

“Diğer bir şey ise, çok sayıda sunucuya, GPU’ya, veri depolama aygıtına vb. ve ardından mühendislerinize ihtiyacınız var. Uygulamalarda kullanmak için değer betikleri kullanıyorlarsa, özelleştirmeye ihtiyaçları olacak.”

Büyük bir dil modelinin (LLM) kullanımını kesin olarak belirlemek zaten zor olabilir. Deneyimli programcılar, yeni fikirler ve bakış açıları bulmak için üretken yapay zekayı kullanır, ancak bazıları nesnel olarak kötü sonuçları fark etmeyebilir, diyor.

Dziedziula, “Üretken yapay zekayı kullanarak herkes bir şeyde gerçekten iyi olduğuna inanabilir,” diye belirtiyor.

Üretken yapay zeka ile çalışmak, “muazzam” bir çok doğrulama gerektirir. Beceri setleri ve yeni uygulamalar gerekebilir. Siber güvenlik baskıları da yoğunlaşabilir. Örneğin ChatGPT, çok sayıda inandırıcı kimlik avı e-postası üretebilir.

Dziedziula, “Nitelikli işçilere bağımlılık artacak” uyarısında bulunuyor. “Yine de 10 kişi yerine sadece iki kişiye ve gerisini halletmek için akıllı bir yazılıma ihtiyacım var.”

BT güvenliği, güvencesi ve yazılım emanet sağlayıcısı NCC Group’un baş bilim adamı Chris Anley, veri merkezinin kaynak tüketimi, altyapı yönetimi ve güvenliğe yeni bir bakış atması gerekebileceğini söylüyor.

Gelişmekte olan ağ altyapılarının, mimarilerinin, veri depolama ve alma modellerinin güvence altına alınması gerekecek, bu nedenle etkiler sadece ölçek ve kapasite ile ilgili değil. Yeni yollarla sağlama, yapay zeka ve makine öğrenimi (ML) sistemlerinin eğitimi için iş hacmini elde etmek üzere ilişkisel veritabanlarının ötesine geçen internet ölçeğinde dağıtılmış depolama mekanizmalarını gerektirecektir.

“Bunu yapan tek bir kümeye sahip olamazsınız; yükü çok sayıda GPU arasında dağıtmanız gerekiyor,” diyor Anley. “Soğutma ve güçten ağların fiziksel ve mantıksal yapısına kadar yeni gereksinimler veri merkezlerini değiştirecek. Yapay zeka için optimize edilmiş bir veri merkezi, tipik kurumsal işlemler için optimize edilmiş bir veri merkezinden çok farklı görünebilir.”

Halihazırda adaptasyon modunda olan veri merkezleri

Yine de makine öğrenimi araçları, “üretken yapay zekanın dünyayı yediğine dair alarm verici medya abartısına” rağmen, pazara yıllardır kademeli olarak giriyor, diyor Anley.

Güvenlik kodu incelemesi için ChatGPT’yi kullandığını onaylıyor. Ancak, sorunların tam olarak belirlenmesine veya önceliklendirilmesine yardımcı olsa da, sonuçların tamamen güvenilir olmadığını düşünüyor. “Ya böcekleri tamamen gözden kaçırarak, sadece başka bir şeye odaklanarak ya da kurgusal böcekleri ‘halüsinasyona uğratarak’ gerçekler icat edebilir. İkisi de güvenlik açısından kötü.”

Çoğunlukla bundan çok az tehdit olduğunu eklemek için acele ediyor. Kodlama için üretken yapay zekaya ihtiyaç duyan programcılar, tipik olarak kritik kurumsal uygulamalar üzerinde çalışmayacaklar. Ayrıca, “ince hatalar” olmasına rağmen, kötü kod genellikle istediğiniz şeyi yapmadığı için hemen fark edilir.

Anley, “Kod, bir şarkı ya da tiyatro prodüksiyonu ya da bir düzyazı parçası gibi ‘çoğunlukla doğru’ olabildiği şeylerden biri değil,” diyor.

Üretken yapay zekanın esas olarak kalifiye personeli daha verimli ve üretken hale getirmeye devam etmesi muhtemeldir. %10’luk bir üretkenlik artışının bile organizasyon düzeyinde maliyeti azaltabileceğini söylüyor.

Üretici yapay zeka, bir programcının kitaplığa pek aşina olmadığı, o kitaplıktaki belirli işlevin adını bilmediği veya veri dönüştürme gibi belirli teknik görevler için kitaplık kodu gibi “küçük şeylerde zaten iyidir”. bir biçimden diğerine.

Anley, “Bir şeyi otomatik olarak tamamlayarak sizi web tarayıcısına veya belgelere gitmekten kurtaracak,” diye devam ediyor. “Müşterilerimizin çoğunun artık yapay zekayı şu veya bu şekilde müşteri desteği, sohbet robotları veya yalnızca dahili süreçleri optimize etmek için kullandığını düşünüyorum.”

Ancak, kurumsal ağlara aktarılan karmaşık yapay zeka veya makine öğrenimi geliştirme ve barındırma teknolojileri söz konusu olduğunda dikkatli olunması gerekir. Örneğin, çok sayıda eğitim verisini güvenlik sınırları boyunca bir araya getirmek, neyin “görülebileceği” üzerindeki önemli kontrolleri ortadan kaldırabilir.

Eğitim verileri, üyelik çıkarımı ve model ters çevirme gibi saldırılar kullanılarak eğitilmiş modellerden basitçe sorgulanarak alınabilir. “Sonuç, tanıdık SQL enjeksiyon veri ihlali saldırılarına benzer bir durum.”

En az bir tedarikçinin yakın zamanda üretici yapay zekayı yasakladığını, çünkü geliştiricilerin sadece yazmalarına yardımcı olmak için bir üçüncü taraf politika motoruna hassas kurumsal kod eklediklerini belirtiyor. Yine de bunu yapmamak sağduyulu olmalı ve birçok firma zaten üçüncü şahıslarla kod paylaşımını yasaklayan politikalara sahip.

Gowling WLG’nin ortağı ve AI yasası başkanı Matt Hervey, bu modelleri verileri mükemmel bir şekilde oluşturmak ve kategorize etmek için eğitmek hala zor olsa da, kalitenin son altı ila 12 ay içinde “önemli ölçüde yükselmiş gibi göründüğünü” söylüyor. Makine öğrenimi teknikleri standart araçlara dönüştürülürken, “derin etkiler” beklenebilir, ancak bunlar çoğunlukla iş fırsatlarını temsil edebilir.

Hervey, “Bunun veri merkezi işi için iyi bir haber olduğundan şüpheleniyorum… ve daha küçük eğitim setleriyle benzer sonuçlar elde etmeye yönelik hareketler var” diyor.

Bununla birlikte, belirli “kötü faaliyetler” özel alanda sonuçlanabilir ve yasal risk söz konusu olduğunda veri merkezlerinin tamamen korunup korunmayacağına dair sorular devam ediyor.

İşleme ve güçte daha önce görülenin ötesinde artışlar gerektiren makine öğrenimi kullanımındaki büyük artışla birlikte, bazıları bulut uygulamalarını veya hizmetlerini uca da taşıyacak. Örneğin, cep telefonlarında yerleşik işlem, gizlilik veya diğer yasal uyumluluk sorunları için potansiyel sunar.

Hervey, belirli faaliyetlerin veya rollerin “ekonomik değeri” hakkındaki görüşlerin değişmeye hazır olduğunu, bazı alanların veya faaliyetlerin az çok uygun maliyetli hale gelerek veri merkezleri de dahil olmak üzere çeşitli sektörler ve sektörler arasında dalgalanmaya başladığını söylüyor.

Gowling WLG’de Birleşik Krallık perakende, veri koruma ve siber güvenlik sektörlerinin ortağı ve eş başkanı Jocelyn Paulley, Londra gibi halihazırda kapasite sorunlarının olduğu yerlerde veri merkezi genişletmelerinin ve bağlantının zorluk ekleyebileceğini, ancak belki de altyapı ile çözülebileceğini ekliyor. ve soğutma yeniden düşünür ve artan sunucu yoğunlukları.

Veri merkezleri içerikle ilgili risklerden kaçınabilir

Örneğin, ChatGPT’nin dikkatsiz veya uyumsuz müşteri kullanımı, uygulamaları veya diğer kişilerin içeriğini barındırmayan müşteri yazılımlarına ve ortamlarına sıfır erişimi olan ortak yerleşim sağlayıcılarını etkilemeyecektir – ve bunun bir sorun olabileceği yerlerde, mevzuat zaten gelişmektedir, Paulley diyor.

BML Digital danışmanlık şirketinin baş teknoloji sorumlusu Jaco Vermeulen, üretken yapay zekanın siber saldırı açısından kaba kuvvet anlamına gelen aramadan daha gelişmiş bir şey yapmadığına dikkat çekiyor. LLM’ler yorumlamada veya analizde belirli faktörlerin birleştirilmesinde daha fazla insan müdahalesi gerektirebilirken, örneğin, en son AI yinelemesi “kendi başına gerçekten bir tehdit değildir”.

“Önce yönlendirilmesi ve ardından doğrulanması gerekiyor” diyor.

Veri merkezi erişimi zaten fiziksel, biyometrik veya “muhtemelen çift biyometrik” tanımlama ve ayrıca ikinci bir taraf gerektirir. Bir binaya erişmek için tipik olarak iki kişiye ihtiyaç duyulur ve her biri üç kimlik belirleme ve ardından doğrulama unsuruna sahiptir.

Vermeulen, AI’nın tüm bunları çıkarması için, internette bulunmayan kişisel bilgilere çok fazla erişime ihtiyacı var ve eğer veri çekiyorsa, erişmesi amaçlanmamış, bu onu kullanan kuruluşlara ve bireylere bağlı, diyor Vermeulen .

Daha fazla karmaşıklık elde etmek için daha karmaşık yönlendirmeler kullanmak yalnızca yanıtların “daha sefil bir şekilde başarısız olmasına neden olacaktır… çünkü bu, nasıl uygulanacağına dair gerçek bağlam olmaksızın size gerçek zekayı vermeye çalışacaktır. Vermeulen, yalnızca dar bant bir odağa sahip olduğunu söylüyor.

“Her yerde kötü ya da tembel oyuncular olacak. Bu makine kutunun ötesine geçmiyor. Ve eğer gelecekte Skynet’e dönüşürse, hadi fişini çekelim.”

Ayrıca Vermeulen, çoğu aracının, bir kuruluşun üzerinde tam kontrole sahip olduğu yerlerde konuşlandırılacağını söylüyor. Ayrıca, veri merkeziyle ilgili herhangi bir benzersiz önermeye olan ihtiyaca su döküyor.

Vermeulen, “Gerçek üründe gerçek bir iş gerekçesi olmadıkça, üretici yapay zeka çoğunlukla aynıdır” diyor. “Varyasyonları yakalayan çıktılı örüntü tanımadır. Tüketim, destek ve kapasite ile ilgili ticari model devam edecek.”

Profusion mühendislik başkanı Rob Farrow, çoğu yapay zeka modelinin kendi modellerini üretmek için aynı girdileri kullanarak yeniden eğitildiğini ekliyor. Kendi kendini tasarlama yeteneği gibi gelişmeler, yapay zekayı bazı arızalara karşı koruma veya öldürme anahtarı gerektirecek kadar tehdit haline getirebilse de, bu yaklaşık 10 yıl içinde pek olası görünmüyor.

Farrow, “Gerçekten geçerli bir karmaşıklık düzeyi veya insan zekası gibi bir şey yok” diyor. “Bir sürü teknik sorun var. Olduğu zaman, bunu düşünmemiz gerekiyor.”

Bu da bizi makine öğrenimi çalıştırmanın hesaplama maliyetine geri getiriyor. Örneğin, artan yazılım karmaşıklığından kaynaklanan daha fazla belirsizlik devam ediyor, bu nedenle daha fazla şey ters gidebilir. Bu, yazılımın şeffaflığını geliştirmeye ve nasıl çalıştığına veya karar verdiğine dair çalışmanın değerli olduğunu gösterir.

Farrow, daha az kod yazmak ve mümkün olan yerlerde basitleştirmenin yardımcı olabileceğini, ancak bunun için platformların genellikle yeterli nüans sağlamadığını söylüyor.

Yeterince güçlü veri temelleri olmadan üretici yapay zeka veya makine öğrenimi projelerine atlayan kuruluşlara karşı uyarıda bulunurken, güç, işleme ve depolama üzerindeki etkilerin, daha fazla öngörülebilirlik geliştirmek ve sistemler arasında tasarruf sağlamak için yapay zeka veya makine öğrenimi kullanılarak karşılanabileceğini öne sürüyor.

“Bazı Amazon veri merkezlerinde binlerce pil içeren güneş panelleri var, bu da büyük miktarlarda ısı üretiyor, ancak aslında sirkadiyen ritimlere dayalı olarak güneş enerjisini almak için makine öğrenimini kullanıyor” diyor.

Ancak birçok işletme, istedikleri bir yapay zeka veya makine öğrenimi modelinin peşine düşerek silaha atlıyor. Yeniden eğitemezseniz, gidip yeni veriler alamazsanız, görünürlüğünüz yoksa ve onu denetleyemezseniz, kum üzerine bir ev inşa ediyorsunuz. Kısa bir süre çalışıp sonra başarısız olabilir, diye uyarıyor Farrow.



Source link