Yapay Zeka ve Makine Öğrenimi , Sağlık Hizmetleri , Sektöre Özgü
Yapay Zeka Araçları, Klinisyenler İçin Cazip Verimlilik Yardımcılarıdır, Ancak Hasta Verilerinin Riskleri Nelerdir?
Marianne Kolbasuk McGee (SağlıkBilgisi) •
18 Ocak 2023
Floridalı bir doktorun ChatGPT’yi kullanarak bir sigortacıya hasta teminatını savunan bir mektup yazmak için nasıl kullandığını TikTok’ta açıklamasının ardından sağlık avukatları, klinisyenlerin yapay zeka araçlarını üretkenlik artırıcı olarak kullanma konusunda iki kez düşünmeleri gerektiği konusunda uyardı.
Ayrıca bakınız: Modern EDR ile Karmaşık Olmadan Güvenliği Yaşayın
Palm Beach merkezli romatolog Dr. Clifford Stermer, sosyal medya platformunda ChatGPT’den UnitedHealthcare’e hamile bir hasta için pahalı bir anti-inflamatuar ilacı onaylamasını isteyen bir mektup yazmasını nasıl istediğini gösterdi.
Reçetenin Crohn’lu hamile hastalar için etkili bir tedavi olduğu sonucuna varan bir çalışmaya referans vermesi için aracın istemini gösterdikten sonra kameraya, “Zamandan tasarruf edin, çabadan tasarruf edin, tıbbi uygulamalarınıza yardımcı olması için bu programları, ChatGPT’yi kullanın,” dedi. hastalık.
Stermer, Information Security Media Group’un muayenehanesinde ChatGPT kullanımı veya olası veri güvenliği ve mahremiyet hususları hakkında ek ayrıntılar talebine yanıt vermedi.
ISMG’nin görüştüğü gizlilik uzmanları, Stermer’in ChatGPT kullanımını HIPAA’yı veya başka herhangi bir gizlilik veya güvenlik düzenlemesini ihlal etmekle suçlamadı.
Ancak fikir birliği tavsiyesi, sağlık sektörü kuruluşlarının ChatGPT veya benzer yapay zeka özellikli araçların kullanımını potansiyel hasta verileri güvenliği ve mahremiyet riskleri için dikkatli bir şekilde incelemesi gerektiği yönündedir. ChatGPT gibi teknolojiler, aşırı yüklü klinisyenler ve diğer personel için üretkenliği artırmak ve sıradan görevleri kolaylaştırmak için cazip fırsatlar sunar.
Klinikteki yapay zeka araçlarından hukuk firması WilmerHale’in gizlilik avukatı Kirk Nahra, “Bu, uygun riskleri belirlemek ve uygun azaltma stratejilerini uygulamak için dikkatli ve düşünceli dikkat gerektiren bir ortam değişikliğidir” diyor.
“Bu, güvenliğin bu kadar zor olmasının iyi bir nedeni – tehdit sürekli değişir ve değişen risklerin üstesinden gelmek için neredeyse kesintisiz bir özen gerektirir.”
Hukuk firması Mandelbaum Barrett, PC’nin siber güvenlik ve gizlilik uygulamaları başkanı teknoloji avukatı Steven Teppler, kuruluşların gelecek vaat eden yeni AI teknoloji araçlarını uygulamalarında dikkatli olmaları gerektiği konusunda uyarıyor.
Teppler, “Şu anda ana savunma, artan özen ve gözetimdir” diyor. “Düzenleyici bir bakış açısıyla, ChatGPT yeteneğinin artık yaygın olduğu görülüyor.”
ABD Sağlık Bakanlığı ve İnsani Hizmetler Bakanlığı’nın Sağlık Sektörü Siber Koordinasyon Merkezi’nden bu hafta alınan bir uyarının yanı sıra, bilgisayar korsanlarının kötü amaçlı yazılım oluşturmak ve ikna edici kimlik avı dolandırıcılıkları oluşturmak için ChatGPT’yi istismar etmesi konusunda sağlık kuruluşlarını uyaran bir uyarının yanı sıra, diğer devlet kurumları henüz halka açık rehberlik açıklamadı.
Teppler, ChatGPT ve sağlık hizmetlerinde ortaya çıkan benzer araçları içeren potansiyel riskler hakkında “Biraz dedektiflik yeteneğimiz olana kadar, insan dikkatiyle ele alınması gereken bir tehdit oluşturacak” diyor.
İyi ve Kötü
Gizlilik ve güvenlik danışmanlığı Clearwater’ın baş risk sorumlusu Jon Moore, tümü olmasa da çoğu teknolojilerin “iyi veya kötü amaçlar için kullanılabileceğini ve ChatGPT’nin de farklı olmadığını” söylüyor.
Moore, sağlık kuruluşlarının önceden onay almadan ChatGPT gibi araçların kullanılmasını önleyen veya en azından elektronik korumalı sağlık bilgilerinin veya diğer gizli bilgilerin bu araçlara girilmesine izin vermeyen bir politikası olması gerektiğini öne sürüyor.
“Bir kuruluş, ihlal riskinin hâlâ çok yüksek olduğunu düşünürse, çalışanların bu sitelere çalışma ortamlarından hiçbir şekilde erişememeleri için sitelere erişimi engellemeyi de seçebilir.”
Potansiyel HIPAA ve ilgili uyumluluk sorunlarının yanı sıra, yeni ortaya çıkan yapay zeka araçlarının uygun özen gösterilmeden kullanılması, yazılım kalitesi, kodlama yanlılığı ve diğer sorunlar gibi ek endişeler ortaya çıkarabilir.
Teppler, “Test, gerçek meslektaş incelemesi ve diğer tarafsız değerlendirme araçları olmadan, uygulama, para kazanma önceliğine sahip, ‘önce yayınla ve sonra düzelt’ tipik teknoloji ürünü/hizmeti tanıtımında olmamalıdır” diyor.
“İşler ters giderse ve yapay zeka suçlanacaksa, sorumluluk kimde olacak?”