OpenAI, Yeni Anket ile Tartışmalı Politikalarını Savunuyor
Yapay zeka şirketi OpenAI, eleştirilen politikalarını desteklemek için yeni bir anketle ikna çabasına girdi. Uzmanlara göre, 800 milyon haftalık kullanıcıya sahip bir platform için bu oranın yüz binlerce kişiye denk gelebileceği ifade ediliyor. İşte detaylar:
Dünya Çapında 170 Ruh Sağlığı Uzmanı İş Birliği Yaptı
Şirket, söz konusu vakaları tespit etmek ve güvenli yanıt protokolleri geliştirmek için 60 ülkeden 170’ten fazla psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını duyurdu. OpenAI, bu uzmanların rehberliğinde ChatGPT’yi, kullanıcıları gerçek dünya profesyonel yardım almaya yönlendiren yanıtlar verme konusunda geliştirdiğini açıkladı.
Intihar Planlarına Dair Alarm Verici Veriler
OpenAI verilerine göre, kullanıcıların yüzde 0,15’inde intihar planlarına veya niyetlerine dair belirtiler bulunmaktadır. Şirket, ChatGPT’nin bu tür ifadeleri empatik ve güvenli bir şekilde yanıtlamak için güncellendiğini ve riskli konuşmaları daha güvenli modellere yönlendirdiğini belirtti.
Uzmanlardan Uyarı: “Küçük Oran, Büyük Sayılar”
Kaliforniya Üniversitesi’nden Dr. Jason Nagata, yüzde 0,07’lik bir oranın küçük gibi görünebileceğini ancak milyonlarca kullanıcıya denk geldiğinde sayının oldukça fazla olabileceğini belirtti. Nagata, yapay zekanın ruh sağlığı destek hizmetlerini genişletebileceğini ancak bunun sınırlarını iyi belirlemek gerektiğini vurguladı.
Yasal Sorunlar ve Trajik Olaylar
OpenAI, kullanıcı etkileşimlerinden kaynaklı açılan davalara da maruz kalıyor. Nisan ayında, Kaliforniya’da bir genç intihar ettiği iddiasıyla ailesi, şirkete “ihmal ve haksız ölüm” suçlamasıyla dava açtı. Bu, şirketin karşı karşıya kaldığı ilk “ölümle sonuçlanan etkileşim” davasıydı.
Daha da kötüsü, Connecticut’ta bir cinayet-intihar vakasında, zanlının ChatGPT ile yaptığı konuşmaların yanılsamalarını güçlendirdiği iddia edildi. Uzmanlara göre yapay zeka sohbetleri, psikolojik olarak hassas kullanıcılar için gerçeklik algısını bulandırabilecek kadar güçlü bir etkileşim yaratabilir. OpenAI, bu tür risklere karşı güvenlik protokollerini sürekli olarak geliştirmeyi sürdüreceğini belirtmektedir.
Kaynak: BBC