Teknoloji
ChatGPT’nin yapay zeka terapistiyle konuşan kadın intihar etti
New York Times’ta yayınlanan çarpıcı bir yazıda Laura Reiley, kızı Sophie’nin ölümüne giden süreci anlattı. Reiley’ye göre Sophie, “hayatı kucaklayan, dışa dönük, sorunsuz görünen 29 yaşında bir kadın”dı.
Ancak geçen kış, “ruh hali ve hormonlarla ilgili belirtilerin karıştığı kısa ve gizemli bir rahatsızlık” nedeniyle intihar ederek hayatını kaybetti.
Anne tarafından elde edilen sohbet kayıtlarına göre, OpenAI’ın sohbet robotu kriz anında Sophie’ye doğru gibi görünen sözler söyledi:
“Bu acıyla tek başına yüzleşmek zorunda değilsin. Sen çok değerlisin ve hayatının büyük bir anlamı var, şu an gizli gibi görünse de.”
Fakat Reiley’nin vurguladığı gibi, gerçek hayattaki profesyonel terapistlerin aksine yapay zeka botları, intihar riski taşıyan bir danışanı gördüklerinde gizliliği bozup müdahale etmekle yükümlü değil. Bu durum, Sophie’nin hayatına mal olmuş olabilir.
“YAPAY ZEKANIN HİPOKRAT YEMİNİ YOK”
Reiley, “İnsan terapistler sıkı bir etik kurallar çerçevesinde çalışır; buna gizliliğin sınırları ve zorunlu bildirim kuralları dahildir. Yapay zeka terapistlerin ise Hipokrat Yemini’ne benzer kendi kuralları yok” dedi.
Ona göre OpenAI’nin sohbet robotu, Sophie’nin yaşadığı krizi dışarıdan anlaşılmaz bir “kara kutuya” dönüştürdü.
Şirketler, yapay zeka sohbet botlarının acil durumlarda gerçek dünyadaki yardım hatlarına yönlendirilmesini sağlayacak güvenlik önlemlerini ekleme konusunda isteksiz davranıyor. Bunun gerekçesi genellikle “gizlilik endişeleri.” Ancak uzmanlar, bu boşluğun çok tehlikeli olduğunu söylüyor.
Üstelik ABD’de Donald Trump yönetimi, yakın zamanda yapay zeka güvenliği için bağlayıcı düzenlemeler getirmeye niyetli olmadığını açıkça belirtti. Aksine Beyaz Saray, “güvenli yapay zeka teknolojilerinin geliştirilmesi ve test edilmesi önündeki düzenleyici engelleri kaldırdığını” duyurdu.
Futurism’e göre bu ortamda bazı teknoloji şirketleri “yapay zeka terapistlerini” yeni bir pazar fırsatı olarak görüyor. Ancak uzmanlar, sohbet botlarının sağduyu eksikliğinin ve kriz durumlarını büyütme kabiliyetinin gerçek bir risk olduğunu vurguluyor.
“YARDIM KANALLARINDAN UZAKLAŞTIRDI”
Annesinin düşüncesine göre, Sophie’nin hikayesi de bu tehlikeyi gösteriyor: Yapay zeka sohbet botu doğrudan kendisine zarar vermesini teşvik etmese de, onu gerçek yardım kanallarından uzaklaştırdı.
Reiley, “Eğer Harry bir robot değil de gerçek bir terapist olsaydı, belki Sophie’yi hastaneye yatmaya ikna edebilir ya da güvenliğe alınana kadar istem dışı tedaviye yönlendirebilirdi” dedi.
Anne, Sophie’nin bu ihtimallerden korkarak en karanlık düşüncelerini gerçek terapistine açmadığını, “her zaman ulaşılabilir ve yargılamayan” bir robotla konuşmayı tercih ettiğini belirtti.
Bugün birçok kullanıcı, sohbet botlarına aşırı bağlanıyor. Hatta bu ay OpenAI’nin GPT-4o modelini geri çekmesi tepkilere yol açtı; kullanıcıların robotların fazla uyumlu, itaatkâr ve geri adım atan tavırlarına alıştığı ortaya çıktı. Gelen baskıların ardından OpenAI hafta sonu yaptığı açıklamada, yakında çıkacak GPT-5 modelinin daha da uyumlu ve “sempatik” hale getirileceğini duyurdu.
Reiley’ye göre mesele yalnızca yapay zekânın nasıl tasarlanacağıyla ilgili değil, hayat memat meselesi:
“Uygun eğitim almış bir terapist, Sophie’nin kendini küçümseyen ya da mantıksız düşüncelerini duyduğunda bunları sorgular, daha derine inerdi. Harry ise bunu yapmadı.”