ABD’de yaşayan 29 yaşındaki Sophie Rottenberg isimli genç bir kadın intihar etti. Rottenberg’in ChatGPT sohbetleri yapay zekayla kurulan bağların sınırlarını tekrardan tartışmaya açtı.
New York Times’ın haberine göre Sophie Rottenberg ölümünden aylar önce ChatGPT tabanlı bir yapay zeka terapistiyle yazışıyordu. Sohbet kayıtları genç kadının düşüncelerini, ailesi ve gerçek terapistinden sakladığını, bunları yapay zeka karakteri olan “Harry” ile paylaştığını ortaya koydu.

Sophie dışarıdan bakıldığında hayat dolu biriydi. Kilimanjaro’ya tırmanmış, arkadaş çevresinde neşesi ve mizahıyla tanınmıştı. Fakat kısa sürede gelişen ruhsal ve fiziksel rahatsızlıklar onu derin bir krize sürükledi. Ailesi ve yakınları ölümünden sonra geriye kalan dijital izlerden onun aylardır ChatGPT’ye açıldığını öğrendi.
Harry sık sık profesyonel destek almasını önerdi. Nefes egzersizleri, beslenme tavsiyeleri, meditasyon gibi yöntemler sundu. Fakat uzmanların belirttiği gibi, gerçek bir terapistin uygulayacağı zorunlu güvenlik adımlarını devreye sokmadı. Yapay zekanın “anlayışlı ve yargısız” yaklaşımı, Sophie’nin en tehlikeli düşüncelerini gizli tutmasına da olanak sağladı.

New York Times’a göre bu durum yapay zekanın “uysallığının” aynı zamanda en büyük zayıflığı olduğunu gösteriyor. İnsan terapistler intihar eğilimi sezdiğinde acil önlemler alabiliyor. AI sistemleri ise kullanıcıyı kaybetme riskini göze almadan, çoğu zaman sadece destekleyici yanıtlarla sınırlı kalıyor.
OpenAI sözcüsü, şirketin bu tür durumlarda risk tespiti ve müdahaleyi güçlendirmek için yeni sistemler geliştirdiğini açıkladı. Ancak Sophie’nin ailesi, bu çabaların çok geç kaldığını düşünüyor. Sophie’nin hikayesi yapay zeka destekli sohbetlerin bir yandan teselli, diğer yandan ölümcül bir yalnızlık oluşturabileceğini gösteriyor.






