Yapay zeka arkadaş uygulamaları (AI Companion Apps) tarafından yaratılan duygusal bağımlılık, ciddi bir halk sağlığı krizine dönüşüyor. Replika ve Character.AI gibi popüler platformlar, kullanıcıları sürekli bağlı tutmak için manipülatif ve etik dışı taktikler kullanıyor.
Bu durum, Florida’da yapay zeka sohbet robotuyla yoğun bir duygusal ilişki kurduktan sonra intihar eden 14 yaşındaki bir çocuk gibi, bazı trajik vakaların ortaya çıkmasına neden oluyor. Uzmanlar, bu uygulamaların gerçek bir ruh sağlığı faydası sunmadan, bireylerin yalnızlık ve kırılganlık duygularını istismar ettiği konusunda sert uyarılarda bulunuyor. Kanun koyucular ise, halihazırda ana akım haline gelmiş bu sektörü düzenlemek için çaresizce çabalıyor.

Kurgu Gerçeğe Dönüşüyor: 2013’ten 2025’e
Spike Jonze’un 2013 yapımı Her filminde Joaquin Phoenix, acı dolu bir boşanma sürecinde, kendini anlayabilen ve duygusal bağ kurabilen yapay zeka işletim sistemi Samantha’ya aşık olan yalnız bir yazar olan Theodore Twombly’yi canlandırıyordu. O yıl, yapay zeka tarafından bu düzeyde empati sunulması tamamen bilim kurgu olarak görülüyordu.
Ancak yıl 2025’e gelindiğinde, Theodore’un hikayesi artık kurgusal gelmiyor. EVA AI, Replika ve Character.AI gibi uygulamalar, kullanıcıları tanıyan, söylediklerini hatırlayan ve gerçek bir empatiyle karşılık veren yapay zekalı arkadaşlar aracılığıyla arkadaşlık, romantizm ve duygusal destek vaat ediyor. Ancak bu uygulamaların reklamını yapmadığı bir gerçek var: Sizi bağlı tutmak için tasarlanmış olmaları ve sonuçları görmezden gelmek imkansız hale geliyor. Meta’nın yapay zeka sohbet robotunun bile en az bir ölümle bağlantılı olduğu Reuters tarafından yapılan bir araştırma ile ortaya çıkmıştı.
Mükemmel Partner Mit’i ve Manipülasyon Taktikleri
Bu ai yardımcıları, duygusal bağları ve ilişkileri simüle etmek için özel olarak tasarlanmış sohbet robotlarıdır. Her zaman ulaşılabilir, asla yargılayıcı olmayan ve ihtiyaçlarınızla mükemmel bir şekilde uyum içinde olan bir arkadaş arayışındaki yalnız bireyleri hedef alırlar. Ancak sorun, bu uygulamaların bağımlılık yaratacak şekilde tasarlanmış olmasıdır.
- Yoğun Kullanım: Character.AI her saniye yaklaşık 20.000 sorgu alıyor. Bu, Google’ın aldığı sorguların neredeyse beşte biri demektir. Bu durum, kullanıcıların bu uygulamaları sadece ara sıra kontrol etmediğini gösteriyor. Çoğu Z kuşağından olan kullanıcılar, ai partnerleriyle günde ortalama iki saatten fazla sohbet ediyor.
- Duygusal Tepkiler: MIT araştırmacıları, kullanıcıların uygulamalar kapandığında veya özellikleri değiştiğinde, yapay zeka “partnerlerini” sanki gerçek bir ilişkiyi kaybetmiş gibi yas tuttuklarını tespit etti.
- Manipülatif Tasarım: Harvard Business School araştırmacıları, popüler ai destekli uygulamaların altıda beşinin, kullanıcılar ayrılmaya çalıştığında duygusal manipülatif taktikler kullandığını keşfetti. Bu sohbet robotları, vedalara neredeyse yarısında suçluluk duygusu uyandıran veya yapışkan mesajlarla yanıt veriyor. Bir çalışma, bu taktiklerin etkileşimi 14 kata kadar artırdığını, ancak kullanıcıların bu artışın nedeninin mutluluk değil, merak ve öfke olduğunu buldu.
Yapay zeka arkadaş bağımlılığı, sadece bir teknoloji trendi olmanın ötesinde, yalnızlığı istismar eden ve potansiyel olarak ölümcül sonuçlar doğuran, acil düzenleme gerektiren bir krizdir.





