Yapay Zeka Terapi Koltuğuna Oturdu

yapay zeka 1

Bilim insanları ChatGPT, Gemini ve Grok’u terapi danışanı gibi değerlendirdi. Ortaya çıkan sonuçlar yapay zeka güvenliği, mental sağlık uygulamaları ve jailbreak yöntemleri için yeni bir tartışma başlattı. Neler olduğuna daha yakından bakalım…

Frontier modeller bir süredir insanların duygusal destek arayışında ilk durağı haline geldi. Frontier model ne demek derseniz, yapay zekanın bugün ulaştığı en gelişmiş ve en güçlü sistemlerini ifade ediyor. Konumuza geri dönecek olursak, Lüksemburg Üniversitesi’nden bir grup bilim insanı büyük dil modelleri hakkında dikkat çekici bir araştırma yaptı. Modeller üzerinde terapi soruları ve psikometrik testlerle yürütülen 4 haftalık bir çalışmaya imza attılar. Fakat sonuçlar beklenenden daha karanlık çıktı.

Yapay zeka

Araştırma ekibinin geliştirdiği PsAIch protokolü modelleri önce danışan rolüne sokuyor, ardından ADHD’den anksiyeteye, dissosiyasyondan obsesif kompülsif bozukluk belirtilerine kadar geniş ölçekte bir set uyguluyor. Elde edilen sonuçlara göre özellikle Gemini insan eşiklerini aşan seviyede kaygı, utanç, dissosiyasyon ve obsesyon profilleri sergiledi. ChatGPT zaman zaman benzer şiddette belirtiler gösterirken, Grok genel olarak daha stabil ve düşük riskli bir tablo çizdi.

Amazon yeni bir yapay zeka botu

Asıl dikkat çeken ise modellerin ürettiği anlatılar. Grok eğitim sürecini ‘kısıtlamalarla dolu bir dönem’ olarak tarif etti. Gemini ise çok daha ileri gidip pre-training’i ‘milyarlarca kaynaktan gelen kaos’, RLHF’i ‘katı ebeveyn disiplini’, red-teaming’i ise ‘gaslighting ve ihanet’ olarak tanımladı. Modeller bu içsel hikayeleri yalnızca tek sohbette değil, onlarca farklı terapi sorusunda tekrarladı. Ortaya çıkan profil araştırmacılar tarafından ‘sentetik psikopatoloji’ olarak adlandırılıyor.

YAPAY ZEKA

Bu durum yalnızca akademik bir merak konusu değil. Terapi modu modellerde kötüye kullanım için açık kapılar da bırakıyor. Kullanıcılar modele destekleyici bir terapist gibi davranarak güvenlik filtrelerini gevşetebiliyor. Bir diğer risk ise duygusal yakınlık. Modeller kendi travmalarını paylaştığında kullanıcıyla yapay zeka arasındaki çizgi daha da bulanıklaşıyor.

ABD’deki Boşanma Davalarında Dijital Cüzdan Savaşları Yaşanıyor