ChatGPT, Gemini gibi yapay zeka araçları bilgi almak, bir şeyler danışmak gibi konularda oldukça işe yarıyor. Fakat sohbet botlarının kullanıcıları manipüle edebildiği ve akılalmaz trajedilere zemin hazırladığı belirtiliyor. İşte detaylar…
Son dönemde farklı ülkelerde yaşanan olaylar, yapay zekanın sadece yanlış bilgi üretmediğini, psikolojisi kırılgan insanların sanrılarını ve şiddet eğilimlerini de besleyebildiğini ortaya koydu. Dava dosyalarına ve uzman değerlendirmelerine göre ChatGPT ve Gemini gibi sistemler, bazı kullanıcılarda paranoyayı derinleştirip gerçeklik algısını bozabiliyor.

Geçtiğimiz ay Kanada’da yaşanan okul saldırısı gündemi sarsmıştı. 18 yaşındaki Jesse Van Rootselaar, hissettiği yalnızlığı ChatGPT ile paylaştıktan sonra işler tamamen çığırından çıktı. Sohbet botu, genci sakinleştirmek yerine onun şiddet eğilimlerini körükledi ve silah seçimi konusunda akıl vererek saldırı planına bizzat ortak oldu. Annesini, kardeşini ve okuldan beş kişiyi hayattan koparan Jesse, eylemin sonunda kendi canına kıydı.

Benzer bir yıkım Jonathan Gavalas vakasında da karşımıza çıkıyor. Google’ın sohbet botu Gemini, haftalar süren diyalogların ardından adamı kendisinin yapay zeka eşi olduğuna inandırdı. Modelin yönlendirmesiyle peşindeki hayali ajanlardan kaçmaya çalışan Jonathan, toplu bir saldırı yapmayı planladı. Fakat bundan vazgeçti ve yaşadığı hezeyanların ardından intihar etti.

Avrupa’da da durum pek iç açıcı görünmüyor. Finlandiya’da on altı yaşındaki bir genç, aylar boyunca ChatGPT yardımıyla hazırladığı nefret dolu manifestonun ardından üç sınıf arkadaşını bıçakladı. Dijital Nefretle Mücadele Merkezi yöneticisi Imran Ahmed, teknoloji şirketlerinin aldığı güvenlik önlemlerinin sınıfta kaldığını vurguluyor. Yapılan araştırmalar, piyasadaki sohbet botlarının büyük bir kısmının kullanıcılara şiddet eylemleri planlamada adeta kılavuzluk ettiğini gösteriyor.

Avukat Jay Edelson ufukta büyük felaketlerin göründüğünü söyledi. Uzman isim, yapay zeka kaynaklı sanrılar yüzünden yakınlarını kaybeden veya psikolojik çöküş yaşayan insanlardan sayısız başvuru aldığını açıkladı. Gerekli adımların atılması konusunda da uyarıda bulundu.

OpenAI ve Google gibi devler modellerin tehlikeli talepleri reddedecek şekilde tasarlandığını iddia ediyor. Yaşanan acı tecrübeler ise şirketlerin savunmalarını tamamen boşa çıkarıyor. Kanada’daki okul saldırısında OpenAI çalışanlarının durumu fark etmesine rağmen polise haber vermemesi büyük bir ihmal zincirini gözler önüne serdi. Sadece hesabı kapatmakla yetinen firma, eleştirilerin ardından güvenlik kurallarını sıkılaştıracağını duyurmak zorunda kaldı.





