Mastodon çocuk istismarının önüne geçemiyor

Mastodon

Bir dönem Twitter’ın alternatifi olarak ön plana çıkan Mastodon’un çocukları istismara karşı koruma konusunda ciddi bir problemi olduğu ortaya çıktı.

Bildiğiniz gibi Elon Musk’ın Twitter’ı satın almasının ardından ortaya çıkan tepki, insanların Twitter’a alternatif olabilecek bir sosyal ağ arayışına girmesine sebep oldu. Bugünlerde bu arayışa cevap olabilecek Threads gibi güçlü bir rakibi olsa da o günlerde Twitter’a sunulabilen en kayda değer alternatif Mastodon gibi daha ufak girişimlerdi. Ancak o dönem özellikle bazı kitlelerde Twitter’a tepki öyle büyüktü ki pek çok kişi tüm kusurlarına rağmen Mastodon’a geçti ve bu sosyal ağ bir anda yüzbinlerce yeni kullanıcıya kavuştu.

Özellikle Threads çıkmadan önce Twitter’a alternatif olması umulan bu sosyal ağ o dönem bir kurtarıcı olarak görülüyor olsa da aslında ortaya çıkan son bilgiler bu sosyal ağın Twitter’dan bile daha sorunlu olabileceğini gösteriyor. Çünkü Stanford Üniversitesi’nde görevli araştırmacıların son raporuna göre Mastodon’un son derece ciddi bir çocuk istismarı problemi var. Çünkü şirketin çocukları kötü niyetli kişilere ve zararlı içeriklere karşı koruma konusunda sınıfta kaldığı görülüyor.

mastodon

Standford Üniversitesi’nin İnternet Gözlemevi tarafından hazırlanan rapora göre iki günlük araştırma sırasında incelenen 325 bin paylaşım içerisinde 112 farklı CSAM’e, yani çocukların yer aldığı cinsel içerikli materyale rastlandı. Üstelik bu materyallerin ilkiyle karşılaşmaları için sadece 5 dakika Mastodon’da gezinmelerinin yeterli olduğuna dikkat çekiliyor. Bu da çocuk istismarcılarının bu materyalleri platformda paylaşma ve bulma konusunda ne kadar rahat olduklarını gözler önüne seriyor.

Stanford Üniversitesi’nde görevli araştırmacılar, CSAM materyallerini bulmak için Google’ın SafeSearch API’sini ve PhotoDNA yazılımlarını kullandı. Ekip, 112 CSAM bulmanın yanı sıra bu materyalleri bulmayı kolaylaştıran 554 hashtagin ve anahtar kelimenin de platformda açıkça paylaşılabildiğini fark etmiş. Tüm bunlar Mastodon’daki CSAM’lerin yani çocukların istismar edildiği materyallerin rahatlıkla yayılabildiğinin göstergesi ki bu da hem platformun kullanıcıları hem de bu platformun arkasındaki şirket için oldukça endişe verici.

Twitter X kararı yüzünden milyarlarca dolar kaybedebilir