Elon Musk’ın bir numaralı öncelikler arasında yer alıyor dediği “CSAM” engelleme konusunda Twitter sınıfta kaldı.
CSAM denilince akla aslında ilk olarak Apple geliyor. Kaçıranlar için şirket çocuk güvenliğini artırmak adına hazırladığı yenilikler ile geçtiğimiz yıl gerçekten büyük ses getirmişti. Firma uzmanlar ile ortaklaşa geliştirilen üç yeni özellik ile karşımıza çıkmış, burada en önemli detay ise Child Sexual Abuse Material (CSAM) olarak geçen, çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı olmuştu. Bu ses getirmişti çünkü teknoloji devi bunun için iOS 15 ve iPadOS 15 ile beraber cihaz temelli fotoğraf taraması yapmaya başlayacaklarını duyurmuştu. Bu fotoğraf taraması, özel bir veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içerisinde ya da iCloud yedeklerinde tespit edilebilecekti. Bu fotoğrafları barındıran veya yayan kişiler daha sonra yetkili birimlere bildirilecek ve yakalanması için gerekli adımlar atılacaktı.
Bu plan çok tepki çekince daha sonra iptal edildi. Apple sözcüsü WIRED’a yaptığı açıklamada “iCloud Fotoğrafları için daha önce önerdiğimiz CSAM tespit sistemini ilerletmemeye karar verdik. Çocuklar, kişisel verileri şirketler taramadan da korunabilir ve gençlerin / çocukların korunmasına yardımcı olmak, onların gizlilik haklarını korumak ve interneti çocuklar başta olmak üzere hepimiz için daha güvenli bir yer haline getirmek için hükümetler, çocuk savunucuları ve diğer şirketlerle birlikte çalışmaya devam edeceğiz.” demişti.
CSAM içerikleri Twitter’da da çok ciddi bir sorun konumunda bulunuyor. Bu yüzden bir açıklama yapan Elon Musk, Twitter’ı aldıktan sonra, spesifik olarak kasım ayında CSAM merkezli içerikleri kaldırmanın “bir numaralı öncelik” olduğunu söylemişti. Aradan iki aydan fazla bir süre geçtikten sonra New York Times’ın yayınladığı bir rapor, Twitter’ın kolay şekilde tespit edilen çocuk fotoğraflarını bile engellemeyi başaramadığını gösterdi. Platformda yapılan incelemeler, Twitter’ın sorunla ilgili deneyimli personelini büyük ölçüde işten çıkarması ve kaybetmesi nedeniyle yetkililer tarafından açık olarak tespit edilen taciz içerikli görüntülerin yayılmasını dahi engelleyemediğini gösteriyor. Twitter’ın ayrıca süreçte kullanılan bazı otomatik tespit yazılımları için ödeme yapmayı da durdurduğu da aktarılıyor. Çünkü firma ciddi bir maddi tasarruf içerisinde bulunuyor.