reklamı kapat

POPÜLER

Avrupa Birliği LOG Tasarım

Avrupa Birliği gönderilen tüm mesajları taramak istiyor

 - Güncelleme: 20 Haziran 2024 17:49

Avrupa Birliği “CSAM” temelinde gönderilen tüm mesajları taramak istiyor. Bu konuda tahmin edebileceğiniz üzere çok tepki çekiyor.

Güncelleme: “AB bu konudaki planlarını bir süre için daha erteledi”

Avrupa Birliği, yakında anlık mesajlaşma dünyasını derinden etkileyecek bazı yeni kurallar devreye alacak. Bu kapsamda şifrelenmiş olanlar da dahil olmak üzere dijital mesajların toplu olarak taranması zorunlu kılınacak. AB’nin buradaki amacı Child Sexual Abuse Material (CSAM) olarak geçen, çocuğu bir cinsel obje olarak gösteren içerikler ile mücadele etmek. 2022’den bu yana masada olan kurallar devreye alındığı zaman mesajlaşma dünyasında bir “yükleme denetimi” dönemi başlayacak. Bu sistem paylaşılan resimler, videolar ve bağlantılar da dahil olmak üzere Avrupa’daki vatandaşların tüm dijital mesajlarını otomatik olarak tarayacak. Bu izleme teknolojisini yükleyecek hizmetler, mesajları taramadan önce kişilerden izin alacak. Bunu kabul etmeyenler ise mesaj olarak görüntü veya URL paylaşamayacak. Bu altyapı temelde uçtan uca şifrelemeyi bozuyor, bu da ciddi riskler ortaya koyuyor. Tam olarak bu konuda bir açıklama yapan Signal’in başındaki isim Meredith Whittaker, “AB’nin yeni mesaj tarama planı, eski tip gözetime yeni bir marka getirmekten ibaret. Buna ister arka kapı, ister ön kapı, ister “yükleme denetimi” deyin, atılacak adımlar şifrelemeyi zayıflatacak ve önemli güvenlik açıkları yaratacak” dedi. Bu konuya çok tepki gösteren isimler arasında WhatsApp’ın başındaki isim Will Cathcart da yer alıyor ancak AB geri atacak gibi görünmüyor.

İLGİNİZİ ÇEKEBİLİR

CSAM konusunda daha önce planlarını rafa kaldırmak zorunda kalan Apple gündeme gelmişti. Teknoloji devi çocuk güvenliğini artırmak adına hazırladığı yenilikler ile geçtiğimiz yıllarda büyük getirmişti. Hatırlamak adına uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıkarıldı. Burada ilk olarak iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile birlikte yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak çocuklara gelen kötü (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek denildi. Yeni altyapıda en önemli detay ise CSAM içeriklerin yayılmasını azaltma planı olmuştu. Teknoloji devi bunun için iOS 15 ve iPadOS 15 ile beraber cihaz temelli fotoğraf taraması yapmaya başlayacaklarını duyurmuştu.

Bu fotoğraf taraması, özel bir veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içerisinde ya da iCloud yedeklerinde tespit edilebilecekti. Firma bu genel olarak çok tepki çeken sistemi daha sonra iptal etmek zorunda kaldı. Apple sözcüsü WIRED’a yaptığı açıklamada, “iCloud Fotoğrafları için daha önce önerdiğimiz CSAM tespit sistemini ilerletmemeye karar verdik. Çocuklar, kişisel verileri şirketler taramadan da korunabilir ve gençlerin / çocukların korunmasına yardımcı olmak, onların gizlilik haklarını korumak ve interneti çocuklar başta olmak üzere hepimiz için daha güvenli bir yer haline getirmek için hükümetler, çocuk savunucuları ve diğer şirketlerle birlikte çalışmaya devam edeceğiz.” demişti.

Bu konuda en son Apple’ın kullanıcı gizliliği ve çocuk güvenliği direktörü Erik Neuenschwander bir açıklama yaparak, “Her kullanıcının özel olarak saklanan iCloud verilerinin taranması, veri hırsızları özelinde yeni riskler yaratacaktı ve aynı zamanda istenmeyen sonuçlara yol açabilecek kaygan bir zemin oluşturacaktı. Bir tür içeriğin dahi taranması toplu gözetimin kapısını açar ve diğer şifreli mesajlaşma sistemlerini arama isteği de yaratabilir. Bu yüzden Apple, bir dizi gizlilik ve güvenlik araştırmacısı, dijital hak grupları ve çocuk güvenliği savunucuları ile iş birliği yaptıktan sonra, gizliliği korumak için özel olarak oluşturulmuş olsa bile CSAM tarama mekanizmasının geliştirilmesine devam edilmeyeceği sonucuna vardı” demişti.

Apple haberleri yanında bu da ilginizi çekebilir: Franky Zapata’dan yeni hava aracı