reklamı kapat

POPÜLER

Apple

Apple, tüm fotoğrafları tarama planıyla şirket içinde de tepki çekiyor

Teknoloji devi Apple, geçtiğimiz hafta çocuk güvenliği konusunda yeni bir dönem başlatacağını duyurdu. Fakat bu hoş karşılanmıyor.

Apple, çocuk güvenliğini artırmak adına hazırladığı yenilikler ile geçtiğimiz günlerde gerçekten çok büyük ses getirdi.

Kısaca hatırlamak adına çocuk güvenliği konusunda uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıktı. iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile birlikte artık yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak çocuklara gelen kötü (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek.

Yeni altyapıda en önemli detay ise Child Sexual Abuse Material (CSAM) olarak geçen, çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı oldu. Çünkü teknoloji devi bunun için iOS 15 ve iPadOS 15 ile beraber cihaz temelli fotoğraf taraması yapmaya başlayacak.

Bu fotoğraf taraması, özel bir veri tabanı ile eğitilen algoritma / yapay zeka temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içerisinde tespit edilecek.

Bu fotoğrafları barındıran veya yayan kişiler daha sonra yetkili birimlere bildirilecek ve yakalanması için gerekli adımlar atılacak. Bir kişi suçlanmadan önce sistemin tespit ettiği fotoğraflar insan gözetmenler tarafından kontrol edilecek.

Resmi açıklamaya göre bu özellik kapatılabilecek. Apple’a göre fotoğraflar için iCloud yedeğini kapatmak, tarama sistemini cihaz özelinde de kapatacak. Ancak çoğu kişi bu yedekleme sistemini kapatmak istemiyor çünkü iCloud’a para ödeyerek fotoğraflarını kendi isteğiyle yedeklemek istiyor.

Apple, çocuk güvenliği konusunda tepki çekiyor

Türkiye’de açılıp açıklamayacağı bilinmeyen sistem, birçok güvenlik uzmanını endişelendiriyor. Apple devletten gelecek CSAM veritabanı harici verileri kabul etmeyeceğini, talep gelirse itiraz edeceğini belirtiyor ancak yine de süreçte bir ihtimal bulunuyor.

İşte bu durumdan uzmanlar kadar Apple’ın kendi çalışanları da rahatsız olmuş durumda. Söylendiği kadarıyla çalışanlar şirket içi Slack kanallarında bu durum hakkında endişelerini dile getirmeye başladı.

Çalışanlar da diğer güvenlik uzmanları gibi devletlerin CSAM harici içerikler için de fotoğraf / sistem taraması isteyeceğini düşünüyor. Yukarıda da dediğimiz gibi Apple harici şeyleri kabul etmeyeceğini aktarıyor ancak firmanın bunun garantisini vermesi mümkün değil.

Çünkü CSAM direkt olarak fotoğraf temelli çalışmıyor ve özel veriler üzerinden algılama yapılıyor. Bunlar üzerindeki özel / ufak oynamaları Apple’ın fark etmeme ihtimali bulunuyor.

Bazı çalışanlar Apple’ın amacı kağıt üzerinde iyi olmasına rağmen CSAM ile yıllar boyunca oluşturduğu “gizlilik itibarını” zedelediğini düşünüyor. Apple’ın bu konuda bir geri adım atma düşüncesi ise şimdilik bulunmuyor.

Bu arada ek bilgi olarak CSAM sistemini Google ve Facebook gibi şirketler de çok uzun zamandır kullanıyor.

İlginizi Çekebilir