Teknoloji devi Apple, iPhone tarafı için önemli bir adım atıyor gibi görünüyor. Bunun arkasında yasa dışı çocuk fotoğrafları yer alıyor.
Sağlam kaynaklara göre Apple, yakında iPhone telefonlar için otomatik çalışacak bir sistem kullanıma sunacak. Bu sistem yerleşik olarak görev yapacak ve otomatik çalışacak.
Burada özel bir algoritma kullanılacak ve bu algoritma direkt olarak iPhone’lardaki fotoğrafları tarayacak. Sistem ardından bir değerlendirme yapacak. Bu değerlendirme özellikle çocuk fotoğrafları özelinde yapılacak.
Bu sistem ile spesifik olarak “çocuk pornosunun” engellemesi hedefleniyor ve elbette bu “doğru kullanıldığı takdirde” çok iyi görünüyor. Bu sistemde algoritmanın şüphelendiği fotoğraflara bir insanın bakacağı ve son kararı onun vereceği aktarılıyor.
Algoritma temelli sistemin bazı sorunlar doğurabileceğini düşünenler de bulunuyor. Algoritmalar her zaman doğru çalışmıyor ve algoritma algılaması sürecine başka şeyleri tespit etmek adına verilerin dahil edilebileceği iddia ediliyor.
Süreçte direkt olarak yasal kurumlar yani devlet ile çalışacak olan Apple, eğer kontrolü devlet dahi olsa başkasına verirse, iPhone’lardaki fotoğraflar çocuklar ile alakalı olmadan dahi başkalarının seyrine açılabilir endişesi bulunuyor.
Bu sistem şimdilik ne zaman açılacak bilinmiyor. Ancak konu hakkında Apple’ın detaylı bir açıklama yapacağı ve tüm soru işaretlerini ortadan kaldıracağı düşünülüyor.
İLGİNİZİ ÇEKEBİLİR
Apple, iPhone odaklı başka çalışmalar da yapıyor
iPhone dünyasının en popüler kamera uygulaması olan Halide, dün yeni işletim sisteminin yani iOS 15’in son beta sürümüyle beraber fotoğraflardaki lens flare’leri otomatik olarak kaldırmaya başladığını duyurdu.
Bu sistem için şimdilik sadece gündüz çekimleri ve fotoğraflar örnek gösteriliyor. Yeni altyapı sayesinde video odaklı gece çekimlerindeki sorununun çözülüp çözülmeyeceğini ise yüksek ihtimalle çok yakında öğreneceğiz. Şimdilik bu konuda bir bilgi ya da test gelmiyor. Ancak eğer çözüm sağlanırsa birçok kişi buna fazlasıyla sevinecektir.