Çocuk istismarını engellemek ismine geliştirilen bu sistem, Apple’ın yazılımla iCloud hesaplarını tarayarak incelemesine odaklanıyor. Şayet bulut sistemde bulunan imajlar çocuk istismarı imgelerinden oluşan data tabanında bir eşleşme bulunursa isimli makamlara bildirilecek.
SİSTEM ŞİMDİDEN ELEŞTİRİLMEYE BAŞLANDI
Apple’ın uygulamaya dahil ettiği yeni sistem, rastgele bir iPhone’da çocuk istismarına ait manzara bulursa, direkt kolluk kuvvetlerine bu durumu bildirecek. Apple bu sayede, çocuk istismarının kısmen de olsa önüne geçmek istiyor. Öte yandan Apple’ın “CSAM” ismini verdiği güvenlik sistemi, tenkit oklarını da çekmeyi başardı. Çünkü bu sistemle birlikte sırf çocuk istismarını önlemekle kalmayacağı tıpkı vakitte şahısların kapalı fotoğraflarına ulaşabileceği düşünülüyor.
Apple’ın yıl sonuna gerçek kullanıma sunacağı CSAM sistemi, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi başta olmak üzere çeşitli çocuk güvenliği kuruluşları tarafından derlenmiş bir data tabanını içerecek. Apple buna ek olarak kurulan sistem ile çocuklarına yabancılardan uygunsuz içerikler gelirse bu durumu ebeveynlere bildirecek.
Çocukların anlatamadığı kimi durumlar olduğunda ebeveynlerin haberinin olması ismine geliştirilen sistemde Siri ve yerleşik arama uygulamaları da çocuk istismarı konusunda çok daha bilgili ve yanlışsız yönlendirme yapabilecek. Bu yeni devir ise iOS 15 ile iPhone’lara gelecek. iPadOS 15 ve WatchOS 8 ile MacOS Monterey ile öbür aygıtlara da gelecek. Bu sayede çocuklara gelen uygunsuz fotoğraflar gizlenebilecek.
Milliyet