Apple'ın 'neutralMatch' olarak adlandırdığı sistemi bu haftanın başlarında bazı ABD'li akademisyenlere ayrıntılı olarak anlattığı ve planın ilerleyen günlerde daha geniş çapta duyurulacağı söyleniyor.
GÜVENLİK GÜÇLERİNE HABER VERECEK
Yapılan açıklamalara göre, sistemin yasa dışı görüntüleri tespit ederek, istismarla ilgili materyallerin doğrulandığı takdirde, güvenlik güçleri ile iletişime geçeceği belirtildi.
iCloud'a yüklenen her fotoğrafa, şüpheli olup olmadığını belirten bir 'güvenlik değeri' verileceği ve belirli sayıda fotoğrafın şüpheli olarak işaretlendiğinde, Apple'ın tüm şüpheli fotoğrafların şifresinin çözülmesini ve yasa dışı materyallerin saptanmasını sağlayacağı aktarıldı.
Sistemin fotoğrafları tararken, çocuk cinsel istismarına ilişkin resimlerin bulunduğu bir veri tabanındaki fotoğraflarla karşılaştırılacağı ve planın başlangıçta yalnızca ABD'deki mobil cihazlara uygulanmasının beklendiği belirtildi.
Güvenlik araştırmacıları ise, Apple'ın çocuk istismarı ile mücadele çabalarını desteklerken, dünyanın dört bir yanındaki hükümetlerin vatandaşlarının kişisel verilerine, orijinal amacın çok ötesinde erişim sağlama riskinden endişe duyduğunu belirtti.
Araştırmacılar, sistemin şu anda çocuklara yönelik cinsel istismarı tespit etmek için tasarlanmış olmasına rağmen, terör veya protestolardaki hükümet karşıtı işaretler gibi diğer hedeflenen görüntü ve metinleri taramak için de kullanılabileceğini ifade etti.
'FİKİR DEHŞET VERİCİ'
Cambridge Üniversitesi'nden Güvenlik Mühendisliği Profesörü Ross Anderson, “Kesinlikle dehşet verici bir fikir, çünkü telefonlarımız ve dizüstü bilgisayarlarımızın dağıtılmış toplu bir gözetimine yol açacak.' dedi.
Ayrıca bazı güvenlik uzmanları, Apple'ın böyle bir uygulamaya geçtiği takdirde hükümetlerin de bu bilgilere ulaşabileceğini söylüyor.