Apple, kullanıcıların iPhone’ları ve iPad’leri aracılığıyla çocuklara yönelik cinsel istismar materyali (CSAM) için iCloud Fotoğraflarını taramaya yönelik yaklaşan planları hakkında daha fazla ayrıntı verdi. Şirket, inisiyatifte kullanıcı güvenini artıracağını umduğu güvenlik önlemlerini inceleyen yeni bir makale yayınladı. Bu, yalnızca farklı devlet kurumlarına sahip birden çok çocuk güvenliği veri tabanında bulunan görüntüleri işaretleme kuralını içerir – teorik olarak bir ülkenin sisteme CSAM dışı içerik eklemesini engeller.
Apple’ın yakında çıkacak iOS ve iPadOS sürümleri otomatik olarak ABD ile eşleşecektir. çocuk güvenlik grupları tarafından derlenen bir görüntü karmaları listesinden bilinen CSAM’a dayalı iCloud Photos hesapları. Birçok şirket bulut depolama hizmetlerini uzaktan tararken, Apple’ın cihaz tabanlı stratejisi bazı kriptografi ve gizlilik uzmanlarından sert eleştiriler aldı.
“Apple’ın Çocuk Güvenliği Özelliklerinin Güvenlik Tehdidi Modeli İncelemesi” adlı makale, bu sunumla ilgili gizlilik ve güvenlik endişelerini ortadan kaldırın. Bu sabah bazı bilgilerin ana hatlarını veren Apple yöneticisi Craig Federighi ile Wall Street Journal röportajına dayanıyor.
Belgede Apple, hükümetle bağlantılı tek bir veritabanına dayanmayacağını söylüyor. CSAM’ı tanımlamak için ABD merkezli Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’nin veya NCMEC’ninki. Bunun yerine, yalnızca farklı ulusal bağlantılara sahip en az iki gruptan gelen resimleri eşleştirecektir. Amaç, başka hiçbir veri tabanındaki hash değerleriyle eşleşmeyeceğinden, hiçbir hükümetin sansür amacıyla gizlice alakasız içerik ekleme yetkisine sahip olmamasıdır.
Apple
Apple, birden fazla çocuk güvenliği veritabanının potansiyel kullanımına atıfta bulundu, ancak bugüne kadar, örtüşme sistemi. Muhabirlerle yaptığı bir görüşmede Apple, diğer gruplarla henüz anlaşmaları tamamlamadığı için yalnızca NCMEC adını verdiğini söyledi.
Kağıt, Federighi’nin bahsettiği bir ayrıntıyı doğruluyor: Başlangıçta, Apple yalnızca bir iCloud hesabını işaretlerse işaretler. 30 görüntüyü CSAM olarak tanımlar. Gazete, bu eşiğin yanlış pozitiflerden kaçınmak için “önemli bir güvenlik marjı” sağlamak için seçildiğini ve sistemin gerçek dünyadaki performansını değerlendirirken “eşiği değiştirebiliriz” dediğini söylüyor.
Ayrıca Federighi’nin bahsettiği bir denetim sistemi hakkında daha fazla bilgi sağlar. Apple’ın bilinen CSAM karmaları listesi, dünya çapında iOS ve iPadOS’ta oluşturulacak, ancak tarama sistemi şimdilik yalnızca ABD’de çalışacak. Apple, daha fazla görüntüyle gizlice eşleşmediğinden emin olmak için başka bir yöntem olan, denetçilerin çocuk güvenliği veritabanlarına karşı kontrol edebilecekleri tam bir karma listesi sağlayacaktır. Ayrıca, işaretlenen hesaplar için moderatörlerin “CSAM materyalleri dışındaki herhangi bir şeyi” bildirmesi için “tüm talepleri reddedeceğini” söylüyor ve bu sistemin başka tür gözetimler için kullanılma potansiyeline atıfta bulunuyor.
Federighi bunu kabul etti. Apple’ın geçen hafta yaptığı duyuruyla “karışıklık” getirdiğini söyledi. Ancak Apple, güncellemenin kendisinin yanında yer aldı. Habercilere, güncellemenin hâlâ son halini almasına ve ayrıntıları yinelemesine rağmen, geçen haftaki eleştirilere yanıt olarak lansman planlarını değiştirmediğini söylüyor.