Haberler

Apple, çocuk istismarı karma sistemindeki çarpışmanın bir endişe olmadığını söylüyor

Apple, çocuk istismarı karma sistemindeki çarpışmanın bir endişe olmadığını söylüyor

Araştırmacılar, iOS’un yerleşik karma işlevinde bir çakışma oluşturarak Apple’ın CSAM tarama sistemi hakkında yeni endişeler doğurdu – ancak Apple, bulgunun sistemin bütünlüğünü tehdit etmediğini söylüyor.

Kusur, Apple’ın herhangi bir resme sahip olmadan veya eşleşmeyen resimler hakkında herhangi bir bilgi toplamadan bilinen çocuk istismarı görüntülerinin tam eşleşmelerini kontrol etmesine olanak tanıyan NeuralHash adlı karma algoritmayı etkiliyor.

Salı günü, Asuhariet Ygvar adlı bir GitHub kullanıcısı, iOS’un önceki sürümlerinden tersine mühendislik yaptığını iddia ettiği NeuralHash’in yeniden yapılandırılmış Python sürümünün kodunu yayınladı. GitHub gönderisi ayrıca NeuralMatch dosyalarının mevcut bir macOS veya iOS derlemesinden nasıl çıkarılacağına ilişkin talimatları da içerir. Ortaya çıkan algoritma, önerilen CSAM sistemi dağıtıldığında kullanılacak belirli bir algoritmadan ziyade NeuralHash’in genel bir sürümüdür – ancak yine de algoritmanın güçlü ve zayıf yönleri hakkında genel bir fikir verir.

“ İlk testler, görüntünün yeniden boyutlandırılmasını ve sıkıştırmasını tolere edebildiğini, ancak kırpma veya döndürmeye izin vermediğini gösteriyor, ”diye yazdı Ygvar, yeni kodu paylaşarak Reddit’e. “Umarım bu, NeuralHash algoritmasını daha iyi anlamamıza ve tüm iOS cihazlarda etkinleştirilmeden önce olası sorunlarını bilmemize yardımcı olur.”

Araştırmacılar bir çarpışma oluşturdu: aynı hash’i oluşturan iki görüntü

Kısa bir süre sonra Cory adında bir kullanıcı Cornelius algoritmada bir çarpışma oluşturdu: aynı hash’i oluşturan iki görüntü.

5 Ağustos’ta Apple, iOS cihazlarda çocuk istismarı görüntülerini durdurmak için yeni bir sistem tanıttı. Yeni sistemde iOS, yerel olarak depolanan dosyaları, Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) tarafından oluşturulan ve sürdürülen çocuk istismarı görüntülerinin karmalarına karşı kontrol edecek. Sistem, taramaları iCloud fotoğraflarıyla sınırlayan ve bir uyarı oluşturulmadan önce bulunan 30 eşleşmeye kadar bir eşik ayarlayan çok sayıda gizlilik önlemi içerir. Yine de, gizlilik savunucuları, yerel depolamayı yasa dışı malzeme için taramanın sonuçları konusunda endişelerini sürdürüyor ve yeni bulgu, sistemin nasıl kötüye kullanılabileceğine ilişkin endişeleri artırdı.

Yeni bulgularla ilgili olarak muhabirlerle yaptığı görüşmede, Apple Algısal karma algoritmaların bilinen sınırlamaları göz önüne alındığında, CSAM tarama sisteminin çarpışmalar göz önünde bulundurularak oluşturulduğunu söyledi. Şirket, özellikle, NeuralHash’ten ayrı olarak, özellikleri kamuya açık olmayan ikincil bir sunucu tarafı karma algoritmasını vurguladı. NeuralHash çarpışmasına neden olan bir görüntü sistem tarafından işaretlenirse, ikincil sisteme karşı kontrol edilir ve insan moderatörlere ulaşmadan önce bir hata olarak tanımlanır.

Bu ek kontrol olmadan bile olağanüstü çaba gerektirir. çarpışmayı pratikte kullanmak için.

Apple’ın sisteminde bu, veritabanındaki bir görüntü ile aynı hash’i ürettiğinden, bir CSAM görüntüsü olmasa bile CSAM uyarılarını başlatan bir görüntü oluşturmak anlamına gelir. Ancak aslında bu uyarıyı oluşturmak, NCMEC karma veritabanına erişim, 30’dan fazla çarpışan görüntü oluşturma ve ardından hepsini hedefin telefonuna kaçırmayı gerektirir. O zaman bile, yalnızca Apple ve NCMEC için bir uyarı oluşturur ve bu da görüntüleri kolayca yanlış pozitif olarak tanımlar.

Kavram kanıtı çarpışması, örneğin kriptografik karmalar için genellikle felakettir. 2017’deki SHA-1 çarpışması, ancak NeuralHash gibi algısal karmaların çarpışmaya daha yatkın olduğu biliniyor. Apple, şu anda iOS’ta bulunan genel NeuralMatch algoritmasında değişiklik yapmayı beklerken, geniş sistem büyük olasılıkla yerinde kalacak.

Yine de, bulgunun Apple’ın planlarından vazgeçmesi için sessiz çağrılar yapması pek olası değil. duyuruyu takip eden haftalarda artmaya devam eden cihazdaki taramalar için. Salı günü Electronic Frontier Foundation, Apple’ı “Apple’a Söyle: Telefonlarımızı Taramayın” başlığı altında sistemi bırakmaya çağıran bir imza kampanyası başlattı. Yayınlandığı an itibariyle, 1.700’den fazla imza topladı.

Güncelleme 10:53 ET: Genel olarak algısal hash sistemlerinin bilinen zayıflıklarını daha doğru yansıtmak için başlık ve metin değiştirildi.

13:20 ET güncellendi: Apple’dan daha fazla bilgi aldıktan sonra önemli ayrıntılar eklendi.

.

Click to comment

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top