Haberler

Apple’ın çocuklara yönelik cinsel istismar görüntülerini engellemeye yönelik tartışmalı planı

Apple, iCloud taramasının gizlilik korkularını gidermek için birden fazla çocuk güvenlik grubuna güveneceğini söyledi

Apple, çocuklara yönelik cinsel istismar materyali (CSAM) bularak çocuk istismarını engellemeye yardımcı olmak amacıyla iOS cihazlarda yapmayı planladığı değişiklikleri duyurduğunda, planının bazı bölümlerinde tepkiler oluştu.

İlk olarak, devam ediyor. iOS 15, watchOS 8, iPadOS 15 ve macOS Monterey’deki Arama uygulaması ve Siri sesli asistanı için bir güncelleme çıktı. Bir kullanıcı, çocukların cinsel istismarı ile ilgili konuları aradığında, Apple, kullanıcıyı CSAM’i bildirmesi veya bu tür içeriğin ilgisini çekmesi için yardım alması için kaynaklara yönlendirir.

Ancak Apple’ın eleştiri toplayan diğer iki CSAM planı oldu. Bir güncelleme, Mesajlar’a bir ebeveyn kontrolü seçeneği ekleyecek, 12 yaşında veya daha küçük bir çocuk cinsel içerikli resimler görüntülediğinde veya gönderdiğinde ebeveynlere bir uyarı gönderecek ve 18 yaşın altındaki tüm kullanıcılar için resimleri gizleyecektir.

Önemli olan Apple’ın, görüntüler iCloud’a yüklenmeden önce CSAM’i bulmak için cihazdaki görüntüleri taramak ve bunları Apple’ın moderatörlerine rapor etmek ve daha sonra bu durumda görüntüleri Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’ne (NCMEC) teslim edebilecek olan Apple’ın en tartışmalı olduğu kanıtlanmıştır. potansiyel bir eşleşme. Apple, özelliğin şirketin yasa dışı içerik bulmasına izin verirken kullanıcıları koruyacağını söylese de, birçok Apple eleştirmeni ve gizlilik savunucusu, hükmün temelde bir güvenlik arka kapısı olduğunu ve Apple’ın uzun süredir kullanıcı gizliliğine yönelik taahhütlerine açık bir çelişki olduğunu söylüyor.

Click to comment

Leave a Reply

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top