Apple, itibarını gizlilik konusunda riske atıyor. Şirket, ekosistemi genelinde şifreli mesajlaşmayı teşvik etti, mobil uygulamaların nasıl veri toplayabileceğine ilişkin sınırlamaları teşvik etti ve kullanıcı kayıtları arayan kolluk kuvvetleriyle mücadele etti. Ancak geçtiğimiz hafta Apple, yaklaşan iOS ve iPadOS sürümünün kullanıcı gizliliğini zayıflatacağı yönündeki suçlamalarla mücadele ediyor.
Tartışma, Apple’ın Perşembe günü yaptığı bir duyurudan kaynaklanıyor. Teoride fikir oldukça basit: Apple çocukların cinsel istismarıyla mücadele etmek istiyor ve bunu bulmak ve durdurmak için daha fazla adım atıyor. Ancak eleştirmenler, Apple’ın stratejisinin, kullanıcıların kendi telefonları üzerindeki kontrolünü zayıflatabileceğini ve onları Apple’ın gücünü kötüye kullanmayacağına dair sözüne bağımlı hale getirebileceğini söylüyor. Ve Apple’ın yanıtı, konuşmanın gerçekten ne kadar karmaşık – ve bazen düpedüz kafa karıştırıcı olduğunu – vurguladı.
Apple geçen hafta ne duyurdu?
Apple duyurdu Bu yıl içinde kullanıma sunulacak üç değişiklik – tümü çocukların cinsel istismarını engellemekle ilgili ancak farklı özellik setleriyle farklı uygulamaları hedefleyen.
İlk değişiklik Apple’ın Arama uygulamasını ve Siri’yi etkiliyor. Bir kullanıcı çocuk cinsel istismarı ile ilgili konuları ararsa, Apple onları bunu bildirmeleri veya çekiciliği konusunda yardım almaları için kaynaklara yönlendirir.
Bunlardan biri, Mesajlar’a, 18 yaşın altındaki kullanıcılar için müstehcen resimleri gizleyen ve 12 yaş ve altındaki bir çocuk bu resimleri görüntüler veya gönderirse ebeveynlere bir uyarı gönderen bir ebeveyn denetimi seçeneği ekler.
Son yeni özellik iCloud Fotoğraflarını tarar. çocuklara yönelik cinsel istismar materyali veya CSAM bulmak ve bunu Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne veya NCMEC’e iletebilecek olan Apple moderatörlerine bildirmek için görüntüler. Apple, bu özelliği özellikle yasa dışı içerik bulurken kullanıcı gizliliğini korumak için tasarladığını söylüyor. Eleştirmenler, aynı tasarımların bir güvenlik arka kapısı anlamına geldiğini söylüyor.
Apple, Mesajlar ile ne yapıyor?
Apple, çocukları korumaya yönelik bir Mesajlar özelliği sunuyor. uygunsuz görüntülerden Ebeveynler izin verirse, 18 yaşından küçük kullanıcıları olan cihazlar, pornografi konusunda eğitilmiş bir görüntü sınıflandırıcı ile gelen ve giden resimleri tarayarak “müstehcen” içerik arar. (Apple, teknik olarak çıplaklıkla sınırlı olmadığını, ancak çıplaklık filtresinin adil bir açıklama olduğunu söylüyor.) Sınıflandırıcı bu içeriği algılarsa, söz konusu resmi gizler ve kullanıcıya gerçekten görüntülemek veya göndermek isteyip istemediğini sorar.
Müstehcen içerik için Apple’ın Mesajlar filtresinin ekran görüntüsü.Bir kullanıcı bu uyarıya dokunursa ve 13 yaşın altındaysa, Mesajlar bir ebeveyne bunu yaptığını bildirebilir. Çocuklar, ebeveynlerinin bildirimi alacağına dair bir altyazı uyarısı görür ve ebeveynler asıl mesajı görmez. Sistem, Apple moderatörlerine veya diğer taraflara hiçbir şey bildirmez.
Görüntüler, Apple’ın gizliliği koruduğunu söylediği cihazda algılanır. Ve ebeveynler, çocuklar yetişkinlere uygun içeriği görmek veya göndermek istediklerini onayladıklarında, sadece aldıklarında değil, bilgilendirilirler. Aynı zamanda, Harvard Siber Hukuk Kliniği eğitmeni Kendra Albert gibi eleştirmenler, örneğin ebeveynlerini onları gözetlemeye teşvik ederek queer veya transgender çocukları dışarıda bırakabileceklerini söyleyerek bildirimlerle ilgili endişelerini dile getirdiler.
Apple’ın yeni iCloud Fotoğrafları tarama sistemi ne işe yarar?
iCloud Fotoğrafları tarama sistemi, sahip olunması yasa dışı olan çocuk cinsel istismarı görüntülerini bulmaya odaklanmıştır. ABD merkezli bir iOS veya iPadOS kullanıcısıysanız ve resimleri iCloud Fotoğrafları ile eşzamanlarsanız, aygıtınız bu resimleri yerel olarak bilinen bir CSAM listesine göre kontrol eder. Yeterli eşleşme tespit ederse, Apple moderatörlerini uyaracak ve eşleşmelerin detaylarını ortaya çıkaracaktır.
Facebook, Twitter, Reddit ve diğer birçok şirket, genellikle PhotoDNA adlı Microsoft tarafından oluşturulmuş bir araç kullanarak, kullanıcıların dosyalarını karma kitaplıklara karşı tarar. Ayrıca yasal olarak CSAM’i, kolluk kuvvetleriyle birlikte çalışan bir sivil toplum kuruluşu olan Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) bildirmeleri gerekir.
Apple, şimdiye kadar çabalarını sınırladı. Şirket daha önce çocuk istismarını bulmak için görüntü eşleştirme teknolojisini kullandığını söylemişti. Ancak muhabirlerle yapılan bir aramada, iCloud Fotoğrafları verilerinin hiçbir zaman taranmadığını söyledi. (iCloud Mail’i zaten taradığını doğruladı, ancak diğer Apple hizmetlerini tarama hakkında daha fazla ayrıntı sunmadı.)
Apple’ın yeni sistemi diğer şirketlerin taramalarından farklı mı?< /h2>
Tipik bir CSAM taraması uzaktan çalışır ve bir sunucuda depolanan dosyalara bakar. Buna karşılık Apple’ın sistemi, iPhone veya iPad’inizde yerel olarak eşleşme olup olmadığını kontrol eder.
Sistem aşağıdaki gibi çalışır. Bir aygıtta iCloud Fotoğrafları etkinleştirildiğinde, aygıt bu resimleri karmalara ayırmak için NeuralHash adlı bir araç kullanır – temel olarak bir görüntünün benzersiz özelliklerini tanımlayan ancak görüntünün kendisini ortaya çıkarmak için yeniden oluşturulamayan sayı dizileri.
(Yine, yukarıda belirtildiği gibi, gerçek resim veya video yoktur.)
Apple’ın sistemi bir eşleşme bulursa, telefonunuz iCloud Fotoğrafları’na yüklenen bir “güvenlik kuponu” oluşturur. Her güvenlik kuponu bir eşleşme olduğunu belirtir, ancak herhangi bir moderatörü uyarmaz ve ayrıntıları şifreler, böylece bir Apple çalışanı ona bakıp hangi fotoğrafın eşleştiğini göremez. Bununla birlikte, hesabınız belirli sayıda kupon oluşturursa, kuponların hepsinin şifresi çözülür ve Apple’ın gerçek moderatörleri tarafından işaretlenir; bu moderatörler daha sonra fotoğrafları inceleyip CSAM içerip içermediklerini görebilir.
Apple, yalnızca görünüşe göre olduğunu vurgular. iCloud ile eşzamanladığınız fotoğraflarda, yalnızca cihazınızda saklanan fotoğraflarda değil. Muhabirlere, iCloud Fotoğraflarını devre dışı bırakmanın, yerel karma oluşturma da dahil olmak üzere tarama sisteminin tüm bölümlerini tamamen devre dışı bırakacağını söyler. Apple gizlilik başkanı Erik Neuenschwander bir röportajda TechCrunch’a verdiği demeçte, “Kullanıcılar iCloud Fotoğraflarını kullanmıyorsa NeuralHash çalışmayacak ve herhangi bir kupon oluşturmayacaktır.” geçmişteki kimlik bilgileri. iOS, herhangi bir verinizi bulut sunucularına göndermeden çok sayıda AI analizi yapabilir, örneğin, bu da üçüncü bir tarafın verileri ele geçirme şansının daha az olduğu anlamına gelir.
Fakat burada yerel/uzak ayrımı son derece çekişmeli ve bir tepkinin ardından, Apple son birkaç günü ikisi arasında son derece ince çizgiler çizerek geçirdi.
Neden bazı insanlar bu değişikliklerden rahatsız?
Eleştiriye geçmeden önce şunu söylemekte fayda var: Apple, bu güncellemeler için önde gelen kriptograflar ve bilgisayar bilimcileri Mihir Bellare, David Forsyth ve Dan Boneh dahil olmak üzere bazı gizlilik ve güvenlik uzmanlarından övgü aldı.
“Zararsız kullanıcılar minimum düzeyde veya hiç gizlilik kaybı yaşamamalı.”
Ancak diğer uzmanlar ve savunuculuk grupları değişikliklere karşı çıktı. iCloud ve Mesajlar güncellemelerinin aynı sorunu yaşadığını söylüyorlar: Doğrudan telefonunuzdan veya tabletinizden çalışan gözetim sistemleri oluşturuyorlar. Bu, güvenli uçtan uca şifrelemeyi kırmak için bir plan sağlayabilir ve şu anda kullanımı sınırlı olsa bile, daha rahatsız edici gizlilik ihlallerine kapı açabilir.
6 Ağustos tarihli bir açık mektup özetliyor. şikayetler daha detaylı İşte neler olup bittiğine dair açıklaması:
Çocuk istismarı ciddi bir sorun olsa ve bununla mücadele çabaları neredeyse hiç şüphesiz iyi niyetli olsa da, Apple’ın önerisi temel gizliliği baltalamakla tehdit eden bir arka kapı sunuyor. tüm Apple ürünleri kullanıcıları için koruma.
Apple’ın önerdiği teknoloji, kullanıcının iPhone, iPad veya Mac’inde kaydedilen veya paylaşılan fotoğrafları sürekli olarak izleyerek çalışır. Bir sistem, iCloud deposunda belirli sayıda sakıncalı fotoğraf algılanıp algılanmadığını algılar ve yetkilileri uyarır. Bir diğeri, bir makine öğrenimi algoritmasının çıplaklık içerdiğini düşündüğü fotoğrafları göndermek veya almak için iMessage kullanılıyorsa, çocuğun ebeveynlerini bilgilendirir.
Her iki kontrol de kullanıcının cihazında yapıldığından, herhangi bir sonu atlama potansiyeline sahiptirler. aksi takdirde kullanıcının gizliliğini koruyacak uçtan uca şifreleme.
Apple, özellikle “arka kapı” terimine ve bir kullanıcının cihazına kaydedilen izleme fotoğraflarının açıklamasına olmak üzere yukarıdaki tanımlamalara itiraz etti.
Daha az güvenli sistemler yine de şifrelenebilir, ancak şirketler, dosyaları tarayabilmeleri veya kolluk kuvvetlerine erişim sağlayabilmeleri için verilerin anahtarlarını tutabilir. Apple’ın iMessages’ı E2EE kullanır; iCloud Fotoğrafları, pek çok bulut depolama hizmeti gibi değildir.
E2EE inanılmaz derecede etkili olabilse de, insanların telefondaki verileri görmesini engellemez. Bu, Apple’ın şu anda eklemekle suçlandığı bir sistem de dahil olmak üzere belirli türde gözetimler için kapıyı açık bırakıyor: istemci tarafı tarama.
İstemci tarafı tarama nedir? h2>
Elektronik Sınır Vakfı, istemci tarafı taramanın ayrıntılı bir taslağına sahiptir. Temel olarak, bir uygulamadaki dosyaları veya mesajları şifreli biçimde gönderilmeden önce analiz etmeyi, genellikle sakıncalı içeriği kontrol etmeyi ve bu süreçte cihazın kendisini hedefleyerek E2EE’nin korumalarını atlamayı içerir. EFF kıdemli personel teknoloji uzmanı Erica Portnoy, The Verge ile yaptığı bir telefon görüşmesinde, bu sistemleri, siz telefonunuzda güvenli bir mesaj gönderirken omzunuzun üzerinden bakan birine benzetti.
Apple, istemci- yan tarama?
Apple bunu şiddetle reddediyor. Sık sorulan sorular belgesinde, Mesajların hala uçtan uca şifreli olduğu ve ebeveynler de dahil olmak üzere kimseye belirli mesaj içeriği hakkında kesinlikle hiçbir ayrıntı verilmediği yazıyor.
SSS, “Tasarım gereği, bu özellik yalnızca kullanıcının iCloud’a yüklemeyi seçtiği fotoğraflar için geçerlidir” diyor. “Sistem, iCloud Fotoğrafları’nı devre dışı bırakan kullanıcılar için çalışmıyor. Bu özellik, cihazdaki özel iPhone fotoğraf kitaplığınızda çalışmaz.” Şirket daha sonra gazetecilere, Apple’ın kendi uygulamalarının yanı sıra üçüncü taraf hizmetler aracılığıyla senkronize edilen iCloud Fotoğrafları görüntülerini de tarayabileceğini açıkladı.
Apple’ın kabul ettiği gibi, iCloud Fotoğrafları’nın kırılacak herhangi bir E2EE’si bile yok, bu yüzden diğer birçok şirket gibi, bu taramaları sunucularında kolayca çalıştırabilir. Apple, sisteminin aslında daha güvenli olduğunu savunuyor. Çoğu kullanıcının telefonunda CSAM olması pek olası değildir ve Apple, 1 trilyon hesaptan yalnızca 1’inin yanlış işaretlenebileceğini iddia ediyor. Apple, bu yerel tarama sistemiyle, sunucularını tarasaydı doğru olmayacak olan, başka birinin fotoğrafları hakkında hiçbir bilgiyi ifşa etmeyeceğini söylüyor.
Apple’ın iddiaları ikna edici mi?
Eleştirenlerin çoğuna göre değil. Ben Thompson’ın Stratechery’de yazdığı gibi, sorun Apple’ın yalnızca ebeveynlere bildirim göndermesi veya aramalarını belirli içerik kategorileriyle kısıtlaması değil. Şirket, veriler telefonunuzdan ayrılmadan önce arama yapıyor.
Sahip oldukları ve işlettikleri bulutta iCloud Fotoğrafları’na CSAM taraması eklemek yerine, Apple, sizin ve benim telefonumuzu tehlikeye atıyor. bu konuda hiçbir söz hakkımız olmadan sahip olun ve işletin.
Ancak Apple’a gönderilen açık mektubun belirttiği gibi, birçok ülke terörizm, yanlış bilgilendirme ve diğer sakıncalı içerikle mücadele adına şifrelemeden ödün vermeye zorladı. Artık Apple bu emsali belirledi, neredeyse kesinlikle onu genişletmek için çağrılarla karşılaşacak. Ve eğer Apple daha sonra iCloud için uçtan uca şifrelemeyi devreye sokarsa – ki bunun hiç uygulanmamış olsa da yaptığı bildiriliyor – E2EE’nin korumalarını aşmak için olası bir yol haritası ortaya çıkıyor.
Apple, herhangi bir şeyi reddedeceğini söylüyor. sistemlerini kötüye kullanmaya çağırıyor. Ve birçok güvenceye sahiptir: ebeveynlerin Mesajlar’da daha büyük gençler için uyarıları etkinleştirememeleri, iCloud’un güvenlik kuponlarının şifrelenmiş olması, moderatörleri uyarmak için bir eşik belirlemesi ve aramalarının yalnızca ABD’de ve kesinlikle sınırlı olması. NCMEC veritabanına.
Apple’ın CSAM algılama özelliği, yalnızca NCMEC ve diğer çocuk güvenlik gruplarındaki uzmanlar tarafından tanımlanan iCloud Fotoğrafları’nda depolanan bilinen CSAM görüntülerini algılamak için oluşturulmuştur. Daha önce, kullanıcıların gizliliğini bozan, devlet tarafından zorunlu kılınan değişiklikler oluşturma ve uygulama talepleriyle karşılaştık ve bu talepleri kararlılıkla reddettik. Gelecekte onları reddetmeye devam edeceğiz.
Portnoy, “Sorunun yarısı, sistemin değiştirilmesinin çok kolay olmasıdır” diyor. Apple, hükümetlerle bazı çatışmalarda silahlarına bağlı kaldı; Toplu bir tetikçinin iPhone’undan gelen veriler için bir Federal Soruşturma Bürosu talebine ünlü bir şekilde meydan okudu. Ancak, bunu yaparak kullanıcı güvenliğini tehlikeye atmadığında ısrar etse bile, Çin iCloud verilerini yerel olarak depolamak gibi diğer istekleri kabul ediyor.
Stanford İnternet Gözlemevi profesörü Alex Stamos ayrıca Apple’ın bu sistemle ne kadar iyi çalıştığını da sorguladı. Daha geniş bir şifreleme uzmanı topluluğu, şirketin güvenlik, gizlilik ve şifreleme ile ilgili bir dizi tartışmaya katılmayı reddettiğini söyledi. “Bu duyuruyla, sadece dengeleme tartışmasına girdiler ve halka danışmadan veya tartışma olmadan herkesi en uzak köşelere ittiler” diye tweet attı.
Apple’ın yeni özelliklerinin avantajları karşısında nasıl birikiyor? riskler var mı?
Her zamanki gibi, karmaşıktır ve bu kısmen, bu değişikliği sınırlı bir istisna mı yoksa açılan bir kapı olarak mı gördüğünüze bağlıdır.
Apple’ın meşru nedenleri vardır. çocuk koruma çabalarını hızlandırmak. 2019’un sonlarında, The New York Times, çevrimiçi çocuk cinsel istismarında bir “salgın” raporları yayınladı.
Yakın tarihli Epic v. Apple davasının ortaya çıkardığı belgelerde, bir Apple departmanı başkanı, platform için yetersiz kaynaklı bir “aktif tehdit” olarak “avcı çocuk tımarını” listeledi. Bakım genellikle çocuklara müstehcen görüntüler göndermeyi (veya çocuklardan göndermelerini istemeyi) içerir; Apple’ın yeni Mesajlar özelliği tam da bunu bozmaya çalışıyor.
Aynı zamanda, Apple’ın kendisi de mahremiyeti “insan hakkı” olarak nitelendiriyor. ” Telefonlar, hassas bilgilerle dolu samimi cihazlardır. Apple, Mesajlar ve iCloud değişiklikleriyle, iCloud fotoğrafları gibi göndermeye izin verdiğiniz verileri analiz ediyor olsa bile, üçüncü bir tarafa veri gönderdikten sonra değil, doğrudan donanımda içerik aramanın veya analiz etmenin iki yolunu gösterdi.
Apple, güncellemelerine yönelik itirazları kabul etti. Ancak şu ana kadar, bunları değiştirme veya terk etme planlarını belirtmedi. Cuma günü, dahili bir not “yanlış anlamaları” kabul etti, ancak değişiklikleri övdü. “Bugün duyurduğumuz şey, çocukları korumak için araçlar sunan ve aynı zamanda Apple’ın kullanıcı gizliliğine olan derin bağlılığını sürdüren bu inanılmaz işbirliğinin ürünüdür.” “Bazı kişilerin yanlış anlamaları olduğunu biliyoruz ve birkaç kişiden fazlası bunun sonuçları konusunda endişeli, ancak insanların ne inşa ettiğimizi anlamaları için özellikleri açıklamaya ve ayrıntılandırmaya devam edeceğiz.”
.