Haberler

Craig Federighi, Apple’ın çocuk güvenliği taramasının “birden fazla denetlenebilirlik düzeyine” sahip olacağını söyledi

Craig Federighi, Apple'ın çocuk güvenliği taramasının "birden fazla denetlenebilirlik düzeyine" sahip olacağını söyledi

Apple yöneticisi Craig Federighi, iCloud Photos’un çocuklara yönelik cinsel istismar materyali (veya CSAM) için tarama planlarının “birden fazla denetlenebilirlik düzeyi” içereceğini söyledi. Apple’ın yazılım mühendisliği kıdemli başkan yardımcısı Federighi, The Wall Street Journal ile yaptığı röportajda, tartışmalı çocuk güvenliği önlemleri hakkında yeni ayrıntılar sundu. Bu, iPad ve iPhone’un cihaz düzeyinde taramasının güvenlik uzmanlarının Apple’ın sistemi sorumlu bir şekilde kullandığını doğrulamasına yardımcı olacağı iddiasını da içeriyor.

Bulut depolama hizmetlerine sahip birçok şirket gibi, Apple da iCloud Fotoğrafları görüntülerini bir listeye göre kontrol edecek. Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’nden (NCMEC), bilinen CSAM resimleriyle tam eşleşmeler arıyor. Ancak birçok hizmetten farklı olarak, aramaları tamamen uzaktan değil, cihaz üzerinde yapacaktır. “Birinin bulutta görüntüleri taradığını hayal edin. Peki, neyin tarandığını kim bilebilir?” Federighi, uzaktan taramalara atıfta bulunarak söyledi. “Bizim durumumuzda, veritabanı cihazda gönderilir. İnsanlar görebilir ve bu, tüm ülkelerde tek bir görüntüdür.”

Federighi, bunun insanlara nasıl güven verebileceğini biraz detaylandırdı Apple, özellikle de kısıtlayıcı sansür politikaları.

“Hiçbir varlığa, hatta herhangi bir ülkeye güvenmek zorunda kalmamanızı sağlıyoruz”

“Aynı yazılımı Çin’e gönderdiğimiz veritabanıyla gönderiyoruz Amerika, biz Avrupa’ya gönderiyoruz. Birisi [CSAM ötesindeki verileri tarama talebiyle] Apple’a gelirse, Apple hayır derdi. Ama diyelim ki kendinize güvenmiyorsunuz. Apple’ın hayır demesine güvenmek istemezsiniz. Evet dersek Apple’ın paçayı sıyıramayacağından emin olmak istiyorsun,” dedi Journal’a. “Birden fazla denetlenebilirlik düzeyi vardır ve bu nedenle, hangi görüntülerin bu sürecin parçası olduğu konusunda herhangi bir varlığa, hatta herhangi bir ülkeye güvenmek zorunda kalmamanızı sağlıyoruz.”

Federighi, tarama sisteminin bir Apple moderatörünü potansiyel yasa dışı içerik konusunda ne zaman bilgilendireceği konusunda da daha fazla ayrıntı verdi. Apple daha önce tek bir eşleşmenin kırmızı bayrağı tetiklemeyeceğini söylemişti – yanlış pozitifleri önlemeye yönelik bir önlem. Bunun yerine, sistem her maç için “güvenlik kuponları” oluşturur ve sayı belirli bir eşiğe ulaştığında Apple’ı uyarır. Apple, istismarcıların tespitten kaçmasına izin verebileceğini söyleyerek kesin eşiği duyurmayı reddetti. Ancak Federighi, “bilinen 30 çocuk pornografisi görüntüsü” olduğunu söylüyor.

Bazı güvenlik uzmanları Apple’ın sistemini temkinli bir şekilde övdü ve CSAM’i çevrimiçi bulmanın önemini kabul etti. Ancak birçok kişi Apple’ın aniden piyasaya sürülmesini ve sistemin nasıl çalıştığına dair netlik eksikliğini eleştirdi. Journal ile yaptığı röportajda Federighi, kafa karışıklığını kabul etti. “İşlerin nasıl anlaşıldığı konusunda pek çok mesajın oldukça kötü bir şekilde karıştırıldığı gerçekten açık” dedi.

Click to comment

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top