Haberler

Apple, yeni SSS’de çocuk istismarı tarama endişelerine karşı geri adım attı

Apple, elektrikli otomobil projesini hızlandırırken eski Canoo CEO'sunu işe aldı

Yeni bir SSS’de Apple, çocuk istismarına karşı yeni önlemlerinin otoriter hükümetler tarafından gözetim araçlarına dönüştürülebileceğine dair endişeleri gidermeye çalıştı. Şirket, “Açık olalım, bu teknoloji iCloud’da depolanan CSAM’i [çocuk cinsel istismarı materyalini] tespit etmekle sınırlıdır ve hiçbir hükümetin bunu genişletme talebini kabul etmeyeceğiz” diye yazıyor.

Apple’ın geçtiğimiz Perşembe günü duyurduğu yeni araçları, çocukları korumak için tasarlanmış iki özellik içeriyor. “İletişim güvenliği” olarak adlandırılan biri, Mesajlar uygulamasında çocuklar tarafından alınan müstehcen görüntüleri tanımlamak ve bulanıklaştırmak için cihaz üzerinde makine öğrenimini kullanır ve 12 yaşında ve daha küçük bir çocuk böyle bir görüntüyü görüntülemeye veya göndermeye karar verirse ebeveyni bilgilendirebilir. İkincisi, iCloud’a yüklemeyi seçerlerse, kullanıcıların görüntülerini tarayarak bilinen CSAM’i tespit etmek için tasarlanmıştır. CSAM algılanırsa Apple’a bilgi verilir ve söz konusu malzemenin var olduğunu doğruladığında yetkilileri uyaracaktır.

“Apple’ın CSAM algılama özelliği yalnızca bilinen CSAM görüntülerini algılamak için oluşturulmuştur”

Planlar, Bunların Apple’ın yazılımına bir arka kapı getirdiğini iddia eden dijital gizlilik grupları ve kampanyacılar. Bu gruplar, bir kez böyle bir arka kapı var olduğunda, çocukların cinsel istismarı materyalinin ötesine geçen içerik türlerini taramak için genişletilme potansiyelinin her zaman olduğunu belirtmektedir.

“Bu görevin hareket halinde süründüğünü zaten gördük. Başlangıçta çocuklara yönelik cinsel istismar görüntülerini taramak ve toplamak için geliştirilen teknolojilerden biri, şirketlerin bu tür içerikleri yasaklamak amacıyla katkıda bulunabilecekleri ve erişebilecekleri bir ‘terörist’ içerik veritabanı oluşturmak üzere yeniden tasarlandı.”

Ancak , Apple, sistemlerinin cinsel istismar görüntüleri dışındaki herhangi bir şeyi tespit etmek için kullanılmasını durdurmak için güvenlik önlemleri aldığını savunuyor. Yasaklı görüntüler listesinin Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından sağlandığını ve sistemin “yalnızca NCMEC ve diğer çocuk güvenliği kuruluşları tarafından sağlanan CSAM görüntü karmalarıyla çalıştığını” söylüyor. Apple, bu resim karmaları listesine ekleme yapmayacağını ve kullanıcıların bireysel olarak hedeflenmesini önlemek için listenin tüm iPhone ve iPad’lerde aynı olduğunu söylüyor.

Şirket ayrıca, gelen talepleri reddedeceğini söylüyor. hükümetler, CSAM olmayan görüntüleri listeye eklemek için. “Daha önce kullanıcıların gizliliğini bozan, devlet tarafından zorunlu kılınan değişiklikler oluşturma ve uygulama talepleriyle karşılaştık ve bu talepleri kararlı bir şekilde reddettik. Gelecekte onları reddetmeye devam edeceğiz ”diyor.

Apple’ın güvencelerine rağmen, şirketin kendi ülkelerinde faaliyet göstermeye devam etmek için geçmişte hükümetlere tavizler verdiğini belirtmekte fayda var.

SSS ayrıca, Mesajları müstehcen malzeme için tarayan özellikle ilgili bazı endişeleri ele almıyor. Şirket, özelliğin Apple veya kolluk kuvvetleri ile herhangi bir bilgi paylaşmadığını, ancak aracın yalnızca müstehcen görüntülere odaklanmasını nasıl sağladığını söylemiyor.

“Bunun için gereken her şey Apple’ın oluşturduğu dar arka kapıyı genişletmek, ek içerik türleri aramak için makine öğrenimi parametrelerinin genişletilmesi veya yalnızca çocukların değil, herkesin hesaplarının taranması için yapılandırma bayraklarında ince ayar yapılmasıdır” diye yazdı EFF. EFF ayrıca, makine öğrenimi teknolojilerinin bu içeriği sıklıkla yanlış sınıflandırdığını belirtiyor ve teknolojinin yanlış gittiği yerlerin önemli bir örneği olarak Tumblr’ın cinsel içeriği çökertme girişimlerinden bahsediyor.

Click to comment

Leave a Reply

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top