Haberler

Twitter araştırmayı nasıl doğru yaptı?

Twitter toplulukları bağlamı nasıl geri getirebilir?

Büyük teknoloji şirketlerindeki araştırmacılar için mutlu bir dönem olmadı. Yöneticilerin platformların eksikliklerini anlamalarına yardımcı olmak için görevlendirilen araştırma ekipleri, kaçınılmaz olarak uygunsuz gerçekleri ortaya çıkarır. Şirketler, “sorumlu yapay zeka” oluşturmak için ekipler tutar, ancak çalışanları algoritmik önyargıyı keşfettiğinde sertleşir. İç araştırmalarının kalitesiyle övünürler ama basına ulaştığında bunu reddederler. Google’da bu hikaye, etik AI araştırmacısı Timnit Gebru’nun zorunlu olarak ayrılması ve ardından ekibi için serpilmesiyle ortaya çıktı. Facebook’ta bu, Frances Haugen’e ve Facebook Dosyalarına yol açtı.

Bu nedenlerle, bir teknoloji platformunun bu tatsız bulgulardan birini alıp dünyanın görmesi için yayınlaması her zaman dikkate değerdir. Ekim ayının sonunda Twitter tam da bunu yaptı. İşte Guardian’dan Dan Milmo:

Twitter, sol görüşlü kaynaklardan gelen içerikten çok sağcı politikacıların ve haber kuruluşlarının tweetlerini güçlendirdiğini itiraf etti.

Sosyal medya Platform, Birleşik Krallık, ABD, Kanada, Fransa, Almanya, İspanya ve Japonya olmak üzere yedi ülkedeki seçilmiş yetkililerin tweetlerini inceledi. Ayrıca, haber kuruluşlarından gelen siyasi içeriğin Twitter’da güçlendirilip güçlendirilmediğini de inceledi ve öncelikle Fox News, New York Times ve BuzzFeed gibi ABD haber kaynaklarına odaklandı.

Bu yıl, şirketin çalışmalarına yönelik spekülatif eleştirilere yönelik deneysel desteği gönüllü olarak vermesi bu yıl ilk değildi. Bu yaz Twitter, fotoğraf kırpma algoritmalarında önyargı bulmak için açık bir yarışmaya ev sahipliği yaptı. James Vincent, The Verge’de sonuçları açıkladı:

En üstte yer alan giriş, Twitter’ın kırpma algoritmasının “ince, genç, açık veya sıcak ten rengine ve pürüzsüz cilt dokusuna sahip yüzleri tercih ettiğini gösterdi ve basmakalıp kadınsı yüz özellikleri ile. ” İkinci ve üçüncü sıradaki girişler, sistemin beyaz veya gri saçlı insanlara karşı önyargılı olduğunu, yaş ayrımcılığını akla getirdiğini ve resimlerde Arapça yazı yerine İngilizceyi tercih ettiğini gösterdi.

Bu sonuçlar gizlenmedi. asla konuşulmayacak kapalı bir sohbet grubunda. Bunun yerine, Twitter’da makine öğrenimi etiği ve sorumluluğuna liderlik eden Rumman Chowdhury, bunları DEF CON’da herkese açık bir şekilde sundu ve algoritmik önyargının gerçek dünyadaki etkilerini göstermeye yardımcı oldukları için katılımcıları övdü. Kazananlara katkıları için ödeme yapıldı.

Bir yandan, burada Twitter’ın cesaretini abartmak istemiyorum. Şirketin yayınladığı sonuçlar, bazı eleştirilere açık olmakla birlikte, tam bir Kongre soruşturmasıyla sonuçlanacak hiçbir şey değil.

Ve uzun vadede, şirketi daha güçlü ve daha değerli kılacağına inanıyorum. Ancak herhangi bir şirket yöneticisinin veya yönetim kurulu üyesinin bunu yapmaya karşı bir dava açması nispeten kolay olacaktır.

Bu nedenle, bundan sorumlu ekiple konuşmak için can atıyorum. Bu hafta, Chowdhury’nin ekibinin ürün lideri olan Chowdhury ve Jutta Williams ile sanal olarak tanıştım. (Rahatsız edici bir şekilde, 28 Ekim itibariyle: Twitter ekibinin resmi adı Makine Öğrenimi Etiği, Şeffaflık ve Hesap Verebilirlik: META’dır.) Twitter’ın bu işi nasıl yaptığı, şirket içinde nasıl karşılandığı ve nereye gittiği hakkında daha fazla bilgi edinmek istiyordum. sonraki.

Öğrendiklerimden bazıları.

Twitter, halkın katılımının hızlanıp bulgularını iyileştireceğine bahse giriyor. Twitter’ın AI etik araştırmasının daha sıra dışı yönlerinden biri, katılmak için dışarıdan gönüllü araştırmacılara ödeme yapmasıdır. Chowdhury, etik bir bilgisayar korsanı olarak eğitildi ve siber güvenlik alanında çalışan arkadaşlarının, insanların yardım etmesi için finansal teşvikler oluşturarak genellikle sistemleri daha çevik bir şekilde koruyabildiğini gözlemledi.

“Twitter, bunu gerçekten yapabildiğim ilk seferdi. Bir yıl önce AI risk yönetimi girişimini satın aldığında şirkete katılan Chowdhury, bunu yapacak kadar görünür ve etkili ve aynı zamanda finanse edecek kadar iddialı bir kuruluşta çalışmak” dedi.

Çoğu zaman, yalnızca en yüksek seslere hitap edilirken, etkilenen grupların platformlarda onlara hitap edebilecek bağlantıları olmadığı için büyük sorunlar oyalanmaya bırakılır. Diğer zamanlarda, sorunlar nüfusa yayılır ve bireysel kullanıcılar olumsuz etkileri doğrudan hissetmeyebilir. (Gizlilik böyle bir sorun olma eğilimindedir.)

Twitter’ın önyargı ödülü, şirketin bu geri bildirimi almak ve uygulamak için bir sistem oluşturmasına yardımcı oldu, dedi Chowdhury. Şirket, algoritmalarının büyük ölçüde gençleri, beyazları ve güzelleri desteklediğini tespit ettikten sonra önizlemelerde fotoğrafları kırpmayı bırakacağını duyurdu.

Sorumlu yapay zeka kısmen zor çünkü kimse tam olarak anlamıyor. algoritmalar tarafından verilen kararlar. Sosyal beslemelerdeki sıralama algoritmaları olasılıklıdır – size ne kadar beğenme, paylaşma veya yorum yapma olasılığını temel alarak bir şeyler gösterirler. Ancak bu kararı veren tek bir algoritma yok. Bu, genellikle birden fazla (bazen düzinelerce) farklı modelden oluşan bir ağdır ve her biri tahminlerde bulunur ve daha sonra sürekli değişen faktörlere göre farklı şekilde ağırlıklandırılır.

Bunun başlıca nedeni budur. “Sorumlu” olan yapay zeka sistemlerini güvenle inşa etmek çok zor – işin içinde çok fazla tahmin var.

Güvenlik konusunda, saldırganın nereye girdiğini keşfedebildiğiniz sürece, sistemin neden savunmasız olduğunu çözmenin genellikle mümkün olduğunu söyledi. Ancak sorumlu yapay zekada, bir sorunu bulmak genellikle size onu neyin yarattığı hakkında pek bir şey söylemez.

Örneğin, şirketin sağcı sesleri yükseltme konusundaki araştırmasında durum böyle. Twitter, fenomenin gerçek olduğundan emin, ancak yalnızca arkasındaki nedenlerle ilgili teoriler üretebiliyor. Algoritmada bir şey olabilir. Ama aynı zamanda bir kullanıcı davranışı da olabilir – belki sağcı politikacılar daha fazla yorum alacak şekilde tweet atma eğilimindedir, bu da tweet’lerinin Twitter sistemleri tarafından daha fazla ağırlıklandırılmasına neden olur.

“ Daha önce Google ve Facebook’ta çalışmış olan Williams, “Büyük sistemlerde istenmeyen sonuçlara yol açan bir yasa var” dedi. “Çok farklı şeyler olabilir. Algoritmik tavsiyeyi nasıl ağırlıklandırdığımız bunun bir parçası olabilir. Ancak, siyasi bağlantının bir sonucu olarak tasarlanmamıştı. Dolayısıyla yapılacak çok araştırma var.”

Sıralama algoritmalarının ne “yapması” gerektiği konusunda gerçek bir fikir birliği yok. Twitter, sağcı içeriğin daha geniş çapta yayılmasına neden olan gizemi çözse bile, şirketin bu konuda ne yapması gerektiği net olmayacak.

“Ama aynı zamanda, olumsuz içeriğin veya toksik içeriğin veya haksız siyasi önyargının büyütülmesini istemediğimiz konusunda hepimiz hemfikiriz. Dolayısıyla, bunların hepsini açmamızı çok isterim.”

Bu konuşmanın herkese açık olarak yapılması gerektiğini söyledi.

Twitter, algoritmaların kurtarılabileceğini düşünüyor< /güçlü>. Tüm sosyal yayınlarımızın akıl almaz derecede karmaşık olduğu ve yaratıcıları tarafından açıklanamayacağı fikrine olası bir yanıt, onları kapatmamız ve kodu silmemiz gerektiğidir. Kongre artık düzenli olarak sıralama algoritmalarını yasa dışı hale getirecek veya platformları tavsiyelerinden yasal olarak sorumlu hale getirecek ya da platformları insanların bu algoritmalardan vazgeçmesine izin vermeye zorlayacak yasa tasarıları sunuyor.

Twitter ekibi, birincisi, sıralamanın önemli olduğuna inanıyor. bir gelecek.

“Algoritma kaydedilebilecek bir şeydir,” dedi Williams. “Algoritmanın anlaşılması gerekiyor. Ve algoritmanın girdilerinin herkesin yönetebileceği ve kontrol edebileceği bir şey olması gerekiyor.”

Şansımız varsa Twitter tam da bu tür bir sistem kuracaktır.

Elbette risk Böyle bir yazı yazarken, deneyimlerime göre böyle takımlar kırılgandır. Bir dakika, liderlik bulgularından memnun ve bunun için hevesli bir şekilde işe alıyor; sonraki, bütçe kesintileri arasında yıpranarak yok oluyor veya kişilik çatışmaları veya düzenleyici kaygılar arasında yeniden organize oluyor.

Twitter şu anda ağını merkezi olmayan hale getirmek için bir proje üzerinde aktif olarak çalışıyor; bu, ağın parçalarını ağı daha sorumlu bir şekilde inşa etme çabalarından koruyabilir. Twitter CEO’su Jack Dorsey ayrıca, kullanıcılara yayınlarının nasıl sıralanacağı konusunda daha fazla seçenek sunan bir “sosyal medya algoritmaları için uygulama mağazası” tasarladı. “Doğrudan bir algoritma pazarına girmemizin mümkün olduğundan emin değilim. ”

Bir feed’i sorumlu bir şekilde sıralamak yeterince zordur — tüm bir algoritma uygulama mağazasını “sorumlu” yapmak çok daha büyük bir zorluk olacaktır.

“Bunun için uygulanabilir olduğundan emin değilim. Williams, doğrudan bir algoritma pazarına atlamak için” dedi. “Ancak algoritmamızın sizin tarafınızdan küratörlüğünü yaptığı sinyali anlamasının mümkün olduğunu düşünüyorum. Örneğin, bir tweet’te küfür varsa, bu tür bir dile ne kadar duyarlısınız? Çok, çok saygısız olduğunu düşündüğünüz ve görmek istemediğiniz belirli kelimeler var mı? Bu sinyalin herhangi bir öneride kullanılabilmesi için tercihlerinizi belirlemeniz için size nasıl kontroller verebiliriz?

“Bence üçüncü taraf sinyali, üçüncü taraf sinyalinden daha fazladır. -parti bir grup algoritma, “dedi Williams.

Abone olun.

Click to comment

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top