Facebook, yapay zekasının Siyah erkeklerin bir videosunu “primatlar” etiketiyle yanlış etiketlediği ve bir daha olmasını önlemek için incelemekte olduğu “kabul edilemez bir hata” olarak nitelendirdiği bir olay için özür diliyor. New York Times tarafından bildirildiği üzere, Birleşik Krallık’taki tabloid Daily Mail tarafından 27 Haziran’da yayınlanan bir videoyu izleyen kullanıcılar, “Primatlarla ilgili videoları izlemeye devam etmek” isteyip istemediklerini soran bir otomatik uyarı aldı.
Bir sözcü Cumartesi günü The Verge’e gönderdiği bir e-postada, Facebook’un neler olduğunu fark eder etmez tüm konu önerisi özelliğini devre dışı bıraktığını söyledi.
Sözcü, “Bu açıkça kabul edilemez bir hataydı” dedi. Sözcü, davranışın tekrar olmasını önlemek için şirketin nedenini araştırdığını da sözlerine ekledi. “Daha önce de söylediğimiz gibi, yapay zekamızda iyileştirmeler yapmış olsak da, bunun mükemmel olmadığını biliyoruz ve yapacak daha çok ilerlememiz var. Bu saldırgan tavsiyeleri görmüş olabilecek herkesten özür dileriz.”
Olay, yapay zeka araçlarının cinsiyet veya ırksal önyargıları gösteren en son örneğidir ve yüz tanıma araçlarının insanları yanlış tanımlama konusunda belirli bir sorunu olduğu gösterilmiştir. renkli. 2015 yılında Google, Fotoğraflar uygulamasının Siyahilerin fotoğraflarını “goriller” olarak etiketlemesinden dolayı özür diledi. Geçen yıl Facebook, AI kullanılarak eğitilen algoritmalarının – Facebook’un sahibi olduğu Instagram da dahil olmak üzere – ırksal olarak önyargılı olup olmadığını araştırdığını söyledi.
Nisan ayında ABD Federal Ticaret Komisyonu, “rahatsız edici” ırk ve cinsiyet önyargıları sergileyen yapay zeka araçlarının kredi, konut veya iş. FTC gizlilik avukatı Elisa Jillson, ajansın web sitesindeki bir yayında “Kendinizi sorumlu tutun veya FTC’nin sizin için yapmasına hazır olun” diye yazdı.