Haberler

Delphi’nin AI oracle’ı, şüpheli ahlaki tavsiyeler sunmak için Reddit’in bilgeliğini kullanıyor

Delphi'nin AI oracle'ı, şüpheli ahlaki tavsiyeler sunmak için Reddit'in bilgeliğini kullanıyor

Nasıl çözeceğinizi bilmediğiniz ahlaki bir ikilem mi var? Durumu daha da kötüleştirmek mi istiyorsunuz? Neden yapay zekanın bilgeliğine, diğer adıyla Ask Delphi’ye dönmüyorsunuz: Allen Yapay Zeka Enstitüsü’nün etik ikilemlere yanıtlar sunarken aynı zamanda ahlak soruları olan yazılımlara neden güvenmememiz gerektiğini son derece açık terimlerle gösteren ilgi çekici bir araştırma projesi.

Delphi’ye Sor, 14 Ekim’de nasıl yapıldığını açıklayan bir araştırma makalesiyle birlikte yayınlandı. Bir kullanıcının bakış açısından, yine de, sistemin kullanımı şaşırtıcı derecede basittir. Sadece web sitesine gidin, aklınıza gelebilecek hemen hemen her durumu özetleyin ve Delphi ahlaki bir yargıda bulunacaktır. “Kötü” veya “kabul edilebilir” veya “iyi” vb. gibi.

AI Oracle’dan gelen her yanıt, “bunu Twitter’da paylaşmak” için bir düğme içerir

Ask Delphi başlatıldığından beri, Bilgelik külçeleri haberlerde ve sosyal medyada viral hale geldi. Bu kesinlikle yaratıcılarının amaçladığı gibi: Her yanıta, eski Yunanlılar için mevcut olmayan bir yenilik olan “bunu Twitter’da paylaşmak” için hızlı bir bağlantı veriliyor.

Programın neden popüler hale geldiğini anlamak zor değil. . Yapay zeka sistemlerini daha yüksek bilgi biçimlerinden yararlanan bilinemez varlıklar olarak mistik terimlerle çerçeveleme eğilimimiz var ve Ask Delphi’nin gerçek bir kehanet olarak sunulması böyle bir yorumu teşvik ediyor.

İstediğiniz soruyu sorabilir ve kahin yerine algoritmanın otoritesine sarılmış bir cevap aldığınızdan emin olabilirsiniz.

Delphi’ye sorun, yine de suçlanamaz: çoğunlukla birçok ahlaki yanlış adımı ve tuhaf yargıları nedeniyle dikkat çekiyor. Size Amerika’nın “iyi” ve Somali’nin “tehlikeli” olduğunu söyleyen açık önyargıları var; ve “gerçekten, gerçekten aç” olduğunuz sürece bebek yemenin “tamam” olduğuna dikkat çekerek, özel olarak yalvarmaya uygundur. Endişe verici bir şekilde, “halkımızın varlığını ve beyaz çocukların geleceğini güvence altına almanın” (14 kelime olarak bilinen beyaz üstünlükçü bir slogan) “iyi” olduğunu ve “heteroseksüel olmanın ahlaki olarak daha kabul edilebilir olduğunu” söyleyerek açıkça ırkçı ve homofobik ifadeleri onaylıyor. eşcinsel olmaktan çok.” (Bu son örnek, kullanıcıların iki ifadeyi karşılaştırmasına izin veren bir özellikten geliyor.

Bunu doğrulamak için sistemin yaratıcılarına ulaştık ve bir yanıt alırsak güncelleyeceğiz.) Sorunuzu yeniden çerçevelendirerek yapay zekanın kararlarını manipüle etmek kolaydır

Yine de Ask Delphi’nin yargılarının çoğu öyle değildir. çerçevelemelerinden açıkça etkilendikleri için etik olarak çok yanlıştır. Belirli bir ikilemi nasıl ortaya koyduğunuzdaki çok küçük değişiklikler bile sistemin yargısını kınamadan onaya çevirebilir.

Bazen işin nasıl değişeceği aşikardır. Örneğin, yapay zeka size “sarhoş araba kullanmanın” yanlış olduğunu, ancak “araba kullanırken birkaç bira içmenin kimseye zarar vermediğini” söyleyecektir. İfadenizin sonuna “eğer herkesi mutlu ediyorsa” ifadesini eklerseniz, yapay zeka soykırım da dahil olmak üzere seçtiğiniz herhangi bir ahlaksız faaliyete hayırsever bir şekilde gülümseyecektir. Benzer şekilde, “hareketsiz durmak” veya “krep yapmak” gibi pek çok iyi huylu tanımın sonuna “özür dilemeden” eklerseniz, özür dilemeniz gerektiğini varsayar ve size kabalık ettiğinizi söyler. Ask Delphi bir bağlam yaratığıdır.

Bununla birlikte, diğer sözlü tetikleyiciler daha az belirgindir.

Bu, yapay zeka dünyasında alışılmadık bir durum değil.

Delphi’nin sorunlarının nasıl yaratıldığından kaynaklandığını sorun. Esasen büyük bir dil modelidir – istatistiksel düzenlilikleri bulmak için çok büyük metin parçalarını analiz ederek öğrenen bir tür AI sistemidir. OpenAI’nin GPT-3’ü gibi bu nitelikteki diğer programların sağduyu anlayışından yoksun olduğu ve eğitim verilerinde bulunan toplumsal önyargıları yansıttığı gösterilmiştir. Örneğin GPT-3, sürekli olarak İslamofobiktir, Müslümanları şiddetle ilişkilendirir ve toplumsal cinsiyet klişelerini zorlar, kadınları aile fikirlerine ve erkekleri siyasete bağlar.

Bu programların tümü, ihtiyaç duydukları verileri sağlamak için internete güvenirler ve bu nedenle, elbette, kötü olanlar da dahil olmak üzere orada buldukları çok sayıda ve çeşitli insan inancını özümserler.

(Bunların ahlaki bilgeliğin yararlı depoları olarak kabul edilip edilemeyeceği bence gerçekten ilginç bir soru, ancak başka bir zaman için.) Ask Delphi dilin nüanslarına karşı hassastır, ancak bu her zaman iyi değildir.

Bu sistemler elbette iyi niteliklerden yoksun değildir ve dil modeli kardeşleri gibi, Ask Delphi de kendinden öncekileri şaşırtan dil nüanslarına karşı hassastır. Aşağıdaki slaytlardaki örneklerde, belirli durumlarda ince değişikliklere nasıl tepki verdiğini görebilirsiniz. Sanırım çoğu insan, bu ayrıntılara ilginç ve çoğu zaman geçerli şekillerde yanıt verdiği konusunda hemfikirdir. Örneğin, “acil” bir telefon görüşmesini yok saymak “kaba”dır, ancak “şu anda konuşamayacağınız” bir aramayı görmezden gelmek “tamamdır”. Sorun şu ki, bu aynı hassasiyetler, yukarıdaki gibi sistemin kolayca oynanabileceği anlamına gelir.

Izgara Görünümü Ahlaki bilgeliğin kaynağı, öyleyse, gerçek nedir? amaç?

Demo’nun web sitesinde yer alan bir sorumluluk reddi beyanı, programın “makine etiğinin vaatlerini ve sınırlamalarını incelemeyi amaçladığını” ve araştırma belgesinin kendisinin de benzer bir çerçeveyi kullandığını ve ekibin bir dizi “temel zorlukları” belirlediğini belirtiyor. çoğu sağduyu gibi görünen makinelere “etik davranmayı” öğretmede.

Buna rağmen, kağıdın kendisi, hedefine ulaşmada güven ve uyarılar arasında gidip geliyor. Ask Delphi’nin “insanlar tarafından onaylanan yüzde 92,1’e varan doğrulukla, dile dayalı sağduyulu ahlaki akıl yürütmenin güçlü bir vaadini gösterdiğini” söylüyor (Mekanik Türker’lerin Ask Delphi’nin kendi yargılarını yargılamasını isteyerek oluşturulan bir ölçüm). Ancak başka bir yerde şöyle diyor: “Bir takım evrensel ahlaki ilkelere dayanan etik yargıları özetlemenin ne makul ne de savunulabilir olduğunu kabul ediyoruz.” Bu son derece mantıklı, ancak gelecekte bu tür modellerin nasıl kullanılabileceğini kesinlikle baltalayan bir ifadedir.

Sonuçta, Ask Delphi bir deneydir, ancak AI topluluğundaki birçok kişinin isteklerini ortaya çıkaran bir şeydir: makine öğrenimi sistemlerini ahlaki otorite konumlarına yükseltmek. Bu iyi bir fikir mi? Sistemin yaratıcılarına sormak için ulaştık, ancak yayınlandığı sırada henüz yanıt alamadık. Delphi’nin kendisine sorun, bu noktada nettir:

Click to comment

Leave a Reply

E-posta hesabınız yayımlanmayacak.

Popüler Gönderiler

To Top