Bir zamanlar yaratıcıları tarafından kamuya açıklanamayacak kadar tehlikeli kabul edilen yapay zeka sistemidir. Şimdi Microsoft, OpenAI’nin otomatik tamamlama yazılımı GPT-3’ün yükseltilmiş bir sürümünü, Azure bulut araçları paketinin bir parçası olarak kurumsal müşterilerin kullanımına sunuyor.
GPT-3, bunun en iyi bilinen örneğidir. yeni nesil AI dil modelleri. Bu sistemler öncelikle otomatik tamamlama araçları olarak çalışır: İster bir e-posta ister şiir olsun, onlara bir metin parçası besleyin ve AI, yazılanları sürdürmek için elinden gelenin en iyisini yapacaktır. Bununla birlikte, dili ayrıştırma yetenekleri, belgeleri özetleme, metnin duyarlılığını analiz etme ve Microsoft’un yeni Azure OpenAI Hizmetinin müşterilere yardımcı olacağını söylediği projeler ve hikayeler için fikirler üretme gibi diğer görevleri de üstlenmelerine olanak tanır.
İşte Microsoft’tan bir örnek senaryo:
“Bir spor serisi, taraftarlar için yorumların gerekçesini ve oyunun öne çıkan, vurgulanan anlarının ve analizlerinin bir özetini sunan bir uygulama geliştirebilir. gerçek zaman. Pazarlama ekipleri daha sonra GPT-3’ün orijinal içerik üretme yeteneğini kullanabilir ve sosyal medya veya blog gönderileri için beyin fırtınası yapmalarına ve hayranlarla daha hızlı etkileşim kurmalarına yardımcı olabilir.”
GPT-3, OpenAI tarafından satılan bir API aracılığıyla bu tür işler için zaten kullanılıyor.
OpenAI, müşterilere en son güncellemeleri sağlamak için GPT-3 için kendi API’sini satmaya devam ederken, Microsoft’un sistemi yeniden paketlemesi, daha fazla destek ve güvenlik isteyen daha büyük işletmelere yönelik olacaktır. Bu, hizmetlerinin “erişim yönetimi, özel ağ oluşturma, veri işleme korumaları [ve] ölçeklendirme kapasitesi” gibi araçlar sunacağı anlamına gelir.
Microsoft, ürünlerinde zaten GPT-3 kullanıyor
Bunun OpenAI’nin işini ne kadar bozabileceği belli değil, ancak iki şirketin zaten sıkı bir ortaklığı var. 2019’da Microsoft, OpenAI’ye 1 milyar dolar yatırım yaptı ve tek bulut sağlayıcısı oldu (hesaplama yoğun AI araştırması dünyasında hayati bir ilişki). Ardından, Eylül 2020’de Microsoft, GPT-3’ü doğrudan kendi ürünlerine entegre etmek için özel bir lisans satın aldı. Şimdiye kadar, bu çabalar GPT-3’ün kod oluşturma kapasitelerine odaklandı ve Microsoft, sistemi PowerApps uygulamaları grubuna ve Visual Studio Code düzenleyicisine otomatik tamamlama özellikleri oluşturmak için kullanıyor.
Bu sınırlı uygulamalar mantıklı. GPT-3 gibi büyük AI dil modelleriyle ilgili büyük sorunlar göz önüne alındığında. Birincisi: Bu sistemlerin ürettiği şeylerin çoğu çöptür ve iyiyi kötüden ayırmak için insan küratörlüğünü ve gözetimini gerektirir.
Örneğin, Müslümanları şiddetle ilişkilendirme ve modası geçmiş cinsiyet klişelerine boyun eğme olasılıkları daha yüksektir. Başka bir deyişle: bu modellerle filtrelenmemiş bir biçimde oynamaya başlarsanız, yakında kötü şeyler söyleyeceklerdir.
Microsoft, bu tür sistemlerin kamuoyuna açıklanması durumunda neler olabileceğini çok iyi biliyor. (Irkçı sohbet robotu Tay’ı hatırlıyor musunuz?). Bu nedenle, çeşitli güvenlik önlemleri getirerek GPT-3 ile bu sorunlardan kaçınmaya çalışıyor. Bunlar, yalnızca davet yoluyla aracı kullanmak için erişim verilmesini içerir; müşterilerin kullanım durumlarını incelemek; ve “hizmetin uygunsuz çıktıları veya istenmeyen kullanımlarını önlemeye yardımcı olacak filtreleme ve izleme araçları” sağlamak.
Ancak, bu kısıtlamaların yeterli olup olmayacağı belli değil. Örneğin, The Verge tarafından şirketin filtreleme araçlarının tam olarak nasıl çalıştığı veya GPT-3’ten uygunsuz çıktıları azaltabileceklerine dair herhangi bir kanıt olup olmadığı sorulduğunda, şirket soruyu geçiştirdi.
“Bu eğitim verilerine dayanarak söyleyebileceklerinden sorumlu kişi veya şirket olmak istemem”
Washington Üniversitesi’nde büyük dil modelleri üzerine kapsamlı bir şekilde yazan hesaplamalı dilbilim profesörü Emily Bender , Microsoft’un güvencelerinin yetersiz olduğunu söylüyor.
“Bu eğitim verilerine dayanarak söyleyeceklerinden sorumlu kişi veya şirket olmak istemem.”
Bender, Microsoft’un GPT-3’ü tanıtmasının şirketin kendi AI etik yönergelerini karşılamadığını belirtiyor. Bu, şeffaflık ilkesini içerir – yani AI sistemleri hesap verebilir ve anlaşılabilir olmalıdır. Buna rağmen, Bender, GPT-3’ün eğitim verilerinin tam bileşiminin bir gizem olduğunu ve Microsoft’un sistemin dili “anladığını” iddia ediyor – birçok uzman tarafından şiddetle tartışılan bir çerçeve. Bender, “Microsoft’un bu ürünü satmak için bu tür bir yapay zeka aldatmacasına meyletmesi beni endişelendiriyor,” dedi Bender.
Ancak Microsoft’un GPT-3 filtreleri kanıtlanmamış olsa da, müşterilerini dikkatli bir şekilde seçerek çok fazla sorun çıkarır. Büyük dil modelleri, çıktıları insanlar tarafından kontrol edildiği sürece kesinlikle faydalıdır (ancak bu gereklilik, verimlilikte vaat edilen kazanımların bir kısmını geçersiz kılmaktadır). Bender’ın belirttiği gibi, Azure OpenAI Hizmeti yalnızca “işletme yöneticilerine yönelik iletişim” yazmaya yardımcı oluyorsa, bu çok sorunlu değil.
“Dürüst olmak gerekirse, bir video oyunu karakteri için oluşturulan dil konusunda daha çok endişelenirdim,” Bu uygulamanın büyük olasılıkla insan gözetimi olmadan çalışacağını söylüyor.