0

OpenAI, en yeni dil modeli GPT-3 ile desteklenen bir API’nin lansmanından bu yana üç ay geçti ve AI topluluğu içinde ve ötesinde büyülenme konusu olmaya devam ediyor. Portland State Üniversitesi bilgisayar bilimleri profesörü Melanie Mitchell, GPT-3’ün ilkel benzetmeler yapabileceğine dair kanıt buldu ve Columbia Üniversitesi’nden Raphaël Millière, GPT-3’ten hakkında yazılan felsefi denemelere bir yanıt yazmasını istedi o. Ancak ABD seçimleri yaklaşırken, akademisyenler arasında kötü niyetli aktörler tarafından yanlış bilgi, dezenformasyon ve düpedüz yalanlar yayarak uyuşmazlığı kışkırtmak için GPT-3 gibi araçların seçilebileceğine dair endişeler artıyor. Middlebury Uluslararası Araştırmalar Enstitüsü Terör, Aşırılık ve Terörle Mücadele Merkezi (CTEC) tarafından yayınlanan bir makalede , ortak yazarlar GPT-3’ün “bilgilendirici”, “etkili” metin oluşturmadaki gücünün “bireyleri aşırı sağcı aşırı sağcı ideolojiler ve davranışlar halinde radikalleştirmek” için güçlendirildi.

Botlar, yanlış bilgilerin yayılması veya tartışmalı noktaların güçlendirilmesi yoluyla dünya çapında giderek daha fazla huzursuzluk tohumlarını ekmek için kullanılıyor. görünüm. 2019’da yayınlanan bir Oxford İnternet Enstitüsü raporu , Küba, Mısır, Hindistan, İran, İtalya, Güney Kore ve Vietnam dahil olmak üzere 50 ülkede robotların propaganda yaydığına dair kanıtlar buldu. Birleşik Krallık’ta araştırmacılar, ülkenin Avrupa Birliği’nden ayrılma önerisiyle ilgili (“Brexit” olarak bilinen) 5 Haziran ile 12 Haziran arasında gönderilen yarım milyon tweetin botlardan geldiğini tahmin ediyor. Ve Ortadoğu’da botlar, Washington Post köşe yazarı Jamal Khashoggi’nin 2018’de öldürülmesinin ardından Suudi Arabistan’ın veliaht prensi Muhammed bin Salman’ı desteklemek için binlerce tweet attı.

Belki de yaklaşan ABD seçimleriyle en alakalı bot etkinliği gerçekleşti. geçen Kasım ayında, cyborg botları yerel Kentucky seçimleri sırasında yanlış bilgi yaydığında. Sosyal medyadaki yanlış bilgileri izleyen bir şirket olan VineSight, anketler kapanmadan önce ve sonra hükümdarlık sonuçlarına ilişkin şüphe uyandıran mesajları retweetleyen ve beğenen küçük bot ağlarını ortaya çıkardı.

Ancak botlar tarihsel olarak karmaşık olmamıştı; en basitçe, toksik (veya şiddetli) tartışmalara yol açması muhtemel olan gönderileri yeniden tweetlemek, olumlu oylamak veya favori gönderilerdir. GPT-3 destekli botlar veya “siborglar” – insan operatörlerinden tweetler göndererek spam algılama araçlarından kaçmaya çalışan hesaplar – çıktılarının ne kadar ikna edici olduğu düşünüldüğünde çok daha zararlı olabilir. “İdeolojik olarak tutarlı sahte metin üretmek artık büyük bir kaynak materyal külliyatı ve saatlerce [eğitim] gerektirmiyor. GPT-3’ü sormak kadar basit; Middlebury Enstitüsü araştırmasının yardımcı yazarları, model başka herhangi bir eğitim olmaksızın kalıpları ve amacı anlayacaktır ”diye yazdı. “Bu … GPT-3’ün QAnon’dan Atomwaffen Bölümüne ve Wagner Group’a kadar, aşırılık yanlısı topluluklar hakkındaki etkileyici derin bilgisi ve bu toplulukların belirli nüansları ve tuhaflıkları ile daha da kötüleşiyor.”

OpenAI toxicity { 1} Yukarıda: GPT-3 tarafından oluşturulan bir soru-cevap dizisi.

Çalışmalarında, CTEC araştırmacıları, insanların GPT-3’ün bilgilerini ideolojik önyargı ile renklendirip renklendiremeyeceğini belirlemeye çalıştılar. (GPT-3, internetten trilyonlarca kelime üzerinde eğitildi ve mimari tasarımı, tweetler, paragraflar, forum başlıkları ve e-postalar gibi daha uzun, temsili bilgi istemleri aracılığıyla ince ayar yapılmasını sağlıyor.) Üretmenin yalnızca birkaç saniye sürdüğünü keşfettiler. bir komplo teorisiyle tutarlı dünya hakkındaki soruları yanıtlayabilen bir sistem, bir durumda QAnon ve Iron March topluluklarından kaynaklanan yalanlar.

“GPT-3, tek bir gönderiyi birden çok bakış açısından ikna edici yanıtlarla tamamlayabilir, ortak yazarlar, aşırı sağ aşırılık içinde çeşitli farklı temalar ve felsefi konuları da beraberinde getiriyor ”diye yazdı. “Ayrıca, tümü [toplulukların] ideolojilerinin sınırlarına giren yeni konuları ve sıfırdan açılış gönderileri oluşturabilir.”

CTEC’in analizi ayrıca GPT-3’ün, Çok dilli dil anlayışı, sağcı önyargı, yabancı düşmanlığı ve komplo örneklerini gösteren İngilizce uyarılara yanıt olarak Rusça metin üretme yeteneğini gösteren.Araştırmacılar, çok az deneyle, kısa yönlendirmeler çevrimiçi aşırı sağcı topluluklarda inandırıcı bir şekilde görünecek olan ikna edici ve tutarlı metinler üretir ”diye yazdı. “GPT-3’ün çevrimiçi aşırılık yanlısı toplulukların ideolojik olarak tutarlı, etkileşimli, normalleştirici ortamını taklit etme yeteneği, bireyleri radikalleştirmeye ve işe almaya çalışan aşırılıkçı hareketleri büyütme riskini taşıyor. Aşırılıkçılar, hafifçe değiştirdikleri sentetik metinleri kolayca üretebilir ve ardından bu ağır ideolojik ve duygusal açıdan heyecan verici içeriğin, bu tür içeriğin insan tarafından oluşturulan içerikten ayırt edilmesinin zor olduğu çevrimiçi forumlara yayılmasını hızlandırmak için otomasyonu kullanabilir. “

OpenAI, GPT-3’ten zararlı dil üretimini sınırlandırmak için “toksisite filtreleri” dahil olmak üzere API düzeyinde güvenlik önlemleri denediğini söylüyor. Örneğin, Yahudi karşıtı içeriği alan filtreler kullanmaya devam ederken Yahudilik hakkında tarafsız içeriği bırakmayı da umuyor.

Başka bir çözüm, eski Salesforce baş bilim adamı Richard Socher dahil Salesforce araştırmacıları tarafından önerilen bir teknikte yatıyor olabilir. Yakın tarihli bir makalede, GPT-3’ün öncülü GPT-2 gibi dil modelleriyle metin oluşturmayı “detoksifiye etme” yeteneğine sahip bir makine öğrenimi algoritması olan GeDi ‘yi (“üretici ayırıcı” nın kısaltması) açıklıyorlar. Bir deney sırasında, araştırmacılar GeDi’yi Alphabet’in teknoloji kuluçka merkezi Jigsaw tarafından yayınlanan açık kaynaklı bir veri kümesinde toksisite sınıflandırıcısı olarak eğitti. GeDi kılavuzlu oluşturmanın, en yüksek dilsel kabul edilebilirliği sağlarken, temel modellere göre önemli ölçüde daha az toksik metinle sonuçlandığını iddia ediyorlar.

GeDi

Ancak teknik azaltma ancak bu kadarını başarabilir. CTEC araştırmacıları, GPT-3 gibi gelişmekte olan teknolojilerin kullanımı ve kötüye kullanımı için standartları etkin bir şekilde yönetmek ve belirlemek için endüstri, hükümet ve sivil toplum arasında ortaklıklar önermektedir. Üretken dil modellerinin yaratıcıları ve dağıtımcıları, potansiyel müşterilere ve kullanıcılara hizmet etmek için benzersiz motivasyonlara sahiptir. Araştırmacılar, çevrimiçi hizmet sağlayıcıların ve mevcut platformların, hizmetlerinin kullanımıyla birlikte kullanılan bu tür dil modellerinden elde edilen çıktıların etkisine uyum sağlamaları gerekecek ”diye yazdı. “Vatandaşlar ve onlara hizmet eden hükümet yetkilileri, sentetik metnin nasıl ve ne şekilde oluşturulmasının ve dağıtımının sağlıklı normları ve yapıcı çevrimiçi toplulukları nasıl ve ne şekilde desteklediğine ilişkin bilgilerle kendilerini güçlendirebilirler.”

Bunun ne ölçüde olacağı belirsizdir. ABD seçimlerinden önce mümkün, ancak CTEC’in bulguları aciliyeti açıkça gösteriyor. GPT-3 ve benzeri modeller, düzgün bir şekilde sınırlandırılmadıkları takdirde yıkıcı potansiyele sahiptir ve politik ve ideolojik yelpazenin her yerinden paydaşların hem güvenli hem de sorumlu bir şekilde nasıl konuşlandırılabileceklerini anlamalarını gerektirecektir.

AI kapsamı için, Khari Johnson ve Kyle Wiggers’a haber ipuçları gönderin – ve AI Weekly haber bültenine abone olmayı ve AI Kanalımıza yer işareti koymayı unutmayın.

Okuduğunuz için teşekkürler,

Kyle Wiggers

AI Personel Yazarı

.

Kaynak :
https://venturebeat.com/2020/09/18/ai-weekly-cutting-edge-language-models-can-produce-convincing-misinformation-if-we-dont-stop-them/


0 Comments

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir