Yapay zeka, dilin ustalığıdır. Onun söylediklerine güvenmeli miyiz?

Altman, “Güvenlik sorunları hakkında daha düşünceli ve daha fazla yansıtıcı olmamızı sağladığını düşünüyorum” diyor. “Stratejimizin bir parçası şudur: dünyadaki kademeli değişim, ani değişimden daha iyidir.” Veya, OpenAI Başkan Yardımcısı Mira Moratti’nin dediği gibi, yazılıma açık erişimi kısıtlayan güvenlik ekibinin çalışmalarını sorduğumda, “Bu güçlü teknolojilerin nasıl konuşlandırılacağını öğreneceksek, riskler çok düşükken başlayalım. ”

GPT-3’ün kendisi Iowa’daki bir süper bilgisayar kümesinde 285.000 CPU çekirdeği üzerinde çalışan OpenAI, San Francisco’nun Misyon alanı dışında yenilenmiş bir bagaj fabrikasında faaliyet gösteriyor. Geçen yılın Kasım ayında Ilya Sotskefer ile orada tanıştım ve GPT-3’ün gerçekte nasıl çalıştığına dair sıradan bir kişinin açıklamasını ortaya çıkarmaya çalışıyordum.

Sotskever, sandalyesinde öne doğru eğilerek, “GPT-3’ün temel fikri bu,” dedi. Soruları yanıtlamanın ilginç bir yolu var: Bazı yanlış başlangıçlar – “Size istediğiniz açıklamaya kabaca uyan bir tanım verebilirim” – sanki devam eden tüm yanıtı çiziyormuş gibi uzun meditatif duraklamalarla kesintiye uğradı.

Sonunda şunları söyledi: “GPT-3’ün temel fikri, sezgisel bir anlama kavramını mekanik olarak ölçülebilen ve anlaşılabilen bir şeyle ilişkilendirmenin bir yoludur ve bu, metindeki bir sonraki kelimeyi tahmin etme görevidir. Yapay zekanın diğer biçimleri, dünya hakkındaki bilgileri kodlamaya çalışır: büyük ustaların satranç stratejileri, klimatoloji ilkeleri. Ancak GPT-3 zekası, eğer zeka bunun için kelime ise, aşağıdan yukarıya doğru gelir: bir sonraki kelimeyi tahmin etmek için temel fiil aracılığıyla. GPT-3 eğitimi için, modele bir “istem” verilir – örneğin bir gazete makalesinden veya bir romandan veya bilimsel bir makaleden birkaç cümle veya metin paragrafı – ve ardından olası kelimelerin bir listesini önermesi istenir. olasılığa göre sıralanmış diziyi tamamlayabilir. Eğitimin ilk aşamalarında önerilen kelimeler anlamsızdır. Algoritmaya “Yazar ilk kelimeden son kelimeyi sildi…” gibi bir cümle ile sorun ve tahminler bir tür saçmalık akışı olacaktır: liste – doğru eksik kelime belirir: “paragraf.” Sonra program. o belirli öneriyi oluşturan rastgele sinir bağlantılarını güçlendirir ve zayıflatır.Yanlış tahminler üreten tüm bağlantılar.Ardından bir sonraki yönlendiriciye geçer.Zaman içinde, yeterli yinelemeyle program öğrenir.

READ  Birisi Steam Deck'e tam bir 4K masaüstü grafik kartı taktı

Ocak ayında OpenAI, kullanıcıların yalnızca örnek bir metin üzerinde genişletmelerini istemek yerine, doğrudan GPT-3 talimatlarını bir istem olarak vermelerine olanak tanıyan bir özellik ekledi. Örneğin, Yardım modunu kullanarak GPT-3’e bir keresinde şu soru soruldu: “Italo Calvino’nun çalışmasında üstkurmacanın rolünü tartışan bir makale yazın.” Şöyle başlayan kısa bir paragraf:

İtalyan yazar Italo Calvino, yazarın yazma eylemini tartışmak için dördüncü duvarı kırdığı bir yazı türü olan üstkurmaca konusunda uzman olarak kabul edilir. Calvino için üstkurmaca, gerçekliğin doğasını ve hikayelerin dünyaya dair algılarımızı nasıl şekillendirebileceğini keşfetmenin bir yolu. Romanları genellikle gerçeklik ve fantezi arasındaki sınırları manipüle eden eğlenceli yapılar ve labirentler içerir. Örneğin, yolcunun bir kış gecesinde olması durumunda, okuyucunun sürekli olarak okuma eyleminin meta düzeyindeki tartışmalar ve hikaye anlatıcılığının doğası hakkındaki tartışmalar söz konusudur. . . .

GPT-3’e tam olarak aynı istemi defalarca verebilirsiniz ve her seferinde benzersiz bir yanıt üretecektir, bazıları diğerlerinden daha ikna edicidir, ancak neredeyse tamamı dikkate değer ölçüde basittir. Yönlendirici istemler her türlü biçimi alabilir: “Bana Bolognese sosundaki tüm malzemelerin bir listesini verin”, “John Ashbery tarzında bir Fransız sahil köyü hakkında bir şiir yazın”, “Big Bang’i 8 yıllık bir dille açıklayın. -eski anlıyor.” Bazen bu tür GPT-3 uyaranlarını beslediğim ilk birkaç kişi, tüylerimi diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken diken hissettim sonraki kelime.

READ  CEO Karl Bay, Qualcomm CEO'sunun akıllı telefonunu gösteren hiçbir şey çekmedi

Ancak AI, malları gerçekten teslim etmeden zeka veya anlayış yanılsaması yaratma konusunda uzun bir geçmişe sahiptir. de çok tartışılan kağıt Geçen yıl yayınlanan, Washington Üniversitesi dilbilim profesörü Emily Bender, eski Google araştırmacısı Timnit Gebru ve bir grup ortak yazar, büyük dil modellerinin yalnızca “rastgele papağanlar” olduğunu açıkladı: yani program, rastgeleleştirmeyi yalnızca insanlar.. Bender kısa süre önce bana e-posta yoluyla şunları söyledi: “Değişen şey, ‘yapay zeka’ya yönelik belirli bir eşiğin üzerinde bir adım atılmış değil. Bunun yerine, değişenin ‘donanım, yazılım ve devasa büyüklükteki verilerin birikmesine ve işlenmesine izin veren ekonomik yenilikler olduğunu söyledi. “Bu tür şeyleri inşa eden ve satan insanların sahip olabileceği” teknolojinin yanı sıra kültür teknolojisi, yanlış veri temelleri üzerine inşa etmekten çok uzaktır.”

Bir cevap yazın

E-posta hesabınız yayımlanmayacak.