Kaynak metin: https://tinyurl.com/2p95fm6z
Araştırmacılar yapay zeka konusunda heyecanlılar - ancak birçoğu altta yatan mühendisliğin gizlilik içinde gizlenmesinden dolayı hayal kırıklığına uğramış durumda.
Yapay zeka şirketi OpenAI bu hafta, popüler sohbet botu ChatGPT'ye güç veren büyük dil modelinin en son versiyonu olan GPT-4'ü tanıttı. Şirket GPT-4'ün büyük iyileştirmeler içerdiğini, insan benzeri metin oluşturma ve neredeyse her türlü komuttan görüntü ve bilgisayar kodu üretme becerisiyle insanları şimdiden şaşkına çevirdiğini söylüyor. Araştırmacılar bu yeteneklerin bilimi dönüştürme potansiyeline sahip olduğunu söylüyorlar - ancak bazıları teknolojiye, altında yatan koda veya nasıl eğitildiğine dair bilgilere henüz erişemedikleri için hayal kırıklığına uğramış durumda. Bilim insanları, bunun teknolojinin güvenliği konusunda endişe yarattığını ve araştırma için daha az kullanışlı hale getirdiğini söylüyor.
14 Mart'ta piyasaya sürülen GPT-4'e yapılan bir güncelleme, artık metinlerin yanı sıra görüntüleri de işleyebilmesi. Kaliforniya, San Francisco merkezli Open AI, dil becerisinin bir göstergesi olarak, ChatGPT'nin önceki sürümünün onuncu yüzdelik dilimine kıyasla ABD baro hukuk sınavını doksanıncı yüzdelik dilimdeki sonuçlarla geçtiğini söylüyor. Ancak teknoloji henüz geniş çapta erişilebilir değil - şu ana kadar yalnızca ChatGPT'ye ücretli aboneler erişebildi.
Amsterdam Üniversitesi'nde psikolog olan Evi-Anne van Dis, "Şu anda bir bekleme listesi var, bu yüzden şu anda kullanamazsınız" diyor. Ancak GPT-4'ün demolarını görmüş. "Kapasiteleri gösterdikleri bazı videolar izledik ve akıllara durgunluk veriyordu" diyor. Anlattığı bir örnekte, GPT-4'ün bir web sitesi oluşturmak için gereken bilgisayar kodunu üretmek için kullandığı elle çizilmiş bir web sitesi karalaması, görüntüleri girdi olarak işleme yeteneğinin bir göstergesiydi.
Ancak bilim camiasında OpenAI'nin modelin nasıl ve hangi verilerle eğitildiği ve gerçekte nasıl çalıştığı konusundaki gizliliği konusunda hayal kırıklığı var. Açık kaynaklı bir yapay zeka topluluğu olan HuggingFace'de iklim konusunda uzmanlaşmış bir araştırmacı bilim insanı olan Sasha Luccioni, "Tüm bu kapalı kaynaklı modeller, aslında bilimde çıkmaz sokaktır" diyor. "Onlar [OpenAI] araştırmalarını geliştirmeye devam edebilirler, ancak genel olarak topluluk için bu bir çıkmaz sokaktır."
'Kırmızı takım' testi
Rochester Üniversitesi'nde kimya mühendisi olan Andrew White, bir 'red-teamer' olarak GPT-4'e ayrıcalıklı erişime sahipti: OpenAI tarafından platformu test etmek ve kötü bir şey yapmasını sağlamak için para ödenen bir kişi. GPT-4'e son altı aydır erişimi olduğunu söylüyor. "Sürecin başlarında, önceki yinelemelere kıyasla o kadar da farklı görünmüyordu".
Bot'a bir bileşik yapmak, reaksiyon verimini tahmin etmek ve bir katalizör seçmek için hangi kimyasal reaksiyon adımlarının gerekli olduğuna dair sorular sordu. White, "İlk başta aslında o kadar da etkilenmemiştim," diyor. "Gerçekten şaşırtıcıydı çünkü çok gerçekçi görünüyordu ama burada bir atomu halüsinasyon olarak görüyordu. Orada bir adımı atlıyordu" diye ekliyor. Ancak kırmızı ekip çalışmasının bir parçası olarak GPT-4'e bilimsel makalelere erişim sağladığında işler dramatik bir şekilde değişti. "Bu modellerin belki de tek başlarına o kadar da harika olmadıklarını fark etmemizi sağladı. Ama onları internete, retrosentez planlayıcısı ya da hesap makinesi gibi araçlara bağlamaya başladığınızda, birdenbire yeni tür yetenekler ortaya çıkıyor."
Ve bu yetenekler beraberinde endişeleri de getiriyor. Örneğin, GPT-4 tehlikeli kimyasalların üretilmesine izin verebilir mi? White, OpenAI mühendislerinin White gibi kişilerden gelen girdilerle GPT-4'ün tehlikeli, yasadışı veya zarar verici içerik yaratmasını engellemek için modellerine geri besleme yaptıklarını söylüyor.
Sahte gerçekler
Yanlış bilgi üretmek de bir başka sorun. Luccioni, bir cümledeki bir sonraki kelimeyi tahmin etmek için var olan GPT-4 gibi modellerin, halüsinasyon olarak bilinen sahte gerçekler bulma konusunda tedavi edilemeyeceğini söylüyor. "Bu tür modellere güvenemezsiniz çünkü çok fazla halüsinasyon var" diyor. OpenAI GPT-4'te güvenliği artırdığını söylese de, bu son sürümde de bir endişe kaynağı olmaya devam ediyor.
Eğitim için kullanılan verilere erişim olmadan, OpenAI'nin güvenlik konusundaki güvenceleri Luccioni için yetersiz kalıyor. "Verilerin ne olduğunu bilmiyorsunuz. Bu yüzden onu geliştiremezsiniz. Yani, böyle bir modelle bilim yapmak tamamen imkansız" diyor.
GPT-4'ün nasıl eğitildiğine dair gizem, van Dis'in Amsterdam'daki meslektaşı psikolog Claudi Bockting için de bir endişe kaynağı. "Bir insan olarak denetleyemediğiniz bir şeyden sorumlu olmak çok zor" diyor. "Endişelerden biri, örneğin insanların kendi başlarına sahip oldukları önyargıdan çok daha önyargılı olabilecekleri." Luccioni, GPT-4'ün arkasındaki koda erişemeden, önyargının nereden kaynaklanmış olabileceğini görmenin veya bunu düzeltmenin imkansız olduğunu açıklıyor.
Etik tartışmaları
Bockting ve van Dis, bu yapay zeka sistemlerinin giderek daha fazla büyük teknoloji şirketlerine ait olmasından da endişe duyuyor. Teknolojinin bilim insanları tarafından düzgün bir şekilde test edildiğinden ve doğrulandığından emin olmak istiyorlar. "Bu aynı zamanda bir fırsat çünkü büyük teknoloji ile işbirliği elbette süreçleri hızlandırabilir" diye ekliyor.
Van Dis, Bockting ve meslektaşları bu yılın başlarında, YZ'nin ve GPT-4 gibi araçların nasıl kullanıldığını ve geliştirildiğini yönetmek için bir dizi 'yaşayan' kılavuzun acilen geliştirilmesi gerektiğini savundular. YZ teknolojileriyle ilgili herhangi bir mevzuatın gelişim hızına ayak uydurmakta zorlanacağından endişe duyuyorlar. Bockting ve van Dis, bu endişeleri tartışmak üzere 11 Nisan'da Amsterdam Üniversitesi'nde UNESCO'nun bilim-etik komitesi, Ekonomik İşbirliği ve Kalkınma Örgütü ve Dünya Ekonomik Forumu gibi kuruluşlardan temsilcilerin katılacağı davetli bir zirve düzenledi.
White, endişelere rağmen GPT-4 ve gelecekteki yinelemelerinin bilimi sarsacağını söylüyor. "Bence bu bilimde büyük bir altyapı değişikliği olacak, tıpkı internetin büyük bir değişiklik olması gibi" diyor. Bilim insanlarının yerini almayacağını, ancak bazı görevlerde yardımcı olabileceğini de ekliyor. "Bence makaleleri, veri programlarını, kullandığımız kütüphaneleri ve hesaplama çalışmalarını ve hatta robotik deneyleri birbirine bağlayabileceğimizi fark etmeye başlayacağız."
Hiç yorum yok:
Yorum Gönder