Astrofizik hakkında bildiğimiz her şeyi silelim. Sadece verilerin kendisini kullanarak bu bilgiyi ne ölçüde yeniden keşfedebiliriz?Kevin Schawinski
Geleneksel olarak doğayı gözlem yoluyla öğreniriz. Johannes Kepler'in Tycho Brahe'nin gezegen konumları tablolarını incelediğini ve altta yatan örüntüyü ayırt etmeye çalıştığını düşünün. (Sonunda gezegenlerin eliptik yörüngelerde hareket ettiği sonucuna varmıştır.) Bilim aynı zamanda simülasyon yoluyla da ilerlemiştir. Bir gökbilimci Samanyolu ve komşu galaksisi Andromeda'nın hareketini modelleyebilir ve birkaç milyar yıl içinde çarpışacaklarını öngörebilir. Hem gözlem hem de simülasyon, bilim insanlarının daha sonra başka gözlemlerle test edilebilecek hipotezler üretmelerine yardımcı olur. Üretken modelleme bu iki yaklaşımdan da farklıdır.
Yakın zamana kadar Zürih'teki İsviçre Federal Teknoloji Enstitüsü'nde (ETH Zürih) çalışan astrofizikçi ve üretken modellemenin en hevesli savunucularından biri olan Kevin Schawinski, "Temelde gözlem ve simülasyon arasında üçüncü bir yaklaşım" diyor. "Bu, bir soruna saldırmanın farklı bir yolu."
Bazı bilim insanları, üretken modelleme ve diğer yeni teknikleri geleneksel bilim yapmak için sadece güç araçları olarak görüyor. Ancak çoğu, yapay zekanın muazzam bir etkiye sahip olduğu ve bilimdeki rolünün yalnızca büyüyeceği konusunda hemfikir. Fermi Ulusal Hızlandırıcı Laboratuvarı'nda astrofizikçi olan ve kozmosu incelemek için yapay sinir ağları kullanan Brian Nord, bir insan bilim insanının yaptığı hiçbir şeyin otomatikleştirilmesinin imkansız olmayacağından korkanlar arasında. "Bu biraz ürpertici bir düşünce" dedi.
Nesilden Nesile Keşif
Schawinski, yüksek lisans eğitiminden bu yana veri odaklı bilim alanında adından söz ettiriyor. Doktorası üzerinde çalışırken, binlerce galaksiyi görünümlerine göre sınıflandırma göreviyle karşı karşıya kaldı. Bu iş için hazır bir yazılım bulunmadığından, bu işi kitle kaynaklı yapmaya karar verdi ve böylece Galaxy Zoo vatandaş bilimi projesi doğdu. 2007'den itibaren sıradan bilgisayar kullanıcıları, hangi galaksinin hangi kategoriye ait olduğuna dair en iyi tahminlerini kaydederek gökbilimcilere yardımcı oldular ve çoğunluk kuralı tipik olarak doğru sınıflandırmalara yol açtı. Proje başarılı oldu, ancak Schawinski'nin de belirttiği gibi, yapay zeka bu projeyi geçersiz kıldı: "Bugün, makine öğrenimi geçmişi olan ve bulut bilişime erişimi olan yetenekli bir bilim insanı tüm bunları bir öğleden sonra yapabilir."
Schawinski 2016 yılında yeni ve güçlü bir araç olan üretken modellemeye yöneldi. Esasen, üretken modelleme, X koşulu göz önüne alındığında, Y sonucunu gözlemlemenizin ne kadar olası olduğunu sorar. Yaklaşımın inanılmaz derecede güçlü ve çok yönlü olduğu kanıtlanmıştır. Örnek olarak, her bir yüzün kişinin yaşı ile etiketlendiği bir dizi insan yüzü görüntüsünü üretken bir modelle beslediğinizi varsayalım. Bilgisayar programı bu "eğitim verilerini" taradıkça, daha yaşlı yüzler ile kırışıklık olasılığının artması arasında bir bağlantı kurmaya başlar. Sonunda, kendisine verilen herhangi bir yüzü "yaşlandırabilir" - yani, herhangi bir yaştaki belirli bir yüzün ne gibi fiziksel değişikliklere uğrayacağını tahmin edebilir.
Var olmayan insanlar |
Bu yüzlerin hiçbiri gerçek değildir. Üst satırdaki (A) ve sol sütundaki (B) yüzler, gerçek yüzlerin yapı taşı öğeleri kullanılarak üretken bir çelişkili ağ (GAN) tarafından oluşturulmuştur. GAN daha sonra A'daki yüzlerin cinsiyet, yaş ve yüz şekli gibi temel özelliklerini B'deki yüzlerin saç rengi ve göz rengi gibi daha ince özellikleriyle birleştirerek ızgaranın geri kalanındaki tüm yüzleri oluşturmuştur.
En iyi bilinen üretken modelleme sistemleri "üretken çekişmeli ağlardır" (GAN'lar). Eğitim verilerine yeterince maruz kaldıktan sonra, bir GAN hasarlı veya eksik pikselleri olan görüntüleri onarabilir veya bulanık fotoğrafları net hale getirebilir. Eksik bilgileri bir yarışma yoluyla çıkarmayı öğrenirler (bu nedenle " çekişmeli" terimi kullanılır): Ağın jeneratör olarak bilinen bir bölümü sahte veriler üretirken, ikinci bir bölüm olan ayırıcı sahte verileri gerçek verilerden ayırt etmeye çalışır. Program çalıştıkça, her iki yarı da giderek daha iyi hale gelir. Son zamanlarda dolaşımda olan hiper-gerçekçi, GAN tarafından üretilmiş "yüzlerden" bazılarını görmüş olabilirsiniz - bir başlığın ifade ettiği gibi "aslında var olmayan acayip derecede gerçekçi insanların" görüntüleri.
Daha geniş anlamda, üretken modelleme veri kümelerini (genellikle görüntüler, ancak her zaman değil) alır ve her birini bir dizi temel, soyut yapı taşına ayırır - bilim insanları buna verinin "gizli alanı" adını verir. Algoritma, bunun orijinal verileri nasıl etkilediğini görmek için gizli uzayın unsurlarını manipüle eder ve bu, sistemde iş başında olan fiziksel süreçlerin ortaya çıkarılmasına yardımcı olur.
Gizli alan fikri soyuttur ve görselleştirmesi zordur, ancak kaba bir benzetme olarak, bir insan yüzünün cinsiyetini belirlemeye çalıştığınızda beyninizin ne yapıyor olabileceğini düşünün. Belki de saç şeklini, burun şeklini vb. yanı sıra kolayca kelimelere dökemeyeceğiniz kalıpları fark edersiniz. Bilgisayar programı da benzer şekilde veriler arasında göze çarpan özellikler arıyor: Bıyığın ne olduğu veya cinsiyetin ne olduğu hakkında hiçbir fikri olmasa da, bazı görüntülerin "erkek" veya "kadın" olarak etiketlendiği ve bazılarında "bıyık" etiketinin bulunduğu veri setleri üzerinde eğitilmişse, hızlı bir şekilde bir bağlantı çıkaracaktır.
Aralık ayında Astronomy & Astrophysics dergisinde yayınlanan bir makalede Schawinski ve ETH Zürih'ten meslektaşları Dennis Turp ve Ce Zhang, galaksilerin evrimleşirken geçirdikleri fiziksel değişiklikleri araştırmak için üretken modelleme kullandılar. (Kullandıkları yazılım, gizli uzayı üretken bir rakip ağın ele alış biçiminden biraz farklı ele alıyor, bu nedenle benzer olsa da teknik olarak bir GAN değil). Geliştirdikleri model, fiziksel süreçlerle ilgili hipotezleri test etmenin bir yolu olarak yapay veri setleri oluşturdu. Örneğin, yıldız oluşumunun "sönmesinin" - oluşum oranlarında keskin bir düşüş - bir galaksinin çevresinin artan yoğunluğuyla nasıl ilişkili olduğunu sordular.
Schawinski için kilit soru, yıldız ve galaktik süreçler hakkında ne kadar bilginin yalnızca verilerden çıkarılabileceğidir. "Astrofizik hakkında bildiğimiz her şeyi silelim" dedi. "Sadece verilerin kendisini kullanarak bu bilgiyi ne dereceye kadar yeniden keşfedebiliriz?"
İlk olarak, galaksi görüntüleri gizli uzaylarına indirgendi; daha sonra Schawinski, galaksinin ortamındaki belirli bir değişikliğe (örneğin çevresinin yoğunluğu) karşılık gelecek şekilde bu uzayın bir öğesini değiştirebildi. Sonra galaksiyi yeniden oluşturup ne gibi farklılıklar ortaya çıktığını görebiliyordu. "Yani şimdi bir hipotez üretme makinem var" diye açıkladı. "Aslında düşük yoğunluklu bir ortamda bulunan bir grup galaksiyi alıp bu işlemle yüksek yoğunluklu bir ortamdaymış gibi görünmelerini sağlayabilirim." Schawinski, Turp ve Zhang, galaksiler düşük yoğunluklu ortamlardan yüksek yoğunluklu ortamlara geçtikçe renklerinin daha kırmızı hale geldiğini ve yıldızlarının daha merkezi bir şekilde yoğunlaştığını gördüler. Schawinski, bunun galaksilerle ilgili mevcut gözlemlerle uyuştuğunu söyledi. Asıl soru bunun neden böyle olduğu.
Schawinski bir sonraki adımın henüz otomatikleştirilmediğini söylüyor: "Bir insan olarak gelip, 'Tamam, bu etkiyi ne tür bir fizik açıklayabilir?' demem gerekiyor." Söz konusu süreç için iki makul açıklama var: Belki de galaksiler daha fazla toz içerdikleri için yüksek yoğunluklu ortamlarda daha kırmızı olurlar ya da belki de yıldız oluşumundaki azalma nedeniyle daha kırmızı olurlar (başka bir deyişle, yıldızları daha yaşlı olma eğilimindedir). Üretken bir modelle her iki fikir de test edilebilir: Tozluluk ve yıldız oluşum oranlarıyla ilgili gizli uzaydaki elementler değiştirilerek bunun galaksilerin rengini nasıl etkilediği görülebilir. Schawinski, "Ve cevap açık" dedi. Daha kırmızı galaksiler "yıldız oluşumunun düştüğü yerlerdir, tozun değiştiği yerler değil. Bu yüzden bu açıklamayı tercih etmeliyiz."
İster Schawinski bilim yapmanın "üçüncü bir yolunu" bulduğunu iddia ederken haklı olsun, ister Hogg'un dediği gibi bu sadece "steroidler üzerinde" geleneksel gözlem ve veri analizi olsun, YZ'nin bilimsel keşfin tadını değiştirdiği ve kesinlikle hızlandırdığı açıktır. YZ devrimi bilimde ne kadar ileri gidecek?
Zaman zaman, bir "robo-bilim insanının" başarılarına ilişkin büyük iddialar ortaya atılıyor. On yıl önce, Adam adlı bir yapay zekalı robot kimyager, ekmek mayasının genomunu araştırdı ve hangi genlerin belirli amino asitlerin yapımından sorumlu olduğunu buldu. (Adam bunu, belirli genleri eksik olan maya türlerini gözlemleyerek ve sonuçları genlere sahip olan türlerin davranışlarıyla karşılaştırarak yaptı). Wired'ın manşeti şöyleydi: "Robot Kendi Başına Bilimsel Keşif Yaptı."
Yaratıcı olmak için sıkılmaktan hoşlanmamanız gerekir. Ve bir bilgisayarın asla sıkılacağını sanmıyorum.
Kai Polsterer
Yakın zamanda, Glasgow Üniversitesi'nde kimyager olan Lee Cronin, ne tür yeni bileşiklerin oluştuğunu görmek amacıyla kimyasalları rastgele karıştırmak için bir robot kullanmıştır. Reaksiyonları bir kütle spektrometresi, bir nükleer manyetik rezonans makinesi ve bir kızılötesi spektrometre ile gerçek zamanlı olarak izleyen sistem, sonunda hangi kombinasyonların en reaktif olacağını tahmin etmeyi öğrendi. Cronin, başka keşiflere yol açmasa bile, robotik sistemin kimyagerlerin araştırmalarını yaklaşık yüzde 90 oranında hızlandırmasına olanak sağlayabileceğini söyledi.
Geçen yıl ETH Zürih'teki bir başka bilim insanı ekibi, veri kümelerinden fiziksel yasaları çıkarmak için sinir ağlarını kullandı. Bir tür robo-Kepler olan sistemleri, Dünya'dan görüldüğü şekliyle Güneş ve Mars'ın gökyüzündeki konumlarının kayıtlarından güneş sisteminin güneş merkezli modelini yeniden keşfetti ve çarpışan topları gözlemleyerek momentumun korunumu yasasını buldu. Fiziksel yasalar genellikle birden fazla şekilde ifade edilebildiğinden, araştırmacılar sistemin bilinen yasalar hakkında düşünmek için yeni yollar - belki de daha basit yollar - sunup sunamayacağını merak ediyorlar.
Bunların hepsi yapay zekanın bilimsel keşif sürecini başlatmasının örnekleridir, ancak her durumda yeni yaklaşımın ne kadar devrimci olduğunu tartışabiliriz. Belki de en tartışmalı konu, tek başına verilerden ne kadar bilgi elde edilebileceği sorusudur - bu, inanılmaz büyüklükteki (ve giderek büyüyen) veri yığınları çağında acil bir sorudur. Bilgisayar bilimci Judea Pearl ve bilim yazarı Dana Mackenzie, The Book of Why (2018) adlı kitaplarında verilerin "son derece aptalca" olduğunu ileri sürüyor. Nedensellikle ilgili sorular "asla tek başına verilerle yanıtlanamaz" diye yazıyorlar. "Verileri modelsiz bir şekilde analiz eden bir makale ya da çalışma gördüğünüzde, çalışmanın çıktısının sadece özetleyeceğinden ve belki de dönüştüreceğinden, ancak verileri yorumlamayacağından emin olabilirsiniz." Schawinski Pearl'ün pozisyonuna sempati duyuyor, ancak "yalnızca verilerle" çalışma fikrini "biraz saman adam" olarak tanımlıyor. Hiçbir zaman bu şekilde neden-sonuç çıkarımı yaptığını iddia etmediğini söyledi. "Ben sadece verilerle geleneksel olarak yaptığımızdan daha fazlasını yapabileceğimizi söylüyorum."
Sıkça duyduğumuz bir başka argüman da bilimin yaratıcılık gerektirdiği ve -en azından şu ana kadar- bunu bir makineye nasıl programlayacağımız konusunda hiçbir fikrimizin olmadığıdır. (Cronin'in robokimyacısı gibi her şeyi denemek pek de yaratıcı görünmüyor). Polsterer, "Akıl yürüterek bir teori ortaya koymak bence yaratıcılık gerektiriyor," dedi. "Yaratıcılığa her ihtiyaç duyduğunuzda bir insana ihtiyaç duyarsınız." Peki yaratıcılık nereden geliyor? Polsterer bunun can sıkıntısıyla ilgili olduğundan şüpheleniyor - bir makinenin deneyimleyemeyeceği bir şey olduğunu söylüyor. "Yaratıcı olmak için sıkılmaktan hoşlanmamanız gerekir. Ve bir bilgisayarın sıkılacağını hiç sanmıyorum." Öte yandan, Deep Blue ve AlphaGo gibi programları tanımlamak için "yaratıcı" ve "ilham verici" gibi kelimeler sıklıkla kullanılıyor. Ve bir makinenin "zihninin" içinde neler olup bittiğini tanımlama mücadelesi, kendi düşünce süreçlerimizi araştırmakta yaşadığımız zorluğun bir yansımasıdır.
Schawinski kısa bir süre önce akademiden ayrılarak özel sektöre geçti; şu anda Modulos adlı bir startup'ı yönetiyor ve web sitesine göre "yapay zeka ve makine öğrenimi alanındaki gelişmelerin fırtınasının gözünde" çalışıyor. Mevcut yapay zeka teknolojisi ile tam teşekküllü yapay zihinler arasında ne gibi engeller olursa olsun, o ve diğer uzmanlar, makinelerin insan bilim adamlarının işlerini giderek daha fazla yapmaya hazır olduğunu düşünüyor. Bunun bir sınırı olup olmadığını ise zaman gösterecek.
"Öngörülebilir bir gelecekte, yaşayan en zeki insanların biyolojik donanım kullanarak kendi başlarına yapamadıkları fizik veya matematiği keşfedebilecek bir makine yapmak mümkün olacak mı?" Schawinski merak ediyor. "Bilimin geleceği eninde sonunda bizim asla ulaşamayacağımız bir seviyede çalışan makineler tarafından mı yönlendirilecek? Bilmiyorum. Bu iyi bir soru."
Hiç yorum yok:
Yorum Gönder