• Hesap Oluştur
  • Oturum Aç

Yapay zeka (AI) beynin dili nasıl anladığını anlamamıza yardımcı olabilir mi?

admin    0

    • avatar

    admin  25-03-2019, 00:22

    Kredi:
    #1
    Yapay zeka (AI) beynin dili nasıl anladığını anlamamıza yardımcı olabilir mi? Sinirbilim, AI ve sinir ağlarının neden insan algısını tahmin etmede etkili olduğunu anlamamıza yardımcı olabilir mi?

    Austin'deki Texas Üniversitesi'nden (UT Austin) Alexander Huth ve Shailee Jain'ten yapılan araştırmalar, her ikisinin de mümkün olduğunu öne sürüyor.
    2018 Sinir Bilgi İşlem Sistemleri Konferansı'nda (NeurIPS) sunulan bir bildiride, araştırmacılar, beyindeki farklı alanların belirli kelimelere nasıl cevap verdiklerini her zamankinden daha fazla doğrulukla tahmin etmek için yapay sinir ağlarını kullanan deneylerin sonuçlarını açıkladılar.
    UT Austin Neuroscience ve Computer Science profesörü Huth, "Kelimeler kafalarımıza girerken, bize ne söylendiğine dair fikirler oluşturuyoruz ve bunun bize nasıl beynin içinde geldiğini anlamak istiyoruz" dedi. “Görünüşe göre sistemler olmalı, ancak pratik olarak, bu sadece dilin işe yaramadığı gibi. Biyolojideki herhangi bir şey gibi, basit bir denklem kümesini azaltmak çok zor.”

    Çalışmada, bağlamda daha iyi bir koruma sağlamak için her bir kelimenin önceki ile olan ilişkisini hesaplayan uzun kısa süreli hafıza (LSTM) adı verilen bir tür tekrarlayan sinir ağı kullanılmıştır.

    Huth'un UT Austin'deki laboratuarında doktora öğrencisi olan Jain, “Eğer bir kelimenin birden fazla anlamı varsa, daha önce söylenenlere bağlı olarak o cümlenin anlamını, bu cümlenin anlamını çıkarırsınız” dedi. “Hipotezimiz, bunun beyin aktivitesinin daha iyi tahmin edilmesine yol açacağı, çünkü beyin bağlamı önemsiyor.”
    Kulağa açık geliyor, ancak onlarca yıldır sinirbilim deneyleri, beynin sözcüklere ya da cümle zincirleriyle bağlantısı hakkında bir fikir edinmeden tek tek kelimelere verdiği yanıtı düşündü. (Huth, Mart 2019'da Bilişsel Sinirbilim Dergisi'nde "gerçek dünya sinirbilimi" yapmanın önemini açıklar .)

    Çalışmalarında araştırmacılar, beynin farklı alanlarının hikayeleri dinlerken nasıl tepki vereceğini test etmek ve nihayetinde tahmin etmek için deneyler yaptılar (özellikle Moth Radio Hour). Aktif nöron gruplarının ne kadar aktif olduklarına bağlı olarak beyindeki kan oksijenlenme seviyesindeki değişiklikleri yakalayan fMRI (fonksiyonel manyetik rezonans görüntüleme) makinelerinden toplanan verileri kullandılar. Bu, dil kavramlarının beyinde "temsil edildiğinin" karşılığı olarak görev yapar.
    Texas Advanced Computing Center'daki (TACC) güçlü süper bilgisayarları kullanarak, LSTM yöntemini kullanarak bir dil modeli geliştirdiler, böylece daha sonra hangi kelimenin geleceğini etkili bir şekilde tahmin edebiliyorlardı. usta

    “Bir sonraki kelimeyi tahmin etmeye çalışırken, bu model, dilin nasıl işlediğiyle ilgili diğer tüm şeyleri dolaylı olarak öğrenmek zorunda” dedi Huth, “hangi kelimelerin beyne ya da beyin hakkında herhangi bir veriye erişmeden başka kelimeleri takip etme eğiliminde olduğu ."
    Hem dil modeline hem de fMRI verilerine dayanarak, her bir kelimeyi yeni bir hikayede ilk kez duyduğunda beynin nasıl tepki vereceğini tahmin edebilecek bir sistem geliştirdiler.

    Geçmişteki çabalar, beyindeki dil tepkilerini etkili bir şekilde lokalize etmenin mümkün olduğunu göstermiştir. Bununla birlikte, yeni araştırma bağlamsal unsurun eklenmesinin –bu durumda daha önce gelen 20 kelimeye kadar- beyin aktivitesi tahminlerini önemli ölçüde iyileştirdiğini göstermiştir. En az miktarda içerik kullanılsa bile tahminlerinin düzeldiğini buldular. Ne kadar fazla içerik sağlanırsa, tahminlerinin doğruluğu o kadar iyi olur.
    "Analizimiz, eğer LSTM daha fazla kelime içeriyorsa, bir sonraki kelimeyi tahmin etmekte daha iyi olacağını," dedi Jain, "bu, geçmişte tüm kelimelerin bilgisini içermesi gerektiği anlamına geliyor."
    Araştırma daha ileri gitti. Beynin hangi kısımlarının içerilen bağlam miktarına daha duyarlı olduğunu araştırdı. Örneğin, işitsel kortekse yerelleştirilen görünen kavramların bağlama daha az bağımlı olduklarını buldular.
    Huth, “Köpek kelimesini duyarsanız, bu alan bundan önce 10 kelimenin ne olduğunu umursamıyor, sadece köpek kelimesinin sesine cevap verecek” dedi.
    Öte yandan, daha üst düzey düşünmeyle ilgilenen beyin alanlarının daha fazla bağlam dahil edildiğinde kesin olarak belirlenmesi kolaydı. Bu, zihin ve dil kavrama teorilerini destekler.

    Huth, "Yapay ağın hiyerarşisi ile ilginç bulduğumuz beyin hiyerarşisi arasında gerçekten güzel bir yazışma vardı" dedi.
    Doğal dil işleme - veya NLP - son yıllarda büyük adımlar attı. Ancak, soruları cevaplamak, doğal konuşmalar yapmak veya duyguları yazılı metinlerde incelemek söz konusu olduğunda, NLP'nin daha uzun bir yolu var. Araştırmacılar LSTM tarafından geliştirilen dil modellerinin bu alanlarda yardımcı olabileceğine inanıyor.
    LSTM (ve genel olarak sinir ağları), yüksek boyutlu alandaki değerleri ayrı ayrı bileşenlere (burada sözcükler) atayarak çalışır, böylece her bir bileşen, diğer birçok şeyle binlerce farklı ilişkisi tarafından tanımlanabilir.

    Araştırmacılar, Reddit yayınlarından çizilen on milyonlarca kelimeyi besleyerek dil modelini eğitti. Daha sonra sistemleri, altı denek beynindeki binlerce vokselin (üç boyutlu pikseller) ne modelin ne de bireylerin daha önce duymadığı ikinci bir öykü grubuna nasıl cevap vereceğini öngörüyordu. Bağlam uzunluğu ve sinir ağındaki ayrı ayrı katmanların etkisiyle ilgilendikleri için, her bir konu için 60 farklı faktörü (20 uzunluk bağlam tutma ve üç farklı katman boyutu) test ettiler.
    Tüm bunlar, büyük miktarda hesaplama gücü, bellek, depolama ve veri alımı gerektiren çok büyük ölçekli hesaplama problemlerine yol açmaktadır. TACC'nin kaynakları bu soruna çok uygun. Araştırmacılar, bilgi işlem görevleri için hem GPU'ları hem de CPU'ları içeren Maverick süper bilgisayarını ve verileri korumak ve dağıtmak için bir depolama ve veri yönetimi kaynağı Corral'ı kullandılar. Sorunu birçok işlemcide paralel hale getirerek, hesaplama denemesini yıllar yerine haftalar içinde gerçekleştirebildiler.

    Huth, "Bu modelleri etkili bir şekilde geliştirmek için çok sayıda eğitim verilerine ihtiyacınız var." Dedi. “Bu, ağırlıkları her güncellemek istediğinizde tüm veri kümenizden geçmek zorunda olduğunuz anlamına gelir. Ve TACC'deki gibi paralel kaynakları kullanmazsanız, bu doğal olarak çok yavaş.”
    Kulağa karmaşık geliyorsa, peki - öyle.

    Bu, Huth ve Jain’in sistemin daha düzenlenmiş bir versiyonunu düşünmesine öncülük ediyor, burada bir dil tahmin modeli geliştirmek ve ardından beyne uygulamak yerine, doğrudan beyin tepkisini öngören bir model geliştiriyorlar. Buna uçtan uca bir sistem diyorlar ve Huth ve Jain'in gelecekteki araştırmalarında yer almayı umduğu yer. Böyle bir model performansını doğrudan beyin tepkilerine göre geliştirir. Beyin aktivitesinin yanlış bir şekilde tahmin edilmesi, modele geri bildirim verir ve iyileştirmeleri teşvik eder.

    Huth, "Eğer bu işe yararsa, o zaman bu ağın beynimizin nasıl yaptığına benzer şekilde metin okumayı veya giriş dilini okumayı öğrenmesi mümkündür." Dedi. "Google Translate'i hayal edin, ancak yalnızca bir dizi kural öğrenmek yerine ne söylediğinizi anlar."

    Böyle bir sistem uygulandığında, Huth, beyin aktivitesini dile çevirebilecek bir zihin okuma sisteminin mümkün olduğu zamana kadar bunun sadece bir zaman meselesi olduğuna inanıyor. Bu arada, deneylerinden hem sinirbilim hem de yapay zeka hakkında fikir ediniyorlar.

    Jain, "Beyin çok etkili bir hesaplama makinesi ve yapay zekanın amacı, beynin yapabileceği her işte gerçekten iyi makineler üretmektir" dedi. “Ama beyin hakkında fazla bir şey anlamadık. Bu yüzden, beynin nasıl çalıştığını sorgulamak için yapay zekayı kullanmaya çalışıyoruz, sonra da bu sorgulama yöntemi ve teorik sinirbilim yoluyla edindiğimiz içgörülere dayanarak, bu sonuçları daha iyi yapay Zeka geliştirmek için kullanıyoruz.

    “Fikir, hem biyolojik hem de yapay bilişsel sistemleri anlamak ve daha iyi makineleri anlamak ve kurmak için bunları birlikte kullanmak” dedi.
    Gelecek Yapay Zeka İle Gelecek
    Beğeni

Bu konuyu görüntüleyen kullanıcı(lar): 1 Ziyaretçi

Foruma Git: