Haberin Özeti

Tam Sürüm

OpenAI ve Kaliforniya Berkeley Üniversitesi tarafından gerçekleştirilen araştırmada, yapay zeka birimleri, herhangi bir yönlendirme olmadan, kendi ihtiyaçları doğrultusunda yeni bir dil geliştirdi. Sistematik ve dil bilgisel dillerde vücut dili kullanımı bile bulunuyor.

Biyolojik evrimde konuşmanın nasıl ve ne sebeple ortaya çıktığının anlaşılması için önemli bir kaynak niteliği taşıyan çalışma, modern öğrenme birimlerinden yeni bilgiler elde ediyor. Araştırmada yapay zeka birimleri, fiziksel dünyanın bir simülasyonu içerisinde birbirlerine çeşitli görevler veriyor. Bu görevler ‘git’, ‘bak’ ya da ‘hiçbir şey yapma’ gibi basit görevler olabiliyor. Yapay zeka birimleri kelimenin tam anlamıyla duyulabilecek şekilde konuşmuyor ama simülasyon dünyada kendi aralarındaki iletişimleri, bizim gerçek dünyamızdaki iletişime benziyor.

Seslere anlamlar yüklendi

Çalışmada yapay zeka birimlerine, sesler çıkarabilecekleri bir ağız verildi. Ancak bu sesler başlangıçta herhangi bir anlama gelmiyordu. Aşağıdaki videoda, yapay zeka birimlerinin bu sesleri, basit komutlarla ve kelimelerle nasıl ilişkilendirdiği ve birbirlerini bu konuda nasıl yönlendirdiği görülüyor. Defalarca tekrarlanan denemeler sonucunda yapay zeka birimleri hangi komutun ne anlama geldiğini ve seslerin içinde bulundukları dünyada ne gibi durumları sembolize ettiğini yavaşça öğrendi.

Tabii ki bu dil oldukça basit. Birimler birbirlerine öncelikle tek kelimelik komutlar vermeye başladı. Ortamda gidilebilecek tek bir nokta olduğunda, sadece ‘git’ komutu yeterliydi. Ancak ortama yeni noktalar eklendiğinde bu kez noktaları birbirinden ayıran renkleri önem kazandı. Bir süre sonra yapay zeka birimlerinin çıkardığı seslerden birisi ‘kırmızı’ diğeri ‘mavi’ anlamına gelmeye başladı.

Birden fazla hedef olması durumunda birimler daha önce öğrendikleri ‘git’ komutuyla sonradan geliştirdikleri ‘kırmızı’ kelimesini birleştirerek ‘git kırmızı’ gibi cümleler kurmaya başladı. Birden fazla kelime olunca bir dil bilgisi de oluşmaya başladı. Örneğin ‘git kırmızı’ ifadesi, ‘kırmızı git’ ifadesine göre daha popüler oldu çünkü ‘git kırmızı’ dendiğinde, karşıdaki birim ilk kelimeyi duyduğunda, hedefi tam olarak belli olmasa bile, ikinci kelimeyi duyana kadar hareket etmeye başlayabiliyor. Yapay zeka birimleri bu durumu kendi hedeflerine daha yakın buldu.

Vücut dili devreye girdi

Bir başka etkileyici bulgu ise yapay zeka birimlerinin ağızlarını ortadan kaldırıp görev verince ortaya çıktı. Birbirine sesli komut veremeyen birimler bu kez farklı yöntemlerle iletişim kurmaya başladı. Bazı durumlarda birimler gidilmesi gereken noktayı işaret ederken bazı durumlarda ise birbirini takip etmeye başladı. Daha sonra birimlerden işaret etme ve birbirini görme yetenekleri de alındığında, birimler birbirlerini iterek hedef noktaya götürmeye çalıştı.

Araştırma ayrıca dilin bazı sorunlarını da ortaya koymaya çalıştı. Ortama aynı renkte iki farklı hedef konduğunda, birimlerden birisi diğerine ‘git yeşil’ dediğinde diğer birim iki yeşil hedef arasında kararsız bir şekilde bekledi.

Robotça yaklaşımlar

Yapay zeka ayrıca, mors koduna benzer bir yöntem de geliştirdi. Daha önce öğrenilen kelimeleri belirli aralıklarla kullanarak ve kelimeler arasındaki boşluklardan yararlanarak, yapay zeka birimleri birbirleri ile iletişim kurmayı başardı. Bu da teknik olarak bir dil ancak biz memelilerin kullandığına göre çok daha farklı ve robot olmayanlar için anlaşılması oldukça zor.

Kaynak: Inverse

OpenAI ve Kaliforniya Berkeley Üniversitesi tarafından gerçekleştirilen araştırmada, yapay zeka birimleri, herhangi bir yönlendirme olmadan, kendi ihtiyaçları doğrultusunda yeni bir dil geliştirdi. Sistematik ve dil bilgisel dillerde vücut dili kullanımı bile bulunuyor. Araştırmada yapay zeka birimleri, fiziksel dünyanın bir simülasyonu içerisinde birbirlerine çeşitli görevler veriyor. Bu görevler 'git', 'bak' ya da 'hiçbir şey yapma' gibi basit görevler olabiliyor. Yapay zeka birimleri kelimenin tam anlamıyla duyulabilecek şekilde konuşmuyor ama simülasyon dünyada kendi aralarındaki iletişimleri, bizim gerçek dünyamızdaki iletişime benziyor. Araştırmanın ilerleyen aşamalarında, yapay zeka birimlerinin çıkarabildikleri seslere farklı anlamlar yükleyerek iletişim kurmayı öğrendikleri görüldü.