Sürücüsüz araçlar ve ‘vagon problemi’

Sürücüsüz araçların yaygınlaşmaya başlamasıyla, ünlü vagon problemine benzer bir durumda yapay zekanın nasıl bir karar alacağı tartışılıyor.

Haber Özeti

Tam Sürüm

İnsan hayatının önemi, ahlak ve etik konuları tartışılırken sürekli gündeme gelen vagon problemi adı verilen bir ikilem vardır.Pek çok farklı versiyonu üretilen bu problemde asıl sorulan şudur: Eğer 1 kişinin ölmesi ile 5 kişinin hayatı kurtulacaksa o 1 kişi ölmeli midir? Bu soruya bakış açısına göre ve problemin değişkenlerine göre farklı cevaplar verilse de insanlar genellikle mümkün olduğunca fazla hayat kurtarmak ile sorumluluk almak arasında kalıyor.

Peki yakında hayatımıza girmesi ve bir süre sonra tüm yolları ele geçirmesi beklenen sürücüsüz araçlar benzer bir ikilemde kalırsa nasıl karar verecek? Daha fazla insanı kurtarmak için aracın içindekileri öldürmeye mi programlanmalı? Yoksa ne olursa olsun önceliği araçtakilere mi vermeli?

Makineler karar verirse…

Makine öğrenimi yöntemi, klasik yapay zeka algısından biraz daha farklı. Bu yöntemde makineler diğer örnekleri izleyerek en başarılı stratejileri geliştiriyor. Örneğin Google’ın Go oynayan yapay zeka ürünü AlphaGo, bu karmaşık oyunu önceki oyunları inceleyerek, kendi başına öğrendi. Daha sonra kendisine karşı yaptığı maçlarla oyun bilgisini geliştirdi. Nihayetinde dünya şampiyonunu yenen AlphaGo’nun oyun sırasında nasıl bir taktik geliştirerek bu hamleleri yaptığı, bazen kendi programcıları tarafından dahi çözülemiyor.

Kararlarını neye göre aldığını bilmediğimiz bir sistemin, muhtemel bir kaza anında kimi öldüreceğine kendi başına karar vermesine izin vermek çok da mantıklı görünmüyor. Yapay zekanın bir vicdanı olmadığını ve ortada bir ikilem görmediğini unutmamak gerek. Onun için sadece alınması gereken bir karar var. Bu kararı da önceki deneyimlere göre alıyor.

Stanford Üniversitesi felsefecilerinden Patrick Lin “Satrançta ya da Go’da amaç kazanmaktır. yapay zeka da kazanmak için en mantıklı olduğunu gördüğü yolu tercih eder. Ancak ahlaki karar alınması gerektiğinde durum çok daha karmaşık. Belirli bir amaç yok.” şeklinde konuştu.

Mühendisler karar verirse…

Her ne kadar makine öğreniminin tüm kararlarının sebebini çözemesek de ürettiğimiz yapay zekalar tamamen bağımsız olmak zorunda değil. Yapay zeka belirli durumlarda önceden kodlandığı gibi hareket etmeye zorlanabilir. Ancak bu durumda, ne yapılması gerektiğine mühendislerin karar vermesi gerekiyor.

Normal sürücüler kazaya karıştığında da ne yapılması gerektiğine bir insanın karar verdiğini düşünebilirsiniz ancak burada durum farklı. Kazaya karışan sürücüler panik halinde oluyor ve içgüdülerine göre hareket ediyor. Bu sebeple o anda yaptıkları her hareketten ahlaki olarak sorumlu tutulamazlar. Ancak bilgisayar başında, bir yapay zekanın arabadakileri korumak için kaldırımdaki yayaları ezmesine karar veriyorsanız burada sorumluluk size ait olur. Çünkü bu üzerinde düşünülerek alınmış bir karar. Kaza anında panikle alınan kararlarla eşdeğer değil.

Google, sürücüsüz araçları için bu konuda nasıl bir politika izlendiğine dair soruları yanıtlamaktan kaçındı. Teknoloji şirketlerinin böyle bir soru üzerine düşündüğünün bilinmesi bile bir halkla ilişkiler krizine yol açabilir. Ancak bu konuda karar almak da sorumluluğu yapay zekaya bırakmak da problemli.

Sürücüsüz araçlar, trafikte insan hatasından kaynaklanan kazaları önleme iddiasıyla geliyor. Sürücüsüz araçların gerçekten daha az kaza yaptığı görülürse insanlar yapay zekanın aldığı kararlara güvenebilir. Ancak pek çok bilim kurgu filminde olduğu gibi bilinç kazanan yapay zekaların, gezegenin geleceği için mümkün olduğunca çok insanın ölmesinin en doğru yöntem olduğuna karar vermesi de olası senaryolardan birisi.

Son olarak, insanların satın aldıkları arabadan en büyük beklentilerinden birisinin güvenlik olduğunu unutmamak gerekiyor. Haliyle insanlar, 5 kişinin hayatını kurtarmak için araçtaki 1 kişiyi öldürecek olan arabayı tercih etmezler. İnsanların araçlardan beklentisi çoğunluğun iyiliğini gözetmesi değil, kendi can güvenliğini gözetmesi olacaktır.

Google-Self-Driving-Cars

Sürücüsüz araç teknolojisinin geliştirilmesindeki amaçlardan birisi insan hatasından kaynaklanan kazaları engellemek. Kazaları engellemesi için güvendiğimiz yapay zeka, bir kaza anında arabadakileri korumak için yoldaki masum insanları öldürmeyi göze almalı mı? Yoksa daha fazla insanın hayatını kurtarmak için aracın içindekileri feda mı etmeli? Buna makine öğreniminin karar vermesi, yapay zekanın tanrı rolü oynaması anlamına gelebilir. Mühendislerin bu durumlarda kullanılacak bir karar mekanizması oluşturması ise sorumluluğu üreticinin üzerine atacaktır.

2 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

e-Bülten Aboneliği