Yapay zeka ahlakına insani katkılar

MIT araştırmacıları tarafından hazırlanan Moral Machine (Etik Makinesi) adlı anket, insanların otonom araçlara etik değerler kazandırmasını amaçlıyor.

Haber Özeti

Tam Sürüm

MIT araştırmacıları tarafından hazırlanan Moral Machine (Etik Makinesi) adlı anket, insanların otonom araçlara etik değerler kazandırmasını amaçlıyor. Çeşitli görsellerle, kullanıcılara sunulan farklı senaryolarda, otonom sürüş teknolojisinin olası bir kaza anında ne gibi kararlar alması gerektiği soruluyor.

Senaryolarda kullanıcılardan gidişata müdahale, mümkün olduğunca fazla hayat kurtarma, hayvanlar ile insanlar arasında ayrım; yaşa, cinsiyete, toplumsal statüye ya da sağlık durumuna göre ayrım, kurallara uyma durumuna göre ayrım, araçtakilerin ve yayalar arasında ayrım gibi seçenekler sunuluyor.

Karara etki edecek kriterler

Örneğin bir senaryoda, araçtaki tek yolcuyu kurtarmak ya da direksiyonu bariyere doğru kırıp, araçtaki yolcunun ölmesine sebep olarak yoldaki üç yayanın yaşamını kurtarmak arasında tercih yapılması gerekiyor. Farklı ahlaki bakış açılarına göre bu durumda farklı yanıtlar verilebilir. Olayın doğal gidişatına müdahale edilmemesi gerektiğini savunan biri aracın yön değiştirmemesi gerektiğini savunurken, mümkün olduğunca fazla yaşam kurtarılması gerektiğini düşünen biri üç yayayı öldürmektense bir yolcuyu öldürmeyi tercih edebilir.

Moral Machine anketi sonucunda katılımcıların aldığı kararların gelecekte otonom araçların karar mekanizmalarına yol göstermesi planlanıyor. Toplumun genel ahlaki yaklaşımlarını anlamaya çalışan araştırmacılar, otonom sürüş teknolojisi geliştiren şirketlere ve denetleyici makamlara bu bakış açılarını sunarak bazı kuralların belirlenmesinde yardımcı olmak istiyor.

Doğru cevap yok

Yine de ahlaki ikilemde kalındığı sırada hangi karar alınırsa alınsın, bunu savunan ve karara karşı çıkan birileri mutlaka olacaktır. Haliyle Moral Machine’in elde ettiği sonuçlar tek başına yeterli olmayacaktır. Gelecekte yolcu ya da yaya olarak belki de hayatımıza mal olabilecek bu kararların belirlenmesi konusunda atılacak her adım çok büyük sorumluluk ve risk barındırıyor. Tek bir doğru olmaması da karar almayı zorlaştırıyor.

Moral Machine kullanıcıları dilerse ankette verdikleri yanıtları daha fazla açıklamak için kişisel bilgilerini ve kendilerince nispeten daha önemli olan konuları paylaşabilecekleri başka bir ekrana yönlendiriliyor. Kullanıcılar kendilerine yöneltilen senaryoların yanı sıra, diğer kullanıcılara sorulması için yeni senaryolar da hazırlayabiliyor.

Kaynak: MIT

MIT araştırmacıları tarafından hazırlanan Moral Machine (Etik Makinesi) adlı anket, insanların otonom araçlara etik değerler kazandırmasını amaçlıyor. Çeşitli görsellerle, kullanıcılara sunulan farklı senaryolarda, otonom sürüş teknolojisinin olası bir kaza anında ne gibi kararlar alması gerektiği soruluyor. Senaryolarda kullanıcılardan gidişata müdahale, mümkün olduğunca fazla hayat kurtarma, hayvanlar ile insanlar arasında ayrım; yaşa, cinsiyete, toplumsal statüye ya da sağlık durumuna göre ayrım, kurallara uyma durumuna göre ayrım, araçtakilerin ve yayalar arasında ayrım gibi seçenekler sunuluyor.

5 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

e-Bülten Aboneliği