Robot etiği rehberi yayınlandı

İngiliz Standartları Enstitüsü, gelecekte üretilecek robotların tasarımında dikkat edilmesi gereken noktaları içeren bir rehber yayınladı.

Dünyaca ünlü bilim kurgu yazarı Isaac Asimov, ‘I Robot’ adlı kitabında robotların uyması gereken üç temel kuralı sıralamıştı:

  1. İnsanlara zarar verme
  2. Komutlara uy
  3. Kendini koru

Bu kurallar geniş çevrelerce kabul görse de oldukça temel bir seviyede kalıyor. Bu sebeple İngiliz Standartlar Enstitüsü, robot üreticilerinin göz önünde bulundurması gereken bir dizi kural belirledi. Kuralların gelecekteki robotların davranışlarına yön vermesi amaçlanıyor.

Kuralları belirleyen belgede pek çok detaylı senaryoya yer verilmiş. Bu senaryolar arasında, robotların insanları kandırması, robot bağımlılığı ve kendi kendine öğrenen sistemlerin amacını aşması gibi tehlikelere karşı üreticiler uyarılıyor.

Batı İngiltere Üniversitesi Robotik Bölümü Profesörü Alan Winfield “Bildiğim kadarıyla bu belge, robotların etik tasarımı konusunda yayınlanmış ilk standart. Asimov’un kurallarına göre biraz daha kapsamlı. Temelde robotların yaratabileceği etiğe dair risklere karşı alınacak önlemleri açıklıyor.” şeklinde konuştu.

Genel prensipler

Belge bazı genel prensiplerle başlıyor: “Robotlar sadece ya da öncelikle insanları öldürmek ya da zarar vermek amacıyla üretilmemelidir. Bu gibi durumlarda robotlar değil, insanlar sorumlu tutulmalıdır. Robotların hangi eylemi ne amaçla yaptığı konusunda, bu eylemden kimin sorumlu olduğu bulunabilmelidir.”

Daha sonra ise robotlarla kurulacak duygusal bağların ne kadar arzulandığı gibi daha detaylı konularda görüşlere yer veriliyor. Özellikle çocuklar robotlarla duygusal bağlar kurmaya, onları bir ev hayvanı gibi görmeye oldukça yatkın.

Şeffaflık ve takip edilebilirlik

Belgede tasarımcıların mümkün olduğunca şeffaf olması gerektiği ifade ediliyor. Ancak bilimciler bu noktanın pratikte her zaman mümkün olamayacağını ifade ediyor. Winfield, özellikle derin öğrenme konusunda tam anlamıyla şeffaflığa erişmenin mümkün olamayacağını, çünkü bazı durumlarda üreticilerin de robotların neden o şekilde hareket ettiğini bilmediğini söylüyor.

Örneğin şu anda dünyanın en iyi Go oyuncusu unvanı Google’ın AlphaGo adlı yapay zekalı robotuna ait. Bu robot Go oynamayı derin öğrenme yöntemiyle milyonlarca Go oyununu izleyerek öğrendiği için, Google’daki araştırmacılar dahil hiç kimse bu robotun dünya şampiyonunu nasıl yendiğini bilmiyor. Robotun hangi kararları neden aldığını bilmeyince, bu kararın alınmasından kimin sorumlu olduğunu bilmek de imkansızlaşıyor.

Ayrımcılık

Rehberde ayrıca robotların cinsiyet ya da ırk ayrımı yapabileceğinden söz ediliyor. Tasarımcılar kültürel çeşitlilikler ve çoğulcu yaklaşımın eksikliği konusunda uyarılıyor. Ancak şimdiden bu sorunlar baş göstermeye başladı bile. Suçluları tespit etmede kullanılan robotların kişilerin ırkına göre karar aldığı ya da güzellik yarışmasında jüri üyeliği yapan robotların genellikle beyazları güzel olarak tanımladığı biliniyor. Standart kuralları gelecekte bu tarz ayrımların yaşanmaması için yapay zeka yazılımlarına her ırka ve cinsiyete eşit mesafede olmanın öğretilmesi gerektiğini savunuyor.

Winfield “Derin öğrenme sistemleri bir konu hakkında bilgi edinmek için interneti tarıyor. Ancak internette yazılan her şey taraflı bir bakış açısına sahip. Sonunda bu sistemler de orta yaşlı, beyaz erkekleri destekler hale geliyor.” diyerek bu problemin boyutlarına dikkat çekti.

Sheffield Üniversitesi’nde robotik ve yapay zeka üzerine ders veren Noel Sharkey, robotların uçaklardaki gibi bir kara kutu bulundurmasını ve alınan kararların neye göre alındığının buraya kaydedilmesi gerektiğini savunuyor. Böylece bir robot ırkçı ya da cinsiyetçi davranıyorsa kolayca belirlenip görevden alınabilecek.

Aşırı güven ve bağımlılık

Son olarak belgede robotlara fazla güvenmenin bir problem yaratabileceği ifade ediliyor ancak tasarımcıların bu konuda ne yapması gerektiğine dair bir öneri sunulmuyor.

Sharkey “Bazen bir robottan uzun süre boyunca doğru yanıtları aldığınızda ona güvenmeye başlıyorsunuz ve tembelleşiyorsunuz. Daha sonra robot saçma sapan bir yanıt verince ne yapacağınızı bilemiyorsunuz.” şeklinde konuştu.

Kaynak: The Guardian


Bir yanıt

Yorumunuz: