Yapay zekayı etik değerlerle beslemek sanıldığından daha zor olabilir

AI Now sempozyumunda yapay zekanın sistemlerinde etik ve hesap verilebilirlik tartışıldı.

Haber Özeti

Tam Sürüm

New York Şehri Polis Teşkilatı‘nın 2012 yılından beri, en az 17 bin 500 kişiden oluşan, suç çetelerine üye olabilecek kişiler adında bir veri tabanı oluşturduğu ortaya çıktı. Tabii gizli izleme tekniklerini kullandığı ve çoğunlukla yanlış ve ayrımcılığa dayalı olduğu da. Bu da Amerika’daki insan hakları aktivistlerini harekete geçiren ve davalara neden olan bir gelişme oldu.

AI Now Enstitüsü‘nde bu yıl üçüncüsü düzenlenen ve konusu yapay zeka sistemlerinde etik ve hesap verebilirlik sorunu olan AI Now sempozyumunda konuşan, Amerika’nın önde gelen insan hakları organizasyonu olan NAACP hukuksal savunma ve eğitimi fonunun başkanı Sherrilyn Ifill bu çalışmaların hükümetlerin önceliği olmaması gerektiği görüşünde:

“Halihazırda zaten ayrımcılık ve adaletsizlik gibi derin problemlerin çözümüne yeterince eğilememiş devlet kurumlarına, yüz tanıma teknolojileri gibi süreci hızlandıracak ve hatta gerekirse kestirme yollar bulacak gayet güçlü bir sistemi neden teslim edelim? Kanuni uygulayıcıları için en önemli sorun yüz tanıma teknolojilerinin olmaması mı? Niye bu teknoloji için vergilerimizi harcayalım?”   

Çalışmalar gösteriyor ki, yüz tanıma teknolojileri henüz mükemmel değil ve koyu tenli bireylerde ve kadınlarda doğruluk oranı oldukça az. Ifill’in tahmine göre polisin oluşturduğu ‘çete üyesi’ veri tabanının yüzde 95-99’i Afro-Amerikalılar, Latin kökenliler ve Asya asıllı Amerikalılardan oluşuyor. Ifill bu duruma “Biz burada bir çeşit suça meyilli / suçlu etiketiyle yaftalanmış insanı sınıfı oluşturuyoruz” şeklinde bir yorum yapıyor.  

Öte yandan ABD’de, Birleşik Krallık’ta ve Çin’de çeşitli polis teşkilatları, bilinen suçlular için yüz tanıma teknolojilerini kullanacaklarını açıkladı. Hatta Güney İskoçya Polis Teşkilatı bu teknoloji kullanımın neden ‘kamu yararına’ olduğuna dair bir demeç de yayımladı.

Tabii ki teknolojinin insanların değişik etik standartlarını vurguladığı alanlar da yok değil. Nefret söylemini sansürleme amaçlı ya da toplum güvenliğini artırıcı risk değerlendirme aracı olarak kullanımı gibi örnekler mevcut.

MIT araştırmacıları tarafından oluşturulan ve insanların ahlak konusunda ne kadar farklı düşünceleri olduğunu otonom araçlar üzerinden göstermeye çalışan araştırmalar var. Daha önce de bahsettiğimiz Etik Makinesi‘ndeki (Moral Machine) klasik “vagon açmazı tramvay ikilemi” sorusunun benzerine verilen yanıt, kültürlere göre farklılık gösteriyor. Geçen hafta paylaştığımız ve kaza ihtimalinde otonom araçların önce yaşlıları gözden çıkarması gerektiğini vurgulayan anket sonuçları da bu konuda fikir verebilir.

Ayrıca etik değerleri netleştirmek, davranışların kesin olarak değişmesini sağlamıyor. Örneğin Google geçen Haziran ayında Project Maven’den ayrılacağını açıklayarak yapay zeka çalışmalarını yönlendirecek yeni etik değerlerini duyurdu. Fakat bundan yalnızca birkaç ay sonra yine ABD Savunma Bakanlığı’nın açtığı bir ihaleye teklif verilmesi çoğu Google çalışanında bu etik değerlere pek de önem verilmediği algısı oluşmasına sebep oldu. Çalışanlar bu ihaleye teklif verilmemesi için baskı yapmaya başladı.  Ayrıca yakın zamanda Kuzey Karolina Eyalet Üniversitesi’nde yapılan bir araştırmaya göre yazılım mühendislerine mesleki ahlak kurallarını okumalarını söylemek, onların davranışlarının değişiminde bir etki yaratmıyor.

NYU Hukuk Fakültesi’nde öğretim üyesi ve Birleşmiş Milletler aşırı yoksulluk ve insan hakları özel raportörü olan Philip Alston’un, muğlak ve açıklanamaz bir doğası olan etik sorunu için bir çözümü var: “Yapay zeka yönlendirmesi ile oluşacak sonuçları insan hakları yönünden tekrar bir çerçeveye oturtmak. İnsan hakları anayasada ve çeşitli kanunlarda var ve mahkemeler tarafından farklı yorumlanabiliyor. Eğer bir yapay zeka sistemi insanların bu temel haklarını elinden alıyorsa bu kabul edilmemeli.”

Alston bu şekilde bir çözüme ulaşan tek kişi değil. Sempozyumdan bir hafta önce Data & Society Araştırma Enstitüsü yapay zekayı kontrol etmek için insan haklarını kullanmamız gerektiğini önerir bir teklif yayımladı. Teklifte teknoloji şirketlerinin insan hakları örgütleri ve araştırmacılarıyla beraber çalışmasını ve yapay zeka sistemlerinin hayat döngüleri oluşturulurken insan haklarına etkilerini inceleyen bir değerlendirme yapılmasını öneriyor.

Alston son olarak “Yapay zeka tartışmalarına insan haklarını sokmadığımız sürece güçlü bir çıpamız olamayacak” diye ekliyor.

Sempozyumun tamamını aşağıda izleyebilirsiniz.

Kaynak: MIT Technology Review

AI Now Enstitüsü'nde bu yıl üçüncüsü düzenlenen “AI Now" sempozyumu, birçok skandalla gündeme gelen yapay zekada etik ve hesap verebilirlik sorunu üzerineydi. Konuşmacılar yapay zeka sistemlerini genellikle kendi önyargılarımızla beslediğimizi aktarırken, bunun önüne geçmek için Philip Alston’un sunduğu çözüm ise temel insan haklarına ters düşecek sonuçlar üreten yapay zeka sistemlerini kabul etmemek.

1 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

  • Dünyayı Organize Eden bir yönetim oluşturulmadığında para hırsı ve kıskançlık sayesinde Yapay Zeka Oluşumlarının varacağı nihai gelecek karbon uygarlığından silikon uygarlığının oluşturacağı hibrit gelecektir. Sevgi, aile, ulus yerini metal-insan bileşimine terk edecektir. Dünya insanlarının sevgisiz ve paraya tapan eğilimleri makinalaşmaya doğru evrilmiştir bir defa. Sevgi-sezgi-akıl-enerji beden-bilinç bilerek maddi mübadeleye doğru yönlendirilmiş ve bu doğrultuda ivmelenmektedir. İnsan artık bir pantolon, bir lux otomobil ve gravat markasından ve cepindeki paradan başka hiçbir şey değildir. Şimdi gelecek insandan mı, Yapay Zekadan mı taraftır? Takdir insanlaraın, lütfen yanıtlasınlar.

  • Türkiye İş Bankası'nın katkılarıyla

Bülten Aboneliği

Günlük haberleri eposta bültenimizle takip edin!

Teşekkür ederiz.

Bir terslik var...