Yapay zekayla daha da acımasızlaşan ayna

Melbourne Üniversitesinden araştırmacılar tarafından geliştirilen akıllı bir biyometrik ayna, yüz algılama teknolojisini kullanarak insanların yüzlerini analiz ediyor.

Haber Özeti

Tam Sürüm

iPhone X’in Face ID uygulamasının başarısından da anlaşılabileceği gibi, bir makinenin bizi yüzümüzden tanıması fikri hepimizi heyecanlandırıyor. Peki bir bilgisayar yüzünüzün özelliklerini yaşınız, cinsiyetiniz, ırkınız, çekiciliğiniz, güvenilirliğiniz hatta ne kadar kibar olduğunuz ile ilgili yargılarda bulunmak için kullansa nasıl hissederdiniz?

Büyük ihtimalle sonuçları gördükçe gerilmeye başlardınız; özellikle de bu yapay zeka, yüzünüzden elde ettiği bilgileri sizin karşınıza çıkacak fırsatları ya da seçenekleri kontrol etmek için kullanacaksa.

Yapay zekanın bu karmaşık (ve can sıkıcı) tarafı, Melbourne Üniversitesinden araştırmacılar tarafından yeni bir projede ele alındı. Akıllı bir biyometrik ayna formunda sunulan yapay zeka, yüz algılama teknolojisini kullanarak insanların yüzlerini analiz ediyor. Daha sonra geçmişte gördüğü diğer fotoğraflardan yola çıkarak 14 farklı alanda yaptığı yorumları sizinle paylaşıyor.

Kişisel ve taraflı yorumlar

Projede çalışan araştırmacılardan Dr. Niels Wouters “Başlangıçta sistem karşınıza ne çıkaracağı konusunda oldukça ketum. ‘Merhaba, bilgisayarların seninle ilgili ne düşündüğünü öğrenmek ister misin?’ diyerek insanları kendine çekiyor. Ancak insanlar onay verip devam ettiğinde fotoğrafları çekiliyor ve geri bildirimin ne kadar kişisel olabileceği ortaya çıkıyor.” diyor.

Wouters’ın da ifade ettiği gibi, kullanıcılar hemen farkına varmasa da en baştan itibaren sorunlu konular bulunuyor. Örneğin sistem sadece iki cinsiyeti ve beş ırkı algılayabiliyor. Bu yüzden Asyalı biri Hispanik, ya da bir Avustralya yerlisi Afrikalı olarak algılanabiliyor. Daha sonra kişinin sorumluluk ya da duygusal dengesi gibi özellikleri belirleniyor. Bu tarz bilgiler cihazı kullanan herkesten tepki alıyor.

“Toplum bilinçlendirilmeli”

Burada amaç kullanıcılara, taraflı veriler kullanıldığında ve sorunlu ya da ayrıştırıcı davranışlar makine öğrenimine yerleştirildiğinde ne gibi tehlikelerle karşılaşabileceklerini göstermek. Dr. Safiya Umoja Noble en son kitabı Algorithms of Oppression’da (Baskının Algoritmaları) bu konuyu derinlemesine inceliyor.

Wouters konu hakkında şunları söylüyor: “Bu günlerde bu tarz yapay zekalar üzerine yapılan tartışmalar çoğunlukla etikçiler, akademisyenler ve teknoloji uzmanları tarafından yürütülüyor. Ancak yapay zeka toplumda daha fazla yer almaya başladıkça insanların yapay zekanın ne olduğu, neler yapabildiği, nasıl yanlış çalışmaya başlayabileceği hatta bunun evrimin bir sonraki aşamasında gerçekten benimsemek isteyeceğimiz mantıklı bir adım olup olmadığı konusunda bilinçlendirilmesi gerekiyor.”

Yapay zekanın iyi bir çalışan olup olmadığımızdan tutun da agresiflik seviyelerimize kadar pek çok alanda yargıda bulunmaya başladığı dünyamızda Biyometrik Ayna gibi cihazlar gitgide daha sık karşımıza çıkmaya başlayacak.

Kaynak: Digital Trends

Melbourne Üniversitesinden araştırmacılar tarafından geliştirilen akıllı bir biyometrik ayna, yüz algılama teknolojisini kullanarak insanların yüzlerini analiz ediyor. Daha sonra geçmişte gördüğü diğer fotoğraflardan yola çıkarak 14 farklı alanda yaptığı yorumları sizinle paylaşıyor. Bu 14 alan kişinin cinsiyeti, ırkı ve çekiciliği gibi dış görünüşle alakalı özelliklerden, güvenilirliği, kibarlığı ve sorumluluğu gibi kişisel özelliklere kadar bir çok kişisel bilgiyi içeriyor. Bu alanlarda yorum yapan yapay zeka, çıkarımlarına göre karşınıza çıkacak fırsatları ve seçenekleri kontrol edebiliyor. Oldukça korkutucu sonuçlara yol açabilecek bu uygulama toplumu yapay zekanın tehlikeleri hakkında bilinçlendirmek için hazırlanmış ancak yarın bir şirketin böyle bir cihazla eleman seçmeye başlaması çok da uzak bir ihtimal gibi durmuyor.

3 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

  • Türkiye İş Bankası'nın katkılarıyla

Bülten Aboneliği

Günlük haberleri eposta bültenimizle takip edin!

Teşekkür ederiz.

Bir terslik var...