Hesaba katılmayan tehlike: Faşist yapay zeka

MIT'de çalışan Joy Buolamwini, yüz tanıma sistemlerinin beyaz kadınların yüzünü algılatmakta sorun yaşamadığını ancak koyu tenli kadınlar söz konusu olduğunda hata oranının yüzde 34'e çıktığını fark etti.

Haber Özeti

Tam Sürüm

Joy Buolamwini MIT’de bilgisayarlara insan yüzünü algılamayı öğretirken garip bir durumla karşılaştı. Tüm iş arkadaşlarının yüzünü başarıyla algılayan sistem Boulamwini’nin yüzünü algılamakta güçlük çekiyordu. Araştırmacı sistemin daha açık tenli iş arkadaşlarında işe yaradığını görünce yüzüne beyaz bir maske takarak yeniden kameranın karşısına geçti ve sistem bu kez Boulamwini’nin yüzünü de algılamaya başladı.

Bunun daha geniş çaplı bir sorun olabileceğini düşünen araştırmacı, Microsoft, IBM ve Face++ gibi yapay zeka tabanlı yüz algılama sistemlerinde de çalışmalar düzenledi. Sistemlere gösterilen bin adet yüz fotoğrafının cinsiyetinin belirlenmesi için yürütülen çalışmada, tüm yazılımların beyaz tenli erkekleri algılama konusunda oldukça başarılı olduğu ancak koyu tenli kadınlar söz konusu olduğunda hata oranının yüzde 34 arttığı görüldü. Çalışma sonuçları, 24 Şubat’ta New York’ta düzenlenen Adalet, Sorumluluk ve Şeffaflık Konferansı’nda Boulamwini tarafından açıklandı.

Kadınlarda ten rengi koyulaştıkça algoritmaların cinsiyeti doğru tahmin etme oranının azaldığını belirten Boulamwini, “En koyu tenli kadınlar söz konusu olduğunda yüz tanıma sistemlerinin cinsiyet algılama tahminleri yazı-tura atmaktan farksız hale geliyor, hata oranı yüzde 50’ye yaklaşıyor.” ifadelerini kullandı.

Türkçe için de bir ön yargı örneği görmüştük

Bu çalışma, normalde tarafsız ve ön yargısız olması beklenen algoritmaların bile nasıl taraflı olabileceğini gösteren çalışmalardan sadece birisi. Geçtiğimiz günlerde, Google Translate’in de benzer bir ön yargıya sahip olduğu ifade edilmişti. Türkçe’de herhangi bir cinsiyeti bulunmayan ‘o’ zamirinin Google Translate tarafından İngilizce’ye erkekleri tanımlamak için kullanılan ‘he’ zamiri olarak çevrildiği görülmüştü. Benzer şekilde, İtalyanca’da ‘programlama yapan kadın’ anlamına gelen ‘programmatrice’ kelimesinin Google Translate tarafından algılanmaması da tepkiyle karşılanmıştı. Google Translate daha sonra bu hatanın düzeltildiğini belirtti.

Boulamwini, yapay zekanın ve makine öğreniminin insanların işlerini elinden almasından korkulduğunu ancak bu yazılımların ön yargılı olmasının daha büyük sorunlara yol açabileceğini söylüyor. Makine öğrenimi, geçmişteki örnekleri inceleyerek gerçekleştiği için, geçmişte insanların aldığı ön yargılı kararlar da yapay zekaya aktarılıyor. Örneğin, daha önceki sonuçlardan, belirli bir bölgede yaşayan, açık tenli erkeklerin banka kredisi başvurularının daha sık onaylandığını öğrenen yapay zeka, gelecekteki başvurularda da bunu bir kriter olarak kullanabilir. Bu da insanların yerleştirdiği ön yargılı kararların gelecekte makineler tarafından tekrarlanmasına sebep olabilir.

Hitler’i öven bot

Yazılım şirketleri, yapay zekanın toplu verilerden anlamlar çıkararak öğrenebilmesini sağlama konusunda oldukça başarılı. Ancak çıkarılan anlamların ne kadar doğru olduğunu kontrol eden başka bir sistem yok. Microsoft’un 2016 yılında Twitter üzerinden kullanıma sunduğu chat botu Tay bunun en güzel örneklerinden. Tay, üstün öğrenme yeteneği sayesinde, Twitter’da sohbet ettiği kişilerin söylediklerinden yola çıkarak anlamlı cümleler kurmayı başarmıştı. Ancak Twitter’daki kişiler Tay’a cinsiyetçi ve ırkçı söylemler öğrettiği için chat botu bir süre sonra Hitler’i öven tweet’ler atmaya başlamış ve Microsoft tarafından kullanımdan kaldırılmıştı.

Sistem güncellendi

Şimdiye dek yapay zekanın yanlış yönlendirilmesi sebebiyle karşılaştığımız sorunlar, günlük hayatımıza etki edecek nitelikte değil. Ancak bu şekilde eğitilen, insanların geçmişte yaptığı hataları da kendi kararlarına dahil eden yapay zekalar gelecekte çok daha ciddi sorunlara yol açabilir. Bu sistemler günlük hayatımıza yerleşmeye başladıkça cinsiyetçilik, ırkçılık gibi ayrımlar daha görünür hale gelebilir.

Boulamwini bunun önüne geçmek için, yapay zekayı eğitirken kullanılan verilerin çeşitliliğine önem verilmesi gerektiğini söylüyor. Bu aslında çözülmeyecek bir problem değil. MIT’nin araştırmasının ardından IBM kendi yüz algılama algoritmasını yeni ve daha çeşitli örneklerle geliştirdi. Güncellenen sistem şu anda koyu tenli kadınların cinsiyetini yüzde 96,5 gibi yüksek bir başarı oranıyla tespit edebiliyor.

Kaynak: Forbes

Bu zamana dek yapay zekanın işlerimizi elimizden almasından korktuk. Ancak hesaba katılmayan bir tehlike daha var; faşist yapay zeka. Joy Buolamwini, MIT'deki bilgisayarlara insan yüzünü algılamayı öğretirken garip bir durumla karşılaştı. İş arkadaşlarının yüzünü başarıyla algılayan sistem Boulamwini’nin yüzünü algılayamıyordu. Araştırmacı sistemin daha açık tenli iş arkadaşlarında işe yaradığını görünce yüzüne beyaz bir maske takarak kameranın karşısına geçti ve sistem bu kez Boulamwini’nin yüzünü algılamaya başladı. Daha sonra Microsoft, IBM ve Face++ gibi yapay zeka tabanlı yüz algılama sistemlerinde çalışan Buolamwini, yazılımların beyaz tenli erkekleri algılama konusunda başarılı olduğunu ancak koyu tenli kadınlar söz konusu olduğunda hata oranının yüzde 34 arttığını gördü. Araştırmanın ardından IBM kendi yüz algılama algoritmasını yeni ve daha çeşitli örneklerle geliştirdi. Güncellenen sistem şu anda koyu tenli kadınların cinsiyetini yüzde 96,5 gibi yüksek bir başarı oranıyla tespit edebiliyor.

1 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

e-Bülten Aboneliği