Google yapay zekaya, insanları kandırmayı öğretiyor

Bir grup araştırmacı, yapay zekanın görüntü algılamada hata yapmasına sebep olan ancak insan beynini kandırmaya yeterli olmayan yöntemleri inceledi. Elde edilen bilgiler gelecekte daha güçlü yapay sinir ağları üretmekte kullanılabilecek.

Haber Özeti

Tam Sürüm

Robotların, normalde orada bulunmayan bir şeyi görmesini ya da bir görseli tamamen yanlış kategorize etmesini sağlamak oldukça kolay ve eğlenceli olabilir. Ancak bir sürücüsüz aracın yazılımı, beyaz bir kamyonu bulut zannedince insanlar canından olabiliyor.

Bu tarz trajedilerin önüne geçmek için, yapay zeka araştırmacılarının, geliştirdikleri yazılıma yönelik bu tarz saldırıların ve bunlar sonucunda ortaya çıkan kazaların doğasını anlaması çok önemli. Yani bilgisayarların daha akıllı hale gelmesi ve bu hatalara düşmemesi gerekiyor. Bu yüzden Google insan beyni ve yapay sinir ağlarını birlikte inceliyor.

Şimdiye dek sinirbilimi, yapay zeka alanını yapay sinir ağlarının üretimi gibi konularda bilgilendirdi. Burada hedeflenen, bir insanı kandıramayan durumların yapay zekayı da kandırmasını engellemek. (Yani otonom aracın, kamyonla bulut arasında ayrım yapabilmesini sağlamak).

Google’dan bir araştırma ekibi yakın zamanda “Hem İnsan Hem de Bilgisayar Görüşünü Yanıltabilen Çekişmeli Örnekler” başlıklı bir beyaz bülten yayımladı. Araştırma ekibinde, -kelimenin gerçek anlamıyla- derin öğrenmenin kitabını yazan Ian Goodfellow da bulunuyor. Çalışma, yapay zekanın görüntü algılama konusunda hata yapmasına sebep olan ancak insan beynini kandırmaya yeterli olmayan yöntemleri inceliyor. Bu bilgilerin, gelecekte daha güçlü yapay sinir ağları üretmekte kullanılabileceği ifade ediliyor.

Geçtiğimiz yıl bir grup MIT araştırmacısı Google’ın yapay zekasına yönelik bazı yanıltıcı saldırılar düzenlemişti. Bu saldırılar, bir görsele basit bir kod eklenerek gerçekleştirilmişti. Ekip bu yöntemle gelişmiş yapay sinir ağının bir kaplumbağa görselini bir tüfek gibi algılamasını sağlamıştı. Üç yaşın üstündeki herhangi bir çocuğun yapmayacağı bu hata, dünyanın en büyük şirketleri tarafından geliştirilen yapay zeka tarafından engellenemedi.

Sorun Google’ın yapay zekasının yetersiz olması değil, bilgisayarların sahip olduğu basit bir eksiklik: gözlerinin olmaması. Makineler dünyayı bizim gördüğümüz gibi görmüyor. Onlar sadece görüntüleri işleyerek anlamlandırıyorlar. Bu durum da normalde insanların yanılmayacağı durumlarda, makineleri yanlış yönlendirmenin çok kolay olmasına yol açıyor.

Sorunun üstesinden gelmek için Google insanların görsellerde yapılan değişikliklere rağmen nasıl başarılı olduklarını öğrenmeye çalışıyor. Belki daha da önemlisi, bir insanın bir görseli yanlış anlamasını sağlayan şeyin ne olduğunu bulmaya çalışıyor.

Ekibin yayımladığı beyaz bültene göre:

Eğer insan beyninin belirli bir yöntemle yapılan değişikliklere karşı dayanıklı olduğunu öğrenebilirsek, bu durum makine öğrenimi güvenliğinde de benzer bir mekanizma kurulabileceğinin kanıtı olurdu.

Araştırmacılar bir insanın bir kediyi köpek zannetmesi için görseli yakınlaştırdı ve bazı detayları bulanıklaştırdı. Bu düzenlenmiş görsel insanları anlık olarak kandırmayı başarsa da sadece birkaç saniye boyunca görsele odaklanan kişiler bir yanlışlık olduğunu kolayca algıladı. Araştırmacıların kanıtlamaya çalıştığı şey, insanları kandırmanın da kolay olduğu ancak bunun sadece belirli yollarla mümkün olduğuydu.

Şu anda görsel algılama konusunda insanlar tartışmasız şampiyon konumunda. Ancak bu yıl içinde dünyanın farklı noktalarında tamamen sürücüsüz araçlar yollara çıkmaya başlayacak. Yapay zekanın dünyayı ve içindeki nesneleri doğru ‘görebilmesi’ yaşamla ölüm arasındaki fark haline gelebilir.

Kaynak: The Next Web

Google’dan bir araştırma ekibi yakın zamanda “Hem İnsan Hem de Bilgisayar Görüşünü Yanıltabilen Çekişmeli Örnekler” başlıklı bir beyaz bülten yayımladı. Araştırma ekibinde, -kelimenin gerçek anlamıyla- derin öğrenmenin kitabını yazan Ian Goodfellow da bulunuyor. Çalışma, yapay zekanın görüntü algılama konusunda hata yapmasına sebep olan ancak insan beynini kandırmaya yeterli olmayan yöntemleri inceliyor. Bu bilgilerin, gelecekte daha güçlü yapay sinir ağları üretmekte kullanılabileceği ifade ediliyor.

Yorum Ekle

Yorum yazmak için tıklayın

Yorumunuz:

e-Bülten Aboneliği