DARPA, yapay zeka destekli sahtekarlığı tespit etmek için çalışıyor

Yakın gelecekte, sahte fotoğraf ve videoların yapay zeka tarafından bile gerçeğinden ayırt edilememesinden endişe ediliyor.

Haber Özeti

Tam Sürüm

Yapay zeka ve derin öğrenme ile birlikte hem sahte haber üretmek hem de bu haberleri tespit etmek daha kolay hale geldi. Kötü niyetli kişiler sahte haber üretmek için yapay zekanın nimetlerinden faydalanırken, halkı doğru bilgilendirmeye çalışan kuruluşlar da bu durumla ilgili mücadele yürütmek için benzer teknolojilerden faydalanıyor. Ancak yakın zamanda, sahte fotoğraf ve videoların yapay zeka tarafından bile gerçeğinden ayırt edilememesinden endişe ediliyor.

Sahte görsel yarışması

Amerikan İleri Savunma Araştırması Projeleri Ajansı (DARPA) bu yaz gerçekleştireceği bir projede dijital hukuk uzmanlarını sahte görsel yarışmasında bir araya getirecek. Ekipler bu yarışmada yapay zeka tarafından tespit edilemeyen sahte görseller hazırlamaya ve hazırlanan diğer görselleri tespit edebilecek yapay zeka yazılımları geliştirmeye çalışacak. Yarışma sonucunda, sahte görsel hazırlayan yazılımların galip gelmesinden endişe ediliyor.

Yarışmada ayrıca geçmişte hazırlanan ve ‘deepfake’ olarak adlandırılan, ünlü kişilerin yüzünü barındıran sahte görseller de yer alacak. Bu teknoloji şimdiden bazı ünlülerin sahte porno videolarını üretmek için kullanıldı. Gelecekte, siyasi liderlerin sahte videolarının hazırlanması ile halkın kışkırtılmasından endişe ediliyor. Örneğin aşağıdaki videoda bu sistemlerin nasıl kullanılabildiğini göstermek için Barack Obama’nın Donald Trump hakkında hakarete varan ifadeler kullandığı gösteriliyor. Videoda Obama’yı komedyen Jordan Peel seslendiriyor.

GAN ciddi bir tehdit

Üretilmiş düşmanca ağlar (generative adversarial networks) ya da kısaca GAN olarak adlandırılan bir yöntem, oldukça gerçekçi görseller üretebiliyor. DARPA Program Yöneticisi David Gunning “Teoride, GAN’a bildiğimiz tüm sahte video tespit etme tekniklerini öğretirseniz o da tüm bu tekniklere yakalanmayan görseller üretebilir. Sınırlarını henüz bilemiyoruz. Belirli değil.” diyor.

GAN iki bileşenden oluşuyor: bir veri setindeki istatistiksel örüntüleri öğrenmeye çalışan ‘aktör’ ve sahte videoyu gerçeğinden ayırmaya çalışan eleştirmen. Eleştirmenin sağladığı geri bildirimle birlikte aktör daha inandırıcı örnekler geliştiriyor. GAN halihazırda yapay zekayı alt etmek için geliştirildiğinden, herhangi bir yapay zeka sistemi kullanarak GAN videolarını tespit etmek mümkün olmayabilir.

Oldukça yeni bir teknoloji olmasına rağmen hızla yayılan GAN, somurtan bir ünlünün gülümsüyor gibi görünmesini sağlayabiliyor ya da gece çekilmiş bir görseli gündüzmüş gibi gösterebiliyor.

Bir dijital sahteciliği ortaya çıkarmanın genellikle üç adımı var. İlk adım dijital dosyanın iki farklı resim ya da videodan oluşup oluşmadığına dair izler aramak. İkincisi ışıklandırma ya da diğer fiziksel özelliklere bakarak tutarsızlıkları incelemek. Üçüncü ve en karmaşık olanı ise mantık hatalarını tespit etmek (tarih ve mekana göre hava durumunu incelemek ya da görüntünün çekildiği iddia edilen mekanla arka plan arasındaki uyuşmazlıkları belirlemek).

Konunun uzmanı olmak gerekmiyor

Notre Dame Üniversitesi Dijital Hukuk Uzmanı Walter Scheirer bu teknolojinin son birkaç yılda çok hızlı ilerlediğini ve sahte içerik üreticileri ile bunları tespit etmeye çalışanlar arasında adeta bir silahlanma yarışı olduğunu söylüyor.Geçmişte, inandırıcı sahte görseller hazırlamak için bu alanda uzman olmak gerekiyordu. Şimdi ise yapay zekanın yardımıyla, konu hakkında çok az bilgi sahibi biri bile sahte görseller üretebiliyor. Bu da sahte haberlerin çok daha hızlı yayılması endişesini beraberinde getiriyor.

Deepfake’ler popüler makine öğrenimi yöntemi derin öğrenmeyi kullanarak mevcut bir videoya yeni bir yüz yerleştirebiliyor. Yapay sinir ağına ne kadar fazla veri yüklenirse bilgisayar o kadar gerçekçi sonuçlar üretiyor. İnternet üzerinden kullanıma sunulan bir araç sayesinde çok az teknik bilgiye sahip kişiler sahte videolar üretebiliyor. Üstelik bu yazılımın geliştiricisi, daha kullanıcı dostu bir versiyon üzerinde çalıştıklarını da söyledi.

Problem sadece yüz değiştirmekle de sınırlı değil. Yakın bir gelecekte bir fotoğrafın, videonun ya da ses dosyasının bir makine tarafından üretildiğini anlamamız imkansız hale gelecek. Google Duplex’in telefonun öbür ucundaki kişiyle insan gibi konuşması ve karşısındaki insanın bir robotla konuştuğunu anlamaması zaten bu durumun bir örneği.

Ne gibi önlemler alınabilir?

Michigan Üniversitesi Sosyal Medya Sorumluluk Merkezinin Baş Teknoloji Uzmanı Aviv Ovadya, yapay zeka teknolojilerinin insanların itibarını zedelemek, seçim sonuçlarını etkilemek ya da daha kötü sonuçlara yol açmak için kullanılmasından endişe ediyor. “Bu teknolojileri mükemmel bir eğlence aracı olabilir ancak çok kötü amaçlarla da kullanılabilir” diyen Ovadya “Gelişmekte olan bazı ülkelerde, sahte görsellerin gerçek dünyada şiddete yol açtığına tanıklık ettik. Bu gerçek ve şu anda mevcut olan bir tehlike.” şeklinde konuştu.

Eğer teknoloji sahteciliği ve yanlış bilgileri ortaya çıkarmak için kullanılabilirse belki konu hakkında yasalar da çıkabilir. Malezya’da Nisan ayında çıkan bir yasayla sahte haber yayınlamak suç oldu. Ancak bu durum da bazı felsefi soruları gündeme getiriyor. ‘Gerçek’ olarak tanımladığımız şeyin sınırlarını kim belirleyecek? Bir fotoğrafın boyutunu düzenlemek de sahtecilik sayılacak mı? Fotoğrafı çeken kişinin olayın tamamını kadrajına almaması cezalandırılacak mı? Mizah amaçlı yalan haber yayınlayan sitelere izin verilecek mi?

Tüm bu sorular yanıt ararken bilinçli bir vatandaş olarak yapmamız gereken, bu teknolojilerin varlığından haberdar olmak ve dijital ortamda gördüğümüz tüm görsel, ses kaydı ve metinlere şüpheyle yaklaşmak.

Kaynak: Technology Review

Yapay zeka ve derin öğrenme ile birlikte hem sahte haber üretmek hem de bu haberleri tespit etmek daha kolay hale geldi. Kötü niyetli kişiler sahte haber üretmek için yapay zekanın nimetlerinden faydalanırken, halkı doğru bilgilendirmeye çalışan kuruluşlar da bu durumla ilgili mücadele yürütmek için benzer teknolojilerden faydalanıyor. Ancak yakın zamanda, sahte fotoğraf ve videoların yapay zeka tarafından bile gerçeğinden ayırt edilememesinden endişe ediliyor.

Yorum Ekle

Yorum yazmak için tıklayın

Yorumunuz:

  • Türkiye İş Bankası'nın katkılarıyla

Bülten Aboneliği

Günlük haberleri eposta bültenimizle takip edin!

Teşekkür ederiz.

Bir terslik var...