Yapay zekanın insanlığa getirmesi muhtemel 3 tehdit

Yakın zamanda yayımlanan Yapay Zekanın Kötüye Kullanımı adlı rapor, yapay zekanın fiziksel, dijital ve siyasi şekilde zarar vermek için kullanılabileceği üç tehdide dikkat çekiyor.

Haber Özeti

Tam Sürüm

Yapay zeka, sağlık hizmetlerinden güvenliğe, yönetimden ekonomiye kadar her şeyi olumlu şekilde etkileyerek hayatlarımızı çarpıcı şekilde iyileştirme potansiyeline sahip.

Cambridge Üniversitesi ve yapay zeka araştırma şirketi OpenAI’ın da dahil olduğu bir dizi kuruluşta çalışan uzmanların oluşturduğu Yapay Zekanın Kötüye Kullanımı (The Malicious Use of Artificial Intelligence) raporu, kötü ellere geçmesi halinde yapay zekanın haydut devletler, teröristler ve suçlular tarafından istismar edilebileceğini savunuyor.

Rapor, yapay zekanın kötüye kullanılma ihtimalinin en fazla olduğu üç alanı -fiziksel, dijital ve siyasi- özetliyor ve yapay zeka saldırılarının nasıl gerçekleşebileceğine dair çeşitli senaryolar kurguluyor.

Uzaktan yönetilen araba kazaları

Yapay zekayla ilgili en büyük kaygılardan biri de, otonom araçların hack’lenerek büyük çaplı çarpışmalara neden olacak şekilde insanlara karşı fiziksel saldırılar düzenlenmesi.

Raporda “Eğer birden fazla robot, merkezi bir sunucuya bağlı tek bir yapay zeka sistemi tarafından kontrol edilirse veya aynı yapay zeka sistemleri tarafından kontrol edilirse ve aynı uyarıcı verilirse, o zaman tek bir saldırı birden fazla fiyaskoya sebep olabilir.” ifadesi kullanılıyor.

İnsanlar ve robotların iletişim şeklini iyileştirme amacıyla yeni bir algoritma geliştiren ekipten Profesör Dr. Peter Stone, rapordaki uyarıların ciddiye alınması gerektiğini, ancak bu durumun otonom araçlara özel bir durum olmadığını belirtti. Dr. Stone “Eğer bugün biri bütün bir şehrin trafik ışıklarını aynı anda yeşile çevirse, felaket kaçınılmaz olur. Elektrik şebekemizin merkezi halde olması, bizleri bu şekilde büyük ölçekli elektrik kesintilerine karşı savunmasız hale getiriyor.” diyor. Dr. Stone’a göre, bu duruma verilmesi gereken uygun karşılık, güçlü güvenlik önlemleri, yedek kapasite sağlanması ve karar vermenin merkezsizleştirilmesi.

Sofistike kimlik hırsızlığı

Gelecekte, bir kişiye ait hassas veya kişisel bilgilere erişme teşebbüsü neredeyse tamamen yapay zeka tarafından gerçekleştirilebilir.

Yapay zeka geliştikçe dolandırıcılığın ya da kimlik hırsızlığının daha incelikli ve etkili hale geleceğine dikkat çeken raporda “Bu saldırılarda, bazı görevleri herhangi bir insandan daha başarılı şekilde tamamlayabilmek için yapay zeka kullanılabilir.” ifadesi kullanılıyor.

Eğer kimlik hırsızlığı olaylarında kullanılan araştırma ve mesaj üretiminin çoğu yapay zeka tarafından halledilebilirse, bu şekilde kandırılan insanların sayısı artabilir. Yapay zeka, bir kişinin iletişim kurduğu insanların yazma şeklini taklit ederek dolandırıcılığın tespitini zorlaştırabilir.

Carnegie Mellon Üniversitesi’nden Robotik Profesörü Illah Nourbakhsh, yapay zeka hızlı şekilde geliştiğinden, ortaya koyduğu tehditlerle başa çıkmak için daha hızlı tepki vermeliyiz. Nourbakhsh “Asıl zor olan, faydayı en üst seviyeye çıkarıp zararı en aza indirgemek için gereken politikalar üzerinde düşünmek. Üçkağıtçılar çevrimiçi sahtekarlıklarla insanların parasını almak için hep daha karmaşık yöntemler buldukları gibi, gücünü yapay zekadan alan kötü niyetli aktörler de verilerimizi elde etmek için sürekli olarak yeni yollar arayacak.” diyor.

Kamuoyunu manipüle etmek

Botlar ve yapay zeka tarafından üretilen sahte haberler ve videolar, siyasetten medyaya kadar toplumun tüm katmanlarını bozarak kamuoyu üzerinde büyük etkiye sahip olabilir. Sosyal medya botlarının sahte haber yayacak şekilde kullanılması, 2016’da yapılan ABD Başkanlık seçimi kampanyasından aşina olduğumuz bir durum.

Rapor, iyi eğitilmiş botların siyasi partiler için stratejik üstünlük oluşturabileceğini ve düşük güven toplumlarında büyüme fırsatı bulan yapay zeka propaganda makineleri gibi işleyebileceğini öne sürüyor.

Bu, sadece sahte metin içeriğinin yayılmasından da öte bir durum. Rapor “Yapay zeka sistemleri artık fotoğraflardan neredeyse ayırt edilemeyen yapay görüntüler üretebiliyor.” diyor.

Yapay zeka tarafından üretilen yapay yüzlerin yıllara göre değişimi

Riskleri hafifletmek

Bütün bu tehlikeler ve raporda bahsi geçen sayısız tehditlere karşılık olarak uzmanlar dört adet ‘yüksek düzeyli’ tavsiye oluşturdu:

  1. Yapay zekanın kötüye kullanımı konusunu anlamak ve hazırlıklı olmak için politika yapıcılar ve teknik araştırmacılar birlikte çalışmalıdır.
  2. Yapay zeka pek çok olumlu uygulamaya sahip olsa da bu, ikili kullanımlı bir teknoloji. Dolayısıyla araştırmacılar ve mühendisler yapay zekanın potansiyel kötüye kullanımı hakkında dikkatli olmalı ve ileriye yönelik önlemler alabilmelidir.
  3. Örnek uygulamalar, ikili kullanım riskleriyle baş edilmek zorunda kalınan (bilgisayar güvenliği gibi) disiplinlerin tarihine bakılarak öğrenilebilir ve öğrenilmelidir.
  4. Yapay zekanın kötüye kullanımının risklerini hafifletme ve önleme işiyle ilgilenen kişilerin sayısı artmalıdır.

A Dangerous Master: How to Keep Technology from Slipping Beyond Our Control kitabının yazarı Wendell Wallach “Yapay zekanın faydalarını hem uluslararası alanda hem de ulus ölçeğinde en üst seviyeye çıkarmak, riskleri hafifletmek ve bu dört yüksek seviyeli tavsiyeyi yerine getirmek için yeni tür faal ve kapsamlı bir denetim gerekecek.” diyor.

Dünya Ekonomik Forumu Dördüncü Sanayi Devrimi Merkezi‘nde Yapay Zeka ve Makine Öğrenimi Başkanı olan Kay Firth-Butterfield, riskleri hafifletmek için öne sürülen bazı adımlarla ilgili çalışmalar yürütüyor. Firth-Butterfield “Herhangi bir öğrencinin ya da yapay zeka tasarlayan, geliştiren, üreten herhangi bir mezunun yapay zekanın etik tasarımına erişimi olduğunu öğreterek araştırmacıların ve mühendislerin yapay zekanın kötüye kullanımı hakkında dikkatli olmalarına yardımcı olacak bir proje tasarladık.” dedi.

Ayrıca, yapay zeka tehditlerine çevik şekilde tepki verebilen, bu teknolojinin insanlığın tamamına ve gezegenimize faydalı olabilecek şekilde kullanılması ve tanıtılması için yeni tür bir düzenleyici oluşturmayı düşündüklerini de belirtti.

Kaynak: World Economic Forum

Aralarında Elon Musk'ın yapay zeka araştırma şirketi OpenAI'ın da bulunduğu birçok kuruluştan uzman bir araya gelerek Yapay Zekanın Kötüye Kullanımı adlı bir rapor oluşturdu. Yapay zekanın kötüye kullanılma ihtimalinin en yüksek olduğu üç alanı (fiziksel, dijital ve siyasi) açıklayan rapor, bu konularla ilgili örnek senaryolar sunuyor. Rapora göre, sürücüsüz araçlar büyük çaplı kazalara neden olacak şekilde hack'lenebilir, yöntemlerini sürekli olarak iyileştirmek için çalışan yapay zeka, tespiti giderek daha da zorlaşacak şekilde kimlik hırsızlığı dolandırıcılıkları düzenleyebilir ya da ürettiği sahte haber, video ve fotoğraflar aracılığıyla kamuoyunu manipüle edebilir. Rapor, bütün bu riskleri hafifletmek için dört adet yüksek düzeyli tavsiye sundu:

  • Politika yapıcılar ile teknik araştırmacılar iş birliği içinde çalışmalı.
  • Araştırmacılar ve mühendisler, ikili kullanımlı bir teknoloji olan yapay zeka konusunda dikkatli olmalı.
  • İkili kullanım riskleriyle baş edilmek zorunda kalınan (bilgisayar güvenliği gibi) disiplinlerin geçmişine bakarak ders alınmalı.
  • Risklerin hafifletilmesi ve önlenmesi için çalışan kişilerin sayısı artmalı.

1 Yorum

  • Uzaktan yönetilen araba kazaları dışındaki diğer iki tehlike sanki çoktan hayatımıza sızmış durumda :)

Yorum yazmak için tıklayın

Yorumunuz:

e-Bülten Aboneliği