Yapay zeka ve savaş konusunu bir daha mı düşünsek?

RAND Corporation'ın raporuna göre yapay zeka nükleer silahların sağladığı stratejik dengeleri bozabilir.

Haber Özeti

Tam Sürüm

Yeni bir araştırma, ‘terminatör’ robotların gelişip bize saldırmasından çok daha önce yapay zekanın nükleer silahlarla yok olmamızı sağlayabileceğini gösteriyor.

RAND Corporation raporuna göre yapay zeka ve diğer yeni teknolojilerin ordular tarafından kullanılmaya başlanması yakın gelecekte dengeleri bozabilir ve bu durum bazı ülkelerin nükleer seçenekleri değerlendirmeye başlamasına neden olabilir.

“Karşılıklı garantili yok oluş” (Mutually assured destruction) ile sağlanan stratejik dengeler, yapay zekanın düşmanın silah sistemlerini hedeflemedeki yeni ve çok daha iyi yetenekleriyle bozulabilir.

Raporun yazarlarından Andrew Lohn, “Bu bir film senaryosu değil. Basit şeyler gerilimi artırabilir ve dikkatli olmazsak bizi tehlikeli durumlara itebilir” diyor.

Ancak durum o kadar vahim değil. Araştırma ayrıca bazı durumlarda yapay zekanın düşmanın nükleer kabiliyetleri hakkında yeni bilgi toplama metotları sağlayarak stratejik dengeleri koruyabileceğini söylüyor.

Yapay zekanın önümüzdeki 10-20 yıl içinde nasıl bir hal alacağını tahmin etmek oldukça zor. Ancak şu an sahip olduğumuz yapay zeka sistemlerinin bile orduları nasıl etkilediği düşünülürse, bu raporun sonuçları yapay zekayı silahlandırma ve gelişimini ulusal bir öncelik haline getirme yönündeki çağrıları güçlendirebilir.

Kaynak: MIT Technology Review

Yeni bir araştırma terminatör robotların gelişip bize saldırmasından çok daha önce yapay zekanın nükleer silahlarla kendimizi yok etmemize yardımcı olabileceğini gösteriyor.

RAND Corporation raporuna göre yapay zeka ve diğer yeni teknolojilerin ordular tarafından kullanılmaya başlanması yakın gelecekte dengeleri bozabilir ve bu durum bazı ülkeleri nükleer olasılıkları değerlendirmeye itebilir.

Yorum Ekle

Yorum yazmak için tıklayın

Yorumunuz:

  • Türkiye İş Bankası'nın katkılarıyla

Bülten Aboneliği

Günlük haberleri eposta bültenimizle takip edin!

Teşekkür ederiz.

Bir terslik var...