Sorumlu, ahlaklı yapay zeka prensipleri

Birçok büyük şirketi temsil eden Information Technology Industry Council (ITI), hızla gelişen yapay zeka sistemleri için etik prensipleri yayımladı.

Haber Özeti

Tam Sürüm

IBM, Microsoft, Google, Amazon, Facebook ve Apple gibi şirketleri temsil eden Washington DC merkezli Information Technology Industry Council (ITI), hızla gelişen yapay zeka sistemleri için etik prensipleri yayımladı.

Neden önemli?

Teknoloji endüstrisi, yapay zeka teknolojilerinin toplumsal etkisi hakkındaki endişelerden kurtulmaya çalışıyor. Şirketler, yapay zekanın gücünü dikkatli şekilde kullanacaklarına dair söz vermenin, toplumda güven duygusu oluşturacağını düşünüyor. ITI Başkanı Dean Garfield, “Bazen sadece çalışmaya, üretmeye ve tasarlamaya odaklanmak istiyoruz fakat bütün bunların toplumun algısı tarafından etkileneceğini de göz önünde bulundurmak gerek.” diyor.

Yapay zeka sistemleri için yayımlanan ilkelerden bazıları;

  • Yapay zeka sistemlerinin dikkatli şekilde tasarlandığına ve uygulandığına emin olmak.
  • Yapay zeka sistemlerinin oluşturabileceği potansiyel zararı önlemek adına, verilerin ve testlerin dikkatli şekilde kullanılmasını teşvik etmek.
  • Otomatik olarak karar alan yapay zeka sistemlerinde, ön yargının, eşitsizliğin ve diğer potansiyel zararların engellenmesini sağlamak.

Geçtiğimiz hafta da Intel, yapay zeka sistemleri için kendi oluşturduğu politikaları yayımladı. Yayımlanan listede, teknolojilerin test edilmesi için ar-ge fonlarının kullanılması, yapay zeka sistemleri insanların çalışma biçimini değiştirirken insanlar için yeni iş alanları oluşturmak gibi prensipler yer alıyor.

Kaynak: Axios

IBM, Microsoft, Google, Amazon, Facebook ve Apple gibi şirketleri temsil eden Washington DC merkezli Information Technology Industry Council (ITI), hızla gelişen yapay zeka sistemleri için etik prensipleri yayımladı. İlkelerden bazıları şu şekilde;

  • Yapay zeka sistemlerinin dikkatli şekilde tasarlandığına ve uygulandığına emin olmak.
  • Yapay zeka sistemlerinin oluşturabileceği potansiyel zararı önlemek adına, verilerin ve testlerin dikkatli şekilde kullanılmasını teşvik etmek.
  • Otomatik olarak karar alan yapay zeka sistemlerinde, ön yargının, eşitsizliğin ve diğer potansiyel zararların engellenmesini sağlamak.

1 Yorum

Yorum yazmak için tıklayın

Yorumunuz:

  • Yani hiç birşey söylememişler.
    Yapay zeka sistemlerinin dikkatli şekilde tasarlandığına ve uygulandığına emin olmak.
    İnsan oğlu ne zaman yaptığı birşeyden emin oldu da yaptı ? :)))

    Otomatik olarak karar alan yapay zeka sistemlerinde, ön yargının, eşitsizliğin ve diğer potansiyel zararların engellenmesini sağlamak.
    Bunu sağlamak mümkün mü ? Yapay zeka veriler üzerinden yürüyor mü ?

    Kamuyu rahatlatmak için yazmışlar ama işin çığrından çıktığını görmek şimdiden mümkün değil mi ?

  • Türkiye İş Bankası'nın katkılarıyla

Bülten Aboneliği

Günlük haberleri eposta bültenimizle takip edin!

Teşekkür ederiz.

Bir terslik var...