10 yıl içinde yapay zekanın getirebileceği tehlikeler neler? | BCA Times




  ÖNE ÇIKAN HABERLER

10 yıl içinde yapay zekanın getirebileceği tehlikeler neler?
Eklenme Tarihi: 23 Şubat 2018, Cuma 02:46 - Son Güncelleme: 23 Şubat 2018 Cuma, 02:46
Font1 Font2 Font3 Font4



10 yıl içinde yapay zekanın getirebileceği tehlikeler neler?
26 uzman yapay zekanın getirdiği tehditlerin gerçek olduğuna ve şimdiden uygulamaya konduğuna dikkat çekiyor.

Füzeye dönüÅŸtürülmüÅŸ insansız hava araçları, kamuoyunu manipüle eden sahte videolar ve otomatikleÅŸtirilmiÅŸ bilgisayar korsanlığı… Uzmanlara göre bunlar yanlış ellere düÅŸen yapay zekanın getirdiÄŸi tehlikelerden sadece üçü.

Onlarca uluslararası güvenlik uzmanı yapay zekanın kötü niyetle kullanıldığında oluÅŸturabileceÄŸi tehlikeler hakkında bir rapor yayımladı.

100 sayfalık raporda, yapay zekayı tasarlayanlar, teknolojinin kötüye kullanımını engellemek için daha fazla çaba sarfetmeleri konusunda uyarılıyor.

Raporda, hükümetlerin bu konuda yapabilecekleri de sıralanıyor:

  • Kanun koyucular ve teknik araÅŸtırmacılar, yapay zekanın kötüye kullanımının açacağı sorunları anlamak ve buna karşı hazırlanmak için birlikte çalışmalılar
  • Yapay zeka olumlu amaçlar için kullanılabilse de, gerçekte iki taraflı bir teknoloji olduÄŸunun farkına varılmalı ve yapay zeka araÅŸtırmacıları ve mühendisleri dikkatli olmalı ve kötüye kullanılma ihtimalini önceden göz önünde bulundurmalı
  • Bilgisayar güvenliÄŸi gibi, uzun zamandır çift yönlü riskleri olan disiplinlerden ders çıkarmalılar
  • Yapay zekanın kötüye kullanılmasının oluÅŸturacağı tehditleri önlemek ve azaltmak konusunda daha fazla çıkar grubu harekete geçmeli

Cambridge Üniversitesi VaroluÅŸsal Risk AraÅŸtırması Merkezi'nden Shahar Avin BBC'ye yaptığı açıklamada, raporda yapay zekanın uzak bir geleceÄŸe dair ortaya koyduÄŸu tehditlerden ziyade, ÅŸu an getirdiÄŸi ya da önümüzdeki beÅŸ yıl içinde getirebileceÄŸi tehditlerin ele alındığını söyledi. 

Yakın zamandaki tehlikeler

Yapay zekada özellikle endiÅŸe verici olan, rehberlik eden ya da bir insan örneÄŸi olmadan, insanüstü seviyelerde zekaya sahip olacak ÅŸekilde eÄŸitilmeleri. 

Shahar Avin, yakın gelecekte yapay zekanın kötü amaçlı kullanılabileceÄŸi muhtemel birkaç senaryoyu sıraladı:

  • Google'un yapay zeka ÅŸirketi DeepMind tarafından geliÅŸtirilen ve zekasıyla rakiplerini alt eden AlphaGo oyunu, bilgisayar korsanları tarafından verilerde yeni örüntüleri ve kodlardan yararlanmanın yeni yollarını bulmak için kullanılabilir
  • Kötü niyetli bir kiÅŸi bir insansız hava aracı satın alarak, belirli bir kiÅŸiyi hedef alması için onu yüz tanıma yazılımıyla eÄŸitebilir
  • Bot'lar otomatikleÅŸtirilebilir ya da sahte videolar siyasi manipülasyon için kullanılabilir
  • Bilgisayar korsanları hedeflerin kimliÄŸine bürünmek için ses sentezini kullanabilir

Oxford Üniversitesi Ä°nsanlığın GeleceÄŸi Enstitüsü'nden araÅŸtırmacı Miles Brundage ÅŸöyle diyor:

"Yapay zeka vatandaÅŸlar, organizasyonlar ve devletler için risklerin büyüklüÄŸünü deÄŸiÅŸtirecek. Suçlular makineleri hecklemek ya da ÅŸifre çalmak üzere insan kapasitesi seviyesinde eÄŸitebilir ya da gözetleme, fiÅŸleme ve baskı amacıyla kulanılabilir. Güvenlik üzerindeki etkileri çok büyük."

Genellikle yapay zeka sistemleri sadece insan seviyesinde performansa ulaÅŸmıyor, aynı zamanda onu önemli ölçüde aşıyor.

"Hackleme, gözetim, ikna ve fiziki hedef tanımlamanın insanüstü seviyede yapılabilecek olduÄŸunu düÅŸünmek rahatsız edici ama gerekli. Ä°nsan seviyesine ulaÅŸmamış yapay zekanın insanlardan daha fazla geliÅŸtirilebilecek olması da aynı ÅŸekilde." 

Ä°nsanlığın GeleceÄŸi Enstitüsü Müdürü Doktor Seán Ó hÉigeartaigh tehditlerin gerçek olduÄŸuna dikkat çekiyor ve dünya çapında hükümetleri, kurumları ve insanları harekete geçmeye çağırıyor.


Bu haberlerde ilginizi çekebilir!