Şub 25 2018

İşte yapay zekanın 10 yıl içinde getirebileceği tehlikeler

Yapay zekanın kötü niyetle kullanıldığında oluşturabileceği tehlikeler üzerine teoriler giderek artıyor. Yapay zeka sistemleri sadece insan seviyesinde performansa ulaşmakla kalmıyor, aynı zamanda onu önemli ölçüde aşıyor. Bu da beraberinde birtakım tehlikeler getiriyor. Uzmanlar, füzeye dönüştürülmüş insansız hava araçları, kamuoyunu manipüle eden sahte videolar ve otomatikleştirilmiş bilgisayar korsanlığı gibi olasılıkların göz önünde bulundurulması gerektiğini paylaşıyor.

Uzmanlar, bu hakkında bir rapor yayımladı. BBC’nin teknoloji muhabiri Jane Wakefield teknoloji muhabiri, 100 sayfalık raporda, yapay zekayı tasarlayanlar, teknolojinin kötüye kullanımını engellemek için daha fazla çaba sarfetmeleri konusunda uyarıldığına değiniyor.

Raporda, hükümetlerin bu konuda yapabilecekleri dahi paylaşıklıyor:

  • Kanun koyucular ve teknik araştırmacılar, yapay zekanın kötüye kullanımının açacağı sorunları anlamak ve buna karşı hazırlanmak için dayanışma içinde olmalı

  • Yapay zeka olumlu amaçlar için kullanılabilse de, gerçekte iki taraflı bir teknoloji olduğunun farkına varılmalı ve yapay zeka araştırmacıları ve mühendisleri dikkatli olmalı ve kötüye kullanılma ihtimalini önceden değerlendirmeli

  • Bilgisayar güvenliği gibi, uzun zamandır çift yönlü riskleri olan disiplinlerden ders çıkarmaya gidilmeli

  • Yapay zekanın kötüye kullanılmasının oluşturacağı tehditleri önlemek ve azaltmak konusunda çıkar gruplarının sayısı artarak harekete geçmeli

Cambridge Üniversitesi Varoluşsal Risk Araştırması Merkezi'nden Shahar Avin BBC'ye yaptığı açıklamada, raporda yapay zekanın uzak bir geleceğe dair ortaya koyduğu tehditlerden ziyade, şu an getirdiği ya da önümüzdeki beş yıl içinde getirebileceği tehditlerin ele alınıyor.

Yapay zekada özellikle endişe verici olan, rehberlik eden ya da bir insan örneği olmadan, insanüstü seviyelerde zekaya sahip olacak şekilde eğitim verilmesi.

Shahar Avin, yakın gelecekte yapay zekanın kötü amaçlı kullanılabileceği muhtemel birkaç senaryoyu şöyle sıralıyor:

  • Google'un yapay zeka şirketi DeepMind tarafından geliştirilen ve zekasıyla rakiplerini alt eden AlphaGo oyunu, bilgisayar korsanları tarafından verilerde yeni örüntüleri ve kodlardan yararlanmanın yeni yollarını bulmak üzere kullanılabilir

  • Kötü niyetli bir kişi bir insansız hava aracı satın alarak, belirli bir kişiyi hedef alması için yüz tanıma yazılımı kullanabilir

  • Bot'lar otomatikleştirilebilir; sahte videolar siyasi manipülasyon için kullanılabilir

  • Bilgisayar korsanları hedeflerin kimliğine bürünmek için ses sentezine baş vurabilirler

Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü'nden araştırmacı Miles Brundage’e göre,"Yapay zeka vatandaşlar, organizasyonlar ve devletler için risklerin büyüklüğünü değiştirecek. Suçlular makineleri hecklemek ya da şifre çalmak üzere insan kapasitesi seviyesinde eğitebilir ya da gözetleme, fişleme ve baskı amacıyla kulanılabilir. Güvenlik üzerindeki etkileri çok büyük."

Brundage, hackleme, gözetim, ikna ve fiziki hedef tanımlamanın insanüstü seviyede yapılabilecek olduğununu düşünmenin rahatsız edici ama gerekli olduğun savunuyor.