Üst seviye yapay zeka araştırmacıları, yapay zeka şirketleri ve hükümetlerin, yapay zeka araştırma ve geliştirme fonlarının en az üçte birini sistemlerin güvenliğini ve etik kullanımını sağlamaya ayırmaları gerektiğini belirtti.
Londra’daki memleketler arası Yapay Zeka Güvenlik Tepesi’nden bir hafta evvel yayınlanan bildiride, hükümetlerin ve şirketlerin yapay zeka risklerini ele almak için alması gereken tedbirler sıralandı.
Reuters’in haberine nazaran, Üç Turing Mükafatı sahibi, bir Nobel ödüllü ve bir düzineden fazla üst seviye yapay zeka akademisyeni tarafından imzalanan açıklamada, “Hükümetler ayrıyeten şirketlerin, makul bir biçimde öngörülebilen ve önlenebilen öncü yapay zeka sistemlerinden kaynaklanan ziyanlardan yasal olarak sorumlu olmalarını zarurî kılmalıdır.” sözleri yer aldı.
HENÜZ MADDELEŞMİŞ DEĞİL
Şu anda yapay zeka güvenliğine odaklanan geniş tabanlı bir düzenleme bulunmamaktadır ve Avrupa Birliği’nin birinci mevzuat seti, yasa koyucuların şimdi birkaç bahiste mutabakata varamaması nedeniyle şimdi yasalaşmamıştır.
“YAPAY ZEKA ALINAN TEDBİRLERDEN DAHA SÜRATLİ İLERLİYOR”
Yapay zekanın vaftiz babası olarak bilinen üç şahıstan biri olan Yoshua Bengio, “Son teknoloji yapay zeka modelleri, demokratik nezaret olmadan gelişmelerine müsaade verilemeyecek kadar güçlü ve kıymetli.
Bunun (yapay zeka güvenliğine yapılan yatırımların) süratli bir halde gerçekleşmesi gerekiyor, zira yapay zeka alınan tedbirlerden çok daha süratli ilerliyor” dedi.
Açıklamayı imzalayanlar ortasında Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song ve Yuval Noah Harari de bulunuyor.
YAPAY ZEKA GELİŞİMİNE ALTI AY ORTA VERİN ÇAĞRISI
OpenAI’nin üretken yapay zeka modellerinin piyasaya sürülmesinden bu yana, üst seviye akademisyenler ve Elon Musk üzere önde gelen CEO’lar, güçlü yapay zeka sistemlerinin geliştirilmesine altı ay orta verilmesi daveti da dahil olmak üzere, yapay zeka üzerindeki riskler konusunda ikazlarda bulundu.