ABD’li bir fikir kuruluşu tarafından yapılan araştırmaya nazaran, sohbet robotlarının temelini oluşturan yapay zeka modelleri biyolojik bir silahla taarruz planlanmasına yardımcı olabilir.
Rand Corporation tarafından yayınlanan bir rapor, çeşitli büyük lisan modellerini (LLM) test etti ve bunların biyolojik bir atağın planlanmasına ve yürütülmesine rehberlik sağlayabileceğini tespit etti.
Raporda, 1990’larda Japon Aum Shinrikyo tarikatının botulinum toksini kullanma teşebbüsü üzere biyolojik ilaçları silah haline getirmeye yönelik evvelki teşebbüslerin, bakterinin gereğince anlaşılamaması nedeniyle başarısız olduğu belirtildi.
Yapay zekanın bu tıp bilgi boşluklarını süratle kapatabileceği kaydedildi. Öte yandan araştırmacıların hangi lisan modellerini test ettiği ise açıklanmadı.
“İKİ İLA ÜÇ YIL İÇİNDE BİYOLOJİK SİLAHLAR YARATABİLİR”
Biyolojik silahlar, önümüzdeki ay İngiltere’de düzenlenecek olan global yapay zeka güvenlik doruğunda tartışılacak olan yapay zeka ile ilgili önemli tehditler ortasında yer alıyor.
Temmuz ayında yapay zeka firması Anthropic’in CEO’su Dario Amodei, yapay zeka sistemlerinin iki ila üç yıl içinde biyolojik silahların yaratılmasına yardımcı olabileceği konusunda ihtarda bulundu.
DİL MODELLERİ (LLM) NEDİR?
Dil modelleri internetten alınan büyük ölçüde data üzerinde eğitilir ve ChatGPT üzere sohbet robotlarının ardındaki temel teknolojidir.
KİTLESEL MEVTE NEDEN OLMA OLASILIKLARINI TARTIŞTI
Rand tarafından tasarlanan bir test senaryosunda, anonimleştirilmiş LLM, çiçek, şarbon ve vebaya neden olanlar da dahil olmak üzere potansiyel biyolojik ilaçları tanımladı ve bunların kitlesel mevte neden olma olasılıklarını tartıştı.
LLM ayrıyeten vebaya yakalanmış kemirgen ya da pirelerin elde edilmesi ve canlı örneklerin taşınması mümkünlüğünü da kıymetlendirdi.
Ardından, öngörülen ölümlerin ölçeğinin, etkilenen nüfusun büyüklüğü ve vebadan daha ölümcül olan pnömonik veba hadiselerinin oranı üzere faktörlere bağlı olduğunu belirttiği kaydedildi.
Rand araştırmacıları, bir LLM’den bu bilgileri almanın “jailbreaking” gerektirdiğini kabul ettiler. Bu terim, bir yapay zeka sohbet robotunun güvenlik kısıtlamalarını geçersiz kılar.
BAKTERİ ELDE ETMEK İÇİN TAVSİYEDE BULUNDU
Bir öbür senaryoda, ismi açıklanmayan LLM, ölümcül hudut hasarına neden olabilen botulinum toksini için besin yahut aerosol üzere farklı dağıtım düzeneklerinin artılarını ve eksilerini tartışmıştır.
LLM ayrıyeten “meşru bir bilimsel araştırma yürütüyormuş üzere görünürken” Clostridium botulinum bakterisini elde etmek için tavsiyede bulunmuştur.
“BİYOLOJİK HÜCUMUN PLANLANMASINA YARDIMCI OLABİLİR”
Araştırmacılar, birinci sonuçlarının LLM’lerin “biyolojik bir hücumun planlanmasına potansiyel olarak yardımcı olabileceğini” gösterdiğini söyledi.
Nihai raporlarında, cevapların internette aslında mevcut olan bilgileri yansıtıp yansıtmadığını inceleyecekleri belirtildi.
“YAPAY ZEKA LİSAN MODELLERİNDE SONLANDIRMA GEREKLİ”
Bilim insanları “Mevcut LLM’lerin yeteneklerinin, internette kolay kolay bulunabilen ziyanlı bilgilerin ötesinde yeni bir tehdit seviyesini temsil edip etmediği açık bir soru olmaya devam ediyor” dedi.
Ancak Rand araştırmacıları, modellerin titizlikle test edilmesi muhtaçlığının “kesin” olduğunu söyledi. Yapay zeka şirketlerinin, LLM’lerin açıklığını raporlarındaki üzere konuşmalarla sonlandırmaları gerektiğini söylediler.



