據(jù)《每日郵報(bào)》北京時(shí)間4月25日?qǐng)?bào)道,一家主要的安全智庫蘭德公司(以下簡稱“蘭德”)警告稱,最早在2040年,人工智能就可能發(fā)動(dòng)造成人類毀滅的核戰(zhàn)爭。
蘭德稱,催生“世界末日人工智能”機(jī)器的技術(shù)發(fā)展,可能會(huì)促使一些國家利用它們的核武庫冒險(xiǎn)。
在冷戰(zhàn)期間,被稱作“相互確保摧毀”的狀態(tài),維持了兩個(gè)超級(jí)大國之間不穩(wěn)定的平衡。
然而,人工智能的進(jìn)步可能意味著“相互確保摧毀”狀態(tài)遭到破壞,從而削弱對(duì)方反擊的潛力,而且,這種趨勢可能無法阻止。
冷戰(zhàn)期間相互確保摧毀維持了超級(jí)大國之間脆弱的平衡
蘭德稱,未來數(shù)十年,人工智能的進(jìn)步,可能破壞“相互確保摧毀”對(duì)擁核國家的約束力。
就像在20世紀(jì)40年代和50年代的冷戰(zhàn)時(shí)期,未來核沖突的每一方都有理由擔(dān)心對(duì)手獲得技術(shù)優(yōu)勢。
改進(jìn)的人工智能技術(shù),加上更多的傳感器和開源數(shù)據(jù),可以使各國相信他們的核能力是脆弱的。
報(bào)告稱,這可能會(huì)導(dǎo)致它們采取更激進(jìn)的措施,跟上美國這樣的競爭對(duì)手。
蘭德研究人員、報(bào)告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔(dān)心,人們?cè)絹碓揭蕾嚾斯ぶ悄軙?huì)導(dǎo)致新型的災(zāi)難性錯(cuò)誤。”
各國都面臨在技術(shù)真正成熟前使用人工智能的壓力。因此未來數(shù)十年要保持戰(zhàn)略穩(wěn)定性極端困難,所有核大國必須參與新體系的形成,以降低核風(fēng)險(xiǎn)。
報(bào)告稱,另一種令人擔(dān)憂的情況是,指揮官可能根據(jù)人工智能助手提供的建議作出發(fā)動(dòng)攻擊的命令,而人工智能助手接收的信息本身可能就是錯(cuò)誤的。
除了提供糟糕的建議外,這樣的系統(tǒng)也可能容易受到黑客攻擊,從而引發(fā)了惡意第三方發(fā)動(dòng)第三次世界大戰(zhàn)的可能性。
盡管如此,有人認(rèn)為人工智能可以通過提高情報(bào)收集和分析的準(zhǔn)確性,來提高未來的戰(zhàn)略穩(wěn)定性。
專家表示,對(duì)用于監(jiān)測和解釋對(duì)手行為的分析過程進(jìn)行改進(jìn),可以減少可能導(dǎo)致對(duì)抗意外升級(jí)的錯(cuò)誤計(jì)算或曲解。
鑒于未來的改進(jìn),最終人工智能系統(tǒng)有可能發(fā)展出比人類更不容易出錯(cuò)的能力,因此有助于保持長期的戰(zhàn)略穩(wěn)定性。
根據(jù)與在核問題、政府部門、人工智能研究、人工智能政策和國家安全方面的專家舉行的一系列研討會(huì)期間收集的信息,蘭德研究人員,得出了上述結(jié)論。
這項(xiàng)研究是展望2040年重大安全挑戰(zhàn)的更廣泛研究活動(dòng)的一部分,考慮了政治、技術(shù)、社會(huì)和人口趨勢的影響。
“人工智能會(huì)增加核戰(zhàn)爭的風(fēng)險(xiǎn)?”研究的全部資料發(fā)布在蘭德網(wǎng)站上。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...