2月29日消息,奇安信集團(tuán)發(fā)布《2024人工智能安全報告》(以下簡稱《報告》)�!秷蟾妗氛J(rèn)為,人工智能技術(shù)的惡意使用將快速增長,在政治安全、網(wǎng)絡(luò)安全、物理安全和軍事安全等方面構(gòu)成嚴(yán)重威脅。
《報告》認(rèn)為,“AI是一種通用技術(shù),通用就意味著既可以用來做好事,也可以被用來干壞事”。具有巨大潛力的AI技術(shù)同時帶來兩大主要挑戰(zhàn):一是放大現(xiàn)有威脅,另一個是引入新型威脅。
奇安信預(yù)計,未來十年,人工智能技術(shù)的惡意使用將快速增長,將在政治安全、網(wǎng)絡(luò)安全、物理安全和軍事安全等方面構(gòu)成嚴(yán)重威脅。
報告數(shù)據(jù)顯示,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數(shù)量增長了1000%;奇安信威脅情報中心監(jiān)測發(fā)現(xiàn),已有多個有國家背景的APT組織利用AI實施了十余起網(wǎng)絡(luò)攻擊事件。各類基于AI的新型攻擊種類與手段不斷出現(xiàn),甚至出現(xiàn)泛濫,包括深度偽造(Deepfake)、黑產(chǎn)大語言模型、惡意AI機(jī)器人、自動化攻擊等,在全球造成了嚴(yán)重危害。
同時,《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產(chǎn)大語言模型基礎(chǔ)設(shè)施、利用AI的自動化攻擊、AI武器化、LLM自身安全風(fēng)險、惡意軟件、釣魚郵件、虛假內(nèi)容和活動生成、硬件傳感器安全等12種重要威脅,對其技術(shù)原理、危害情況、真實案例等進(jìn)行了深入的剖析,旨在讓業(yè)界更全面的認(rèn)識到AI普及帶來的兩大主要挑戰(zhàn):一方面放大了現(xiàn)有威脅,比如釣魚郵件、惡意軟件和社會工程學(xué)等;另一方面是引入了新型威脅,如AI自動化攻擊、AI深度偽造等。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...