2月29日消息,奇安信集團發(fā)布《2024人工智能安全報告》(以下簡稱《報告》)�!秷蟾妗氛J為,人工智能技術的惡意使用將快速增長,在政治安全、網(wǎng)絡安全、物理安全和軍事安全等方面構成嚴重威脅。
《報告》認為,“AI是一種通用技術,通用就意味著既可以用來做好事,也可以被用來干壞事”。具有巨大潛力的AI技術同時帶來兩大主要挑戰(zhàn):一是放大現(xiàn)有威脅,另一個是引入新型威脅。
奇安信預計,未來十年,人工智能技術的惡意使用將快速增長,將在政治安全、網(wǎng)絡安全、物理安全和軍事安全等方面構成嚴重威脅。
報告數(shù)據(jù)顯示,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數(shù)量增長了1000%;奇安信威脅情報中心監(jiān)測發(fā)現(xiàn),已有多個有國家背景的APT組織利用AI實施了十余起網(wǎng)絡攻擊事件。各類基于AI的新型攻擊種類與手段不斷出現(xiàn),甚至出現(xiàn)泛濫,包括深度偽造(Deepfake)、黑產(chǎn)大語言模型、惡意AI機器人、自動化攻擊等,在全球造成了嚴重危害。
同時,《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產(chǎn)大語言模型基礎設施、利用AI的自動化攻擊、AI武器化、LLM自身安全風險、惡意軟件、釣魚郵件、虛假內容和活動生成、硬件傳感器安全等12種重要威脅,對其技術原理、危害情況、真實案例等進行了深入的剖析,旨在讓業(yè)界更全面的認識到AI普及帶來的兩大主要挑戰(zhàn):一方面放大了現(xiàn)有威脅,比如釣魚郵件、惡意軟件和社會工程學等;另一方面是引入了新型威脅,如AI自動化攻擊、AI深度偽造等。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...