隨著自動駕駛技術、智能助理、人臉識別、智能工廠、智慧城市等AI人工智能技術的快速普及和相關安全事件的快速增長,消費者和業(yè)界對人工智能網絡安全問題和威脅的關注度正不斷提高。
近日,應歐盟和美國政府的要求,可信AI研究和咨詢專業(yè)公司Adversa發(fā)表了業(yè)界首個全面的人工智能安全性和可信度研究報告,該報告還結合了Gartner的相關預測以及最近對AI的對抗性攻擊事件。
Adversa顧問委員會前Gartner分析師Oliver Rochford指出:建立對機器學習安全性的信任至關重要。我們要求人們去相信AI的黑匣子(這很困難),為了使AI革命成功,我們必須建立信任……AI面臨的安全風險太大,同時收益也很大。
Adversa的CTO Eugene Neelou表示:“為了提高可信AI領域的安全意識,一年多前我們啟動了一個項目,以分析學術、行業(yè)和政府過去十年的發(fā)展情況。結果令人目瞪口呆,受測AI系統普遍存在安全性和偏差問題,以及缺乏適當的防御措施,但人們對AI安全的興趣呈指數增長。企業(yè)應緊密跟蹤最新AI威脅,實施AI安全意識計劃,并保護其AI開發(fā)生命周期,最重要的是從現在開始做起。”
報告顯示:AI領域的安全現狀異常糟糕;過去兩年AI安全研究論文呈現爆炸式增長;美國、中國、歐洲在可信AI研究領域競爭激烈,中國正在加速反超;AI人工智能領域面臨十大安全威脅。
以下為報告中的部分亮點數據,安全牛整理如下:
現實中的AI安全事件正在快速增長:
在汽車、生物識別、機器人技術和互聯網行業(yè)中,現實世界中的AI安全事件正在快速增長。作為AI的早期采用者,最受關注的行業(yè)是互聯網(23%)、網絡安全(17%)、生物識別技術(16%)和自治(13%)。
AI安全研究論文爆炸式增長:
過去兩年中,政府、學術界和工業(yè)界發(fā)布的AI安全性方面的研究論文多達3500篇,超過過去二十年的總和。美國、中國、歐盟之間的激烈競爭預計將在可信AI競賽中繼續(xù)下去:美國發(fā)表了47%的研究論文,但中國勢頭強勁。
AI還沒有為黑客攻擊做好準備:
人工智能行業(yè)對于現實世界的黑客攻擊還沒有做好充分的準備,60種最常用的機器學習(ML)模型平均至少有一個安全漏洞。
最多被攻擊者針對的AI技術領域是計算機視覺:
最多被針對的AI領域是計算機視覺(65%),其次是分析、語言和自治系統。
圖像、文本和記錄是最容易遭受攻擊的AI數據集:
圖像分類和人臉識別最常被攻擊的AI應用:
互聯網、網絡安全、生物識別和汽車行業(yè)是AI網絡安全問題的重災區(qū):
AI面臨十大安全威脅:
1.繞過攻擊(通過對抗性樣本操縱AI決策和結果)81%
2.毒化攻擊(注入惡意數據降低AI系統可靠性和精確度)6.8%
3.推斷攻擊(推斷特定數據樣本是否被用于AI訓練)3.5%
4.后門攻擊2.3%
5.模型抽取攻擊(通過惡意查詢命令暴露AI算法細節(jié))1.9%
6.歸屬推斷攻擊1.3%
7.木馬攻擊1.2%
8.模型逆轉攻擊(通過惡意查詢獲取的公共輸出數據推斷輸入數據)1.2%
9.反水印攻擊(繞過AI系統對版權和真實性的檢測)0.6%
10.重編程攻擊(改變AI模型用于非法用途)0.2%