2017年,人工智能首次寫入《政府工作報告》,自此,人工智能飛至“風口”,已遠遠超過前60年的速度高速發(fā)展。可當人們醉心于新鮮事物帶來的全新體驗,卻忽視了其暗藏的安全問題。如果安全問題沒有得到充分重視,人工智能很有可能會掉落到風險巨大的“火山口”。
人工智能惡意使用的安全威脅
2月底,來自OpenAI、人類未來研究所、牛津大學、劍橋大學等14家機構和高校的共26名學者在arXiv上發(fā)表一篇名為《人工智能的惡意使用:預測、預防和緩解》(The Malicious Use of Artificial Intelligence:Forecasting,Prevention,andMitigation)的研究成果報告(以下簡稱《報告》)。《報告》的重點內容是在未實施充分的防御時,人工智能惡意使用所存在的潛在安全威脅。
《報告》詳細分析了人工智能在三個安全領域(數(shù)字安全、物理安全和政治安全)有可能發(fā)生的安全威脅,并舉出代表性的例子證明其可能性。數(shù)字安全方面,將出現(xiàn)合成聲波、自動黑客攻擊和數(shù)據(jù)下毒等新型安全攻擊;物理安全方面,不法分子可將無人機或其他物理系統(tǒng)變成攻擊的武器;政治安全方面,人工智能可以檢測數(shù)據(jù)做有針對性的宣傳,造成侵犯隱私和左右輿論等安全威脅。
《報告》認為,人工智能不僅擴大現(xiàn)存安全威脅,還會引入新的安全威脅和改變現(xiàn)有威脅的典型特征。通過人工智能,完成對人類攻擊者來說不可能完成的攻擊,并非難事。此外,安全人員開發(fā)的人工智能系統(tǒng)也會給惡意攻擊者帶來新的可乘之機。而且《報告》也相信伴隨著人工智能應用的快速發(fā)展,安全攻擊將會更高效、更具有針對性、難于歸因且難以防守,這將在很大程度上改變傳統(tǒng)網(wǎng)絡安全威脅的典型特征。
《報告》中至少有兩處強調,人工智能可以達到攻擊規(guī)模和攻擊效率兩者平衡,而這直接改變了傳統(tǒng)網(wǎng)絡安全威脅的特征,更高效、更精準、更匿名將成為安全威脅的新特征。以更高效為例,傳統(tǒng)攻擊中,攻擊者往往需要在兩者之間取舍,而人工智能系統(tǒng)超過人類能力的潛力將會增加預計攻擊有效性的準確度,使得由人工智能自動化完成的網(wǎng)絡攻擊更高效,且這種高效的攻擊現(xiàn)目前并未有實質性的預防措施;以更精準為例,在規(guī)模和效率均能達到最優(yōu)效果之后,攻擊者便有精力將其攻擊限制在具有某些特性的目標上,識別和分析潛在目標進行更為精準的攻擊;以更匿名為例,攻擊者使用人工智能自動化攻擊系統(tǒng)進行攻擊,而非親自執(zhí)行。
“一點也不意外”的黑客操作
“隨著人工智能應用的普及,安全威脅會不斷增加,更多的應用會把應用的輸入接口直接或間接暴露出來。同時封閉系統(tǒng)的攻擊面也會隨著時間和環(huán)境而轉化。”近期,由360安全研究院發(fā)布的《AI安全風險白皮書》(以下簡稱《白皮書》)指出人工智能,特別是深度學習領域帶來的安全威脅?!栋灼氛J為,被大家熟知的AlphaGo人工智能應用是因為并不與外界有直接的交互,所以安全威脅相對較小,如果人工智能要想應用落地就必須考慮安全問題。
在《報告》發(fā)表之前,兩位通訊作者Miles Brundage和Shahar Avin合寫一篇較為簡單的介紹性文章,文章標題表達了作者的擔憂--《利用AI來犯罪只是時間問題》(It‘s only a matter of time before criminals turnAIs against us)(以下簡稱“文章”)。
文章認為人工智能研究人員在開發(fā)新應用程序時需要考慮安全因素,如果不這樣做,黑客就會利用人工智能進行惡意活動。人工智能和所有新技術一樣都具有兩面性,會以各種方式使社會受益,但同樣也會以各種方式被惡意使用。文章舉出無人機、自動駕駛車等網(wǎng)絡物理系統(tǒng)被黑客惡意使用的例子,自動駕駛車可能會帶來車禍,便宜的商業(yè)無人機可能會被改造成面部識別導彈。
《報告》中給出了相應威脅的假設性案例,例如,某安全管理系統(tǒng)的管理員瀏覽網(wǎng)站時,被一則模型火車的廣告吸引,并點開下載小冊子。此時攻擊已經(jīng)開始,小冊子一旦被打開,黑客就能窺視他的電腦,獲得安全管理系統(tǒng)的用戶名和密碼。至于管理員看到的廣告,則是黑客根據(jù)其個人興趣,結合人工智能精心設計的“陷阱”。而這樣的操作正是黑客使用基于“強化學習”和其他AI技術來控制一大批半自動機器人程序,通過廉價的個性宣傳精確地目標人群。這樣一個8人釣魚團隊就能達到8000人的水平。類似的技術操作和實現(xiàn)效果在作者看來,“一點也不意外”。
“一點也不意外”的黑客操作近日被指出很有可能已經(jīng)在操縱美國大選。美國特別顧問Robert Muller曾公開指出,俄羅斯有一個80多人的全職專業(yè)團隊破壞2016年美國總統(tǒng)選舉。通過使用虛假的美國公民身份,利用社交媒體平臺和其他網(wǎng)絡媒體來推進他們的計劃。“一點也不意外”的黑客操作同樣發(fā)生在我國。2017年,浙江警方破獲了一起利用人工智能犯罪,侵犯公民個人信息案。專業(yè)黑客用深度學習技術訓練機器,讓機器能夠自主操作,批量識別驗證碼。“很短時間就能識別上千上萬個驗證碼。”當時的辦案民警介紹。
全社會共同討論才是問題正解
《報告》中,作者不無擔憂地表示:如果沒有制定出足夠的防御措施,我們可能很快就會看到假設性的攻擊成為現(xiàn)實。
中國社科院文化法制研究中心研究員劉明接受《科技日報》采訪時說,技術帶來的問題,有時也可以用技術發(fā)展來解決。當攻擊方用上了導彈大炮,防御方就不能只用“小米加步槍”?!叭绻庾R到自己所在行業(yè)存在人工智能帶來的威脅,自身加強防范就很重要?!蓖瑫r他也表示,如果用技術防御技術,“這可能是一場無止境的技術攻防戰(zhàn)?!?/p>
此外,道德和法律也是如何解決人工智能衍生問題的兩大關鍵詞。哈佛法學院互聯(lián)網(wǎng)法教授Jonathan Zittrain說,“我擔心,在技術的幫助下,我們的系統(tǒng)將變得更加復雜和緊密連合,人類的可操控性會下降。并且這里(編者注:利益相關者)沒有任何一個方面需要考慮道德倫理問題?!背藳]有考慮道德問題之外,關于“道德”或“公平”的概念也是十分含糊不清且難以界定。對此,英國科普作家PhilipBall表示,當新的技術出現(xiàn)之后,肯定會隨之而來許多新的道德問題,這是一個需要全人類共同面對的挑戰(zhàn),還需要全社會來參與討論。
在《報告》中也給出了緩解威脅的四點建議:
決策者應與技術研究人員密切合作,調查、預防和減輕人工智能潛在的惡意用途;
人工智能的研究人員有責任采取一切可能的措施,幫助促進技術的有益使用,防止有害用途;
研究現(xiàn)有較為成熟的解決雙重用途問題的實踐方法,并研究是否適用與人工智能領域;
尋求更廣泛的交流。不僅包括,用戶、決策者、網(wǎng)絡安全和人工智能研究人員以及相關企業(yè),還應該包括倫理學家和其他利益相關者。
The Verge就此發(fā)表評論性文章表示,作者旨在希望通過更多的對話和更多的行動解決行業(yè)問題。
?。ū疚木C合整理自arxiv、雷鋒網(wǎng)、鳳凰科技、科技日報、The Verge等)