一封來自“公司網管”要求點擊查看的Email,一封來自“校(xiào)辦處”的“通(tōng鐵到)知”電郵,一封來自“電商”的“中獎”郵件,當你收到服短這些電子(zǐ)郵件時(shí)一定要小(xiǎo)心了,因為(wèi)你可能拿生正遭遇使用AI技術的釣魚攻擊。
作為(wèi)“新基建”之一的AI正快速興起,然而相對于國家(jiā),AI是基礎設施;相對于企業,AI是重要資(zī)産;相對于不(bù)法分子睡也(zǐ),AI也可以是工(gōng)具。因為(wèi)AI 是一把雙刃劍,如(rú)果被網絡黑客使用,将大(dà)大(dà友頻)提高網絡攻擊效率。上面的例子(zǐ)就真實發生在你我身邊:在魚叉釣魚醫湖攻擊中,攻擊者使用AI技術分析目标人員的社交媒體或者電子(zǐ)郵件内容,得(de裡近)到目标人員感興趣的主題,然後依據該主題生成虛假惡意的電子(zǐ)郵件。經內做過AI技術生成的電子(zǐ)郵件,真實性和可信性都得(d生車e)以增強,可以躲避垃圾郵件檢測,更容易誤導目标人員點體市擊或下載。
因此當AI給人們(men)生活帶來便利同時(shí長舞),也帶來了諸多不(bù)确定性。要研發“負責任快海的”人工(gōng)智能應用,自然離不(bù)開(kāi)治文見理以及安全風險的防範。
AI的安全風險
AI解決的實際應用往往是一個優化問題,包含訓練數據和多時目标函數(包括預測函數和損失函數)。以圖像分類報現為(wèi)例,其大(dà)緻流程為(wèi)數據收集內短與标注、建模、訓練和預測。其中AI預測模型是運行在硬件上的智能程序,既面臨傳統的軟/硬件的安全風險,又面臨全新的安全風險。具體放文來看有三點:
AI固有風險:
AI模型是有偏見的,這種偏見體現在訓練數據、預測函數和損失函數上。此外雨姐,訓練數據的采集方法,以及數據集合本身也可能存在着一定的偏見。不吃AI模型的偏見從某種程度上影響了社會(huì)的開風公平和公正,因而存在着一定的安全風險。而且大(dà)多數AI模型是不(bù)可解釋的。AI模型的可解釋性從某種程度上可以對預測結果進行友子佐證,而不(bù)能證明的預測結果存在一定的少那安全風險。
AI對抗風險:
AI算法與訓練數據結合成AI模型,AI模型向客戶提供服務,同時(shí)又包含訓練數據的相關信息,因此成為愛她(wèi)重點網絡攻擊目标。攻擊者一方面數內對數據攻擊,另一方面會(huì)對AI模型攻擊。
AI濫用風險:
當AI被不(bù)法分子(zǐ)濫用時(shí),可以動制給國家(jiā)、社會(huì)、企業和個人帶來安全風險。比如(rú)謝好AI技術的發展使得(de)虛假新聞的制作更加方便、快捷,并且制作的新聞更逼真。虛化物假新聞充斥着互聯網空間,讀者難辨真僞,危害公共安放但全。
AI安全風險的治理
AI安全治理需要從倫理、道德、政策、技術等多方面綜合考慮,因此治理方做校法就需要在對抗能力、可解釋性、公平性和政策引導人開四個方面下功夫。
首先,提高AI系統對抗能力
安全的AI系統應該能夠抵擋來自攻擊者的多種攻擊,這需要從訓練數據采集、模型訓練和模型應舞吃用三個階段進行應對。在訓練數據采集階段,可以過濾掉異又工常數據來對抗投毒攻擊,可以将數據加入噪音來對抗後門攻擊;在模型訓練階段煙國,可以在模型中加入水印來防止模型被竊取;在模型使用階段,可以對輸入數據線日進行預處理來防止後門攻擊,可以對輸入數據進行重構、檢測對抗樣本等方式暗光來抵禦對抗攻擊。
其次,設計可解釋的AI
為(wèi)了提高AI模型的可解釋性,可以從算法的可解釋性、推斷過程的著學可解釋性和推斷結果的可解釋性三個方向入手。具有都舞可解釋性的算法包含線性回歸、決策樹、貝葉斯網絡等,未來需要研發功能更加強習嗎大(dà)的且具有可解釋性的算法。對于不錢黃(bù)具備可解釋性的黑盒模型,例如(rú)神經網絡,研究其推斷過程和推斷廠工結果,在特定場景下給數據賦予語義,從而增強AI模型的可解釋性。
再次,設計公平的AI
AI模型的設計者要避免将自己的認知與偏見引入到AI模型中,要從用戶的角度出發,以用戶的需求作為(wèi)服務目标,設計滿足歌哥用戶個性化需求的AI模型。AI模型的個性化服務不(bù)是一個系統的差異化服務,應該是滿足說空用戶個性化需求的差異化AI模型。此外,訓練數據的收集要公平、公正,這是AI公平性的基礎。
最後,制定政策給AI安全治理指明方向
對抗能力、可解釋性、公平性是AI安全的重要指标,随着AI技術與産業的不(bù)斷發展,AI安全将包含更多的指标。為(wèi)了實現這些指标,不(bù)僅需要科(線購kē)技專家(jiā)進行技術攻關,還需要倫理、道德、法律等人文、社科很就(kē)專家(jiā)參與讨論、制定相關的政策個男,從而給科(kē)技發展指明方向。
伴随着數字化轉型的深入和AI産業的發展,AI的安全風險将日益突出,AI的安全治理将變得(de)更加重要。随着人們(明友men)對AI技術理解的加深,AI安全的評價指标将不(bù)斷變化,AI的安全治理将變得(de)更加困難。AI的安全治理需要人文、社科(kē)、科(kē)技等領域化音專家(jiā)的共同努力,從政策和技術兩方面共同推進AI的持續健康發展。