隨著人工智能技術在產業(yè)中的不斷深化,AI系統(tǒng)已逐步成為企業(yè)關鍵業(yè)務的組成部分。與傳統(tǒng)IT系統(tǒng)不同,AI系統(tǒng)具備“自學習、自決策”的特性,這也意味著它們在運行過程中可能面臨更多非結構化、動態(tài)演變的風險場景。例如:
數據投毒:攻擊者通過惡意干擾訓練數據,誘導模型產生錯誤輸出,影響系統(tǒng)決策。 對抗攻擊:輸入精心設計的對抗樣本可欺騙AI模型,繞過安全檢測或做出錯誤判斷。 模型竊取與反向工程:AI模型作為企業(yè)核心資產,易成為攻擊者試圖復制、反推出模型邏輯的目標。 隱私泄露:模型訓練過程中可能暴露敏感數據,觸發(fā)GDPR等法規(guī)的合規(guī)風險。 系統(tǒng)不可控性:AI系統(tǒng)的不透明性與自適應行為,使傳統(tǒng)安全檢測難以奏效。
這些問題一旦發(fā)生,不僅可能導致企業(yè)數據資產受損、業(yè)務中斷,甚至還會引發(fā)合規(guī)風險。因此,構建具備“可防御、可識別、可響應”能力的AI安全體系,已成為企業(yè)當前與未來不可回避的重要課題。
ETSI TS 104 223標準發(fā)布 為AI系統(tǒng)構建系統(tǒng)性安全框架
為響應日益突出的AI安全需求,歐洲電信標準協(xié)會(ETSI)于2025年4月正式發(fā)布了《Securing Artificial Intelligence (SAI); Baseline Cyber Security Requirements for AI Models and Systems》——ETSI TS 104 223標準。
ETSI TS 104 223標準通過以下方式增強 AI 系統(tǒng)的網絡安全性:
數據治理:確保 AI 系統(tǒng)使用的數據來源可靠,防止數據中毒等攻擊。 模型穩(wěn)健性:增強 AI 模型對抗攻擊的能力,如對抗樣本和模型混淆。 透明性和可解釋性:提高 AI 系統(tǒng)的透明度,使其決策過程更易于理解和審查。 責任分配:明確各方在 AI 系統(tǒng)安全中的責任,確保在出現問題時能夠迅速響應。 持續(xù)評估和測試:定期對 AI 系統(tǒng)進行安全評估和測試,及時發(fā)現并修復潛在漏洞。
作為全球首個聚焦AI系統(tǒng)網絡安全的標準體系,該標準通過三大核心亮點,為企業(yè)提供了清晰的建設路徑:
13項核心安全原則:為AI系統(tǒng)的安全設計與實現提供了頂層指導。 72條可操作性要求:細化了在AI系統(tǒng)生命周期各階段需要滿足的具體安全要求,具有很強的落地指導意義。 安全生命周期管控:將安全考慮融入AI的規(guī)劃、數據處理、模型開發(fā)、部署、運行維護等生命周期的每一個環(huán)節(jié)。
通過這些規(guī)范,標準旨在建立一個可信賴的 AI 安全生態(tài)系統(tǒng),保護最終用戶免受不斷演變的網絡威脅。