2024年5月30日,新加坡推出了一項具有前瞻性的《新一代人工智能示范治理框架》,旨在為快速發(fā)展的技術提供有效監(jiān)管指導,同時實現創(chuàng)新與安全之間的平衡,為人工智能系統(tǒng)的開發(fā)和部署營造一個值得信賴的生態(tài)系統(tǒng)。
該框架重點圍繞九個領域展開,包括問責制、數據、可信的開發(fā)和部署、事件報告、測試和保證、安全性、內容出處、安全與一致性,以及人工智能的公益性。
問責制:確保整個人工智能開發(fā)鏈的問責制至關重要。該框架強調了在模型開發(fā)者、應用部署者和云服務提供商之間明確責任分配的重要性。該框架與現有的云計算模式相似,主張共同承擔責任,以保護最終用戶并確保整體系統(tǒng)安全。
數據:數據質量和道德使用是人工智能模型開發(fā)的基礎。該框架強調使用可信的數據源,并務實地解決個人數據和版權材料等有爭議的問題。鼓勵政策制定者明確法律應用,以促進負責任地使用數據。
可信的開發(fā)和部署:人工智能模型開發(fā)和部署的透明度和遵守最佳實踐至關重要。該框架呼吁全行業(yè)采取安全措施并披露基本信息,類似于"食品標簽",以便用戶做出知情決定。
事件報告:認識到沒有一個人工智能系統(tǒng)是萬無一失的,該框架倡導建立健全的事故報告結構。這包括及時通知和補救流程,借鑒電信和金融等領域的既定做法。
測試和保證:第三方測試和保證在建立信任方面發(fā)揮著至關重要的作用。該框架提倡采用標準化測試方法和獨立驗證,以確保人工智能性能的一致性和可靠性。
安全性:生成式人工智能帶來了新的安全風險,需要對傳統(tǒng)的信息安全框架進行調整。該框架建議開發(fā)新的安全工具和實踐,以適應人工智能的獨特性。
內容出處:為打擊錯誤信息和其他危害,該框架支持實施數字水印和密碼出處等技術解決方案。這些措施旨在提高人工智能生成內容來源的透明度。
安全與調整研發(fā)(R&D):加快研發(fā)投資對于提高人工智能模型與人類價值觀和意圖的一致性至關重要。該框架鼓勵人工智能安全機構之間開展全球合作,以優(yōu)化資源并有效應對當前和未來的風險。
人工智能公益:除降低風險外,該框架還將人工智能視為造福公眾的工具。這包括實現獲取人工智能技術的民主化、加強公共部門的采用、提高工人技能以及促進人工智能的可持續(xù)發(fā)展。
轉載鏈接:http://www.tbtguide.com/c/mypt/gwxw/570221.jhtml

關注“廣東技術性貿易措施”,獲取更多服務。