您的位置: 首頁 > 科技頻道

1.0版《框架》公開,人工智能安全治理有了指引

出處:北京商報 作者:魏蔚 網(wǎng)編:陶鳳 2024-09-09

 

圖片來源:全國網(wǎng)絡安全標準化技術委員會微信公眾號截圖

人工智能是人類發(fā)展新領域,給世界帶來巨大機遇,也帶來了各類風險挑戰(zhàn)。9月9日,全國網(wǎng)絡安全標準化技術委員會制定的《人工智能安全治理框架》1.0版(以下簡稱《框架》),對外公開發(fā)布。《框架》將人工智能安全風險按內(nèi)生安全和應用安全分類,并給出相應的技術應對措施。圍繞“鼓勵創(chuàng)新,對人工智能研發(fā)及應用采取包容態(tài)度”“快速動態(tài)精準調整治理措施”“明確主體安全責任”“共享最佳實踐”的原則,《框架》推動各方就人工智能安全治理達成共識,促進人工智能安全有序發(fā)展。

《框架》提出,人工智能系統(tǒng)設計、研發(fā)、訓練、測試、部署、使用、維護等生命周期各環(huán)節(jié)都面臨安全風險,既面臨自身技術缺陷、不足帶來的風險,也面臨不當使用、濫用甚至惡意利用帶來的安全風險。

其中人工智能內(nèi)生安全風險包括模型算法安全風險、數(shù)據(jù)安全風險、系統(tǒng)安全風險,人工智能應用安全風險包括網(wǎng)絡域安全風險、現(xiàn)實域安全風險、認知域安全風險和倫理域安全風險。

上述風險中模型算法安全風險的篇幅最長,共細化成六方面:可解釋性差;偏見、歧視;魯棒性弱;被竊取、篡改;輸出不可靠;對坑攻擊。以排在第一位的可解釋性差為例,此風險是指以深度學習為代表的人工智能算法內(nèi)部運行邏輯復雜,推理過程屬黑灰盒模式,可能導致輸出結果難以預測和確切歸因,如有異常難以快速修正和溯源追責。

針對此類風險,《框架》指出要不斷提高人工智能可解釋性、可預測性,為人工智能系統(tǒng)內(nèi)部構造、推理邏輯、技術接口、輸出結果提供明確說明,正確反映人工智能系統(tǒng)產(chǎn)生結果的過程。在設計、研發(fā)、部署、維護過程中建立并實踐安全開發(fā)規(guī)范,盡可能消除模型算法存在的安全缺陷、歧視性傾向,提高魯棒性。

讓大模型給出的結果更精準,是大模型落地到企業(yè)端的基礎,可見治理此類風險對整個行業(yè)的重要性。

在和北京商報記者交流時,楓清科技創(chuàng)始人兼CEO高雪峰表示,大模型在企業(yè)落地時,會遇到一系列問題,主要是因為大模型自身的局限性、黑箱問題以及數(shù)據(jù)或者知識的問題,“由于大模型的復雜性過高,涉及大量參數(shù)和層,使得可解釋性變得更加困難,推理過程不透明,往往是基于大量參數(shù)網(wǎng)絡的序列預測。大模型生成內(nèi)容的邏輯與依據(jù)很難給出相應的解釋,或者是其內(nèi)容生成的概率分布,人們無法理解,即使是專業(yè)研究人員也很難理解模型是如何得出某個結論的,普通用戶更難以理解模型為什么輸出這樣的內(nèi)容”,高雪峰詳細說。

全國網(wǎng)絡安全標準化技術委員會秘書處主要負責人表示,《框架》的發(fā)布,對推動社會各方積極參與、協(xié)同推進人工智能安全治理具有重要促進作用,為培育安全、可靠、公平、透明的人工智能技術研發(fā)和應用生態(tài),促進人工智能的健康發(fā)展和規(guī)范應用,提供了基礎性、框架性技術指南。同時,也有助于在全球范圍推動人工智能安全治理國際合作,推動形成具有廣泛共識的全球人工智能治理體系,確保人工智能技術造福于人類。

北京商報記者 魏蔚

右側廣告
新聞排行

本網(wǎng)站所有內(nèi)容屬北京商報社有限公司,未經(jīng)許可不得轉載。 商報總機:010-64101978 媒體合作:010-64101871

商報地址:北京市朝陽區(qū)和平里西街21號 郵編:100013 法律顧問:北京市中同律師事務所(010-82011988)

網(wǎng)上有害信息舉報  違法和不良信息舉報電話:010-84276691 舉報郵箱:bjsb@bbtnews.com.cn

ICP備案編號:京ICP備08003726號-1  京公網(wǎng)安備11010502045556號  互聯(lián)網(wǎng)新聞信息服務許可證11120220001號