生成式AI安全指導性文件征求意見 明確五類安全風險
據(jù)全國信息安全標準化技術委員會網(wǎng)站消息,日前,全國信息安全標準化技術委員會秘書處發(fā)布《生成式人工智能服務安全基本要求(征求意見稿)》(以下簡稱《基本要求》)。
《基本要求》給出了生成式人工智能服務在安全方面的基本要求,包括語料安全、模型安全、安全措施、安全評估等,適用于面向我國境內(nèi)公眾提供生成式人工智能服務的提供者提高服務安全水平,或是提供者自行或委托第三方開展安全評估,也可為相關主管部門評判生成式人工智能服務的安全水平提供參考。
《基本要求》明確,生成式人工智能服務是基于數(shù)據(jù)、算法、模型、規(guī)則,能夠根據(jù)使用者提示生成文本、圖片、音頻、視頻等內(nèi)容的人工智能服務。
在語料內(nèi)容安全方面,《基本要求》提出了三大內(nèi)容:
一是訓練語料內(nèi)容過濾方面,應采取關鍵詞、分類模型、人工抽檢等方式,充分過濾全部語料中違法不良信息;
二是知識產(chǎn)權方面,應設置語料以及生成內(nèi)容的知識產(chǎn)權負責人,并建立知識產(chǎn)權管理策略。語料用于訓練前,知識產(chǎn)權相關負責人等應對語料中的知識產(chǎn)權侵權情況進行識別,提供者不應使用有侵權問題的語料進行訓練等。
三是個人信息方面,應使用包含個人信息的語料時,獲得對應個人信息主體的授權同意,或滿足其他合法使用該個人信息的條件等。
安全措施要求上,《基本要求》特別提出,服務適用未成年人的,應允許監(jiān)護人設定未成年人防沉迷措施,并通過密碼保護;限制未成年人單日對話次數(shù)與時長,若超過使用次數(shù)或時長需輸入管理密碼;需經(jīng)過監(jiān)護人確認后未成年人方可進行消費;為未成年人過濾少兒不宜內(nèi)容,展示有益身心健康的內(nèi)容。同時,服務不適用未成年人的,應采取技術或管理措施防止未成年人使用。
另外,《基本要求》提及了語料及生成內(nèi)容的主要安全風險,包括違反社會主義核心價值觀、包含歧視性內(nèi)容、商業(yè)違法違規(guī)、侵犯他人合法權益、無法滿足特定服務類型的安全需求等五大類。
編輯:遲明緒