技術的健康發(fā)展需要堅持發(fā)展與安全并重,需要法治保駕護航。相信《辦法》的實施能夠在促進技術進步、維護網絡安全等方面起到更加積極的作用。
侯東德
近日,國家網信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)?!掇k法》明確了促進生成式人工智能技術發(fā)展的具體措施,涵蓋技術發(fā)展與治理、服務規(guī)范、監(jiān)督檢查和法律責任等方面,將于今年8月15日實施。
人工智能技術是引領新一輪科技革命和產業(yè)變革的戰(zhàn)略性技術,具有很強的“頭雁”效應。隨著算力爆發(fā)、海量數據資源匯聚,具備文本、圖片、音頻、視頻等內容生成能力的生成式人工智能技術發(fā)展迅速,改變了知識信息的生成方式,并對人類的生產生活產生了重大影響。
然而,技術是把“雙刃劍”,在給人類帶來便利的同時,也引發(fā)了一系列法律風險。比如,生成式人工智能技術在為用戶提供服務時,需要用戶輸入相關信息,若服務提供者非法留存用戶信息或泄露用戶信息,則將侵害用戶個人信息權益。在生成式人工智能的運行過程中,若加工整理的資料未經作者同意許可,則將侵害作者的著作權。生成式人工智能服務提供者如果將涉及商業(yè)秘密的數據用來供人工智能學習,那么用戶在使用時,就可能導致涉及商業(yè)秘密的數據被他人非法獲取和處理,從而造成商業(yè)秘密泄露。
法律是應對風險的有效工具。目前,我國在應對人工智能技術風險方面,已制定實施了網絡安全法、數據安全法、個人信息保護法、《互聯(lián)網信息服務算法推薦管理規(guī)定》《互聯(lián)網信息服務深度合成管理規(guī)定》等法律法規(guī),以及《新一代人工智能倫理規(guī)范》《新一代人工智能治理原則——發(fā)展負責任的人工智能》《人工智能倫理治理標準化指南》等倫理規(guī)則及技術標準。這些構成了人工智能發(fā)展中的風險防范體系,對于治理人工智能可能引發(fā)的相關問題起到了一定作用。
不過,相較于其他人工智能技術來說,生成式人工智能技術大算力、強算法特征更加明顯,也使得其處理的數據量更多、范圍更廣、層次更深,從而更易引發(fā)網絡安全、數據安全、個人信息保護、知識產權等風險,并且風險隱蔽性更高、傳導性更強、損害后果更為嚴重。此外,生成式人工智能技術應用場景的廣泛性也使其存在更多被人為濫用的風險,亟須專門規(guī)定予以特別規(guī)制。
此次,多部門聯(lián)合制定《辦法》,即是積極應對生成式人工智能挑戰(zhàn)的重要舉措。《辦法》基本涵蓋了生成式人工智能服務在應用過程中可能暴露出來的安全及風險問題。如為防范生成式人工智能所引發(fā)的侵害個人信息權益、知識產權、商業(yè)秘密等風險,《辦法》從義務和責任兩方面對生成式人工智能技術提供者和使用者的行為進行了規(guī)定,并明確了生成式人工智能技術提供者違反相關規(guī)定所應承擔的法律責任。
在監(jiān)管方式上,除了安全評估、算法備案、標識等制度外,還提出國家有關主管部門針對生成式人工智能技術特點及其在有關行業(yè)和領域的服務應用,完善與創(chuàng)新發(fā)展相適應的科學監(jiān)管方式,制定相應的分類分級監(jiān)管規(guī)則或者指引。這些都充分體現(xiàn)出《辦法》與生成式人工智能技術特點的高度契合,體現(xiàn)了遵循創(chuàng)新與規(guī)制相結合的原則,既直面生成式人工智能技術發(fā)展中存在的各類問題,又鼓勵創(chuàng)新應用、支持多方協(xié)作等,為生成式人工智能技術的發(fā)展營造創(chuàng)新成長環(huán)境。
技術的健康發(fā)展需要堅持發(fā)展與安全并重,需要法治保駕護航。相信《辦法》的實施能夠在促進技術進步、維護網絡安全等方面起到更加積極的作用。當然,生成式人工智能技術還只是人工智能發(fā)展長河中的一朵小浪花,在追求自主意識、類人化、完全智能的通用人工智能過程中,各種新技術、新情況將層出不窮,面臨的防范風險和維護安全的任務將更加艱巨,人工智能發(fā)展對法治的需求也會越來越高。為此,有關方面要不斷加強對人工智能技術發(fā)展規(guī)律的研究和認識,不斷完善法律規(guī)范、倫理規(guī)則及技術標準三者協(xié)調統(tǒng)一的風險防范體系,促進人工智能在法治軌道上前行,讓技術更好造福社會。
(作者系西南政法大學人工智能法律研究院院長、中國人工智能學會人工智能倫理與治理工作委員會副主任)
編輯:林楠特