□ 關(guān)偉杰
摘要:以ChatGPT為代表的生成式人工智能引發(fā)的虛假信息泛濫,加強(qiáng)網(wǎng)絡(luò)信息內(nèi)容治理成為大勢(shì)所趨,通過(guò)“發(fā)展導(dǎo)向型”立法采取有效可行舉措鼓勵(lì)生成式人工智能創(chuàng)新發(fā)展,加強(qiáng)內(nèi)容審核已成為生成式人工智能信息內(nèi)容平臺(tái)的剛性需求,需要進(jìn)行價(jià)值考量與制度取舍,嵌入人工智能造成歧視、“風(fēng)險(xiǎn)積聚效應(yīng)”造成市場(chǎng)秩序混亂和責(zé)任配置不明晰等現(xiàn)實(shí)問(wèn)題不斷涌現(xiàn)。有鑒于生成式人工智能的類(lèi)通用屬性,實(shí)現(xiàn)促進(jìn)與限制禁止相統(tǒng)一,運(yùn)用“信息規(guī)制”手段,一是引入第三方主體的評(píng)估審核,二是建立網(wǎng)絡(luò)信息分類(lèi)分級(jí)制度,三是創(chuàng)建多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制。
關(guān)鍵詞:生成式人工智能;制度安排;信息治理
一、問(wèn)題的提出
信息革命的迅猛發(fā)展,人工智能的重要性不言而喻。由于算法運(yùn)用、計(jì)算能力和數(shù)據(jù)成本等問(wèn)題,人工智能的不同發(fā)展階段受到不同程度的影響,而隨著上述問(wèn)題的解決,人工智能的研究和應(yīng)用又開(kāi)啟了新階段。2022年底,ChatGPT“橫空出世”,再次讓全球?qū)W者的目光關(guān)注到了生成式人工智能,隨著網(wǎng)絡(luò)空間的虛假信息泛濫、隱私侵權(quán)不斷、數(shù)據(jù)安全形勢(shì)嚴(yán)峻,人工智能的潛在威脅受到關(guān)注,在特殊的時(shí)代背景下,各界要求加強(qiáng)網(wǎng)絡(luò)信息內(nèi)容治理的呼聲也愈加高漲,有學(xué)者提出“通過(guò)頂層設(shè)計(jì)推進(jìn)基礎(chǔ)性人工智能立法”,也有學(xué)者提出了“治理型監(jiān)管范式”。有學(xué)者指出,“生成式人工智能大模型正在成為人類(lèi)信息內(nèi)容生產(chǎn)與傳播的集合體?!币馕吨笳Z(yǔ)言模型在人類(lèi)日常生活中的應(yīng)用潛能不斷增強(qiáng),但由于技術(shù)本身存在的局限性,個(gè)人信息泄露、商業(yè)秘密泄露、數(shù)據(jù)安全風(fēng)險(xiǎn)、算法歧視等應(yīng)用風(fēng)險(xiǎn)也層出不窮,劣質(zhì)信息泛濫和通用性倫理風(fēng)險(xiǎn)帶來(lái)的新問(wèn)題新挑戰(zhàn)急需解決。國(guó)家在努力嘗試打造并健全網(wǎng)絡(luò)綜合治理體系,營(yíng)造清朗的網(wǎng)絡(luò)空間。中華人民共和國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室在2019年通過(guò)了《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,強(qiáng)調(diào)多主體共同參與網(wǎng)絡(luò)信息內(nèi)容的同時(shí),對(duì)算法推薦、深度偽造、流量造假、網(wǎng)絡(luò)暴力等熱點(diǎn)問(wèn)題進(jìn)行回應(yīng),又于2022年修訂了《互聯(lián)網(wǎng)跟帖評(píng)論服務(wù)管理規(guī)定》,對(duì)互聯(lián)網(wǎng)行使言論自由進(jìn)行跟帖和評(píng)論進(jìn)行了一定的規(guī)制,2023年7月公布的《生成式人工智能服務(wù)管理暫行辦法》初衷是預(yù)防和解決技術(shù)風(fēng)險(xiǎn),更多為人工智能技術(shù)治理規(guī)則體系化進(jìn)行制度積累,堅(jiān)持發(fā)展和安全并重,通過(guò)有效可行舉措鼓勵(lì)生成式人工智能創(chuàng)新發(fā)展,充分體現(xiàn)了“發(fā)展導(dǎo)向型”立法趨勢(shì)。
面對(duì)國(guó)家日趨嚴(yán)格的監(jiān)管要求,加強(qiáng)內(nèi)容審核已成為生成式人工智能信息內(nèi)容平臺(tái)的剛性需求。為降低審核成本,提高審核質(zhì)量和審核效率,以中小型平臺(tái)為典型代表的信息內(nèi)容平臺(tái),紛紛選擇內(nèi)容審核外包服務(wù)。隨著內(nèi)容審核需求的日益增長(zhǎng),傳媒企業(yè)和人工智能技術(shù)公司憑借其先進(jìn)的智能內(nèi)容審核技術(shù)和優(yōu)質(zhì)審核資源紛紛進(jìn)入內(nèi)容審核外包服務(wù)行業(yè),作為第三方內(nèi)容審核機(jī)構(gòu)提供內(nèi)容審核服務(wù)。基于“技術(shù)—制度”的內(nèi)在關(guān)聯(lián)性,強(qiáng)調(diào)機(jī)制構(gòu)建對(duì)促進(jìn)人工智能發(fā)展的重要性,圍繞效率與公平、自由與秩序、安全與發(fā)展等重要價(jià)值,以經(jīng)濟(jì)法價(jià)值衡量與引領(lǐng)標(biāo)準(zhǔn),不斷完善生成式人工智能的政策和法律體系,促進(jìn)構(gòu)建審核機(jī)制以?xún)?yōu)化信息治理環(huán)境。為此,本文認(rèn)為,預(yù)訓(xùn)練大模型帶動(dòng)了人工智能技術(shù)的迭代發(fā)展,生成式人工智能的信息內(nèi)容治理是多方聚焦商討之重要話(huà)題,以往制度過(guò)于倚重技術(shù)政策,法律供給明顯不足,以預(yù)訓(xùn)練大模型作為技術(shù)基礎(chǔ),從服務(wù)提供者入手進(jìn)行審核治理無(wú)法直接有效生成式人工智能技術(shù)提供者,原有算法治理框架無(wú)法對(duì)生成式人工智能預(yù)訓(xùn)練大模型海量的訓(xùn)練數(shù)據(jù)和數(shù)以千億的參數(shù)設(shè)置進(jìn)行有效審核,未來(lái)應(yīng)當(dāng)明確人工智能信息內(nèi)容的審核重點(diǎn),盡快建構(gòu)并完善機(jī)制,從而為人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展提供更大空間。
二、生成式人工智能信息內(nèi)容審核的必要性:價(jià)值考量與制度取舍
工業(yè)革命的多次變革推動(dòng)著社會(huì)與經(jīng)濟(jì)發(fā)展,與此同時(shí)帶來(lái)大量的社會(huì)問(wèn)題。有學(xué)者提出“第四次工業(yè)革命”是以人工智能技術(shù)和產(chǎn)業(yè)發(fā)展為核心內(nèi)容,對(duì)諸多領(lǐng)域會(huì)產(chǎn)生影響。人工智能的飛速發(fā)展會(huì)大大提升經(jīng)濟(jì)效率,減少對(duì)資源的消耗,與此同時(shí),對(duì)網(wǎng)絡(luò)信息內(nèi)容治理的安全性、公平性和秩序性產(chǎn)生負(fù)面影響,現(xiàn)行網(wǎng)絡(luò)信息內(nèi)容治理模式不足以解決網(wǎng)絡(luò)虛擬空間的表達(dá)失序的現(xiàn)實(shí)問(wèn)題。只有妥善把握其帶來(lái)的變革和價(jià)值沖突,并在制度安排上作出有效取舍,才能通過(guò)“適度”的法律規(guī)制,促進(jìn)網(wǎng)絡(luò)空間的健康發(fā)展。
其實(shí),網(wǎng)絡(luò)信息內(nèi)容治理需要制度規(guī)制,與國(guó)家對(duì)效率、公平、自由、安全、秩序等重要價(jià)值的考量直接相關(guān)。效率價(jià)值是經(jīng)濟(jì)法規(guī)制必須關(guān)注的,由于經(jīng)濟(jì)法是直擊個(gè)體利益與社會(huì)公益之間的矛盾,延伸至效率與公平之間的矛盾,因而效率價(jià)值被關(guān)注是應(yīng)有之義?;诮?jīng)濟(jì)法自身的特殊性,信息治理不能只考量效率價(jià)值,還要衡量公平價(jià)值,人類(lèi)智能與人工智能、自然人與機(jī)器人的“差異性”影響秩序價(jià)值,導(dǎo)致網(wǎng)絡(luò)空間秩序混亂等問(wèn)題。例如,在人工智能大語(yǔ)言模型生成內(nèi)容之時(shí),個(gè)人信息被廣泛收集,用戶(hù)提問(wèn)時(shí),敏感個(gè)人信息暴露的可能性極大。但根據(jù)OpenAI的說(shuō)明,用戶(hù)只能刪除個(gè)人賬戶(hù),無(wú)法刪除敏感個(gè)人信息。3月20日,ChatGPT的開(kāi)源庫(kù)曾出現(xiàn)漏洞,使部分用戶(hù)能看到其他用戶(hù)的對(duì)話(huà)內(nèi)容、姓名、電子郵件地址甚至支付信息。OpenAI不得不在官網(wǎng)提示:“請(qǐng)不要在談話(huà)中分享任何敏感信息?!庇绕湫枰谌街黧w審核網(wǎng)絡(luò)信息內(nèi)容。
傳統(tǒng)的自由至上主義者極力主張“最小政府”和“個(gè)人利益”的嚴(yán)格保障,此觀點(diǎn)表明我們可以在尊重他人同等權(quán)利的條件下,利用身邊的事物行使自己的權(quán)利,但現(xiàn)實(shí)若按照這個(gè)邏輯,“公地悲劇”極易被引發(fā)。功利主義者為維護(hù)公共利益成為網(wǎng)絡(luò)空間內(nèi)容治理目標(biāo)提供理論依據(jù),邊沁認(rèn)為,“道德的最高原則就是使幸福最大化,使快樂(lè)總體上超過(guò)痛苦。如果當(dāng)事人是一個(gè)社會(huì),那么功利原理就是關(guān)注社會(huì)的幸福,而政府的職責(zé)就是通過(guò)避苦求樂(lè)來(lái)增進(jìn)社會(huì)的幸福,并以最大多數(shù)的最大幸福為判斷是非的標(biāo)準(zhǔn)。”整體而言,功利主義的觀點(diǎn)有利于限定網(wǎng)絡(luò)空間表達(dá)權(quán)的邊界,但這類(lèi)目的性思維模式對(duì)于人性本身的“內(nèi)在自由”,亦或是“免除他人強(qiáng)制”能否給予合理解釋還未可知,因此個(gè)人利益和公共利益之間的沖突在網(wǎng)絡(luò)空間里面顯得尤為突出。
此外,人工智能可能引發(fā)“安全”等多種問(wèn)題,規(guī)制之時(shí)要特別關(guān)注安全價(jià)值,例如,生成式人工智能對(duì)網(wǎng)絡(luò)信息內(nèi)容之“用益”,可能會(huì)形成針對(duì)特定個(gè)體的虛假圖片、文本、音視頻信息等使某人“實(shí)施”實(shí)際生活當(dāng)中沒(méi)有實(shí)施的行為,對(duì)自然人的名譽(yù)權(quán)保護(hù)帶來(lái)極大的挑戰(zhàn)。伴隨著越來(lái)越多的產(chǎn)業(yè)接入人工智能生成式語(yǔ)言模式,信息泄露的風(fēng)險(xiǎn)日益突出,給企業(yè)、行業(yè)帶來(lái)巨大的經(jīng)濟(jì)和聲譽(yù)損失?!凹词故瞧涡曰蛄闼榈男畔?,人工智能也可能將其與其他數(shù)據(jù)結(jié)合在一起進(jìn)行挖掘分析,從而推斷出關(guān)系國(guó)家安全、公共安全、個(gè)人和組織合法權(quán)益的情報(bào)信息?!鄙踔劣袑W(xué)者提出,通過(guò)利用生成式人工智能創(chuàng)建多態(tài)惡意軟件,繞過(guò)OpenAI建立的內(nèi)容策略過(guò)濾器,創(chuàng)建惡意代碼,由此犯罪分子發(fā)現(xiàn)專(zhuān)業(yè)知識(shí)門(mén)檻降低、用戶(hù)目的模糊等產(chǎn)業(yè)漏洞,利用人工智能進(jìn)行網(wǎng)絡(luò)犯罪。
另外,基于人工智能對(duì)網(wǎng)絡(luò)空間秩序的影響,第三方主體對(duì)于秩序價(jià)值應(yīng)當(dāng)予以專(zhuān)門(mén)性規(guī)制,如前所述,效率與秩序價(jià)值是互為彼此,密不可分的,目前我國(guó)網(wǎng)絡(luò)信息內(nèi)容治理采用的是“政府—平臺(tái)—用戶(hù)”基本治理架構(gòu),平臺(tái)會(huì)利用人工智能通過(guò)算法對(duì)海量信息進(jìn)行處理,其中算法無(wú)法對(duì)信息內(nèi)容的真實(shí)性進(jìn)行核實(shí),加之算法固有的社會(huì)偏見(jiàn)和價(jià)值判斷,看似準(zhǔn)確本質(zhì)錯(cuò)誤的“毒性”內(nèi)容易生成,長(zhǎng)此以往進(jìn)行傳播將對(duì)產(chǎn)業(yè)興衰、人員流動(dòng)、市場(chǎng)調(diào)整會(huì)有極大影響,應(yīng)對(duì)失當(dāng),就可能危及經(jīng)濟(jì)秩序,甚至引發(fā)社會(huì)動(dòng)蕩。
可見(jiàn),在人工智能產(chǎn)業(yè)不斷創(chuàng)新發(fā)展的背景下,需要考慮人工智能對(duì)技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展對(duì)網(wǎng)絡(luò)信息內(nèi)容的影響,并基于相關(guān)價(jià)值考量予以。制度回應(yīng),其中兼具其他各類(lèi)價(jià)值基礎(chǔ)上作出的經(jīng)濟(jì)法基礎(chǔ)制度顯得尤為重要。如美國(guó)曾推出《國(guó)家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》以支持人工智能產(chǎn)業(yè)的發(fā)展。這些產(chǎn)業(yè)發(fā)展規(guī)劃或計(jì)劃,涉及產(chǎn)業(yè)法或計(jì)劃法上的安排,包含支持人工智能產(chǎn)業(yè)發(fā)展的多種經(jīng)濟(jì)法手段,集中體現(xiàn)了經(jīng)濟(jì)法作為“發(fā)展促進(jìn)法”的功能。
自2015年國(guó)務(wù)院出臺(tái)的《關(guān)于積極推動(dòng)“互聯(lián)網(wǎng)+”行動(dòng)的指導(dǎo)意見(jiàn)》首次提出“培育發(fā)展人工智能產(chǎn)業(yè)”以來(lái),2016年通過(guò)的《“十三五”規(guī)劃綱要》和《“十三五”國(guó)家科技創(chuàng)新規(guī)劃》就先后強(qiáng)調(diào)要“發(fā)展人工智能產(chǎn)業(yè)”,2017年國(guó)務(wù)院不僅首次將人工智能寫(xiě)入政府工作報(bào)告,還正式公布了《新一代人工智能發(fā)展規(guī)劃》。截至2024年4月26日,根據(jù)十四屆全國(guó)人大常委會(huì)第九次會(huì)議公布的“現(xiàn)行有效法律目錄”,按法律部門(mén)分類(lèi),個(gè)人信息保護(hù)法、數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法、電子商務(wù)法都屬于經(jīng)濟(jì)法部門(mén),立法目的是基于“經(jīng)濟(jì)規(guī)制”與“信息規(guī)制”的協(xié)調(diào)一致性,以解決數(shù)據(jù)信息治理問(wèn)題。早在2001年我國(guó)確立七大部門(mén)法之前,學(xué)界已提出信息法可以成為一個(gè)獨(dú)立部門(mén)法。有學(xué)者提出,伴隨我國(guó)信息立法大量出臺(tái),基于業(yè)已形成的信息法治體系和相關(guān)部門(mén)法理論,完全可以將信息法確立為一個(gè)獨(dú)立部門(mén)法。
如前所述,經(jīng)濟(jì)社會(huì)的信息化是國(guó)家現(xiàn)代化的重要組成部分,基于“經(jīng)濟(jì)規(guī)制”與“信息規(guī)制”之間的差異性,需要進(jìn)一步關(guān)注信息保護(hù)促進(jìn)與限制禁止相統(tǒng)一之“規(guī)制性”特點(diǎn)。
產(chǎn)業(yè)的轉(zhuǎn)業(yè)升級(jí)促進(jìn)網(wǎng)絡(luò)化、數(shù)字化、智能化,經(jīng)濟(jì)社會(huì)的高質(zhì)量發(fā)展將直接推動(dòng)現(xiàn)代化經(jīng)濟(jì)體系的構(gòu)建和國(guó)家整體現(xiàn)代化目標(biāo)的實(shí)現(xiàn),在生成式人工智能的發(fā)展前景中,以ChatGPT為代表的人工智能技術(shù)產(chǎn)生了不少新型社會(huì)治理風(fēng)險(xiǎn),新型科技發(fā)展當(dāng)中的利弊得失理應(yīng)得到權(quán)衡,一方面,人工智能生成內(nèi)容(AI-Generated Content,AIGC)作為互聯(lián)網(wǎng)時(shí)代下的新型創(chuàng)作模式,將全面驅(qū)動(dòng)內(nèi)容生產(chǎn)方式的變革,“平臺(tái)”模式下的科研范式可以承載海量計(jì)算,在認(rèn)知層面的人機(jī)對(duì)齊操作逐漸成為必然,為促進(jìn)產(chǎn)業(yè)賦能提升垂直行業(yè)應(yīng)用效率;另一方面,對(duì)其引發(fā)的數(shù)據(jù)濫用和數(shù)據(jù)泄露等各類(lèi)風(fēng)險(xiǎn)或問(wèn)題,通過(guò)不斷完善技術(shù)和制度,避免“技術(shù)規(guī)制法”的邏輯錯(cuò)誤,化解技術(shù)風(fēng)險(xiǎn)、經(jīng)濟(jì)風(fēng)險(xiǎn)、社會(huì)風(fēng)險(xiǎn)和法律風(fēng)險(xiǎn),構(gòu)建兼具保障相關(guān)主體的數(shù)據(jù)安全和數(shù)據(jù)權(quán)益,更兼顧安全與發(fā)展價(jià)值,促進(jìn)數(shù)據(jù)要素的有效配置和數(shù)據(jù)資源的開(kāi)發(fā)利用的好制度。
基于前述分析,可以對(duì)生成式人工智能信息內(nèi)容審核機(jī)制構(gòu)建進(jìn)行適當(dāng)取舍:一方面,對(duì)于生成式人工智能帶給網(wǎng)絡(luò)信息內(nèi)容的積極效應(yīng),應(yīng)當(dāng)鼓勵(lì)與促進(jìn),基于來(lái)自市場(chǎng)的有效信息,發(fā)現(xiàn)技術(shù)運(yùn)行中存在的諸多問(wèn)題,提升治理的精準(zhǔn)度和規(guī)制的針對(duì)性,從而更好地處理政府與平臺(tái)、平臺(tái)與用戶(hù)的關(guān)系;另一方面,基于網(wǎng)絡(luò)信息內(nèi)容安全風(fēng)險(xiǎn)的復(fù)雜性、對(duì)抗性和隱蔽性不斷加強(qiáng)和現(xiàn)行治理需求不斷提高之內(nèi)生張力擴(kuò)充的背景下,審核機(jī)制構(gòu)建是一種全新的社會(huì)制度,時(shí)刻關(guān)注和強(qiáng)調(diào)以“內(nèi)容聚集樣貌”為中心的網(wǎng)絡(luò)信息內(nèi)容生態(tài)安全才是未來(lái)治理之重點(diǎn)。
三、生成式人工智能信息內(nèi)容審核機(jī)制構(gòu)建的現(xiàn)實(shí)困境
技術(shù)創(chuàng)新是國(guó)家興盛之根本,堅(jiān)持法治、科學(xué)監(jiān)管是國(guó)家興盛的制度保障,20世紀(jì)后半期以來(lái),“管理型”立法與“治理型”立法的分野日益明確?;诰W(wǎng)絡(luò)治理信息內(nèi)容治理的政府規(guī)制和平臺(tái)規(guī)制等傳統(tǒng)視角研究,創(chuàng)新性提出吸納外部社會(huì)力量等主體參與治理,實(shí)踐當(dāng)中也已出現(xiàn)信息內(nèi)容安全風(fēng)險(xiǎn)審核評(píng)估業(yè)務(wù)外包給專(zhuān)業(yè)內(nèi)容風(fēng)控機(jī)構(gòu)等新趨勢(shì),但目前人工智能依舊屬于產(chǎn)業(yè)發(fā)展初期,傳統(tǒng)的法律體系是否適應(yīng)以待考察,加之可參考之域外成熟經(jīng)驗(yàn)不足,網(wǎng)絡(luò)空間信息內(nèi)容審核機(jī)制之實(shí)踐適用困境需要厘清,以探尋立足于兼顧促進(jìn)產(chǎn)業(yè)健康發(fā)展和防范未來(lái)風(fēng)險(xiǎn)的雙重目標(biāo)之下的完善路徑。
(一)嵌入人工智能造成歧視
生成式人工智能的業(yè)態(tài)可以分成三個(gè)層次,以基礎(chǔ)模型為核心技術(shù)支持,企業(yè)通過(guò)平臺(tái)進(jìn)行深度學(xué)習(xí)進(jìn)行垂直細(xì)分領(lǐng)域形成個(gè)性化定制,從而進(jìn)入專(zhuān)業(yè)模型層,最終服務(wù)應(yīng)用于搜索引擎、智能生成答案直接與用戶(hù)對(duì)接。近年來(lái),人工智能對(duì)信息進(jìn)行歧視和偏見(jiàn)之于社會(huì)經(jīng)濟(jì)秩序的影響愈加明顯,加之在國(guó)家治理變遷和互聯(lián)網(wǎng)技術(shù)賦權(quán)背景下形成的新型平臺(tái)權(quán)力逐漸加擴(kuò)張,相關(guān)信息內(nèi)容審核與規(guī)制機(jī)制建構(gòu)迫在眉睫。
基于法律法規(guī)政策對(duì)平臺(tái)權(quán)力進(jìn)行粗糙式賦權(quán)現(xiàn)狀,目前平臺(tái)權(quán)力定性和法律地位尚不明晰,網(wǎng)絡(luò)平臺(tái)對(duì)信息內(nèi)容的判定和處置標(biāo)準(zhǔn)上具有較強(qiáng)的主觀性,在自我規(guī)制時(shí)的自由裁量空間相對(duì)較大,網(wǎng)絡(luò)平臺(tái)審核信息的權(quán)力實(shí)施邊界或限度問(wèn)題的關(guān)注較為不足。例如網(wǎng)絡(luò)安全法第四十七條之規(guī)定不僅體現(xiàn)了法律賦權(quán)的特點(diǎn),而且深層次反映了法律對(duì)網(wǎng)絡(luò)平臺(tái)“加強(qiáng)管理”的要求,網(wǎng)絡(luò)平臺(tái)的權(quán)力擴(kuò)張具有一定的“法定化”色彩。
國(guó)務(wù)院《新一代人工智能發(fā)展規(guī)劃》以及國(guó)家網(wǎng)信辦、國(guó)家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部與廣電總局《生成式人工智能服務(wù)管理暫行辦法》、全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)《生成式人工智能服務(wù)安全基本要求》等政策文件正在積極治理人工智能對(duì)信息的歧視問(wèn)題。
生成式人工智能歧視的動(dòng)力源泉主要來(lái)自于兩方面,一方面是無(wú)意識(shí)狀態(tài)下的內(nèi)隱偏見(jiàn)歧視,另一方面是基于結(jié)構(gòu)不平等造就的系統(tǒng)性歧視。首先,社會(huì)生活存在兩種通道表達(dá),一種是直覺(jué)的啟發(fā)式通道,另一種是理性的分析式通道,前者并行處理且反應(yīng)加工速度較快,心理資源利用不足,反應(yīng)自動(dòng)化,通常只能意識(shí)到其加工結(jié)果,加工過(guò)程往往被忽視;后者串行加工,加工速度慢,大量利用心理資源,圍繞規(guī)則進(jìn)行可以意識(shí)加工過(guò)程和結(jié)果。經(jīng)由分析系統(tǒng)表達(dá)的外顯偏見(jiàn)和經(jīng)由啟發(fā)式系統(tǒng)表達(dá)的內(nèi)隱偏見(jiàn),展現(xiàn)了偏見(jiàn)的表達(dá)通道,外顯偏見(jiàn)可以通過(guò)法律責(zé)任加以規(guī)制,內(nèi)隱偏見(jiàn)則不然,往往是人類(lèi)無(wú)意識(shí)下參與有意識(shí)社會(huì)信息加工處理活動(dòng),生成式人工智能系統(tǒng)的技術(shù)支持者之內(nèi)隱偏見(jiàn)對(duì)信息機(jī)制危害尤甚,事實(shí)一旦啟發(fā)式系統(tǒng)與分析系統(tǒng)作用方向不同,往往啟發(fā)式系統(tǒng)會(huì)獲勝,表達(dá)順序更加占據(jù)主導(dǎo)地位;其次,權(quán)力關(guān)系和資源配置情況決定了歧視的影響力。分配格局重塑了社會(huì)權(quán)力劃分,同時(shí)歧視與制度的結(jié)合實(shí)現(xiàn)了系統(tǒng)化歧視的質(zhì)變,個(gè)人信息具備較強(qiáng)的識(shí)別性,數(shù)據(jù)的匿名化極難真正實(shí)現(xiàn),生成式人工智能背后蘊(yùn)藏著日益增長(zhǎng)的算力,獲取個(gè)人信息的成本不斷下降,顯著提升歧視發(fā)生的可能性。此外,“人工智能的目標(biāo)需求需要被轉(zhuǎn)譯為具備相關(guān)性的特征,但模型性能與特征數(shù)量之間并無(wú)線性關(guān)系?!钡卣鬟x擇既可以由算法完成,也可以由人類(lèi)積累的經(jīng)驗(yàn)法則,此時(shí)需要回歸歧視的本質(zhì)問(wèn)題去考量。
(二)“風(fēng)險(xiǎn)積聚效應(yīng)”造成市場(chǎng)秩序混亂
人工智能產(chǎn)業(yè)易形成“風(fēng)險(xiǎn)積聚效應(yīng)”,有學(xué)者提出,人工智能之潛在風(fēng)險(xiǎn)廣泛且積聚,涉及人類(lèi)基本權(quán)益的生命與健康、尊嚴(yán)與隱私、安全與自由,不確定性極強(qiáng),系統(tǒng)性風(fēng)險(xiǎn)不容忽視。經(jīng)濟(jì)法的信息規(guī)制和內(nèi)容審核機(jī)制明顯難以應(yīng)對(duì)以ChatGPT為代表的生成式人工智能在模型參數(shù)、模型輸入和模型輸出方面展現(xiàn)出大模型、多模態(tài)和涌現(xiàn)性等多方面全方位的挑戰(zhàn),信息用益行為失控,風(fēng)險(xiǎn)管理明顯不足,運(yùn)用相同思路必然難以解決傳統(tǒng)和新興信息問(wèn)題,監(jiān)管的滯后性和信息審核的實(shí)效性難以適配當(dāng)下的管理需求。
2018年OpenAI推出首代預(yù)訓(xùn)練模型(Generative Pretrained Transformer, GPT)作為知識(shí)表示及存儲(chǔ)基礎(chǔ),技術(shù)特性包含超大規(guī)模參數(shù),基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練而形成的深度學(xué)習(xí)模型。GPT-1的參數(shù)量為1.17億,GPT-2的參數(shù)量為15億,GPT-3包含了1750億超大規(guī)模參數(shù),而GPT-4的參數(shù)量雖未披露,但多項(xiàng)預(yù)測(cè)顯示將達(dá)100萬(wàn)億。2019年公布的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》(以下簡(jiǎn)稱(chēng)《規(guī)定》)第十二條要求建立體現(xiàn)主流價(jià)值導(dǎo)向的推薦模型,建立健全人工干預(yù)機(jī)制,建立用戶(hù)自主選擇機(jī)制,進(jìn)一步回應(yīng)了算法推薦的相關(guān)問(wèn)題,明確了算法推薦與人工編輯相結(jié)合的信息分發(fā)方式?!吧疃葌卧欤―eepfake)作為深度學(xué)習(xí)(deep learning)和偽造(fake)組合而成的新生事物,是隨著生成對(duì)抗網(wǎng)絡(luò)(GAN)等深度學(xué)習(xí)技術(shù)的發(fā)展而出現(xiàn)的?!鄙疃葌卧鞛榫W(wǎng)絡(luò)平臺(tái)治理帶來(lái)極大挑戰(zhàn),虛假信息的發(fā)布將擾亂市場(chǎng)秩序,為此《規(guī)定》第二十三條為“深度偽造”技術(shù)劃定了應(yīng)用邊界,為行業(yè)應(yīng)用場(chǎng)景健康發(fā)展探索帶來(lái)更多可能性。2022年開(kāi)始施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》證明了我國(guó)人工智能治理進(jìn)入到系統(tǒng)化層面,尤其是算法可解釋性具有特殊要求??萍嫉娘w速迭代導(dǎo)致模型的參數(shù)量爆炸增長(zhǎng),可能導(dǎo)致算法可解釋性的降低,意味著算法透明之義務(wù)履行存在較大困難。同年頒布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,意在強(qiáng)調(diào)通過(guò)技術(shù)手段對(duì)深度合成算法進(jìn)行管理,對(duì)產(chǎn)業(yè)現(xiàn)狀提出責(zé)任區(qū)隔的分層治理模式,仍無(wú)法有效應(yīng)對(duì)大模型的治理挑戰(zhàn)。有報(bào)告曾指出,ChatGPT依托的Transformer是深度學(xué)習(xí)模型,其在前饋神經(jīng)網(wǎng)絡(luò)中引入自注意力機(jī)制(self-attentionmechanism),是經(jīng)典的黑箱算法,技術(shù)層面存在對(duì)黑箱算法解釋的局限性,局部補(bǔ)充解釋工具無(wú)法真正作為替代性解釋方法,可信度一直存在爭(zhēng)議?;谏墒饺斯ぶ悄茉诘讓蛹夹g(shù)架構(gòu)的復(fù)雜度無(wú)法與模型解釋性需求相匹配,致使其在風(fēng)險(xiǎn)集中領(lǐng)域部署時(shí)會(huì)帶來(lái)嚴(yán)重的安全威脅,在風(fēng)險(xiǎn)相對(duì)分散的場(chǎng)景運(yùn)行過(guò)程中也可能面臨模型驗(yàn)證困難和模型診斷缺陷等治理風(fēng)險(xiǎn),對(duì)消費(fèi)者數(shù)據(jù)權(quán)利的侵犯是人工智能產(chǎn)業(yè)和消費(fèi)者需要亟待解決的重要問(wèn)題,在多方主體進(jìn)行信息審核之時(shí)既要保障經(jīng)營(yíng)者對(duì)信息獲取的合法權(quán)利,也要時(shí)刻關(guān)注不得侵害對(duì)消費(fèi)者信息權(quán)利之義務(wù)履行效果,以算法透明為內(nèi)核構(gòu)建而成的算法治理體系即將發(fā)生革命性變化之同時(shí),未來(lái)之人工智能信息內(nèi)容的審核機(jī)制應(yīng)當(dāng)對(duì)人工智能的“風(fēng)險(xiǎn)積聚效應(yīng)”作出制度回應(yīng)。
(三)責(zé)任配置不明晰
伴隨著平臺(tái)經(jīng)濟(jì)興起建立的網(wǎng)絡(luò)框架,平臺(tái)一直以來(lái)是作為網(wǎng)絡(luò)空間的核心規(guī)制對(duì)象,2021年《互聯(lián)網(wǎng)平臺(tái)落實(shí)主體責(zé)任指南(征求意見(jiàn)稿)》明確平臺(tái)企業(yè)落實(shí)算法主體責(zé)任,責(zé)任配置問(wèn)題逐漸成為數(shù)字經(jīng)濟(jì)治理的又一核心議題。有學(xué)者提出我國(guó)目前的監(jiān)管體系是以服務(wù)提供者為核心抓手,按照“技術(shù)支持者—服務(wù)提供者—內(nèi)容生產(chǎn)者”三類(lèi)主體分別設(shè)置法律責(zé)任的規(guī)制體系。人工智能已經(jīng)從計(jì)算智能、感知智能過(guò)渡到認(rèn)知智能階段。生成式人工智能分層業(yè)態(tài)突破明顯,區(qū)分于原有的法律主體界分,基于前述“基礎(chǔ)模型—專(zhuān)業(yè)模型—服務(wù)應(yīng)用”的三個(gè)層次劃分,技術(shù)變遷突破了法律的底層設(shè)定。生成式人工智能的底層通用能力直接打破了網(wǎng)絡(luò)服務(wù)提供者和信息內(nèi)容生產(chǎn)者二者互相獨(dú)立的局面,將技術(shù)支持者與前兩者相互融合,三者功能的融為一體意味著大模型既可以為企業(yè)進(jìn)行技術(shù)服務(wù),又可以通過(guò)智慧問(wèn)答獲取內(nèi)容生成,法律定位和責(zé)任劃分逐漸趨于模糊。
根據(jù)目前的立法和司法實(shí)踐,平臺(tái)已經(jīng)需要承擔(dān)公權(quán)力機(jī)關(guān)(如法院、政府)讓渡的網(wǎng)絡(luò)信息內(nèi)容進(jìn)行審核做出法律判斷的責(zé)任。如若平臺(tái)強(qiáng)化審核力度,將存在權(quán)力擴(kuò)張和濫用之嫌疑,但平臺(tái)疏于相關(guān)信息審核,怠于履行法律義務(wù)將承擔(dān)相應(yīng)的法律責(zé)任,但生成式人工智能的復(fù)雜性之處在于背后算法的分散化、多元化、場(chǎng)景化特性。其一,與傳統(tǒng)型人工智能不同,在生成式人工智能的設(shè)計(jì)和運(yùn)行環(huán)節(jié),“算法主體責(zé)任”相關(guān)主體并不明晰,難以厘定承擔(dān)主體的認(rèn)定邊界,大模型風(fēng)險(xiǎn)來(lái)源多源化可能存在于研發(fā)者,還可能存在于部署者甚至終端用戶(hù),即便位于產(chǎn)業(yè)鏈前端的研發(fā)者可以控制基礎(chǔ)設(shè)施和對(duì)模型進(jìn)行訓(xùn)練、修改和測(cè)試,但是被控制的大模型作為下游生態(tài)環(huán)境的重要組成部分,部署者直接面對(duì)信息的接受者即終端用戶(hù),存在讓大模型變成高風(fēng)險(xiǎn)的極大隱患,終端用戶(hù)與模型互動(dòng)的過(guò)程中提供的數(shù)據(jù)和信息可能會(huì)間接影響,甚至“黑化”大模型;其二,生成式人工智能出現(xiàn)類(lèi)人化特性愈加明顯,主體優(yōu)勢(shì)愈發(fā)明晰,平臺(tái)作為信息審核主體承擔(dān)安全責(zé)任,能否通過(guò)技術(shù)對(duì)算法進(jìn)行安全審查符合法律規(guī)定之義務(wù)。伴隨算法趨向于主體屬性,生成式人工智能具備心智理論(theory of mind)能力已經(jīng)不足為奇,按照人類(lèi)的意圖、信念和情緒進(jìn)行推斷生成內(nèi)容。如前者所述,人類(lèi)現(xiàn)在所處的社會(huì)已經(jīng)處于人工智能的認(rèn)知智能階段,ChatGPT以數(shù)據(jù)理解、信息認(rèn)知和決策判斷為核心能力,多種模態(tài)共生于載體之中,迅速逼近強(qiáng)人工智能,未來(lái)的挑戰(zhàn)在于能否通過(guò)穿透算法本身要求開(kāi)發(fā)者承擔(dān)法律責(zé)任,審核方的責(zé)任如何適配和建構(gòu)都是一大難題。
一直以來(lái),在審核機(jī)制的建構(gòu)上,審核方的主管過(guò)錯(cuò)是探討責(zé)任的主要焦點(diǎn),首先,從安全利益的角度考量,世界各國(guó)包括我國(guó)在內(nèi)的國(guó)家安全利益的信息內(nèi)容一定是審核方進(jìn)行信息審核的重中之重,應(yīng)當(dāng)進(jìn)行強(qiáng)審核和過(guò)濾級(jí)別;其次,在信息生成過(guò)程中,生成式人工智能應(yīng)當(dāng)是信息的直接制造者與發(fā)布者,仍要考慮的是“設(shè)計(jì)階段的數(shù)據(jù)預(yù)處理、部署階段的數(shù)據(jù)提示與應(yīng)用階段的用戶(hù)行為等影響”,責(zé)任主體難以分清;最后,生成式人工智能的技術(shù)與應(yīng)用不斷發(fā)展與擴(kuò)張,平臺(tái)與場(chǎng)景的單一化,傳統(tǒng)的“告知—?jiǎng)h除”等注意義務(wù)無(wú)法解決侵權(quán)情形之多樣化特征。
四、探尋生成式人工智能信息內(nèi)容審核機(jī)制的完善之道
在經(jīng)濟(jì)法和信息法共同發(fā)展的大背景下,信息法更加關(guān)注保護(hù)促進(jìn)與限制禁止相統(tǒng)一,運(yùn)用的是“信息規(guī)制”手段。隨著數(shù)字經(jīng)濟(jì)的飛速發(fā)展,國(guó)家在既往的經(jīng)濟(jì)規(guī)制基礎(chǔ)上,還要加強(qiáng)信息規(guī)制,實(shí)施有效的信息監(jiān)管??苫凇靶畔徍酥黧w—信息內(nèi)容類(lèi)型—信息監(jiān)管體制”的內(nèi)在聯(lián)系,著重從發(fā)展法學(xué)的視角,解析生成式人工智能信息內(nèi)容審核機(jī)制的完善之道以及貫穿其中的信息法治邏輯。
(一)引入第三方主體的評(píng)估審核
平臺(tái)參與信息內(nèi)容治理的內(nèi)生動(dòng)機(jī)是保障平臺(tái)的合法性地位及其流量利益, 關(guān)注的是用戶(hù)數(shù)量及內(nèi)容流量所帶來(lái)的市場(chǎng)地位與價(jià)值,強(qiáng)調(diào)通過(guò)流量增大而產(chǎn) 生更多的直接與間接經(jīng)濟(jì)利益,其目標(biāo)是保證平臺(tái)安全以及平臺(tái)成本減少與利益 最大化。
因動(dòng)機(jī)與目標(biāo)上的耦合,在多數(shù)情況下平臺(tái)與用戶(hù)可以被看作是利益共同體。因此,在政府和平臺(tái)與用戶(hù)組成的利益共同體之外,尋找或建立一個(gè)身份更加獨(dú)立、利益更加超脫、能力更加專(zhuān)業(yè)的第三方主體參與網(wǎng)絡(luò)信息內(nèi)容治理就有重要意義。此前,借鑒艾博特(Abbott)與辛德?tīng)枺⊿nidal)提出的企業(yè)、政府與非政府組織(也包括個(gè)人)“治理三角”模型,在“政府—平臺(tái)—用戶(hù)”結(jié)構(gòu)基礎(chǔ)上通過(guò)改進(jìn)并形成“政府—平臺(tái)—第三方專(zhuān)業(yè)機(jī)構(gòu)”的網(wǎng)絡(luò)信息內(nèi)容治理三角模型。在政府和平臺(tái)與用戶(hù)利益共同體之外,將具有一定結(jié)構(gòu)化組織形式,并具備獨(dú)立開(kāi)展網(wǎng)絡(luò)信息內(nèi)容治理活動(dòng)資質(zhì)的專(zhuān)業(yè)機(jī)構(gòu)看作是第三方主體。這個(gè) 第三方主體參與治理的功能不僅是對(duì)不良或違規(guī)信息內(nèi)容的審查,而且包括對(duì)平 臺(tái)和網(wǎng)絡(luò)整體信息內(nèi)容生態(tài)狀況評(píng)估等,以有效推動(dòng)網(wǎng)絡(luò)信息內(nèi)容生態(tài)從被動(dòng)式、運(yùn)動(dòng)式治理向主動(dòng)建構(gòu)、常態(tài)化治理的轉(zhuǎn)型。
強(qiáng)化第三方主體的審核評(píng)估功能,一方面是使其能部分代替政府行使規(guī)制行政權(quán)力,以確保網(wǎng)絡(luò)平臺(tái)對(duì)信息內(nèi)容生態(tài)安全規(guī)制的遵從;另一方面這也是平臺(tái)出于控制規(guī)制成本和減少安全風(fēng)險(xiǎn)可能引發(fā)利益受損的內(nèi)在需求。這表明,選擇 第三方主體參與信息內(nèi)容治理是政府和平臺(tái)的一種雙向奔赴行為。由于政府和平 臺(tái)對(duì)信息內(nèi)容安全及其風(fēng)險(xiǎn)的評(píng)價(jià)標(biāo)準(zhǔn)與理解水平存在差異,這就使第三方主體 如何科學(xué)平衡兩者的利益十分困難。第三方主體如何客觀中立地進(jìn)行信息內(nèi)容安 全審核評(píng)估,不僅會(huì)影響政府對(duì)其資質(zhì)的認(rèn)定,而且會(huì)影響平臺(tái)對(duì)它的選擇以及 因此產(chǎn)生的市場(chǎng)機(jī)會(huì)。第三方主體在功能定位上主要是代表政府還是平臺(tái),或者是兩者兼而有之就是一個(gè)不能回避的問(wèn)題。
如果第三方主體主要是代表政府,則其開(kāi)展的主要就是規(guī)制性審核評(píng)估;如 果第三方主體是受平臺(tái)委托,則其開(kāi)展的主要就是咨詢(xún)性審核評(píng)估。如果兩者兼 而有之,則第三方主體如何在審核評(píng)估中平衡作為規(guī)制方的政府與作為被規(guī)制方 的平臺(tái)兩者之間關(guān)系和利益就顯得特別重要。如果第三方主體是代表政府及其有 關(guān)主管部門(mén)對(duì)平臺(tái)開(kāi)展規(guī)制性審核評(píng)估,此時(shí)則需要確認(rèn)政府與第三方主體之間 的關(guān)系。為了使第三方主體開(kāi)展審核評(píng)估依法有據(jù)和具有針對(duì)性,可以由政府監(jiān)管部門(mén)根據(jù)用戶(hù)舉報(bào)情況、專(zhuān)項(xiàng)治理行動(dòng)案例及其代表性等,將網(wǎng)絡(luò)平臺(tái)的信息內(nèi)容安全狀態(tài)劃分為不同等級(jí),并委托第三方主體對(duì)安全風(fēng)險(xiǎn)等級(jí)較高的平臺(tái)重點(diǎn)開(kāi)展強(qiáng)制性審核評(píng)估。
因此,在規(guī)制性或咨詢(xún)性審核評(píng)估中,第三方主體不僅要向政府及其主管部門(mén)負(fù)責(zé),而且也要向平臺(tái)負(fù)責(zé),并因平臺(tái)的傳導(dǎo)而向用戶(hù)負(fù)責(zé)。雖然目前引入第三方主體監(jiān)管機(jī)制和多方參與的協(xié)調(diào)調(diào)解機(jī)制等舉措已經(jīng)進(jìn)入了政策視野,但第三方主體在參與平臺(tái)公私協(xié)同治理中,如何界定其與公權(quán)力主體(政府)和私 權(quán)力主體(平臺(tái)本身)的權(quán)力性質(zhì)以及其交叉范圍,明確審核評(píng)估時(shí)以何種方式獲得政府公權(quán)力主體的規(guī)制授權(quán),又以何種方式介入平臺(tái)自治等均是值得進(jìn)一步討論的問(wèn)題。
(二)建立網(wǎng)絡(luò)信息分類(lèi)分級(jí)制度
建立網(wǎng)絡(luò)信息分類(lèi)分級(jí)分類(lèi)分級(jí)細(xì)則,是實(shí)現(xiàn)生成式人工智能網(wǎng)絡(luò)信息內(nèi)容常態(tài)化監(jiān)管的重要任務(wù)。
不同平臺(tái)對(duì)應(yīng)不同的信息類(lèi)別,應(yīng)當(dāng)針對(duì)不同類(lèi)型的平臺(tái)進(jìn)行差別化治理,并適時(shí)建立以風(fēng)險(xiǎn)為基礎(chǔ)的內(nèi)容分級(jí)制度。理應(yīng)根據(jù)不同類(lèi)型之平臺(tái)實(shí)行差別化的制度設(shè)計(jì),“根據(jù)數(shù)字內(nèi)容平臺(tái)介入內(nèi)容生產(chǎn)和傳播的程度以及平臺(tái)業(yè)務(wù)模式可以劃分為三種類(lèi)型平臺(tái)中介:純中介服務(wù)平臺(tái)、托管服務(wù)平臺(tái)和在線平臺(tái)。”純中介服務(wù)平臺(tái)對(duì)應(yīng)的是網(wǎng)絡(luò)服務(wù)基礎(chǔ)設(shè)施提供商,可以適用避風(fēng)港原則,對(duì)信息處理承擔(dān)較輕的義務(wù);托管服務(wù)平臺(tái)一般是指網(wǎng)絡(luò)托管,對(duì)侵犯?jìng)€(gè)人隱私等中風(fēng)險(xiǎn)內(nèi)容進(jìn)行篩查即可;在平臺(tái)經(jīng)濟(jì)飛速發(fā)展的當(dāng)下,在線平臺(tái)可以細(xì)分為電子商務(wù)平臺(tái)、內(nèi)容分發(fā)平臺(tái)和分享經(jīng)濟(jì)平臺(tái)等類(lèi)型,是實(shí)現(xiàn)利潤(rùn)最大化的重要商業(yè)策略工具。由于該信息直接涉及經(jīng)濟(jì)發(fā)展與商業(yè)利益,在線平臺(tái)對(duì)于虛假信息等低風(fēng)險(xiǎn)信息理應(yīng)在技術(shù)經(jīng)濟(jì)合理范圍內(nèi)主動(dòng)篩選過(guò)濾。如若以數(shù)字內(nèi)容的規(guī)模為標(biāo)準(zhǔn),可以分為超大數(shù)字平臺(tái)和小平臺(tái)(新進(jìn)入平臺(tái)),由于超大數(shù)字平臺(tái)具有大量用戶(hù)基礎(chǔ)和強(qiáng)網(wǎng)絡(luò)效應(yīng),風(fēng)險(xiǎn)程度較高的信息具有更廣的傳播面,造成的社會(huì)危害更大,且其具有更強(qiáng)的技術(shù)能力,能夠以更低的成本治理非法有害內(nèi)容。最后由于缺乏明確統(tǒng)一的判定標(biāo)準(zhǔn)而具有非常高的事前審查成本和審查失誤風(fēng)險(xiǎn),第三方主體重點(diǎn)任務(wù)是履行通知—?jiǎng)h除義務(wù),在受害人或用戶(hù)舉報(bào)的情況下及時(shí)核實(shí),如果屬實(shí)應(yīng)及時(shí)刪除,并有效履行反通知程序。
(三)創(chuàng)建多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制
眾所周知,依靠企業(yè)作為單獨(dú)內(nèi)部主體進(jìn)行信息審核過(guò)濾在事實(shí)層面很難形成有效攔截。需要根據(jù)生成式人工智能的應(yīng)用場(chǎng)景,設(shè)計(jì)一個(gè)可以覆蓋上述多種類(lèi)型信息生成渠道、區(qū)分多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制。
一方面,鑒于生成式人工智能涉及領(lǐng)域廣闊,其復(fù)雜性、不確定性導(dǎo)致的各類(lèi)風(fēng)險(xiǎn)積聚,對(duì)于個(gè)體和國(guó)家不同維度體系的安全均存在一定威脅,因而應(yīng)加強(qiáng)風(fēng)險(xiǎn)評(píng)估,建立安全監(jiān)管體系和安全監(jiān)測(cè)預(yù)警機(jī)制。首先需要建立一套覆蓋模型機(jī)理、訓(xùn)練和運(yùn)行模式的統(tǒng)一信息內(nèi)容審核標(biāo)準(zhǔn),在算法倫理原理和算法、網(wǎng)絡(luò)安全規(guī)范的框架下,對(duì)于明確損害國(guó)家和社會(huì)安全利益的信息內(nèi)容列為“最高等級(jí)”,在數(shù)據(jù)訓(xùn)練前期應(yīng)當(dāng)將信息剔除;如若存在有關(guān)社會(huì)安全等模糊不確定性信息的,將其列為“一般等級(jí)”,值得注意的是,此類(lèi)信息在反饋給模型后也有可能轉(zhuǎn)化成最高等級(jí),因此應(yīng)在數(shù)據(jù)策劃、數(shù)據(jù)提示和數(shù)據(jù)微調(diào)階段分別設(shè)立“技術(shù)+人工”定期巡查機(jī)制,以對(duì)相關(guān)內(nèi)容及時(shí)進(jìn)行清洗和過(guò)濾。
另一方面,建立一個(gè)由上到下的“標(biāo)識(shí)+公開(kāi)”的內(nèi)容監(jiān)管機(jī)制,實(shí)現(xiàn)對(duì)平臺(tái)的內(nèi)容進(jìn)行全面審核,從技術(shù)開(kāi)發(fā)層面,企業(yè)應(yīng)當(dāng)積極研發(fā)難以被后期用戶(hù)刪除或者更改的水印標(biāo)識(shí),對(duì)生成內(nèi)容進(jìn)行標(biāo)記,對(duì)內(nèi)容進(jìn)行全流程跟蹤并進(jìn)行責(zé)任認(rèn)定,保障信息安全,矯正信息偏在,體現(xiàn)實(shí)質(zhì)公平和信息正義。從推進(jìn)信息化建設(shè),促進(jìn)數(shù)字經(jīng)濟(jì)與信息社會(huì)協(xié)調(diào)發(fā)展的角度,提倡利用人工智能審核人工智能生成內(nèi)容的理念正在得到普遍認(rèn)可,基于未來(lái)人工智能公開(kāi)透明的法律框架下,綜合應(yīng)當(dāng)生成場(chǎng)景、實(shí)質(zhì)內(nèi)容、因違反引發(fā)的后果嚴(yán)重性等情形設(shè)置義務(wù)違反懲罰救濟(jì)機(jī)制,阻攔有害內(nèi)容生成或者傳播。
(作者系中國(guó)社會(huì)科學(xué)院大學(xué)法學(xué)院2022級(jí)碩士研究生)
編輯:武卓立