杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配

2025-03-20 10:12:58 來源:法治日報-法治網(wǎng) -標準+

□ 謝堯雯

生成式人工智能技術(shù)系統(tǒng)基于價值鏈開展研發(fā)、生產(chǎn)、應(yīng)用活動,牽涉多個主體的復(fù)雜互動且伴隨機器自主學(xué)習(xí)。從行為規(guī)制視角來看,行政監(jiān)管與侵權(quán)責(zé)任是約束價值鏈參與者行為的主要規(guī)制框架。法經(jīng)濟學(xué)方法以“事前觀點”審視侵權(quán)責(zé)任,即事后損害賠償構(gòu)成對行為人事前行為的激勵。在此意義上,侵權(quán)賠償客觀上激勵了一般社會主體采取措施預(yù)防損害發(fā)生,促使侵權(quán)機制在一定程度上發(fā)揮了“設(shè)定行為標準、監(jiān)督與執(zhí)行行為標準”的規(guī)制功能。人工智能侵權(quán)與傳統(tǒng)侵權(quán)存在顯著區(qū)別,侵權(quán)責(zé)任的制度功能需要從個體救濟向公共治理傾斜。事實上,從工業(yè)化時代開始,侵權(quán)法就朝著責(zé)任分配方向發(fā)展,責(zé)任設(shè)置亦通常超越直接涉案主體,將社會保險、責(zé)任保險等制度納入分析框架。數(shù)字時代對這種責(zé)任分配轉(zhuǎn)變提出了更迫切的需求,這也表明侵權(quán)制度已不再是單純依賴個案救濟間接實現(xiàn)行為規(guī)制,而是通過責(zé)任分配直接承擔(dān)公共治理的職能。因此,尋求行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制層面的匹配機制,對于人工智能規(guī)制設(shè)計至關(guān)重要。

人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的效率匹配框架

行政監(jiān)管的優(yōu)勢在于,監(jiān)管部門可以通過專業(yè)性知識、規(guī)模化監(jiān)控與多元執(zhí)法手段預(yù)防損害發(fā)生。但在某些情形下,制定行為標準所需的重要信息,是伴隨風(fēng)險活動的開展而生成的附屬品,無法在活動發(fā)生前被監(jiān)管者感知并獲取。侵權(quán)責(zé)任的場景信息獲取優(yōu)勢對于人工智能效率規(guī)制至關(guān)重要。人工智能技術(shù)帶來的社會影響更多體現(xiàn)為變革知識生產(chǎn)方式、個體生活方式、社會交互交往形式等價值性影響。在價值多元與變動的社會中,科技與社會是協(xié)同發(fā)展的關(guān)系,事前規(guī)制性規(guī)則試圖通過特定節(jié)點的價值理念來約束技術(shù)發(fā)展,很容易隨著時間的推移而喪失其合理性。侵權(quán)責(zé)任待損害發(fā)生后進行回應(yīng),將更顯審慎性與針對性,減小了過度管制、扼制創(chuàng)新的風(fēng)險。行政監(jiān)管制度設(shè)計需要明確其必要性與目標、限度,為侵權(quán)機制制定符合場景特征的最優(yōu)風(fēng)險預(yù)防行為標準預(yù)留空間。由于價值鏈中的每一方參與者都有可能對最終結(jié)果產(chǎn)生一定程度的影響,事前監(jiān)管應(yīng)當為價值鏈主體設(shè)定基礎(chǔ)行為義務(wù),促使各主體形成秩序互動與協(xié)同治理,從而確保技術(shù)系統(tǒng)維系一定程度的安全與公正水平。

行政監(jiān)管的必要性與目的得以論證后,接下來的問題是——行政監(jiān)管對于侵權(quán)責(zé)任的作用是什么,二者如何構(gòu)建銜接機制。規(guī)制性規(guī)范厘定了侵權(quán)責(zé)任的基礎(chǔ)框架,侵權(quán)機制依賴規(guī)制性規(guī)范設(shè)置的風(fēng)險級別分配風(fēng)險預(yù)防責(zé)任,而且違反規(guī)制性規(guī)范將構(gòu)成侵權(quán)過錯責(zé)任中的過失。人工智能技術(shù)迭代速率日益增進,法院具有場景信息獲取的優(yōu)勢,但欠缺專業(yè)優(yōu)勢,難以在權(quán)衡技術(shù)發(fā)展的社會影響與預(yù)防措施成本的基礎(chǔ)上獨立判斷責(zé)任歸屬。其一,行政監(jiān)管規(guī)則應(yīng)當成為界分過錯責(zé)任與無過錯責(zé)任的框架。有必要通過行政監(jiān)管來制定人工智能技術(shù)風(fēng)險分級標準,侵權(quán)機制則依據(jù)風(fēng)險級別設(shè)置無過錯責(zé)任與過錯責(zé)任。對于高風(fēng)險人工智能系統(tǒng),采用無過錯責(zé)任可激勵技術(shù)研發(fā)者積極投入更多不可觀測的預(yù)防努力,以確保技術(shù)的安全與公正研發(fā),并通過影響行為量的方式逐步控制此類人工智能技術(shù)數(shù)量。對于低風(fēng)險人工智能系統(tǒng),則適用過錯責(zé)任,以實現(xiàn)社會共同承擔(dān)技術(shù)發(fā)展的剩余風(fēng)險,進而激發(fā)人工智能技術(shù)的創(chuàng)新活力。其二,以行政監(jiān)管規(guī)則框定侵權(quán)責(zé)任構(gòu)成要件。具體行為標準規(guī)定價值鏈主體應(yīng)當或禁止采用的技術(shù)標準或行為措施,違反該標準將被認定為存在過錯,績效標準與內(nèi)部管理型標準成為侵權(quán)責(zé)任鏈接政府監(jiān)管與行業(yè)自治的中介。

生成式人工智能價值鏈的行政監(jiān)管

將人工智能系統(tǒng)價值鏈劃分為研發(fā)、生產(chǎn)階段與應(yīng)用階段,并根據(jù)不同階段特征為核心主體設(shè)置公法行為規(guī)范。行政監(jiān)管的核心目標是以核心主體為規(guī)制抓手,推動價值鏈參與者形成秩序互動、確保人工智能系統(tǒng)維系一定程度的安全水平。其一,研發(fā)與生產(chǎn)階段涉及將何種數(shù)據(jù)、算法、功能嵌入到人工智能系統(tǒng)中,行政監(jiān)管重點在于規(guī)范“算法影響評估程序”,確保人工智能系統(tǒng)嵌入公平、公正、透明等重要價值理念。其二,在人工智能應(yīng)用階段,使用者能夠通過調(diào)適使用方式來減少事故發(fā)生概率,行政監(jiān)管規(guī)則發(fā)揮了關(guān)系建構(gòu)作用,其通過影響使用者與人工智能系統(tǒng)的互動策略,形塑一種秩序化的人機關(guān)系。其三,人工智能價值鏈各環(huán)節(jié)緊密相連、互相影響,行政監(jiān)管需要建立信息共享機制,為核心主體履行義務(wù)提供必要支撐。

就生成式人工智能價值鏈行政監(jiān)管而言:其一,基礎(chǔ)模型提供者應(yīng)當履行數(shù)據(jù)公平保障義務(wù)和系統(tǒng)安全保障義務(wù)。行政監(jiān)管應(yīng)制定程序規(guī)則,通過規(guī)范內(nèi)部管理程序促使研發(fā)者將個人信息保護目標嵌入數(shù)據(jù)處理程序。在激勵相容監(jiān)管理念指引下,對普通基礎(chǔ)模型進行包容審慎監(jiān)管,并對達到一定規(guī)模者提出安全保障要求。其二,專業(yè)模型研發(fā)者應(yīng)當履行算法影響評估義務(wù)。專業(yè)模型研發(fā)者基于特定應(yīng)用目標訓(xùn)練基礎(chǔ)模型,能夠感知人工智能系統(tǒng)的應(yīng)用場景且控制用戶界面,對生成內(nèi)容進行了預(yù)先謀劃與控制。因此,從風(fēng)險控制能力出發(fā),法律要求專業(yè)模型研發(fā)者開展影響評估符合效率目標。其三,生成式內(nèi)容服務(wù)提供者應(yīng)當履行內(nèi)容管控義務(wù)。終端用戶的提問輸入行為與傳播使用行為對于促成損害結(jié)果至關(guān)重要。行政監(jiān)管應(yīng)當規(guī)范終端使用者、內(nèi)容受眾與機器的交互方式,從而引導(dǎo)他們開展高效的風(fēng)險預(yù)防行為。其四,行政監(jiān)管亦需要建立一定程度的透明機制,確保核心主體具有充足信息進行風(fēng)險防控。就生成式人工智能系統(tǒng)而言,這種透明機制應(yīng)當包括上游向下游傳達信息、下游向上游反饋信息。

生成式人工智能價值鏈行政監(jiān)管與侵權(quán)責(zé)任的銜接

應(yīng)當按照價值鏈行政監(jiān)管的邏輯來設(shè)置侵權(quán)責(zé)任,依據(jù)研發(fā)生產(chǎn)環(huán)節(jié)與應(yīng)用環(huán)節(jié)的區(qū)分,分別為人工智能系統(tǒng)提供者與使用者設(shè)定相應(yīng)的產(chǎn)品責(zé)任和使用責(zé)任。為充分激勵生產(chǎn)研發(fā)階段的安全預(yù)防投入,一個更可行的路徑是,生成式人工智能服務(wù)提供者適用產(chǎn)品責(zé)任。生成式人工智能作為一種軟件,具有批量生產(chǎn)、規(guī)模銷售的特點,其是面向不特定用戶而非提供一對一定制化服務(wù)。同時,提供者能通過定價機制來分散風(fēng)險,這與產(chǎn)品責(zé)任的制度目標相契合。

通過精細化的產(chǎn)品責(zé)任制度設(shè)計可以實現(xiàn)侵權(quán)責(zé)任與行政監(jiān)管的有序互動。設(shè)計缺陷的認定是生成式人工智能產(chǎn)品責(zé)任的難點,亦構(gòu)成撬動侵權(quán)與監(jiān)管進行效率銜接的關(guān)鍵著力點。法院在判斷技術(shù)運行邏輯、技術(shù)的社會影響、技術(shù)的社會選擇方面存在專業(yè)弱勢,應(yīng)當依賴行業(yè)知識形成多元主體技術(shù)共治。就此而言,法院在判斷生成式人工智能是否構(gòu)成設(shè)計缺陷時,有必要在行政監(jiān)管規(guī)則框架下,綜合考慮行業(yè)自治因素。法院應(yīng)當以行政監(jiān)管設(shè)置的抽象績效標準與內(nèi)部管理型標準為框架,在具體個案中判斷企業(yè)自我規(guī)制是否達到了合理注意要求。一方面,生成式人工智能研發(fā)實踐的重要特征是專業(yè)性,即依賴專業(yè)團體的知識與能力,因此相應(yīng)的合理注意應(yīng)當以專業(yè)團體的合理注意為標準。另一方面,現(xiàn)階段行業(yè)實踐在生成式人工智能研發(fā)的有效性、安全性、問責(zé)性、可解釋性、公平性等方面仍存在諸多分歧,在共識難以達成時,尊重現(xiàn)有技術(shù)水平下的不同實踐方法比確定單一合理標準更合適。評估自我規(guī)制是否完善的核心在于內(nèi)部管理程序是否規(guī)范,因此法院亦應(yīng)當以程序為抓手,通過評估技術(shù)研發(fā)實踐所遵從的標準或行為守則的制定程序、技術(shù)研發(fā)的倫理審查程序、該實踐在行業(yè)內(nèi)的接受程度等,判斷不同實踐是否達到合理注意標準。同時,基于行政監(jiān)管確定的風(fēng)險規(guī)制框架,對于達到一定規(guī)模的大模型研發(fā)以及應(yīng)用于高風(fēng)險領(lǐng)域的生成式人工智能服務(wù)提供者,法院應(yīng)當適用更嚴格的缺陷判斷標準。

(原文刊載于《政法論壇》2025年第2期)  

編輯:梁婧