□ 戴維 王錫鋅
數(shù)字時代,算法已深度介入社會生活的方方面面,在給人們生活帶來便利的同時,其背后的“算法黑箱”問題也日益凸顯。“算法黑箱”源于算法技術(shù)的復(fù)雜性以及算法知識的高壁壘,使其運行邏輯和決策理由難以被公眾所觀察和理解。鑒于此,學(xué)理上發(fā)展出以技術(shù)披露和決策解釋為核心的算法透明模式,以打開“黑箱”。但該模式未能充分考慮算法可解釋性障礙和公眾認知局限,在實踐層面遭遇來自技術(shù)和制度的雙重挑戰(zhàn),可能導(dǎo)致透明機制的失效和透明度期待落空。
算法透明機制的理論邏輯與立法演進
透明機制一向被視為解決“決策黑箱”的有效手段。傳統(tǒng)透明理論認為,通過向公眾披露決策程序、論述決策合理性,可以保障公民知情的尊嚴性權(quán)利,并促進決策機關(guān)的可問責性。算法加劇了決策權(quán)力的封閉性和秘密性以及決策權(quán)力和公民權(quán)利關(guān)系的失衡。學(xué)者們嘗試以包含事前技術(shù)披露和事后說明理由的雙線透明模式,以防范算法權(quán)力的濫用。
在規(guī)范層面,早期算法透明機制主要借助個人信息保護和信息公開立法來間接建構(gòu),但效果不佳。例如,我國不少學(xué)者嘗試從個人信息保護法中推導(dǎo)出算法告知義務(wù)和算法解釋權(quán),但這需要多個條款“嫁接合成”,規(guī)范基礎(chǔ)復(fù)雜且要求模糊,不便適用。有觀點認為算法本質(zhì)仍為行政規(guī)則,應(yīng)當根據(jù)政府信息公開條例予以公開。但算法代碼能否直接等同于立法文件而適用信息公開規(guī)則存疑。
近年來,隨著人工智能立法興起,算法特別是機器學(xué)習類算法,有了更具針對性的規(guī)范基礎(chǔ)。歐盟《人工智能法》根據(jù)人工智能風險程度設(shè)置四類透明義務(wù),包括:第一,針對高風險人工智能系統(tǒng)的技術(shù)性信息披露義務(wù),服務(wù)于人工智能系統(tǒng)設(shè)計者、提供者以及監(jiān)管者;第二,針對特定人工智能系統(tǒng)的標識和告知義務(wù),服務(wù)于公眾;第三,針對高風險人工智能系統(tǒng)的登記義務(wù),服務(wù)于公眾;第四,個體針對高風險人工智能系統(tǒng)決策獲得解釋的權(quán)利。我國兩版人工智能立法建議稿都將透明原則作為一項基本原則,要求提供者向公眾告知算法基本信息、監(jiān)管信息、用戶權(quán)利及救濟途徑等;并規(guī)定當人工智能的產(chǎn)品或服務(wù)對個人權(quán)益有重大影響時,個人有權(quán)要求提供者解釋說明。
算法透明機制的規(guī)范表達及其現(xiàn)實困境
盡管算法透明機制在理論和立法上有所發(fā)展,但仍面臨諸多問題。
首先,立法設(shè)置的透明標準低于理論預(yù)期。在技術(shù)披露方面,歐盟《人工智能法》不要求算法提供者和部署者向公眾提供技術(shù)材料,而是要求提供關(guān)于算法的說明、描述或摘要。信息的可靠性、準確性和真實性存疑,可能被有意處理誤導(dǎo)公眾;在算法解釋權(quán)方面,立法未能為解釋權(quán)行使提供充分的制度保障。
其次,算法可解釋性技術(shù)瓶頸制約算法透明機制??山忉屓斯ぶ悄埽╔AI)技術(shù)雖有進展,但普適性和準確性不足。模型越大、層級越復(fù)雜,解釋效果越差。應(yīng)用不同的XAI技術(shù)于同一模型,可能凸顯不同的影響因素或權(quán)重??山忉屓斯ぶ悄艽_實是充滿希望的發(fā)展方向,但目前它尚不足以徹底打開“黑箱”。此外,算法可解釋并不等同于公眾可理解,公眾需要通俗易懂的語言理解算法模型,進而引發(fā)了算法披露在“信息的真實性”與“信息的可理解性”之間的矛盾,使算法透明陷入兩難境地。
最后,算法透明同當下以風險規(guī)制為核心的算法治理體系間存在張力。規(guī)范意義上的風險劃分,并不一定符合公眾的風險感知。當公眾對某個算法的潛在風險產(chǎn)生疑慮,并不會因為它屬于規(guī)范意義上的低風險算法,就放棄獲得說明解釋的訴求。因此,以風險等級區(qū)別設(shè)置透明義務(wù)的方式,可能會在整體上對算法信任產(chǎn)生負面影響。
以公眾信任為導(dǎo)向的算法透明機制重構(gòu)
基于雙線透明模式可行性與有效性困境,需要我們打破過往透明機制的思維慣性,正視可解釋人工智能技術(shù)發(fā)展現(xiàn)狀,明確以公眾為受眾,重塑算法透明機制。
算法透明機制應(yīng)以提升公眾信任為目標。當下,“可信任人工智能”已成為全球人工智能發(fā)展的核心要求與原則。算法信任旨在為公眾營造安全可信的制度環(huán)境,讓公眾能以更輕松的心態(tài)享受先進技術(shù)帶來的便利。這種信任至關(guān)重要,它為算法技術(shù)的開發(fā)與應(yīng)用創(chuàng)造了空間。算法信任的提出,還標志著算法治理理念從以技術(shù)為中心向以人為本的轉(zhuǎn)變。畢竟,公眾才是算法風險的最終承擔者。
算法透明能夠為公眾建立算法信任搭建橋梁。算法信任是公眾對算法可信度評價后形成的主觀態(tài)度。適度的信任對算法生態(tài)的健康發(fā)展尤為關(guān)鍵:盲目信任會讓個體毫無防備地暴露在算法風險之下;過度警惕則會催生不必要的恐慌和抵制情緒。算法透明機制可以成為展示算法可信度的重要窗口,幫助公眾建立適當程度的算法信任。
具體而言,直接評估算法的性能、運行狀態(tài)及目標達成情況,需要具備深厚專業(yè)能力,投入大量時間和精力,這一方式更適合專家審議場景。因此,公眾算法信任的建立主要依賴對算法可信度的間接評估,即借助知識信任與制度信任,通過“中介背書”,幫助公眾形成對算法的信任。
知識信任,亦可稱為專家信任,其構(gòu)建要求對算法研發(fā)、部署和評估等重要環(huán)節(jié)責任主體的身份信息披露以及對專家意見質(zhì)量的嚴格把控。算法責任主體的身份信息、團隊專業(yè)資質(zhì)、過往研發(fā)履歷等背景信息,有助于公眾形成自己的信任判斷。此類披露還能將以往隱于幕后的責任主體推向前臺,接受公眾的審視與監(jiān)督。特別是在政企合作的場景中,對于公眾而言,保障政企合作的透明化,遠比向他們披露算法資料更有實際意義。
完善的算法治理體系,對于增強公眾對算法的整體信任起著舉足輕重的作用,這便是制度信任的價值。在算法應(yīng)用場景中,通過制度約束,讓公眾知曉無論技術(shù)提供者的主觀意愿如何,其在研發(fā)和部署算法時,都必須遵循既定的規(guī)范、標準和流程,可以有效安撫公眾對算法的不安情緒。當前,算法治理正在向著行政監(jiān)管、企業(yè)自我規(guī)制以及社會監(jiān)督三方協(xié)同的綜合治理體系邁進。算法透明機制需要與這一治理體系實現(xiàn)妥善銜接。首先,應(yīng)當加強行政監(jiān)管中的信息披露。一方面,披露內(nèi)容需與前端的許可管理、備案審查、行政處罰等算法監(jiān)管手段緊密銜接;另一方面,要整合分散的監(jiān)管信息溝通渠道,搭建統(tǒng)一的披露平臺。積極運用先進的數(shù)據(jù)處理技術(shù)和創(chuàng)新的可視化手段,以“用戶友好”的方式進行信息呈現(xiàn),為公眾提供一個全面“考察”算法產(chǎn)品及其研發(fā)部署主體的系統(tǒng)性視角。其次,算法透明機制呼吁企業(yè)加強自我披露??萍计髽I(yè)作為前沿技術(shù)的掌握者,對技術(shù)問題和漏洞具有敏銳的洞察力,在風險控制上具有天然優(yōu)勢。最后,算法信任的建立離不開第三方機構(gòu)的參與。第三方機構(gòu)參與算法評估和審計工作,既能彌補行政監(jiān)管在專業(yè)知識和資源上的不足,又能規(guī)避企業(yè)自我約束過程中可能出現(xiàn)的客觀公正性問題,有助于增強公眾對算法的信任。
以上重構(gòu)路徑,有望打破算法透明機制的現(xiàn)有僵局,避免“透明但無用”的制度窘境;有助于提升公眾在算法治理中的主體性,使其擺脫因知識壁壘而被邊緣化的無力感,為公眾參與算法監(jiān)督創(chuàng)造條件;最終形成“公眾信任—算法透明”互相促進的正向循環(huán)。
(原文刊載于《華東政法大學(xué)學(xué)報》2025年第1期)
編輯:梁婧