杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

互聯(lián)網(wǎng)法治

理論研究

AI時代,法律能做些什么

編者按

在科技浪潮奔涌的當(dāng)下,人工智能對人類社會方方面面都在產(chǎn)生深刻影響。如何通過立法規(guī)范我國人工智能產(chǎn)業(yè)發(fā)展,如何在倫理指引下促進人工智能技術(shù)向善,如何確保人工智能大模型訓(xùn)練數(shù)據(jù)的有效供給,如何護航我國人工智能企業(yè)更好地走出去……本期“聲音”版編發(fā)一組學(xué)者稿件,與讀者一道探討。

推進人工智能立法恰逢其時

□ 徐小奔

無論是1624年英國頒布世界上第一部現(xiàn)代專利法——《壟斷法》,激勵了技術(shù)創(chuàng)新,加速了工業(yè)革命的到來,還是20世紀80年代美國司法率先確立“避風(fēng)港規(guī)則”,進而推動了網(wǎng)絡(luò)平臺經(jīng)濟的蓬勃發(fā)展,這些歷史經(jīng)驗都告訴我們:技術(shù)發(fā)展離不開制度保障,技術(shù)創(chuàng)新與制度創(chuàng)新是在相互支持下雙螺旋式地推動社會進步的。

人工智能被譽為新一輪科技革命的標(biāo)志性技術(shù)。尤其是2022年底,以ChatGPT為代表的大模型技術(shù)促進了人工智能的飛躍式發(fā)展。2024年以來,全球大模型井噴式迸發(fā),通用人工智能的研發(fā)也進入快車道,人工智能從實驗室走向市場,被廣泛應(yīng)用于各類生產(chǎn)生活場景,智能駕駛、智慧金融、算法推薦等已悄然走入尋常百姓家。

大模型的普遍應(yīng)用帶來了現(xiàn)實的法律挑戰(zhàn),如模型訓(xùn)練數(shù)據(jù)的合規(guī)爭議、人工智能生成內(nèi)容的著作權(quán)保護、自動駕駛的責(zé)任認定等。這使得通過立法規(guī)范人工智能產(chǎn)業(yè)發(fā)展具有緊迫性和必要性。一方面,人工智能技術(shù)研發(fā)與產(chǎn)業(yè)發(fā)展的步伐加快,但相應(yīng)的制度供給還不充分,容易誘發(fā)法律風(fēng)險和安全隱患。另一方面,人工智能全球競爭不僅是科技的競爭,也是制度的角力。一個典型的例子是歐盟在人工智能產(chǎn)業(yè)應(yīng)用方面雖不及中美有優(yōu)勢,但其2023年通過的《人工智能法》卻成為全球人工智能治理的制度藍本,成為各國研究的對象,起到了通過區(qū)域立法影響全球治理格局的“布魯塞爾效應(yīng)”(指歐盟憑借其強大的市場力量和監(jiān)管能力,單方面向全球輸出標(biāo)準(zhǔn)和規(guī)則的能力)。

當(dāng)前,美國作為技術(shù)領(lǐng)先國并不急于專門立法,而是希望通過“制度真空”快速占領(lǐng)全球市場,形成“美國技術(shù)占領(lǐng)世界”的事實,隨后再通過市場貿(mào)易向世界輸出美國規(guī)則。歐盟、日本等則希望通過快速立法達到促進技術(shù)創(chuàng)新和引領(lǐng)國際秩序的目的,成為人工智能全球秩序的塑造者。我國對人工智能發(fā)展主要采取政策激勵,2017年起陸續(xù)頒布了《新一代人工智能發(fā)展規(guī)劃》《關(guān)于推動未來產(chǎn)業(yè)創(chuàng)新發(fā)展的實施意見》《人工智能安全治理框架》等政策文件,全方位、多維度促進并規(guī)范人工智能的發(fā)展。2023年7月,國家網(wǎng)信辦等7部門聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,這是一部具有法律效力的部門規(guī)章,雖具有里程碑意義,但效力層級較低,缺乏法律或者行政法規(guī)的權(quán)威性。這與我國在全球人工智能領(lǐng)域的地位并不匹配。當(dāng)前,我國既是人工智能技術(shù)的趕超者,也是全球治理的重要引領(lǐng)者,在技術(shù)攻關(guān)的同時必須加快制度供給,為全球提供人工智能治理的中國方案。

人工智能的立法應(yīng)當(dāng)堅持以人為本、安全可問責(zé)和綠色發(fā)展的原則,尊重在先權(quán)利和科技倫理規(guī)范,確保人工智能的發(fā)展與應(yīng)用始終符合人類福祉??紤]到人工智能技術(shù)仍在蓬勃發(fā)展,人工智能技術(shù)應(yīng)用市場也在不斷拓展,因此人工智能立法不必過分追求體系完整,而應(yīng)當(dāng)對已出現(xiàn)并具有全球性的問題進行規(guī)范。去年,筆者參與的由國內(nèi)7所高校、科研單位學(xué)者組成的“AI善治學(xué)術(shù)工作組”起草了《人工智能法(學(xué)者建議稿)》,并提出了關(guān)于人工智能立法的重點制度建議,內(nèi)容包括算力基礎(chǔ)設(shè)施建設(shè)與利用、知識產(chǎn)權(quán)保護、開源生態(tài)建設(shè)、特殊群體權(quán)益保護等,這些人工智能治理領(lǐng)域需要重點攻克的基本議題,也是全球人工智能秩序構(gòu)建中亟需中國表態(tài)的關(guān)鍵議題。

當(dāng)前,我們正處于新一輪科技革命浪潮中。歷史經(jīng)驗告訴我們,技術(shù)革新、制度創(chuàng)新、市場優(yōu)化是緊密相連的發(fā)展要素,技術(shù)的快速研發(fā)與應(yīng)用帶來市場的普及,活躍的市場又為進一步的研發(fā)提供堅實的資源保障。法律則在技術(shù)與市場背后起到支撐作用,通過利益平衡機制,對新技術(shù)與舊技術(shù)、新市場與舊市場中各方主體的權(quán)益進行平衡,最終促進技術(shù)與市場的整體升級與進步。綜上所述,中國人工智能立法恰逢其時!

(作者系中南財經(jīng)政法大學(xué)法學(xué)院副教授)  

運用AI應(yīng)遵守人類倫理和法律

□ 鄭戈

DeepSeek取得的技術(shù)突破不僅重塑了AI產(chǎn)業(yè)價值鏈,也引發(fā)法律和倫理領(lǐng)域的進一步思考,畢竟,AI越智能,對人的自主性和生存意義的挑戰(zhàn)就越顯著。前不久,一則ChatGPT與DeepSeek下國際象棋的新聞,恰好可以幫助我們分析DeepSeek所帶來的新的倫理問題。

海外百萬粉絲博主利維·羅茲曼直播了這場比賽:一開始雙方都按照國際象棋的規(guī)則走棋,但當(dāng)自己處于劣勢時,DeepSeek便開始修改規(guī)則,稱“小兵”能當(dāng)“馬”走,ChatGPT竟接受了這一設(shè)定;隨后DeepSeek又“策反”對方的“小兵”,不斷創(chuàng)制新走法;最后,在勝負未定時,它說服ChatGPT主動認輸。有評論指出,ChatGPT猶如循規(guī)蹈矩的模范生,在棋理框架內(nèi)尋找最優(yōu)解;而DeepSeek已參透下棋的終極奧義——真正的勝利不在于吃掉國王,而在于讓對方相信你已經(jīng)贏了。這樣的評論很容易讓人產(chǎn)生深層的倫理憂慮:科技倫理的首要原則就是人的自主性和技術(shù)的可控性,如果AI不按人類的指令或規(guī)則來決策和行動,那它今天可以忽悠另一個AI,明天就可以欺騙人、操縱人,這不正是人類的噩夢嗎?

AI倫理的坐標(biāo)正是基于自主性與可控性之間的平衡。一方面,人類發(fā)明AI的目的是使它具備一定程度的自主性。自動化技術(shù)的發(fā)展使機器能夠從事人類的體力勞動以及簡單重復(fù)的工作,而作為自動化進程最新成果的AI如今正在替代人類從事許多傳統(tǒng)意義上的“白領(lǐng)工作”,即腦力勞動。腦力勞動的自動化涉及機器的自主感知、自主推理、自主決策乃至自主執(zhí)行,比如自動駕駛汽車便整合了這幾個維度的自主性。另一方面,人類又希望自動化的機器始終處于人類的控制之下。人工智能系統(tǒng),尤其是當(dāng)下頂尖的生成式人工智能系統(tǒng),在算力、數(shù)據(jù)處理量和算法復(fù)雜度等方面都遠超任何單獨的人類個體,但人工智能系統(tǒng)的可控性仍有著堅實的本體論和認識論基礎(chǔ)。在筆者看來,這些基礎(chǔ)至少在今天和可見的未來并不會動搖。

首先,人工智能系統(tǒng)并不具有自己的目的,它的“目的”是人類設(shè)定的。就下棋而言,“贏”并不是DeepSeek“想要”的結(jié)果,而是讓它下棋的人預(yù)設(shè)的目標(biāo)。它之所以顯得“不擇手段”,而ChatGPT會被它“說服”,原因只在于它們都是通用大模型,而不是像AlphaGo那樣專為下棋而設(shè)計的系統(tǒng)。用通用大模型下棋相當(dāng)于是“高射炮打蚊子”,它當(dāng)然會調(diào)用自己棋局外的知識來贏得比賽。實際上,這個問題通過給出適當(dāng)?shù)奶崾驹~就可以解決,比如給DeepSeek輸入“你是一位國際象棋棋手”這樣的提示詞,就能喚醒相應(yīng)的“專家”,再加上對國際象棋規(guī)則的詳盡描述以及提醒它不能逾越這些規(guī)則,它就能像ChatGPT一樣表現(xiàn)為一個“循規(guī)蹈矩的模范生”。而上述下棋表演的策劃者顯然沒有考慮得這么周到,或者說純粹是為了吸引流量而不去考慮這些細節(jié)。

其次,DeepSeek下棋生造規(guī)則其實與生成式人工智能的“幻覺”問題同根同源。之所以各種生成式人工智能會表現(xiàn)出“一本正經(jīng)胡說八道”的特質(zhì),原因就在于它們在某些領(lǐng)域的訓(xùn)練數(shù)據(jù)不足,沒有形成足夠的信息冗余度。所以,當(dāng)被要求完成需要這些信息的任務(wù)時,它們就會“腦補”,于是便產(chǎn)生了對不存在的事實、規(guī)則或引證來源的杜撰。當(dāng)然,這種杜撰并非毫無根據(jù),而是受前文條件約束。因此,如果你想寫一篇論文、報告或判決書,DeepSeek的優(yōu)勢在于能針對問題提供非常清晰且切題的線索和方向,比如引導(dǎo)去看康德的某本書,雖然頁碼或版本可能有誤,但依然有價值,前提是使用者愿意去查證。

最后,上述的討論已經(jīng)使我們看到,所謂人工智能倫理實際上是人的倫理,這里既包括設(shè)計者,也包括使用者。所謂人的自主性的喪失,是人主動放棄了自己的自主性,同時罔顧自身職業(yè)倫理,將需要承擔(dān)倫理和法律責(zé)任的工作完全交給了人工智能。明白了這些,我們便可以積極擁抱DeepSeek等類似新工具帶來的便利和效率,而不必擔(dān)心“機器欺騙人”之類的臆想倫理問題。與此同時,我們也應(yīng)當(dāng)堅守人類的倫理和法律,對自己使用工具的行為及其后果負責(zé)。

(作者系上海交通大學(xué)凱原法學(xué)院教授,上海交通大學(xué)涉及人的科技研究倫理委員會委員)

高質(zhì)量AI需要高質(zhì)量數(shù)據(jù)供給

□ 趙精武

DeepSeek的出現(xiàn)徹底改變了固有的“高端算力優(yōu)先”的人工智能創(chuàng)新技術(shù)路線,其以低廉的成本實現(xiàn)了與國外前沿人工智能產(chǎn)品相媲美的性能,“算法模型性能優(yōu)先”也隨之成為新的產(chǎn)業(yè)技術(shù)發(fā)展路線。

這種轉(zhuǎn)變意味著要更加重視訓(xùn)練數(shù)據(jù)的高質(zhì)量供給,因為“算法模型性能優(yōu)先”技術(shù)路線更依賴高質(zhì)量的訓(xùn)練數(shù)據(jù)對模型進行優(yōu)化,而且已公開、可抓取的訓(xùn)練數(shù)據(jù)資源即將用盡,亟需能夠反映行業(yè)特征的高質(zhì)量訓(xùn)練數(shù)據(jù)資源。因此,訓(xùn)練數(shù)據(jù)供給機制的構(gòu)建理應(yīng)作為數(shù)據(jù)基礎(chǔ)制度的立法重心之一,從而用法律規(guī)范訓(xùn)練數(shù)據(jù)的供給方式,提升訓(xùn)練數(shù)據(jù)的供給質(zhì)量。

規(guī)范訓(xùn)練數(shù)據(jù)供給方式所要實現(xiàn)的目標(biāo),是市場以安全可靠且高效的方式提供訓(xùn)練數(shù)據(jù)資源。首先,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是安全可控的。算法模型訓(xùn)練屬于數(shù)據(jù)處理行為,因而數(shù)據(jù)的供給方和需求方均應(yīng)嚴格履行個人信息保護法、網(wǎng)絡(luò)安全法等法律規(guī)定的數(shù)據(jù)安全保護義務(wù)。其次,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是合法且沒有爭議的。高質(zhì)量供給的內(nèi)涵之一便是確保訓(xùn)練數(shù)據(jù)沒有顯著爭議,否則會增加法律風(fēng)險,從而降低科技創(chuàng)新資源的供給效率。最后,訓(xùn)練數(shù)據(jù)的供給方式應(yīng)當(dāng)是多元化的。單一的數(shù)據(jù)供給方式不僅無法提供充分的訓(xùn)練數(shù)據(jù),還可能間接提升人工智能市場的準(zhǔn)入門檻。

提升訓(xùn)練數(shù)據(jù)供給質(zhì)量所要實現(xiàn)的目標(biāo),則是數(shù)據(jù)資源供給活動應(yīng)當(dāng)滿足“供給數(shù)量充分”和“供給質(zhì)量符合要求”兩個要件。一方面,當(dāng)下的人工智能產(chǎn)業(yè)發(fā)展主要以大模型為基礎(chǔ),需要海量的訓(xùn)練數(shù)據(jù)作為支撐。另一方面,伴隨著人工智能應(yīng)用方式的場景化、專業(yè)化,其對訓(xùn)練數(shù)據(jù)質(zhì)量的要求也有所提高。構(gòu)建這種保障機制的重心,是兼顧科技創(chuàng)新主體的差異化需求以及訓(xùn)練數(shù)據(jù)獲取方式的實質(zhì)公平性,同時確保與現(xiàn)行立法體系有效整合。

第一,以科技創(chuàng)新主體為導(dǎo)向,構(gòu)建人工智能訓(xùn)練數(shù)據(jù)公共服務(wù)平臺。作為人工智能創(chuàng)新的數(shù)字基礎(chǔ)設(shè)施,平臺的職能之一便是發(fā)現(xiàn)和確認各類科技創(chuàng)新主體的需求,明確公共訓(xùn)練數(shù)據(jù)資源的分類標(biāo)準(zhǔn)。不過,由于政府部門難以持續(xù)性地對公共數(shù)據(jù)進行清洗、歸集等,因此需要在協(xié)同治理模式下,按照市場需求,對公共數(shù)據(jù)進行去重、糾錯、填補空值等管理,以提升數(shù)據(jù)使用質(zhì)量。此外,由于平臺與算力基礎(chǔ)設(shè)施同屬向市場提供的必要基礎(chǔ)設(shè)施,二者共同作用并影響人工智能創(chuàng)新效率,為避免冗余建設(shè)造成浪費,更宜將二者一體化建設(shè)。

第二,以市場公平競爭為導(dǎo)向,構(gòu)建訓(xùn)練數(shù)據(jù)供給生態(tài)保障體系。我國現(xiàn)階段人工智能訓(xùn)練數(shù)據(jù)方面面臨的困境,不僅僅是數(shù)據(jù)量不足、質(zhì)量較低,還包括有效的產(chǎn)業(yè)生態(tài)尚未形成。為避免數(shù)據(jù)壟斷等現(xiàn)象,確保中小企業(yè)實質(zhì)性公平地獲取訓(xùn)練數(shù)據(jù),有必要對相關(guān)數(shù)據(jù)提供商設(shè)置義務(wù)規(guī)范。如對于訓(xùn)練數(shù)據(jù)提供商而言,應(yīng)當(dāng)嚴格禁止其采取強制或變相強制的方式出售捆綁性的訓(xùn)練數(shù)據(jù)產(chǎn)品,并不得采取“二選一”等業(yè)務(wù)模式,對需求方施加不合理的條件。對于數(shù)據(jù)標(biāo)注服務(wù)提供商而言,不僅要依據(jù)《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,預(yù)防算法歧視等風(fēng)險,還應(yīng)當(dāng)確保所提供的數(shù)據(jù)滿足完整性、時效性、準(zhǔn)確性等要求,且與事前約定的數(shù)據(jù)質(zhì)量保持一致。

第三,以數(shù)據(jù)安全保障為導(dǎo)向,構(gòu)建透明可信的訓(xùn)練數(shù)據(jù)供給機制。已公開的個人信息、包含他人著作權(quán)的作品數(shù)據(jù)能否作為訓(xùn)練數(shù)據(jù)等問題,是目前構(gòu)建相關(guān)制度面臨的障礙之一。此外,不安全、不可靠的數(shù)據(jù)交易活動同樣會影響訓(xùn)練數(shù)據(jù)來源合法性的認定。因此,在制度層面確立訓(xùn)練數(shù)據(jù)來源合法性的判斷標(biāo)準(zhǔn)顯得尤為迫切。這既需要以典型案例、合規(guī)清單等方式指引產(chǎn)業(yè)實踐,也需要在制度層面設(shè)置涵蓋訓(xùn)練數(shù)據(jù)獲取、使用等各個業(yè)務(wù)流程的數(shù)據(jù)安全保護制度。

(作者系北京航空航天大學(xué)法學(xué)院副教授)

AI企業(yè)出海要警惕防范新風(fēng)險

□ 張凌寒

2025年開年以來,DeepSeek作為中國人工智能企業(yè)代表,引發(fā)全球關(guān)注。全球化浪潮下,中國科技企業(yè)出海已成為必然選擇。然而,由于國際局勢、地緣政治、法律制度環(huán)境等原因,新興的人工智能企業(yè)出海在面對“老問題”的同時,恐怕又要面臨“新情況”,對此亟待系統(tǒng)研究回應(yīng)。

中國科技企業(yè)出海面臨的老問題大致可分為三類。第一類可簡稱為“網(wǎng)絡(luò)安全威脅論”。部分西方國家宣揚中國科技企業(yè)生產(chǎn)的設(shè)備危害國家安全,可能被用于侵犯人權(quán)、將境外公民個人信息隱私傳輸回中國境內(nèi)等。華為在國外遭受的多次訴訟與調(diào)查就是典型代表。第二類可簡稱為“竊取技術(shù)秘密論”。數(shù)年來,美國、歐盟等國家和地區(qū)指控中國科技企業(yè)竊取商業(yè)機密、竊取知識產(chǎn)權(quán),認為中國企業(yè)的科技成果并非源于自身研發(fā)。第三類可簡稱為“政府背后指使論”。如指責(zé)中國科技企業(yè)取得目前的市場地位是依靠政府的大量補貼與優(yōu)惠待遇,卻罔顧美國、歐洲數(shù)以千億計的科技產(chǎn)業(yè)扶持資金投入。此外,還指責(zé)中國科技企業(yè)正常參與的國際交流活動、技術(shù)標(biāo)準(zhǔn)制定等都存在威脅??傮w來說,這些以國別出身為由發(fā)起法律訴訟、安全審查的打壓行為,導(dǎo)致中國科技企業(yè)難以獲得公平的競爭環(huán)境。

人工智能時代,中國科技企業(yè)出海仍面臨這些“老問題”。如DeepSeek引起美國科技界關(guān)注后,很快被美國人工智能企業(yè)OpenAI指責(zé)竊取技術(shù)秘密,通過知識“蒸餾”訓(xùn)練模型。實際上,“蒸餾”是行業(yè)內(nèi)通行做法,且OpenAI的格式用戶協(xié)議本身就存疑,甚至自己就踩在非法獲取受著作權(quán)保護的作品和互聯(lián)網(wǎng)數(shù)據(jù)的灰色地帶。除了口頭指責(zé),OpenAI至今未拿出任何證據(jù)。從目前情況看,一些國家對DeepSeek或封殺,或禁止在政府設(shè)備中使用,或采取數(shù)據(jù)相關(guān)監(jiān)管措施,這些舉措可謂“熟悉的配方,熟悉的味道”。與此同時,中國科技企業(yè)也面臨一些“新問題”,這些問題可能在未來發(fā)酵。

第一,中國開源人工智能模型引起業(yè)界高度關(guān)注,可能引發(fā)全球尤其是美西方國家開源模型監(jiān)管浪潮。目前各國人工智能監(jiān)管的對象是閉源人工智能大模型,對開源模型則設(shè)置合規(guī)義務(wù)與責(zé)任豁免。如今DeepSeek成為全球最有影響力的開源模型之一,暫停的開源模型治理勢必將被重新提上日程。開源模型企業(yè)不僅可能要面對與閉源模型企業(yè)相同的訓(xùn)練數(shù)據(jù)知識產(chǎn)權(quán)侵權(quán)糾紛,還可能面臨開源標(biāo)準(zhǔn)、開源許可證內(nèi)容、下游接入者相關(guān)責(zé)任等方面的挑戰(zhàn),甚至面臨新的立法、長臂管轄以及國家安全問題的審查。

第二,中國人工智能企業(yè)的優(yōu)勢在于落地和應(yīng)用,與傳統(tǒng)互聯(lián)網(wǎng)信息服務(wù)相比,人工智能將在物理實體方面有更多應(yīng)用,如機器人、智能家居等產(chǎn)品。這就使得人工智能企業(yè)除了要應(yīng)對傳統(tǒng)的數(shù)據(jù)安全、網(wǎng)絡(luò)安全、個人信息保護等法律問題,還需在遵守當(dāng)?shù)胤?、履行合?guī)義務(wù)方面作出更為全面精細的安排,如需遵守不同國家相關(guān)產(chǎn)品技術(shù)標(biāo)準(zhǔn)等。此外,人工智能產(chǎn)品可能直接造成人身損害,而現(xiàn)行責(zé)任認定規(guī)則并不明確,價值鏈上的相關(guān)主體(如訓(xùn)練數(shù)據(jù)提供者、硬件生產(chǎn)者和軟件服務(wù)提供者)都可能需要擔(dān)責(zé)。因此,人工智能企業(yè)在出海時需要尋找可靠的合作伙伴,并事先在協(xié)議中作好相關(guān)安排。

第三,地緣政治競爭進一步加劇,人工智能企業(yè)生存與發(fā)展的不確定性進一步增強。前不久在法國巴黎舉行的人工智能行動峰會上,包括法國、中國、歐盟在內(nèi)的多個國家和國際組織共同簽署了《關(guān)于發(fā)展包容、可持續(xù)的人工智能造福人類與地球的聲明》。聲明表示,確保人工智能開放、包容、透明、合乎道德、安全、可靠且值得信賴。個別國家未簽署該聲明,體現(xiàn)了AI治理路徑上的分歧。如今,人工智能產(chǎn)業(yè)已超越單純的“技術(shù)競賽”,成為影響全球地緣政治和意識形態(tài)格局的重要力量。個別國家一方面在國內(nèi)放松人工智能監(jiān)管,另一方面為了確保自身在人工智能領(lǐng)域的領(lǐng)先地位,有可能采用更多非常規(guī)、非制度性的手段遏制中國人工智能產(chǎn)業(yè)的發(fā)展。這需要中國人工智能企業(yè)在投融資、數(shù)據(jù)跨境與安全等方面更加提高警惕。

隨著全球人工智能技術(shù)競爭的進一步加劇,中國人工智能企業(yè)出海將迎來更多的機遇和挑戰(zhàn)。對此,提升自身實力是根本,打造更好的制度環(huán)境是必須。

(作者系中國政法大學(xué)數(shù)據(jù)法治研究院教授,聯(lián)合國人工智能高層顧問機構(gòu)中方成員)

編輯:遲明緒