杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

人工智能機器人ChatGPT專題

2023-02-15 17:02:51 來源:法治日報
分享:
-標(biāo)準(zhǔn)+

編者按

最近,人工智能機器人ChatGPT迅速走紅,其表現(xiàn)出來的強大“創(chuàng)作”功能讓公眾嘆服。那么由ChatGPT“創(chuàng)作”生成的內(nèi)容可否構(gòu)成作品?如何看待ChatGPT可能帶來的網(wǎng)絡(luò)治理威脅?本期“聲音”版編發(fā)一組專家稿件,與讀者一道進行探討。


ChatGPT引發(fā)著作權(quán)問題新思考

萬 勇

人工智能作為一項具有顛覆性的新技術(shù),不斷對法律、治理提出新挑戰(zhàn)。2017年,微軟機器人“小冰”出版詩集《陽光失了玻璃窗》,就受到社會的廣泛關(guān)注,隨即引起了法律界的熱烈討論。

此次伴隨著ChatGPT的“一夜成名”,人工智能生成的內(nèi)容可否構(gòu)成作品?人工智能是否應(yīng)被承認為作者……相關(guān)話題再次引發(fā)各方激烈爭論。值得關(guān)注的是,多家知名學(xué)術(shù)期刊已迅即作出反應(yīng)?!犊茖W(xué)》(Science)明確禁止將ChatGPT列為論文作者,且不允許在論文中使用ChatGPT所生成的文本。《自然》(Nature)的態(tài)度略微緩和,允許在論文中使用ChatGPT等大型語言模型工具生成的文本,但不能將其列為論文作者。兩大頂流學(xué)術(shù)期刊非常明確的表態(tài),讓我們不禁反思“何為作者”“何以創(chuàng)作”這兩個對于著作權(quán)法與學(xué)術(shù)研究而言至關(guān)重要的基礎(chǔ)性問題。

從現(xiàn)行著作權(quán)法律制度來看,無論是大陸法系還是英美法系,均排除了人工智能成為作者的可能。大陸法系國家一般規(guī)定只有自然人才能成為作者,連法人都不能成為作者。英美法系國家通常以產(chǎn)業(yè)發(fā)展為導(dǎo)向,因此,在這些國家,除了直接創(chuàng)作作品的自然人之外,法人也可以成為作者。我國著作權(quán)法一方面強調(diào),創(chuàng)作作品的自然人是作者;另一方面也規(guī)定,由法人或者非法人組織主持,代表法人或者非法人組織意志創(chuàng)作,并由法人或者非法人組織承擔(dān)責(zé)任的作品,法人或者非法人組織視為作者。因此,無論是域外立法還是我國法律規(guī)定,在著作權(quán)法律制度框架內(nèi),除了自然人與法人之外,不存在其他可以成為作者的主體;就此而言,ChatGPT不能成為作者自然是題中應(yīng)有之義。

不過,著作權(quán)法的界定似乎與公眾的日常感知有較大差異。從新聞報道來看,ChatGPT可以撰寫郵件、代碼、小說,通過大學(xué)和專業(yè)資格考試,還能撰寫專業(yè)性極高的學(xué)術(shù)論文,且這些論文甚至連專業(yè)研究者也無法輕易分辨。面對如此智能的ChatGPT,公眾不禁提出疑問:這不叫創(chuàng)作嗎?其還不能成為作者嗎?

ChatGPT的技術(shù)原理是,依靠從訓(xùn)練數(shù)據(jù)中學(xué)到的模式和關(guān)系,來生成風(fēng)格和內(nèi)容與訓(xùn)練數(shù)據(jù)中的文本相似的新文本。盡管ChatGPT也有能力生成以前從未見過的單詞、短語和句子的新組合,但這些內(nèi)容都是基于人預(yù)先設(shè)定好的程序、算法的結(jié)果,ChatGPT并未突破人類輔助工具的范疇。

事實上,ChatGPT在與網(wǎng)友的“聊天”中,自己也承認,“我對生成的文本沒有切身經(jīng)歷、想法或創(chuàng)意控制”“我生成的文本旨在用作工具或資源,而不是原創(chuàng)作品”。著作權(quán)法意義上的創(chuàng)作,應(yīng)當(dāng)是有目的、有意識且具有原創(chuàng)性的行為。ChatGPT顯然并未實施著作權(quán)法意義上的創(chuàng)作行為,自然不能成為作者。

除了不符合作者的法定構(gòu)成要件之外,阻礙ChatGPT成為作者的另一個法律障礙,來自其沒有獨立的責(zé)任能力。我們通常所說的“文責(zé)自負”,意在強調(diào),如果文章出現(xiàn)問題,責(zé)任由作者承擔(dān)。然而,在人工智能生成內(nèi)容的語境下,一旦發(fā)生著作權(quán)糾紛,最終責(zé)任的承擔(dān)者顯然不是人工智能。

應(yīng)當(dāng)說,知名期刊禁止將人工智能列為作者或者在論文中使用人工智能生成的內(nèi)容,除了法律層面的考慮外,也意在控制倫理風(fēng)險??茖W(xué)技術(shù)是一把雙刃劍,在推動生產(chǎn)和生活方式發(fā)生深刻變革的同時,也帶來科技倫理挑戰(zhàn)。在科學(xué)研究中使用人工智能生成的內(nèi)容,除了在學(xué)術(shù)倫理上可能引發(fā)是否構(gòu)成剽竊、學(xué)術(shù)失范等爭議外,還可能存在算法偏見、虛假敘述等一系列倫理風(fēng)險??萍家獎?chuàng)新,倫理應(yīng)先行,知名期刊率先在學(xué)術(shù)領(lǐng)域規(guī)范人工智能技術(shù)的使用,在未來可能進一步形成行業(yè)自律規(guī)范,有助于引導(dǎo)人工智能發(fā)展“科技向善”。

盡管進入人工智能時代后,人類在創(chuàng)造性活動中獨一無二的主體地位受到挑戰(zhàn),人類的主體地位似乎有所衰落,有學(xué)者甚至提出了人工智能時代就是“后人類時代”這一命題。然而,在人與物的關(guān)系上,物永遠只應(yīng)是手段,人永遠是目的。讓人的創(chuàng)造物——人工智能成為作者,令其獲得與人平等的地位,于法無據(jù)、于理不合。

(作者系中國人民大學(xué)法學(xué)院知識產(chǎn)權(quán)法教研室主任、教授)



理性應(yīng)對ChatGPT網(wǎng)絡(luò)安全威脅

趙精武

聊天機器人ChatGPT的最初功能定位是以貼近人類溝通的方式進行人機互動,但是用戶在使用過程中發(fā)現(xiàn),ChatGPT除了能與用戶進行正常對話外,甚至能夠很好地完成代碼、論文、短評、新聞、翻譯、郵件等內(nèi)容的創(chuàng)作,并讓人難以分辨其創(chuàng)作者為真人還是機器人。

ChatGPT作為一種現(xiàn)象級產(chǎn)品,表現(xiàn)出的強大功能展現(xiàn)了人工智能技術(shù)對社會人力資源分配和產(chǎn)業(yè)結(jié)構(gòu)優(yōu)化的潛在市場價值。但與任何一項新技術(shù)應(yīng)用一樣,ChatGPT也會具有兩面性,在提升人類生活品質(zhì)和工作效率的同時,也有可能因其濫用而產(chǎn)生一些負面的社會效果,特別是其有可能產(chǎn)生網(wǎng)絡(luò)安全威脅:

第一,ChatGPT的代碼編寫功能將拓展黑客攻擊的技術(shù)工具,使得原有的網(wǎng)絡(luò)攻擊呈現(xiàn)更加龐大的規(guī)模化趨勢。ChatGPT能夠輔助黑客高效完成惡意軟件的編寫,如此一來,針對關(guān)鍵信息基礎(chǔ)設(shè)施有組織、有規(guī)模的網(wǎng)絡(luò)安全攻擊頻次將會增加,同時,過去以大型企業(yè)為主要目標(biāo)的攻擊模式可能轉(zhuǎn)變?yōu)槟依ù笾行⌒推髽I(yè)的攻擊模式。

第二,ChatGPT的信息編寫功能能夠輔助網(wǎng)絡(luò)詐騙分子生成規(guī)?;⒌统杀镜木W(wǎng)絡(luò)釣魚軟件,并且生成的詐騙信息由于具有智能化特征,使得被詐騙者識別信息真?zhèn)蔚碾y度增加。

第三,ChatGPT的信息編寫功能可能導(dǎo)致網(wǎng)絡(luò)虛假信息泛濫,并且網(wǎng)絡(luò)用戶更加難以甄別這些信息的真?zhèn)?,由此網(wǎng)絡(luò)空間輿情治理壓力勢必增加。

針對這些問題,有專家學(xué)者提出應(yīng)對ChatGPT“制定專門立法”“制定配套措施”。實際上,ChatGPT的市場成功不等于人工智能產(chǎn)業(yè)取得了突破性發(fā)展。考慮到ChatGPT目前能夠處理的工作任務(wù)具有鮮明的重復(fù)性、模板性特征,因此,監(jiān)管機構(gòu)沒有必要立即將ChatGPT技術(shù)監(jiān)管作為現(xiàn)階段網(wǎng)絡(luò)空間治理的核心工作任務(wù),否則,我國立法模式會陷入“出現(xiàn)一項新技術(shù),制定一項新規(guī)定”的邏輯怪圈。

其實,我國已先后頒布了網(wǎng)絡(luò)安全法、《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī),針對人工智能技術(shù)和算法技術(shù)濫用規(guī)定了詳細的法定義務(wù)和監(jiān)管體系,足以應(yīng)對短期內(nèi)ChatGPT可能導(dǎo)致的網(wǎng)絡(luò)安全風(fēng)險?,F(xiàn)階段,我國監(jiān)管部門可以充分利用現(xiàn)有法律制度,加強對ChatGPT相關(guān)產(chǎn)業(yè)的監(jiān)管;未來在經(jīng)驗成熟時,可以考慮啟動人工智能技術(shù)應(yīng)用領(lǐng)域的立法,以應(yīng)對各種潛在的安全風(fēng)險。

首先,重點監(jiān)管大型企業(yè)研發(fā)活動,落實人工智能技術(shù)標(biāo)準(zhǔn)。ChatGPT對于算法、數(shù)據(jù)乃至服務(wù)器的需求量驚人,具備開發(fā)類似產(chǎn)品的主體大多僅限于超大型互聯(lián)網(wǎng)企業(yè)或技術(shù)公司。在相關(guān)產(chǎn)品投入市場之前,可以利用算法備案機制,對具備影響網(wǎng)絡(luò)安全和國家安全可能性的產(chǎn)品或服務(wù)進行安全性審查。并且,相較于對用戶使用行為進行監(jiān)管而言,從源頭上對研發(fā)企業(yè)進行監(jiān)管成效更顯著,且研發(fā)企業(yè)也有技術(shù)能力對惡意軟件代碼片段編寫功能進行限制。

其次,明確研發(fā)機構(gòu)、網(wǎng)絡(luò)平臺經(jīng)營者對于人工智能產(chǎn)品應(yīng)用的安全風(fēng)險評估義務(wù)。ChatGPT及其類似產(chǎn)品本身不具有社會危害性,關(guān)鍵在于以不當(dāng)方式使用可能導(dǎo)致一定的損害結(jié)果。針對ChatGPT可能引發(fā)的網(wǎng)絡(luò)釣魚郵件等網(wǎng)絡(luò)詐騙風(fēng)險,應(yīng)當(dāng)明確作為“危險制造者”的研發(fā)機構(gòu)、網(wǎng)絡(luò)平臺經(jīng)營者在此類產(chǎn)品投入市場之前進行安全風(fēng)險評估,確保風(fēng)險可控。

最后,需要關(guān)注以人工智能信息審核技術(shù)規(guī)制人工智能可能誘發(fā)的虛假信息泛濫風(fēng)險。為了避免ChatGPT等人工智能產(chǎn)品大量生成難以通過自動化批量審核的虛假信息內(nèi)容,監(jiān)管機構(gòu)以及網(wǎng)絡(luò)平臺經(jīng)營者可能需要進一步提升監(jiān)管技術(shù),充分利用人工智能技術(shù)的審核智能化特征,根據(jù)ChatGPT這類產(chǎn)品的發(fā)展水平和生成信息內(nèi)容特征,鼓勵行業(yè)協(xié)會、大型企業(yè)或第三方專業(yè)機構(gòu)積極推進人工智能違規(guī)信息審核產(chǎn)品的研發(fā)和推廣。

(作者系北京航空航天大學(xué)副教授,北京科技創(chuàng)新中心研究基地副主任)

編輯:馬樹娟