杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

互聯(lián)網(wǎng)法治

理論研究

全球加快推進人工智能安全治理

2024年3月,歐盟發(fā)布的《人工智能法案》被認為是全球首部綜合性人工智能治理立法。該法案對人工智能系統(tǒng)進行了分類,并根據(jù)風險等級制定了相應的監(jiān)管要求,設定了普適、全面的人工智能監(jiān)管方法,包括數(shù)據(jù)管理、透明度、可解釋性、人類監(jiān)督等方面。歐盟2024年新設了人工智能辦公室,推動實施《人工智能法案》。此外,歐盟《人工智能責任指令》在2024年也將出現(xiàn)更多的進展。

與歐盟《人工智能法案》以風險預防和責任追究為中心的立法不同,中國采取了更加包容審慎的治理方式,且采取了“小切口”的立法策略,深入特定應用領域提出監(jiān)管要求,體現(xiàn)了中國在人工智能領域的敏捷治理理念。2023年8月,《生成式人工智能服務管理暫行辦法》開始施行,中國成為世界上首個為生成式大模型立法的國家。

美國人工智能治理則總體寬松溫和,以促進發(fā)展為主,兜底風險為輔,立法滯后。近年來,在生成式預訓練人工智能及相關技術引發(fā)越來越多關注和擔憂后,美國政府逐步加強監(jiān)管。2023年1月,美國商務部國家標準與技術研究院發(fā)布《人工智能風險管理框架》,旨在對人工智能系統(tǒng)全生命周期實行有效的風險管理。2023年10月,美國第一次在政治對話中真正納入人工智能的議程,并發(fā)布總統(tǒng)行政令《安全、可靠和值得信賴的人工智能開發(fā)和使用》,明確了美國政府治理人工智能的政策法律框架,具有里程碑意義。最受矚目的一點是該行政令動用《國防生產(chǎn)法》的緊急權力,強制要求人工智能企業(yè)進行安全測試并與政府分享測試結果。2024年5月,美國參議院人工智能工作組發(fā)布《推動美國在AI領域的創(chuàng)新:參議院AI政策路線圖》。一系列行動,標志著美國通過“全面立法”治理人工智能的戰(zhàn)略努力。2024年,疊加人工智能對美國大選年的重大威脅,人工智能立法將成為美國重頭戲。

推動形成全球人工智能安全治理共識和創(chuàng)新合作

全球共商機制初步建立。一直以來,如何推出能被廣泛接受的人工智能治理原則挑戰(zhàn)重重。從經(jīng)合組織到聯(lián)合國,國際層面始終在努力推進這一議程。2023年以來,聯(lián)合國積極參與、推動人工智能全球監(jiān)管機構和治理機制的構建,以期探索全球監(jiān)管的“公約數(shù)”。聯(lián)合國秘書長出席聯(lián)合國安理會人工智能與安全問題高級別公開會,呼吁管控人工智能技術風險,成立新的聯(lián)合國機構強化人工智能全球治理。2023年,聯(lián)合國成立全球人工智能監(jiān)管咨詢委員會,該委員會包括科技行業(yè)領袖、政府代表和學者,以及知名科技企業(yè)的高管,旨在處理全球人工智能監(jiān)管事宜。

中國、巴西、俄羅斯、印度和南非則同意成立“人工智能研究小組”。歐洲委員會一直在制定一項具有法律約束力的人工智能與人權國際公約,并于2024年3月敲定《人工智能、人權、民主和法治框架公約》最終草案,這是第一個國際人工智能條約。

英國率先成立英國人工智能安全研究所,旨在促進全球對先進人工智能的了解。2024年5月,在人工智能首爾峰會上,美國、英國、加拿大、日本、韓國等10個國家以及歐盟共同簽署《首爾宣言》,呼吁加強國際人工智能治理合作以及治理框架之間的互操作性,倡導以風險為基礎的政策和治理框架,支持啟動首個國際人工智能安全研究所網(wǎng)絡,促使國家間形成對人工智能安全的共同理解,并在研究、標準和測試方面進行協(xié)調。

新的合作模式如何形成至關重要。以哪一方案作為未來共同監(jiān)管架構模板成為焦點。大國博弈背景下,率先形成人工智能治理范本,可獲得人工智能監(jiān)管主導權。2023年以來,以聯(lián)合國、歐盟、美國、英國以及中國的相關政策或策略性行動為標志,各國政府和國際組織在人工智能全球治理領域的參與程度和戰(zhàn)略部署明顯提升,試圖影響全球范圍內人工智能技術標準、應用規(guī)范、治理準則。

各方均在主動發(fā)力,擴大自身治理模式的影響。美國在全球人工智能安全峰會前,推動七國集團取得一致立場,并重返聯(lián)合國教科文組織參與人工智能規(guī)則建設。歐盟《人工智能法案》將給全球人工智能立法格局帶來重大影響,為人工智能定下監(jiān)管基調,在治理規(guī)制方面幫助歐盟另辟蹊徑,在全球人工智能領域進行更深層次的布局。

創(chuàng)新政府對人工智能的安全監(jiān)管形式

多層級、多部門聯(lián)手治理。在頂層設計的指導下,美國參議院、眾議院和國會研究處、國會國家人工智能研究資源工作組等部門圍繞人工智能應用可能帶來的安全風險開展研究和布局,聯(lián)邦政府下獨立行政機構美國聯(lián)邦貿易委員會、美國證券交易委員會、美國平等就業(yè)機會委員會、美國聯(lián)邦通信委員會積極探索人工智能監(jiān)管新模式,國務院、財政部、國防部、國土安全部、司法部、教育部、商務部、能源部等部門及其下屬機構圍繞自身負責領域研究出臺促進人工智能負責任應用的相關文件。此外,特別成立了美國人工智能安全研究所、國防部人工智能安全中心、國防部生成式人工智能工作組等機構,圍繞人工智能安全開展專門研究及突破。

設立“首席人工智能官”。美國總統(tǒng)行政令提出,要大力推進聯(lián)邦政府使用人工智能,要求美國管理和預算辦公室建立聯(lián)邦政府人工智能使用指南,各職能政府部門設首席人工智能官,并提升聯(lián)邦政府內人工智能人才密度。該制度既延續(xù)了以往美國在管理領域設立“首席官”的監(jiān)管范式,又創(chuàng)新了政府對人工智能領域的監(jiān)管形式。當前,美國聯(lián)邦機構正密集任命首席人工智能官,提升政府的“含AI量”??v覽已推出的首席人工智能官,任命形式各有不同,其具體職責主要圍繞“協(xié)同協(xié)調、技術創(chuàng)新、風險管理”三個方面展開。

設置人工智能監(jiān)管沙盒。監(jiān)管沙盒是由監(jiān)管機構提供的一種實驗平臺,是探索人工智能可控發(fā)展的創(chuàng)新手段,通過設立限定性條件,以真實用戶為對象進行深度測試,降低監(jiān)管不確定性。監(jiān)管沙盒既有利于企業(yè)技術創(chuàng)新實踐應用,也有利于更早地發(fā)現(xiàn)前沿技術引發(fā)的合規(guī)風險。歐盟《人工智能法案》明確了建立人工智能監(jiān)管沙盒的相關要求,目前歐洲已有多個國家在積極推進人工智能監(jiān)管沙盒試點。2023年11月,西班牙建立第一個歐盟人工智能監(jiān)管沙盒。2024中關村論壇發(fā)布中國首例人工智能領域監(jiān)管沙盒,首批入盒模型企業(yè)包括中科聞歌、拓爾思、靈犀云等。

成立人工智能驗證基金會。新加坡2023年成立了人工智能驗證基金會,發(fā)揮聯(lián)系政府、企業(yè)和學術專家的平臺作用。該基金會與IBM、微軟和谷歌等企業(yè)合作開發(fā)人工智能測試工具,合作制定人工智能國際標準。

推進產(chǎn)業(yè)一線企業(yè)開展負責任的研究與創(chuàng)新

歐盟嚴格禁止銷售和使用對人們安全、生計構成明顯威脅的人工智能技術,違規(guī)公司可能被處以其全球年營業(yè)額的7%或4000萬歐元的高額罰款。美國總統(tǒng)行政令推動美國生成式人工智能科技企業(yè)踐行自愿承諾的監(jiān)管路徑,谷歌、Meta、微軟等15家人工智能頭部科技企業(yè)隨即在關于推動人工智能技術的安全、可靠和可信的發(fā)展方面進行承諾。在首爾人工智能峰會上,亞馬遜、微軟、谷歌、中國的智譜AI等全球領先的科技企業(yè)就人工智能安全作出“前沿人工智能安全承諾”,將努力確保其最先進的人工智能模型安全性,并實施負責任的治理。

人工智能倫理委員會機制不僅是企業(yè)自律的重要體現(xiàn),也是落實人工智能倫理治理的重要制度保障。全球多家頭部企業(yè)探索人工智能倫理委員會的建設落地。微軟負責任人工智能辦公室、人工智能倫理委員會分別負責制定內部的人工智能倫理準則、審查敏感應用案例,對特定人工智能倫理問題進行研究、主動制定內部政策。谷歌技術發(fā)布前置倫理審查中心,監(jiān)管人工智能與新興技術倫理準則。DeepMind倫理與社會團隊的獨立顧問小組包含多名不同背景與學科的外國專家,針對人工智能倫理問題提供反饋與指導。京東探索研究院,華為可信理論、技術與工程實驗室都關注可信人工智能研究。2024年5月28日,“開放人工智能”新成立安全委員會,就其項目和運營的“關鍵安全決策”提供建議。(北京市科學技術研究院研究員 李輝

編輯:遲明緒