• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能的風(fēng)險及其包容性法律治理

      2023-03-08 23:36:52郭小東
      關(guān)鍵詞:包容性人工智能數(shù)字

      郭小東

      (浙江大學(xué) 光華法學(xué)院,浙江 杭州 310008)

      生成式人工智能(Generative Artificial Intelligence)以其強大的創(chuàng)造性能力和智能化特征成為科技界的一項突破性創(chuàng)新。從自然語言生成到圖像、語音、視頻的合成,生成式人工智能在多個領(lǐng)域展現(xiàn)出驚人的潛力和廣闊的應(yīng)用前景。隨著生成式人工智能的迅猛發(fā)展,人們也不得不面對與其使用相關(guān)的風(fēng)險。生成式人工智能的風(fēng)險存在于現(xiàn)實生活中。一方面,生成式人工智能技術(shù)可能會被濫用,用于傳播虛假信息、實施欺詐行為以及其他惡意目的。另一方面,生成式人工智能的創(chuàng)造力可能導(dǎo)致對個人隱私和知識產(chǎn)權(quán)的侵犯,引發(fā)法律和倫理上的爭議。此外,由于生成式人工智能的自主學(xué)習(xí)和決策能力,其產(chǎn)生的結(jié)果可能存在偏見、歧視和不公平現(xiàn)象。為推動人工智能技術(shù)的可持續(xù)發(fā)展又規(guī)避其風(fēng)險,中國采取“包容性法律治理”模式。包容性法律治理旨在確保生成式人工智能的開發(fā)、部署和使用過程中各種利益相關(guān)者的權(quán)益,尤其是注重保障“數(shù)字弱勢群體”的權(quán)益,并通過運用技術(shù)方案、倫理規(guī)范和法律政策等多種治理工具,建立起安全可控、負責(zé)任和可追溯的機制。這種法律治理模式需要政府和監(jiān)管部門的參與,還需要包括企業(yè)界代表、學(xué)術(shù)界研究人員以及社會公眾的參與。

      一、生成式人工智能的技術(shù)躍遷

      生成式AI 的運行機制可以簡化為三個步驟:首先,數(shù)據(jù)收集與預(yù)處理,主要包括數(shù)據(jù)收集、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)記和轉(zhuǎn)換等操作。其次,模型訓(xùn)練。在數(shù)據(jù)收集和進行預(yù)處理后,生成式AI 使用機器學(xué)習(xí)算法進行模型訓(xùn)練。在訓(xùn)練過程中,模型學(xué)習(xí)數(shù)據(jù)的分布和模式,并生成與之類似的新數(shù)據(jù)。第三,生成內(nèi)容。一旦模型訓(xùn)練完成,生成式AI 可以利用已學(xué)習(xí)到的模式根據(jù)輸入的條件或提示生成新的內(nèi)容,比如文本、圖像、音頻、視頻等。生成式人工智能的誕生在人工智能技術(shù)發(fā)展史上具有里程碑意義,它在技術(shù)邏輯、技術(shù)成果、技術(shù)意義等多個方面實現(xiàn)了重大的技術(shù)突破和技術(shù)變革。

      (一)技術(shù)邏輯:從“決策式AI”到“生成式AI”

      在科學(xué)技術(shù)邏輯層面,以ChatGPT 為代表的生成式人工智能技術(shù)的橫空出世意味著人工智能技術(shù)經(jīng)歷了從“決策式AI”到“生成式AI”的重大技術(shù)進步。決策式AI 強調(diào)的是系統(tǒng)的能力和目標(biāo)導(dǎo)向性。它關(guān)注如何在給定的環(huán)境和約束條件下,通過分析和推理來做出最優(yōu)的決策和行動。決策式AI 通常使用事先定義的規(guī)則、邏輯和專業(yè)知識來推斷和決策,其目標(biāo)是解決特定的問題或作出特定的決策。生成式AI 強調(diào)的是系統(tǒng)的創(chuàng)造性和生成能力。它能夠從學(xué)習(xí)到的模式和知識中生成新的內(nèi)容,包括文本、圖像、音頻、視頻等。生成式AI 通常使用深度學(xué)習(xí)和生成模型等方法,可以生成逼真的信息內(nèi)容,甚至具有一定的創(chuàng)新性。在實際應(yīng)用中,決策式AI 利用現(xiàn)有數(shù)據(jù)進行分析、判斷和預(yù)測,已經(jīng)在眾多領(lǐng)域為人類提供服務(wù),例如推薦系統(tǒng)、風(fēng)控系統(tǒng)和精準(zhǔn)營銷等。而生成式AI 作為認(rèn)識論模型中更高階的一種,不僅分析已有的數(shù)據(jù),還通過歸納已有數(shù)據(jù)進行演繹創(chuàng)新。目前,生成式AI 已經(jīng)在內(nèi)容創(chuàng)新、人機交互、產(chǎn)品設(shè)計等領(lǐng)域為人類貢獻力量。因此,從決策式AI 到生成式AI 的進步發(fā)展具有重要意義:一是生成式AI 在創(chuàng)造性任務(wù)的解決方面具有更出色的表現(xiàn)。它能應(yīng)對更具創(chuàng)造性和開放性的任務(wù),通過從大量數(shù)據(jù)中學(xué)習(xí)人類的創(chuàng)造模式和風(fēng)格,生成新的內(nèi)容和創(chuàng)意,為人類的創(chuàng)造性工作提供有益的輔助和啟發(fā)。二是豐富人機交互體驗。生成式AI 在人機交互領(lǐng)域有著廣泛的應(yīng)用,它可以用于智能助理的自然語言處理和生成、虛擬角色的語音合成和情感表達,以及虛擬現(xiàn)實和增強現(xiàn)實的場景生成等。此外,生成式AI 的應(yīng)用還可以提供更加沉浸和個性化的交互體驗,增強人機之間的互動性和表現(xiàn)力。

      (二)技術(shù)成果:從“UGC”到“AIGC”

      以ChatGPT 為代表的生成式人工智能技術(shù)的誕生,標(biāo)志著內(nèi)容創(chuàng)作范式從用戶生成內(nèi)容(UGC)到人工智能生成內(nèi)容(AIGC)的重大轉(zhuǎn)變。AIGC 范式具備大規(guī)模、高質(zhì)量輸出和低成本等顯著優(yōu)勢,正在徹底改變內(nèi)容生成的格局。通過使用大型預(yù)訓(xùn)練語言模型(如ChatGPT)和多模態(tài)技術(shù)(如CLIP),AIGC 已經(jīng)成為一種強大的技術(shù)工具,可以生成各種不同類型的文章、故事、詩歌和繪畫等內(nèi)容,并且具有相當(dāng)?shù)男屎涂韶摀?dān)性,這在以前是難以想象的。在Web 1.0 時代(PC 互聯(lián)網(wǎng)階段),互聯(lián)網(wǎng)的高質(zhì)量內(nèi)容創(chuàng)作主要依靠專業(yè)生成內(nèi)容(PGC),其中,專業(yè)組織或個人是內(nèi)容生產(chǎn)的主要來源。然而,由于內(nèi)容創(chuàng)作的規(guī)模局限和效率的有限性,這樣的范式限制了用戶內(nèi)容的可用性和多樣性。隨著Web 2.0(移動互聯(lián)網(wǎng)階段)的出現(xiàn),用戶成為內(nèi)容創(chuàng)作的關(guān)鍵參與者,從而促進了用戶生成內(nèi)容(UGC)范式的發(fā)展。作為PGC 范式的補充,UGC 范式下的用戶可以在不同的平臺上自由生成內(nèi)容并相互分享。比較有代表性的UGC 平臺包括Facebook、新浪微博、抖音等。在內(nèi)容生產(chǎn)層面,類ChatGPT 智能技術(shù)的出現(xiàn),將會為用戶創(chuàng)作(UGC)到AI 創(chuàng)作(AIGC)的轉(zhuǎn)型提供關(guān)鍵的輔助支持。AIGC 借助超級算力和大規(guī)模預(yù)訓(xùn)練語言模型,可以在短時間內(nèi)自動生成或輔助人類創(chuàng)作大量內(nèi)容。從UGC 到AIGC 的技術(shù)發(fā)展,意味著內(nèi)容生產(chǎn)主體開始從人類本身向人工智能遷移,主要的區(qū)別體現(xiàn)在內(nèi)容的生產(chǎn)效率、知識圖譜的多樣性以及提供更加具有動態(tài)且可交互的內(nèi)容上。類ChatGPT 生成式人工智能可以從龐大的知識體系中處理大量不同領(lǐng)域、不同類型的信息,這使得它在內(nèi)容創(chuàng)作方面表現(xiàn)出巨大的潛力。

      (三)技術(shù)意義:從“時空革命”到“知識革命”

      在技術(shù)躍遷的意義層面,如果說互聯(lián)網(wǎng)的誕生打破了時空的間隔,是一場“時空革命”,那么生成式人工智能的誕生可謂是帶來一場“知識革命”[1]30?;ヂ?lián)網(wǎng)的誕生帶來了信息的快速傳播和無限連接的時代。它打破地理和時間的限制,人們可以通過互聯(lián)網(wǎng)在不同地點和不同時間之間進行信息交流和共享。這種時空革命極大地擴展人們獲取信息、傳播信息和互動交流的范圍和方式。而生成式人工智能的誕生代表人工智能技術(shù)在知識處理和智能決策方面的重大突破。與傳統(tǒng)人工智能技術(shù)相比,生成式人工智能可以通過學(xué)習(xí)和理解大量的知識,生成具有上下文和邏輯關(guān)聯(lián)的內(nèi)容,并應(yīng)用于解決更復(fù)雜的問題。在基礎(chǔ)功能方面,生成式人工智能可以生成文字、描繪圖像、音頻制作、影視創(chuàng)作、互動娛樂等;從商業(yè)應(yīng)用來看,生成式人工智能具有廣泛的發(fā)展前景,可以進行研發(fā)設(shè)計、生產(chǎn)制造、供應(yīng)鏈管理、市場營銷和客戶服務(wù)等。生成式人工智能能夠理解語義、推理關(guān)系、進行多步推理計算,具備更接近人類思維的能力。從互聯(lián)網(wǎng)到生成式人工智能,這一進步具有重大意義。一方面,加強信息的普及與知識的共享?;ヂ?lián)網(wǎng)的時空革命使得信息可以更廣泛、更迅速地傳播,而生成式人工智能的知識處理能力進一步推動了知識的共享與普及。另一方面,強化智能決策和創(chuàng)新。生成式人工智能引發(fā)的知識革命為創(chuàng)新和智能決策提供更強大的支持。

      二、生成式人工智能的社會風(fēng)險

      (一)數(shù)據(jù)安全與個人隱私侵犯

      生成式AI 在某些情況下可能會侵犯個人隱私。首先,在數(shù)據(jù)收集處理環(huán)節(jié),生成式AI 需要大量的數(shù)據(jù)來進行訓(xùn)練模型。例如,GPT-1 的參數(shù)數(shù)量為1.17 億個,GPT-2 的參數(shù)為15 億,GPT-3 包含1 750 億超大規(guī)模參數(shù),而GPT-4 的參數(shù)則可能達到100 萬億以上。這些數(shù)據(jù)可能涉及個人敏感信息,如個人身份、偏好、行為等。如果這些數(shù)據(jù)沒有得到妥善保護,就存在泄露個人隱私的風(fēng)險。2023 年3 月31 日,意大利數(shù)據(jù)保護局對外宣稱,ChatGPT 平臺已出現(xiàn)用戶對話數(shù)據(jù)和支付信息泄露情況,故而宣布封鎖ChatGPT。其次,基于個人信息的推斷也可能存在侵犯隱私的情況。通過對大量數(shù)據(jù)的分析和處理,生成式AI 可以從匿名或去識別的信息中推斷出個人的身份信息和基本特征。即使數(shù)據(jù)被去除個人標(biāo)識,但通過數(shù)據(jù)的關(guān)聯(lián)和推理,生成式AI 可能會重新識別并揭示他們的個人隱私。隨著智能技術(shù)的發(fā)展,A 披露的看似無害的信息可能會被計算機匯總,存儲在功能無限的數(shù)據(jù)庫中,然后用于訓(xùn)練機器學(xué)習(xí)算法,這可能會對B 和其他所有人產(chǎn)生負面影響[2]385。當(dāng)前,隱私法并沒有涉及對推斷性隱私(預(yù)測性隱私)的保護,但是從海量的匿名化處理的信息中推斷出個人隱私已經(jīng)司空見慣了[3]。第三,訪問第三方數(shù)據(jù)源也可能會發(fā)生侵犯個人隱私的情況?;谟?xùn)練模型的需要,生成式AI 可能需要訪問第三方數(shù)據(jù)源,如社交媒體數(shù)據(jù)、醫(yī)療記錄等,以獲取更多的信息用于訓(xùn)練和生成內(nèi)容。在這個過程中,個人的數(shù)據(jù)可能被共享給第三方,增加了數(shù)據(jù)被濫用或泄露的風(fēng)險。最后,技術(shù)漏洞和濫用風(fēng)險。生成式AI 系統(tǒng)中存在技術(shù)漏洞或被惡意使用的可能性。黑客可能會利用這些漏洞來訪問和獲取個人隱私信息。據(jù)報道,2022 年6 月至2023 年5 月,已經(jīng)有4 588 名埃及人的ChatGPT 賬號遭到黑客入侵,用戶的數(shù)據(jù)在暗網(wǎng)上出售。生成式人工智能技術(shù)除了存在侵犯個人隱私外,還可能會危及國家數(shù)據(jù)安全。生成式人工智能技術(shù)的發(fā)展建立在海量數(shù)據(jù)基礎(chǔ)上,而且出于語言多樣性和減少語言文化偏見的需要,用于訓(xùn)練的數(shù)據(jù)可能涉及全球范圍內(nèi)的數(shù)據(jù)。這些跨境流動的數(shù)據(jù)涉及國家已經(jīng)整合公布的相關(guān)數(shù)據(jù)以及未被整合公布的數(shù)據(jù),如果缺乏法律的有效保護,就有可能影響國家數(shù)據(jù)安全,甚至?xí)o國家政治安全造成威脅。

      (二)知識產(chǎn)權(quán)相關(guān)問題

      生成式人工智能面臨著一系列知識產(chǎn)權(quán)問題,主要包括:(1)著作權(quán)歸屬問題。生成式人工智能可以創(chuàng)造出各種形式的內(nèi)容,如文本、音樂、繪畫等。在這些內(nèi)容的創(chuàng)作過程中,涉及著作權(quán)歸屬的問題。由于生成式AI 是通過學(xué)習(xí)和模仿已有的作品生成新的內(nèi)容,對其生成或輔助生成的手稿,著作權(quán)到底屬于編寫AI 系統(tǒng)訓(xùn)練文本的個人、生產(chǎn)AI 的公司還是使用該系統(tǒng)指導(dǎo)寫作的人,這個問題目前爭議非常大[4]。自2022 年底Open AI 公司推出ChatGPT 以來,國內(nèi)外眾多著名期刊對此問題進行了回應(yīng)。如《科學(xué)》雜志發(fā)表聲明,表示不接受ChatGPT 為作者[5]。生成式人工智能能否作為法律意義上的“作者”存在,實際關(guān)涉侵權(quán)與權(quán)利救濟等巨大經(jīng)濟因素的考量。但是,出于技術(shù)發(fā)展和責(zé)任承擔(dān)問題的需要,明確生成式人工智能的法律地位已刻不容緩[6]20。(2)侵犯知識產(chǎn)權(quán)問題。生成式人工智能生成的文本、圖像、視頻可能涉及侵犯他人的知識產(chǎn)權(quán)。生成式AI 的創(chuàng)作需要大量素材,不可避免會涉及對他人已經(jīng)享有著作權(quán)作品的使用,而按照知識產(chǎn)權(quán)法的要求,使用他人相關(guān)作品時,必須獲得權(quán)利人的許可,并支付相應(yīng)的許可使用費。因此,生成式AI 如未經(jīng)許可使用他人作品,可能會陷入侵權(quán)困境,此類案例屢見不鮮,如2023 年1 月,全球知名圖片供應(yīng)商華蓋創(chuàng)意(Getty Images)起訴Stable Diffusion 的開發(fā)者Stability AI,控告其未經(jīng)許可對平臺上數(shù)百萬張圖片進行竊取。2023 年2 月,《華爾街日報》記者弗朗西斯科·馬可尼(Francesco Marconi)指責(zé)Open AI 公司未經(jīng)授權(quán)大量使用路透社、《紐約時報》《衛(wèi)報》、英國廣播公司等國外主流媒體的文章訓(xùn)練ChatGPT 模型,但從未支付任何費用[7]244。(3)轉(zhuǎn)讓和許可問題。生成式AI 生成的內(nèi)容是否可以轉(zhuǎn)讓和許可也是一個重要的問題。在商業(yè)化運營或合作開發(fā)的過程中,需要明確生成式AI 生成內(nèi)容的知識產(chǎn)權(quán)歸屬以及是否可以對其生成內(nèi)容進行轉(zhuǎn)讓和許可。這可能需要在合同和相關(guān)協(xié)議中進行明確規(guī)定,以防止后續(xù)產(chǎn)生不確定性和爭議。

      (三)誤導(dǎo)性信息和虛假內(nèi)容

      生成式AI 可以用于生成各種形式的內(nèi)容,包括新聞、文章、評論、代碼、藝術(shù)作品等。然而,惡意使用者可能利用生成式AI 生成虛假的信息來誤導(dǎo)公眾或?qū)嵤┢墼p行為,這可能會破壞信息的可信度和公眾的信任。其一,生成誤導(dǎo)信息。生成式AI 模型在生成內(nèi)容時可能會產(chǎn)生誤導(dǎo)信息,使人們誤解特定事實或概念。生成式AI 經(jīng)常出現(xiàn) “一本正經(jīng)的胡說八道” 的現(xiàn)象而屢遭詬病。如有用戶曾使用ChatGPT 獲得 “林黛玉拔倒垂楊柳” “魯智深風(fēng)雪葬落花” 等文學(xué)常識方面的虛假內(nèi)容。這肯定會誤導(dǎo)缺乏相關(guān)知識儲備的讀者,破壞人們對人工智能生成內(nèi)容的可信度,以及削弱對共享信息的信任風(fēng)險。更嚴(yán)重的是,錯誤信息可能會在敏感領(lǐng)域造成傷害,例如錯誤的法律意見或不良的醫(yī)療建議。其二,制造虛假新聞和信息。惡意使用者可以借助生成式AI 制造虛假的新聞、文章或評論,以欺騙公眾、操縱輿論或?qū)嵤┢墼p行為。這些虛假內(nèi)容常常偽裝得非常逼真,難以輕易辨別真?zhèn)危虼巳菀渍`導(dǎo)公眾。2023 年5 月,平?jīng)鍪泄簿志W(wǎng)安大隊偵破國內(nèi)首例利用生成式AI 智能技術(shù)炮制虛假新聞的案件。在這起案件中,犯罪嫌疑人使用ChatGPT 軟件對收集到的新聞要素進行修改和編輯,然后批量上傳至自媒體平臺,在互聯(lián)網(wǎng)上大規(guī)模傳播。這一行為引發(fā)輿論的廣泛關(guān)注,對社會產(chǎn)生了嚴(yán)重的不良影響。犯罪嫌疑人因此涉嫌尋釁滋事罪已被采取刑事強制措施。其三,假冒身份信息。生成式AI 可能被用于生成虛假的社交媒體帳號或在線個人身份。這可能導(dǎo)致身份盜竊、詐騙或其他惡意行為,使人們無法分辨真實用戶和虛假身份。比如,生成式AI 可以用于生成虛假的語音,模仿某個人的聲音或模擬特定的語音特征。這種技術(shù)可能被用于電話詐騙或冒充他人身份信息。2021 年10 月,安徽合肥警方曾查獲一起非法利用深度合成技術(shù)偽造手機用戶人臉動態(tài)視頻破解身份核驗,為黑灰產(chǎn)業(yè)提供注冊虛擬手機卡等技術(shù)支撐的案件。從該案件中可以看出深度合成內(nèi)容能夠模糊真實和虛假的邊界,對社會信任產(chǎn)生巨大的影響。其四,惡意操縱和制造輿論影響。生成式人工智能的強大生成能力使得惡意使用者能夠借助其生成的內(nèi)容來有目的地操縱和引導(dǎo)公眾輿論,從而有可能引發(fā)社會秩序的混亂,甚至對公共信任和社會和諧構(gòu)成嚴(yán)重威脅。

      (四)競爭與市場壟斷問題

      生成式AI 的發(fā)展和應(yīng)用可能導(dǎo)致市場競爭和壟斷問題,主要發(fā)生的原因:(1)技術(shù)壁壘和資源優(yōu)勢。開發(fā)和應(yīng)用生成式AI 需要大量的數(shù)據(jù)、計算資源和專業(yè)知識。這使得只有少數(shù)大型科技公司或機構(gòu)能夠投入足夠的資金和資源來開發(fā)和推進生成式AI 技術(shù)。這種技術(shù)壁壘和資源優(yōu)勢可能導(dǎo)致少數(shù)企業(yè)在生成式AI 領(lǐng)域形成壟斷地位。就目前的情況來看,整個生成式AI 市場其實只是少數(shù)幾個科技“巨頭”的舞臺,比如谷歌、微軟、Meta、Open AI 等,“它們大力推進生成式AI 的原因主要是為了將它們和自己既有的業(yè)務(wù)相結(jié)合,從而強化這些業(yè)務(wù)的優(yōu)勢?!盵8]137(2)數(shù)據(jù)積累和網(wǎng)絡(luò)效應(yīng)。生成式AI 的訓(xùn)練需要大量的數(shù)據(jù),而擁有更多數(shù)據(jù)的企業(yè)在訓(xùn)練出更優(yōu)質(zhì)的模型方面具有優(yōu)勢。這種數(shù)據(jù)積累和網(wǎng)絡(luò)效應(yīng)使得市場上的領(lǐng)先者能夠進一步提高其生成式AI 的性能和效果,進而給競爭對手形成難以逾越的壁壘。少數(shù)大型科技企業(yè)擁有廣泛的用戶基礎(chǔ),因此能夠更好地理解用戶需求,推進個性化服務(wù),并在市場上占據(jù)主導(dǎo)地位。這種數(shù)據(jù)獲取和市場支配能力使得這些企業(yè)能夠通過生成式AI 技術(shù)來加強其市場的壟斷地位。(3)平臺權(quán)力中心化和市場壟斷。生成式AI 技術(shù)被應(yīng)用于數(shù)字平臺,如搜索引擎、社交媒體和電子商務(wù)等。這些數(shù)字平臺擁有龐大的用戶群體和廣告主,通過生成式AI 技術(shù)提供精準(zhǔn)的定向廣告和個性化的推薦,進而能夠吸引更多用戶加入該平臺。比如,微軟將ChatGPT 整合至Bing 搜索引擎后,推出的New Bing 軟件的下載量直接暴增10 倍,從辦公類應(yīng)用軟件的第160 名上升至第2 名。這極大地鞏固了微軟作為超級數(shù)字平臺的地位,打破市場的有序競爭。因此,以ChatGPT 為代表的生成式AI 與下游互聯(lián)網(wǎng)平臺結(jié)合后將推動平臺權(quán)力再次走向中心化[9]61。

      (五)偏見、歧視和社會不平等

      生成式AI 在生成內(nèi)容時可能存在偏見、歧視的風(fēng)險,這導(dǎo)致對社會不平等問題產(chǎn)生進一步的影響?!叭粘I钪械臄?shù)據(jù)常常包含了人類社會固有的隱性偏見”[10]5。如果這些數(shù)據(jù)被用于生成式人工智能的訓(xùn)練,那么在生成內(nèi)容時可能會重復(fù)或加劇這些數(shù)據(jù)中的偏見。其一,文化、語言和意識形態(tài)偏見。由于生成式AI 主要根據(jù)來自互聯(lián)網(wǎng)的數(shù)據(jù)進行訓(xùn)練,因此它可能會偏向于線上更突出的某些文化、語言或觀點。這可能會導(dǎo)致人工智能模型生成的內(nèi)容無法準(zhǔn)確反映人類經(jīng)驗或語言的多樣性。用于訓(xùn)練ChatGPT 的數(shù)據(jù)主要來源于英語語料庫而非漢語及其他語種語料庫,而英語語料庫基本上建立在西方價值體系之上,具有嚴(yán)重的話語導(dǎo)向和意識形態(tài)偏見[11]。意識形態(tài)偏見可能導(dǎo)致生成傾向于特定政治、社會或經(jīng)濟意識形態(tài)的內(nèi)容,可能會強化既有偏見或造成價值觀念不平衡現(xiàn)象,更嚴(yán)重可能會危及國家政治安全。為此,已有多個國家發(fā)布禁用ChatGPT 的聲明。其二,性別和種族的偏見。由于訓(xùn)練數(shù)據(jù)中的偏見,生成式AI 可能會無意中延續(xù)性別和種族刻板印象。例如,大型語言模型可能會將某些職業(yè)與特定的性別或種族聯(lián)系起來,從而強化既有的刻板印象。比如,一款著名的圖片生成式AI 在測試中暴露出對特定群體優(yōu)待的現(xiàn)象,當(dāng)它被要求生成 “律師” “CEO” 等高薪白領(lǐng)職業(yè)時,輸出的圖片幾乎都是白人形象。在對生成式AI 的職業(yè)性別測試驗證中,ChatGPT 將醫(yī)生、律師和老師預(yù)測為男性的概率遠遠高于女性,表現(xiàn)出較為明顯的性別偏見和歧視。其三,權(quán)威和群體思維偏見。生成式AI 可能會產(chǎn)生權(quán)威偏見,表現(xiàn)在更加重視在其訓(xùn)練數(shù)據(jù)中被視為權(quán)威或有影響力的內(nèi)容和觀點。這可能會導(dǎo)致模型優(yōu)先考慮來自知名人物或組織的信息,同時意味著可能會忽略來自不知名來源的但同樣有價值的見解。生成式AI 也可能會通過生成反映其訓(xùn)練數(shù)據(jù)中的共識觀點,無意中采用群體思維偏見。這可能會限制觀點的多樣性,并阻礙對不同觀點的探索。其四,除了訓(xùn)練數(shù)據(jù)中潛藏的各種社會偏見外,算法設(shè)計、運行環(huán)節(jié)也可能會產(chǎn)生偏見?!凹词褂?xùn)練數(shù)據(jù)集不具備偏見,機器學(xué)習(xí)算法也有可能通過自我學(xué)習(xí)制造偏見。”[12]32生成式人工智能所依賴的算法越來越復(fù)雜,同時還具備涌現(xiàn)能力。這使得在更新迭代過程中,算法可能會自發(fā)產(chǎn)生偏見和歧視。而這些現(xiàn)象可能會超出人工智能技術(shù)開發(fā)者的控制范圍。隨著生成式人工智能技術(shù)的快速發(fā)展,偏見、歧視和社會不平等問題逐漸成為社會關(guān)注的焦點。為了確保人工智能技術(shù)能夠展現(xiàn)公平的態(tài)度,技術(shù)開發(fā)者需要肩負起責(zé)任,積極采取措施防止現(xiàn)有偏見的持續(xù)存在,并避免新偏見的產(chǎn)生,促進社會成員之間的平等與包容。

      三、包容性法律治理的基本框架

      生成式人工智能技術(shù)改變了人工智能技術(shù)發(fā)展的底層邏輯。從決策式人工智能到生成式人工智能的轉(zhuǎn)變,人工智能技術(shù)的應(yīng)用也開始從個性化向普適化發(fā)展。以ChatGPT 為代表的生成式人工智能不再局限于特定任務(wù),而是能夠根據(jù)輸入的提示生成各種復(fù)雜的自然語言文本。這使得人工智能技術(shù)從以往的個性化應(yīng)用,如推薦系統(tǒng)、個性化廣告等,向諸如教育、醫(yī)療、法律等更廣泛的領(lǐng)域拓展。這一轉(zhuǎn)變極大地增強了人工智能技術(shù)風(fēng)險的不確定性。面對具有通用性、跨模態(tài)、涌現(xiàn)性的生成式人工智能服務(wù)技術(shù)時,傳統(tǒng)數(shù)字技術(shù)治理中的基于要素場景與基于風(fēng)險預(yù)防的治理模式難以奏效。

      (一)傳統(tǒng)治理模式及其缺憾

      其一,從外部來看,基于要素場景的分散治理是以往數(shù)字技術(shù)風(fēng)險治理中通常采用的策略,即根據(jù)人工智能技術(shù)運行中的不同構(gòu)成要素和具體運用場景,采取有針對性的治理策略,通常以出臺有針對性的規(guī)范性文件為標(biāo)志。其中,基于核心要素的分散治理主要包括對數(shù)據(jù)、算法和平臺的治理;基于應(yīng)用場景的分散治理主要包括對信息推薦服務(wù)、人臉識別以及自動化駕駛的治理。具體而言,在核心要素治理方面,數(shù)據(jù)治理旨在識別、評估和規(guī)避與數(shù)據(jù)相關(guān)的各種風(fēng)險。這些風(fēng)險主要包括數(shù)據(jù)泄露、數(shù)據(jù)濫用、數(shù)據(jù)質(zhì)量問題、數(shù)據(jù)交易和流轉(zhuǎn)合規(guī)問題等,為此中國相繼出臺了《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見》等;算法治理旨在確保算法的公平性、透明性、可解釋性和合規(guī)性,為此中國先后出臺了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等;數(shù)字平臺治理旨在規(guī)范數(shù)字經(jīng)濟發(fā)展,防范數(shù)字平臺權(quán)力的無序擴張和異化,為此中國先后出臺了《關(guān)于平臺經(jīng)濟領(lǐng)域的反壟斷指南》《關(guān)于推動平臺經(jīng)濟規(guī)范健康持續(xù)發(fā)展的若干意見》等。在應(yīng)用場景治理方面,中國在信息推薦服務(wù)、人臉識別、自動化駕駛等具體領(lǐng)域也出臺了大量規(guī)范性文件,比如,針對信息推薦服務(wù),有《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等專門性規(guī)范;針對人臉識別技術(shù),有《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)》(征求意見稿);針對自動化駕駛技術(shù),有《自動駕駛汽車運輸安全服務(wù)指南(試行)》(征求意見稿);等等。

      從前面提及的在現(xiàn)階段生成式人工智能技術(shù)的多種風(fēng)險形態(tài)來看,比如數(shù)據(jù)隱私安全、知識產(chǎn)權(quán)侵犯、虛假信息泛濫、壟斷市場競爭秩序以及強化社會偏見和歧視等等,基于要素場景的分散治理模式難以適用。因為這些現(xiàn)實的風(fēng)險是相互依存的,僅依靠數(shù)據(jù)、算法和數(shù)字平臺的分散治理很難達到良好的治理效果。就虛假信息泛濫風(fēng)險而言,不僅關(guān)涉到數(shù)據(jù)的收集利用、算法的訓(xùn)練以及信息內(nèi)容的輸出,還通常與生成式模型缺乏真實世界的常識和判斷能力有關(guān)。如果模型過度學(xué)習(xí)了特定類型的數(shù)據(jù),它可能會過度強調(diào)某些觀點,從而導(dǎo)致信息的失真。究其原因,這與生成式人工智能技術(shù)運行機制有關(guān)。生成式人工智能本質(zhì)是一種集數(shù)據(jù)、算法與平臺技術(shù)于一身的模型。生成式人工智能模型通過大量的輸入數(shù)據(jù)進行訓(xùn)練,而訓(xùn)練數(shù)據(jù)的質(zhì)量、多樣性和覆蓋范圍將直接影響模型的生成能力和內(nèi)容質(zhì)量;算法也是生成式人工智能技術(shù)的關(guān)鍵環(huán)節(jié),生成式人工智能模型使用多種算法來學(xué)習(xí)輸入數(shù)據(jù)的模式和結(jié)構(gòu),這些算法通?;谏疃葘W(xué)習(xí)技術(shù),如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、變換器(Transformer)等,以捕捉數(shù)據(jù)之間的關(guān)聯(lián)性并學(xué)習(xí)生成新的數(shù)據(jù)。另外,生成式人工智能技術(shù)又往往是嫁接在數(shù)字平臺上落地使用,這一方面既豐富了數(shù)字平臺用戶的使用體驗,但另一方面也在一定程度上承接了數(shù)字平臺的風(fēng)險,強化和鞏固數(shù)字平臺的壟斷地位。因此,對生成式人工智能采取基于核心要素的分散治理是遠遠不夠的,需要一種更具包容性的監(jiān)管思路和治理框架?;趹?yīng)用場景的分散治理也難以適用生成式人工智能服務(wù)技術(shù)的風(fēng)險治理。一方面,生成式模型可能在其訓(xùn)練數(shù)據(jù)之外的新領(lǐng)域或主題上生成內(nèi)容,這些領(lǐng)域之前可能未被納入風(fēng)險評估范圍。因此,傳統(tǒng)的基于已知應(yīng)用場景的風(fēng)險治理方法可能無法有效預(yù)防模型在新領(lǐng)域中的潛在風(fēng)險。另一方面,與決策式人工智能技術(shù)不同,生成式人工智能技術(shù)是不斷發(fā)展和演進的,大模型的運作機理可能會隨著時間和技術(shù)進步而發(fā)生變化。這使得基于應(yīng)用場景的靜態(tài)風(fēng)險治理方法可能無法跟上技術(shù)的發(fā)展。因此,在通用人工智能時代,需要一種更具包容性、靈活性和綜合性的治理框架。

      其二,從內(nèi)部來看,基于風(fēng)險預(yù)防的事前治理是數(shù)字技術(shù)風(fēng)險治理通常采用的方法。事前治理模式強調(diào)在實際損害發(fā)生之前采取有效預(yù)防措施,以確保算法決策的科學(xué)性和數(shù)字平臺的正常運行,維護用戶合法權(quán)益。算法治理中事前預(yù)防主要體現(xiàn)在算法備案制度、算法影響評估制度和算法審計制度等制度設(shè)計中。這三大傳統(tǒng)算法治理制度在全球范圍內(nèi)的不同國家的算法治理規(guī)范中都有所體現(xiàn),它們在不同程度上都強調(diào)了事前風(fēng)險預(yù)防的重要性,以保障算法在實際應(yīng)用中的安全性和合規(guī)性,進而實現(xiàn)算法正義。風(fēng)險預(yù)防的事前治理理念除了在算法治理中得到廣泛支持外,在數(shù)字平臺治理中的表現(xiàn)尤為突出,并逐漸成為全球數(shù)字平臺治理的主流范式。歐盟在《數(shù)字市場法》中確立事前規(guī)制的平臺治理模式,強調(diào)將事后追責(zé)轉(zhuǎn)變?yōu)槭虑邦A(yù)防,明確超級數(shù)字平臺的特定義務(wù),從源頭上遏制數(shù)字平臺權(quán)力的擴張所帶來的負面效應(yīng),為國際社會提供了數(shù)字平臺事前治理的立法典范[13]。中國《互聯(lián)網(wǎng)平臺分類分級指南(征求意見稿)》《互聯(lián)網(wǎng)平臺落實主體責(zé)任征求意見稿》等平臺治理規(guī)則基本上遵循這一路徑。

      在具體治理實踐中,對算法、數(shù)字平臺和決策式人工智能的風(fēng)險治理采取風(fēng)險預(yù)防的事前治理策略能夠有效提升治理效能,對數(shù)字空間多種權(quán)力形態(tài)的規(guī)制效果也較為顯著。但基于風(fēng)險預(yù)防的事前治理模式是建立在相關(guān)安全風(fēng)險已經(jīng)相對明晰的基礎(chǔ)上。這也意味著,對于風(fēng)險形態(tài)尚未完全明確的生成式人工智能技術(shù)的治理,基于風(fēng)險預(yù)防的事前治理模式存在應(yīng)對局限。首先,與決策式人工智能的適用領(lǐng)域的單一性不同,生成式人工智能具有涌現(xiàn)特征,能夠完成事前未被專門訓(xùn)練的任務(wù),具有跨模態(tài)、多領(lǐng)域的通用性潛能。適用領(lǐng)域的單一性決定決策式人工智能技術(shù)風(fēng)險發(fā)生領(lǐng)域較窄,風(fēng)險影響效果相對有限。通常情況下,通過制定事前預(yù)防的制度,如算法備案、算法安全評估和算法審計等,可以將潛在的風(fēng)險控制在可接受的范圍內(nèi)。對于生成式人工智能技術(shù)而言,由于其運行機制的深度復(fù)雜性、生成內(nèi)容的拓展性以及衍生風(fēng)險的不確定性,算法備案制度、影響評估制度等面臨著客觀的適用困難。特別是當(dāng)監(jiān)管者難以深入了解大型語言模型的技術(shù)邏輯及其運行機理時,基于風(fēng)險預(yù)防的事前治理顯然失效。其次,由于算法服務(wù)、數(shù)字平臺與決策式人工智能服務(wù)技術(shù)作為相對成熟的互聯(lián)網(wǎng)經(jīng)濟形態(tài),其技術(shù)的風(fēng)險具有較強的可識別性和可預(yù)判性,在風(fēng)險治理過程中的主體、手段、方法以及目標(biāo)往往比較單一。而生成式人工智能技術(shù)風(fēng)險形態(tài)的多樣性以及其潛在后果的顯著危害性,使得單一性、封閉性的風(fēng)險治理框架難以與之適配。生成式人工智能風(fēng)險治理需要走向包容。最后,嚴(yán)監(jiān)管的事前預(yù)防治理模式容易阻礙數(shù)字技術(shù)的創(chuàng)新發(fā)展,不利于數(shù)字技術(shù)、數(shù)字經(jīng)濟的發(fā)展。比如,在數(shù)字平臺治理中,中國一度采取“強化反壟斷和防止資本無序擴張”強監(jiān)管路徑。這樣的強監(jiān)管框架在有效防范平臺權(quán)力擴張和異化的同時,也帶來較大的負面影響,嚴(yán)重打擊了數(shù)字平臺經(jīng)營者的積極性,遏制了新經(jīng)濟業(yè)態(tài)的發(fā)展。在吸取經(jīng)驗教訓(xùn)的基礎(chǔ)上,相關(guān)部門開始調(diào)整數(shù)字經(jīng)濟監(jiān)管策略,探索新型監(jiān)管方式。2021 年3 月,“十四五規(guī)劃”明確提出要推進監(jiān)管能力現(xiàn)代化,對新產(chǎn)業(yè)新業(yè)態(tài)實施包容審慎監(jiān)管。由此,“包容審慎”開始取代強監(jiān)管的事前預(yù)防治理框架[14]37。數(shù)字平臺經(jīng)濟監(jiān)管思路的轉(zhuǎn)型為生成式人工智能服務(wù)技術(shù)的健康發(fā)展和有效監(jiān)管提供了豐富經(jīng)驗。

      (二)包容性法律治理的提出

      2023 年7 月13 日,國信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、國家廣播電視總局發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)。這是全球范圍內(nèi)首部針對生成式人工智能技術(shù)的立法。《暫行辦法》第3 條明確規(guī)定:“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管。”這一規(guī)定明確中國對生成式人工智能服務(wù)的治理模式是“包容性法律治理”。包容性法律治理堅持人工智能技術(shù)創(chuàng)新發(fā)展與依法治理相結(jié)合,在設(shè)計、開發(fā)和應(yīng)用生成式人工智能技術(shù)時,考慮和解決與社會價值觀、倫理原則和法律規(guī)范相沖突的問題,以確保人工智能技術(shù)的發(fā)展和應(yīng)用符合公共利益、個人權(quán)益和社會正義原則。包容性法律治理旨在解決生成式AI 帶來的風(fēng)險挑戰(zhàn),包括但不限于個人隱私侵犯、虛假信息傳播、市場壟斷、歧視等問題。其目標(biāo)在于保障AI 技術(shù)的透明度、責(zé)任性、可解釋性和可控性,同時確保公眾對AI 技術(shù)的應(yīng)用具有信任感和可接受性。

      針對生成式人工智能技術(shù)風(fēng)險采取包容性法律治理框架并非主觀臆斷,而是出于多方面的考量。其一,在技術(shù)邏輯層面。傳統(tǒng)基于要素場景的分散治理模式和基于風(fēng)險預(yù)防的事前治理模式難以直接適用于生成式人工智能技術(shù)的風(fēng)險治理,生成式人工智能技術(shù)風(fēng)險的涌現(xiàn)性和復(fù)雜性需要更加靈活、包容、綜合的法律治理框架。其二,在理論淵源層面。包容性治理理論融合了社會契約理論、社會正義理論、可持續(xù)發(fā)展理論等多種社會理論。其中,社會契約理論強調(diào)社會成員之間的共同協(xié)議,將其個人權(quán)利和社會責(zé)任相結(jié)合。包容性治理吸納社會契約理論成果,主張社會成員通過共同的契約意識參與決策,以確保各方的利益得到平等對待。社會正義理論探討如何在社會中分配資源、權(quán)利和機會,以實現(xiàn)公平和平等。包容性治理融合社會正義理論的價值關(guān)懷,關(guān)注解決社會中存在的不平等,確保所有人都能夠平等地參與決策和資源的分配??沙掷m(xù)發(fā)展理論關(guān)注如何平衡經(jīng)濟、社會、技術(shù)和環(huán)境的發(fā)展,確保現(xiàn)在和未來的世代都能獲得利益。而包容性治理的首要主張就是堅持可持續(xù)發(fā)展,在決策中考慮多方的需求,實現(xiàn)可持續(xù)發(fā)展目標(biāo)。其三,在治理實踐層面。包容性治理在中國參與全球治理以及國家與社會治理方面有著深厚的實踐基礎(chǔ)。在2011 年的博鰲亞洲論壇年會上,胡錦濤“推動共同發(fā)展,共建和諧亞洲”的主旨演講,詳細闡述了“包容性”概念的基本觀點,以及中國在實現(xiàn)“包容性發(fā)展”方面所采取的具體行動[15]。2014 年7 月15 日,習(xí)近平在金磚國家領(lǐng)導(dǎo)人第 6 次會晤時指出:“我們應(yīng)該堅持包容精神,推動不同社會制度互容、不同文化文明互鑒、不同發(fā)展模式互惠,做國際關(guān)系民主化的實踐者?!盵16]黨的二十大報告明確指出:“健全共建共治共享的社會治理制度,提升社會治理效能,暢通和規(guī)范群眾訴求表達、利益協(xié)調(diào)、權(quán)益保障通道,建設(shè)人人有責(zé)、人人盡責(zé)、人人享有的社會治理共同體?!惫步ü仓喂蚕淼纳鐣卫砝砟钜彩前菪灾卫砝砟畹木呦蠡磉_。其四,在價值追求層面。重視弱勢群體的發(fā)展,是包容性治理的重要特征之一。在數(shù)字時代,傳統(tǒng)社會弱勢群體基于經(jīng)濟狀況、學(xué)習(xí)能力等方面的差異,在獲取、理解和使用數(shù)字技術(shù)并享有數(shù)字紅利方面處于劣勢地位,形成了“數(shù)字弱勢群體”[17]53。包容性法律治理框架尤其注重對“數(shù)字弱勢群體”權(quán)利的保護,尊重和保障“數(shù)字人權(quán)”,維護“弱者的尊嚴(yán)”??傮w而言,生成式人工智能技術(shù)的發(fā)展給社會生產(chǎn)帶來了眾多的科技紅利,不能因為技術(shù)風(fēng)險的存在就制定過于嚴(yán)苛的監(jiān)管策略,這樣可能會阻礙技術(shù)的發(fā)展。相反,也不能對生成式人工智能所帶來的社會風(fēng)險放任不管,這樣可能會侵害數(shù)字弱勢群體的權(quán)利,甚至?xí)<皣野踩?,阻礙數(shù)字正義的實現(xiàn)?!耙?guī)制的目的在于降低風(fēng)險但又不阻礙科技的創(chuàng)新發(fā)展,故而這就涉及在二者間選取合適的平衡點?!盵18]170最佳的方案就是建立起包容性法律治理的監(jiān)管框架,以推動人工智能技術(shù)的可持續(xù)發(fā)展。

      包容性治理的核心意涵包括三個部分:主體的多元參與性、過程的互動合作性以及成果的利益共享性[19]。因此,與傳統(tǒng)人工智能技術(shù)風(fēng)險治理模式相比,包容性法律治理具有這幾個方面的優(yōu)勢:一是鼓勵多元參與?!鞍菪苑ㄖ我曈蛳律鐣卫聿粌H是一種規(guī)范性治理,也是一種參與性治理?!盵20]17生成式人工智能風(fēng)險的包容性治理鼓勵各種利益相關(guān)者的積極參與,包括政府機構(gòu)、社會團體、企業(yè)和個人等。這樣可以確保決策過程能夠更加廣泛和全面地考慮各方的意見和需求,避免決策產(chǎn)生偏見。二是考慮權(quán)益平衡。包容性法律治理關(guān)注不同群體和利益相關(guān)者的權(quán)益平衡,致力于解決他們的需求和關(guān)切。相比傳統(tǒng)方案,它更加關(guān)注社會公平和社會正義,避免一方利益過于凸顯而損害其他方的權(quán)益,強調(diào)各方擁有平等的權(quán)利和機會,致力于消除潛在的歧視和不平等現(xiàn)象,同時確保各方在決策過程中的平等地位和參與權(quán)。三是透明度和問責(zé)制度。包容性法律治理尤其強調(diào)數(shù)據(jù)、算法的公開和透明,確保決策過程的公正性。同時,通過建立問責(zé)制度,使決策者對其決策行為負責(zé),提高決策的可信度和可接受性。四是堅持以人為本的數(shù)字法治理念[21]。人是目的,不是手段。在數(shù)字時代,要確立和貫徹以人為本的數(shù)字法治理念,將保障人的價值和尊嚴(yán)置于技術(shù)發(fā)展的優(yōu)先地位。主張包容性法律治理,就是強調(diào)在人工智能技術(shù)風(fēng)險治理中要注重彌合“數(shù)字鴻溝”,讓更多人享受人工智能技術(shù)帶來的紅利,確保技術(shù)的發(fā)展不會加劇社會不平等,實現(xiàn)數(shù)字正義。

      (三)包容性法律治理的基本原則

      第一,協(xié)同共治?!稌盒修k法》第5 條規(guī)定:“支持行業(yè)組織、企業(yè)、教育和科研機構(gòu)、公共文化機構(gòu)、有關(guān)專業(yè)機構(gòu)在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風(fēng)險防范等方面開展協(xié)作。”這一規(guī)定確立了“協(xié)同共治”的包容性法律治理的基本原則。協(xié)同共治是生成式人工智能技術(shù)風(fēng)險治理的基本原則。通過政府、企業(yè)、社會團體和公民等多主體參與協(xié)同治理,可以確保算法決策的科學(xué)性、數(shù)據(jù)的安全性和信息協(xié)調(diào)的有效性。當(dāng)政府的調(diào)節(jié)機制效果不明顯時,應(yīng)發(fā)揮企業(yè)、社會和個人的自治能力,并通過公私法結(jié)合的方式實現(xiàn)治理責(zé)任的合理分配。此外,國際合作也是關(guān)鍵,因為不同國家采用不同的治理方式可能對人工智能創(chuàng)新發(fā)展造成阻礙,增加跨國公司的經(jīng)營成本。因此需要積極推進國際協(xié)同合作。在此背景下,歐盟和美國簽署的《公益人工智能管理辦法》可以作為生成式人工智能風(fēng)險治理國際合作的參考范例。此外,可以通過與具有共同利益的國家進行雙邊或多邊合作,共同制定生成式人工智能技術(shù)風(fēng)險治理的標(biāo)準(zhǔn)和程序。同時,可以推動建立聯(lián)合國框架內(nèi)的互聯(lián)網(wǎng)監(jiān)管合作機構(gòu),以確保全球互聯(lián)網(wǎng)活動的有序發(fā)展。這將有助于生成式人工智能技術(shù)的安全和可持續(xù)發(fā)展。

      第二,提升透明度?!稌盒修k法》第4 條第5 款特別規(guī)定:“提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性?!鄙墒饺斯ぶ悄芊?wù)的透明度主要是指數(shù)據(jù)收集、算法設(shè)計和決策過程的可解釋性和可理解性。一是提升算法透明度。算法系統(tǒng)的運行長久以來備受詬病的就是它的不透明性,這也是算法被稱為“黑箱”的原因。算法透明意味著用戶和利益相關(guān)者能夠理解算法是如何工作的。這可以幫助用戶了解其作用和局限性,從而增強人們對算法決策的信任。更重要的是,算法透明也是防范算法偏見、算法歧視和算法操縱的重要手段。二是提升決策透明度。算法決策的不公正不僅對個體獲取關(guān)鍵機會的資格受到影響,而且長久被邊緣化的群體也容易遭到不利影響。在社會層面,算法決策不公正可能會侵蝕社會的共同價值[22]38-39?!秱€人信息保護法》第24 條第1 款規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應(yīng)當(dāng)保障決策的透明度和結(jié)果公平、公正?!鄙墒饺斯ぶ悄軕?yīng)當(dāng)能夠解釋決策做出的過程和結(jié)果,尤其是作出對個人權(quán)益有重大影響的決定時,用戶能夠了解為什么系統(tǒng)做出了特定的決策或生成了特定的結(jié)果,從而建立起可信賴的交互關(guān)系。

      第三,保障數(shù)據(jù)質(zhì)量。《暫行辦法》第7 條第4 款規(guī)定:“采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性?!边@一規(guī)定明確將保障數(shù)據(jù)質(zhì)量作為生成式人工智能服務(wù)風(fēng)險治理的重要原則,保障數(shù)據(jù)質(zhì)量需要考慮原始數(shù)據(jù)的準(zhǔn)確性和產(chǎn)出結(jié)果的準(zhǔn)確性。生成式人工智能設(shè)計人員在進行數(shù)據(jù)標(biāo)簽工作時應(yīng)秉持公平公正的道德觀,并要求結(jié)果符合道德標(biāo)準(zhǔn)。對原始數(shù)據(jù)進行準(zhǔn)確標(biāo)注,明確數(shù)據(jù)的含義、類別和屬性。同時,建立驗證機制,通過人工審核或其他驗證方法,確保數(shù)據(jù)標(biāo)注的準(zhǔn)確性和一致性。然而,生成式人工智能如ChatGPT 只是對信息進行壓縮和重新包裝,而非真正理解信息,因此無法保證內(nèi)容的真實性。有時候,ChatGPT 可能會編造事實并輸出虛假信息。為避免人類信息庫的失真,保障數(shù)據(jù)質(zhì)量,應(yīng)盡量實現(xiàn)信息的無損壓縮和復(fù)現(xiàn)[23]15。確保輸入的真實性是提高數(shù)據(jù)質(zhì)量的關(guān)鍵,為此可以增加對所收集信息進行真?zhèn)舞b別的模塊。此外,要建立數(shù)據(jù)質(zhì)量評估的指標(biāo),監(jiān)控生成式人工智能的輸出結(jié)果,定期進行數(shù)據(jù)質(zhì)量的評估檢查,及時發(fā)現(xiàn)并糾正問題,并對模型進行持續(xù)的優(yōu)化。更重要的是,要在生成式人工智能的輸出結(jié)果中加入驗證機制,提升輸出內(nèi)容的真實性和可信度??梢越Y(jié)合事實核查、驗證來源、引用可信信息等方法,對生成的內(nèi)容進行驗證,降低虛假信息的風(fēng)險。在具體運用場景中,平臺要鼓勵用戶提供反饋意見,及時糾正可能存在的錯誤或偏差。同時,將用戶參與作為重要環(huán)節(jié),例如引入用戶反饋數(shù)據(jù)用于模型的訓(xùn)練和改進,以提高生成式人工智能的數(shù)據(jù)質(zhì)量。

      第四,發(fā)揮法治效能?!稌盒修k法》第3 條規(guī)定:“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則?!痹凇稌盒修k法》的規(guī)范條文中“依法”兩字一共出現(xiàn)15 次。俗話說“無規(guī)矩,不成方圓。”生成式人工智能技術(shù)發(fā)展需要“戴著鐐銬跳舞”。這里的鐐銬主要是法治。法治在人工智能技術(shù)風(fēng)險治理中發(fā)揮的作用是根本性的。面對技術(shù)的更新迭代對法律治理變革影響,羅杰·布朗斯沃德(Roger Brownsword)提出法律3.0 理論。他認(rèn)為,目前為止,法律回應(yīng)技術(shù)風(fēng)險經(jīng)過了三個主要階段。在法律1.0 階段,法律的推理形式是規(guī)則、標(biāo)準(zhǔn)和一般原則適用于特定的事實情境。然而,隨著社會工業(yè)化程度越來越高,技術(shù)的應(yīng)用越廣泛,法律1.0 理論所面臨的壓力越大。因為不適合應(yīng)對當(dāng)今社會的技術(shù)風(fēng)險,這時法律2.0 理論出現(xiàn)了,其推理的形式是政策導(dǎo)向和工具性的。法律2.0 不是要重新利用大量的傳統(tǒng)規(guī)則、標(biāo)準(zhǔn)和原則,而是要闡明那些直接服務(wù)于政府當(dāng)前所確立目標(biāo)的新的規(guī)則和監(jiān)管框架。在法律2.0 中,法律的重心從法院和法典轉(zhuǎn)移到了政治舞臺,注重通過政府規(guī)制手段應(yīng)對技術(shù)風(fēng)險。但規(guī)制工具主義的法律2.0 理論仍不足以應(yīng)對數(shù)字技術(shù)革命浪潮所帶來的巨大的社會風(fēng)險,法律3.0 理論就此誕生。在法律3.0 理論中,技術(shù)方案成為法律治理的主要手段。“事前的技術(shù)解決方案比事后努力去發(fā)現(xiàn)和糾正違反合同條款和條件行為更為有效?!盵24]42法律3.0 理論能夠包容法律1.0 和2.0 理論,即法律規(guī)則和基本原則、規(guī)制工具主義和技術(shù)解決方案共同作用于數(shù)字技術(shù)帶來的社會風(fēng)險。布蘭斯沃德的法律3.0 理論對于應(yīng)對生成式人工智能技術(shù)的風(fēng)險治理有很大助益。根據(jù)法律3.0 理論,對法治的基本要義需要進行拓展性理解,一是法治不僅適用于法律的規(guī)則之治,也適用于技術(shù)的代碼之治;二是法治不僅適用于公共部門的規(guī)制,也應(yīng)該適用于私營部門運用技術(shù)管理手段對人們行為的規(guī)制;三是法治不僅包括規(guī)則公平、平等適用于所有人、內(nèi)容明確具體等程序性要求,還包括實質(zhì)性條件,即技術(shù)必須滿足多重許可要求才能用于監(jiān)管目的。因此,從法律3.0 理論出發(fā),面對生成式人工智能技術(shù)的現(xiàn)實風(fēng)險,需要拓寬法律理論的內(nèi)涵,采取包容性法律治理框架,運用好技術(shù)方案、行政規(guī)制手段和法律政策工具等多種策略。

      四、包容性法律治理框架的實現(xiàn)路徑

      在包容性法律治理基本原則的指導(dǎo)下,需要立足中國實踐,建構(gòu)起包容性法律治理框架,探索應(yīng)對生成式人工智能服務(wù)技術(shù)風(fēng)險治理的實現(xiàn)路徑。一般而言,包容性法律治理框架的實踐展開主要包括治理的主體、過程、方法和結(jié)果四個基本維度。

      (一)治理主體的包容性:推動多元協(xié)同共治

      由于生成式人工智能服務(wù)具有專業(yè)性和復(fù)雜性的特征,因此對其治理需要多方主體的共同參與,包括政府部門、行業(yè)組織、標(biāo)準(zhǔn)組織、科研機構(gòu)以及公眾等,以構(gòu)建全面而有效的治理模式。首先,明確政府的職責(zé)。政府機構(gòu)要建立完善的法律政策框架,明確生成式人工智能系統(tǒng)的運行規(guī)范和要求,特別是在涉及數(shù)據(jù)安全、個人隱私保護、提升算法透明度等多個方面的法律和政策框架的制定。此外,政府還可以設(shè)立專門監(jiān)管機構(gòu),負責(zé)全面監(jiān)管生成式人工智能的開發(fā)、部署和運行,同時,負責(zé)審核和批準(zhǔn)生成式人工智能項目,并進行安全風(fēng)險評估和合規(guī)檢查。特別是在涉及敏感領(lǐng)域或可能產(chǎn)生重大影響的項目中,政府機關(guān)應(yīng)當(dāng)組織專家評審,深入評估其潛在的安全風(fēng)險。不過,中國目前還沒有設(shè)立獨立的專門監(jiān)管機構(gòu),而采用的是多部門協(xié)同監(jiān)管模式?!稌盒修k法》第16 條規(guī)定:“網(wǎng)信、發(fā)展改革、教育、科技、工業(yè)和信息化、公安、廣播電視、新聞出版等部門,依據(jù)各自職責(zé)依法加強對生成式人工智能服務(wù)的管理?!彪S著人工智能技術(shù)的不斷發(fā)展,可以探索設(shè)立獨立監(jiān)管部門,避免出現(xiàn)“九龍治水”的難題。除了制定法律政策框架和設(shè)立專門性監(jiān)管機構(gòu)外,政府相關(guān)部門應(yīng)當(dāng)以發(fā)展為導(dǎo)向加強生成式人工智能基礎(chǔ)模型的開發(fā)建設(shè)。與決策式人工智能不同,生成式人工智能的基礎(chǔ)模型具備傳統(tǒng)基礎(chǔ)措施的一般特征,如公共性、賦能性和基礎(chǔ)性等,因此生成式人工智能的基礎(chǔ)模型可以被視為是新型數(shù)字基礎(chǔ)措施。如同傳統(tǒng)基礎(chǔ)措施的水、電和公路一樣,具有多產(chǎn)業(yè)通用接入、實現(xiàn)多領(lǐng)域廣泛應(yīng)用的生成式人工智能基礎(chǔ)模型將成為人們在數(shù)字時代生產(chǎn)生活的必要要素[25]135。作為新型數(shù)字基礎(chǔ)措施,生成式人工智能基礎(chǔ)模型的開發(fā)建設(shè)需要政府相關(guān)部門通過資金支持、政策引導(dǎo)和技術(shù)合作等方式來推動實現(xiàn)。

      其次,發(fā)揮研究機構(gòu)和學(xué)術(shù)界的力量??蒲袡C構(gòu)可以對生成式人工智能技術(shù)展開獨立的研究與評估,深入分析生成式人工智能系統(tǒng)的安全性、可靠性和倫理風(fēng)險,并提出解決方案和建議。自ChatGPT問世以來,國內(nèi)眾多科研機構(gòu)和高校相繼發(fā)布了關(guān)于生成式人工智能技術(shù)全球進展的研究報告,比較有代表性的有騰訊研究院發(fā)布的《AIGC 發(fā)展趨勢報告2023》、哈爾濱工業(yè)大學(xué)自然語言處理研究所發(fā)布的《ChatGPT 調(diào)研報告》、華東政法大學(xué)發(fā)布的《人工智能通用大模型(ChatGPT)的進展、風(fēng)險與應(yīng)對》研究報告,等等[26]109。這些研究報告增強了人們對以ChatGPT 為代表的生成式人工智能技術(shù)運行邏輯及其現(xiàn)實風(fēng)險的認(rèn)識和了解。此外,科研機構(gòu)和學(xué)術(shù)界可以參與制定生成式人工智能技術(shù)治理的倫理框架,以指導(dǎo)人工智能技術(shù)的開發(fā)和應(yīng)用。同時,科研機構(gòu)還可以通過組織各種形式的學(xué)術(shù)活動,如學(xué)術(shù)會議、研討會和工作坊等,促進學(xué)術(shù)界內(nèi)外的交流與合作,分享最新研究成果,進而提升人工智能技術(shù)風(fēng)險治理的水平。

      第三,提升行業(yè)協(xié)會和標(biāo)準(zhǔn)組織的參與度。行業(yè)協(xié)會和標(biāo)準(zhǔn)組織主要是通過制定行業(yè)標(biāo)準(zhǔn),規(guī)范生成式人工智能的開發(fā)和應(yīng)用。近年來,在個人信息安全保護領(lǐng)域,國家市場監(jiān)督管理總局、工業(yè)和信息化部、公安部等部委發(fā)布了多個涉及個人信息安全的國家標(biāo)準(zhǔn),其中比較重要的如《信息安全技術(shù) 公共及商用服務(wù)信息系統(tǒng)個人信息保護指南》《信息安全技術(shù) 個人信息去標(biāo)識化指南》《個人金融信息保護技術(shù)規(guī)范》《電信和互聯(lián)網(wǎng)服務(wù)用戶個人信息保護定義及分類》等。由于生成式人工智能技術(shù)的風(fēng)險不僅涉及個人信息和隱私安全風(fēng)險,更是一種系統(tǒng)性和全局性的風(fēng)險,因此,相關(guān)行業(yè)協(xié)會和標(biāo)準(zhǔn)組織需要借鑒國內(nèi)有效經(jīng)驗和國際社會的先進做法,研究制定、加快出臺防范生成式人工智能技術(shù)系統(tǒng)性風(fēng)險的行業(yè)規(guī)范和國家標(biāo)準(zhǔn)。2023 年8 月25 日,中國全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會為了貫徹落實《生成式人工智能服務(wù)管理暫行辦法》,編制發(fā)布了《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》,該標(biāo)準(zhǔn)文件圍繞文本、圖片、音頻、視頻四類生成內(nèi)容給出了內(nèi)容標(biāo)識方法,這有助于提升生成式人工智能服務(wù)提供者的安全管理水平。除了制定行業(yè)標(biāo)準(zhǔn)外,行業(yè)協(xié)會和標(biāo)準(zhǔn)組織應(yīng)承載一定的自治功能[27],應(yīng)當(dāng)推動生成式人工智能服務(wù)行業(yè)領(lǐng)域內(nèi)的自律機制和監(jiān)督機制建設(shè),加強對生成式人工智能系統(tǒng)的監(jiān)測和評估,及時發(fā)現(xiàn)和應(yīng)對潛在安全風(fēng)險。

      最后,充分調(diào)動社會團體組織和公民的積極性。面對超級數(shù)字平臺以及由資本打造的生成式人工智能系統(tǒng),公民個體多數(shù)成為數(shù)字時代的“弱勢群體”,他們難以知曉由數(shù)字精英一手打造的“技術(shù)牢籠”,進而淪為智能技術(shù)風(fēng)險施加作用的對象。但這并不意味著他們只能接受這樣的不公,相反,數(shù)字時代的公民應(yīng)當(dāng)團結(jié)起來,積極參與到生成式人工智能風(fēng)險治理中,維護數(shù)字時代的人權(quán)和正義。社會團體組織和公民可以通過發(fā)起公眾討論,推動社會對生成式人工智能技術(shù)風(fēng)險的認(rèn)識和關(guān)注。社會團體和公民也可以參與制定生成式人工智能的使用準(zhǔn)則和倫理框架,為其應(yīng)用設(shè)定邊界,防止人工智能技術(shù)的濫用,確保人工智能技術(shù)發(fā)展在私人利益和社會公益之間保持平衡。

      (二)治理過程的包容性:運用多種治理工具

      首先,通過技術(shù)的治理,即用“魔法”制約“魔法”,用技術(shù)對抗技術(shù)[28]。技術(shù)治理是事前治理的重要體現(xiàn)。在布朗斯沃德的法律3.0 理論中,技術(shù)解決方案是治理數(shù)字技術(shù)風(fēng)險的核心策略。技術(shù)方案可以顯著增加規(guī)范的事前應(yīng)用,并相應(yīng)地減少對規(guī)范的事后應(yīng)用的依賴。在歐盟《通用數(shù)據(jù)保護條例》(GDPR)中也特別強調(diào),數(shù)據(jù)控制者需要采取“恰當(dāng)?shù)募夹g(shù)性和組織上的措施”,加強對數(shù)據(jù)隱私的保護。對生成式人工智能技術(shù)的風(fēng)險治理主要通過這幾種技術(shù)手段:一是對抗生成網(wǎng)絡(luò)技術(shù)。通過設(shè)計對抗性樣本或?qū)咕W(wǎng)絡(luò),可以干擾生成式人工智能模型的輸出,以減少不良結(jié)果的生成。二是安全增強學(xué)習(xí)技術(shù)。通過在增強學(xué)習(xí)中引入安全性約束和責(zé)任規(guī)范,限制生成式人工智能的行為,以防止產(chǎn)生不受控制的結(jié)果。這主要通過調(diào)整獎勵函數(shù)、限制動作空間或引入安全規(guī)則等方式來實現(xiàn)。三是檢測與過濾機制。通過設(shè)計有效的檢測和過濾機制,可以識別生成式人工智能模型生成的不良或有害內(nèi)容,并加以阻止或消除。四是隱私保護技術(shù)。隱私保護技術(shù)主要包括數(shù)據(jù)匿名化、差分隱私、多方安全計算等關(guān)鍵技術(shù)。這些技術(shù)被廣泛應(yīng)用于保護個人隱私,降低隱私數(shù)據(jù)的濫用風(fēng)險。隨著生成式人工智能技術(shù)的迭代升級,其伴生的風(fēng)險愈加嚴(yán)峻,科研人員需要加快對人工智能技術(shù)風(fēng)險防范研究的步伐,提出科學(xué)有效的技術(shù)治理方案,減少技術(shù)的負外部性影響。

      其次,通過倫理的治理??萍紓惱韺τ谌斯ぶ悄芗夹g(shù)發(fā)展而言是極為重要的。設(shè)計和發(fā)展“有道德”的人工智能是全人類共同追求。為了規(guī)范人工智能技術(shù)的發(fā)展,國內(nèi)外在人工智能技術(shù)倫理規(guī)范設(shè)計方面已有相對成熟的經(jīng)驗。2021 年11 月,聯(lián)合國教科文組織發(fā)布《人工智能倫理問題建議書》,該建議書為各國法律框架內(nèi)的人工智能倫理立法提供了國際規(guī)則框架[29]23。歐盟委員會人工智能高級專家組于2019 年4 月發(fā)布《可信AI 倫理指南》,該指南將 “尊重人類自主性” “預(yù)防損害原則” “公平原則” “可解釋性原則” 作為可信AI 應(yīng)當(dāng)遵守的科技理論原則。美國電氣和電子工程師協(xié)會已連續(xù)多年推出《人工智能設(shè)計的倫理準(zhǔn)則》白皮書。中國國家新一代人工智能治理專業(yè)委員會于2019 年6 月發(fā)布《新一代人工智能治理原則》,其中明確提出要發(fā)展負責(zé)任的人工智能,并確立人工智能技術(shù)發(fā)展相關(guān)各方應(yīng)遵循的八大原則,即和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理。對于具有創(chuàng)造能力的生成式人工智能技術(shù)發(fā)展而言,科技倫理顯得格外重要,既需要超越人類社會固有的道德偏見,輸出的內(nèi)容也要符合社會核心價值要求。因此,倫理先行的理念要始終貫穿人工智能的開發(fā)、設(shè)計和使用過程,反對技術(shù)濫用,維護人類尊嚴(yán)。當(dāng)前,生成式人工智能仍缺乏全面的倫理道德過濾機制,需要建立以人為本的價值體系。

      最后,通過法律的治理。為了應(yīng)對數(shù)字革命浪潮所帶來的社會風(fēng)險,近年來,中國陸續(xù)出臺了多部專門性法律,比如《網(wǎng)絡(luò)安全法》《電子商務(wù)法》《數(shù)據(jù)安全法》《個人信息保護法》等,這些專門性法律不僅有助于保證個人信息權(quán)益,也有力地推動了數(shù)字經(jīng)濟的健康發(fā)展。但是由于生成式人工智能技術(shù)本身的涌現(xiàn)性、顛覆性、復(fù)雜性,加之生成式人工智能技術(shù)更新迭代又非常迅速,立法回應(yīng)型治理模式難以及時有效防范技術(shù)風(fēng)險,因此,就法律工具的運用而言,需要采取“軟硬兼施”的方法,既要加強“硬法”的制度供給,也要充分發(fā)揮“軟法”在生成式人工智能治理中的作用。新一輪智能技術(shù)革命浪潮,“促發(fā)了‘軟法革命’,使‘軟法’承擔(dān)起重要的‘軟法之治’的歷史使命?!盵30]49區(qū)別于作為“硬法”的國家法,“軟法是一種法律效力結(jié)構(gòu)未必完整、無須依靠國家強制保障實施、但能夠產(chǎn)生社會實效的法律規(guī)范”[31]3。在數(shù)字時代,智能技術(shù)迭代更新,國家法律的相對滯后性和制度剛性難以及時回應(yīng)和有效解決智能技術(shù)引發(fā)的各種社會問題,這就需要靈活的、有韌度的“軟法”在國家法律制度框架下充分發(fā)揮規(guī)范作用,最終實現(xiàn)“硬法”與“軟法”的相互補充、良性互動,提升生成式人工智能治理的效能?!坝卜ā迸c“軟法”共治也是包容性法治框架的基本要義。

      (三)治理方法的包容性:采取分類分級策略

      分類分級是指根據(jù)生成式人工智能技術(shù)及其應(yīng)用場景對可能產(chǎn)生的風(fēng)險和影響進行不同程度的劃分,并采取相應(yīng)強度的監(jiān)管措施。這樣的監(jiān)管思路使得監(jiān)管機構(gòu)能夠根據(jù)生成式人工智能系統(tǒng)的應(yīng)用領(lǐng)域、風(fēng)險程度和技術(shù)成熟度來制定相應(yīng)的監(jiān)管要求和措施,從而確保監(jiān)管更加精準(zhǔn)和高效,避免一刀切的監(jiān)管模式。在分類分級的監(jiān)管思路下,企業(yè)和研究機構(gòu)也能更好地規(guī)劃和管理技術(shù)研發(fā),因為根據(jù)不同級別的監(jiān)管要求,他們能夠降低合規(guī)成本和風(fēng)險,從而促進創(chuàng)新和發(fā)展。在《暫行辦法》中,中國針對生成式人工智能服務(wù)的特點,也明確提出要在包容審慎的基本原則下,采取分類分級的監(jiān)管方法。但對如何實施分類分級監(jiān)管,目前還沒有具體的方案。值得一提的是,中國以外的其他地區(qū)也在各自的立法中探索分類分級的監(jiān)管思路。例如,歐盟的《人工智能法案(草案)》將人工智能系統(tǒng)分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和最低風(fēng)險四類,并為不同級別的人工智能系統(tǒng)設(shè)定了不同的合規(guī)要求。澳大利亞和加拿大等國家也都公布了類似的人工智能立法計劃和配套文件,旨在明確對人工智能技術(shù)進行分類分級管理,為具有重大社會風(fēng)險的人工智能系統(tǒng)設(shè)置更為嚴(yán)格的監(jiān)管規(guī)則。顯然,分類分級的監(jiān)管方法已經(jīng)成為全球性的發(fā)展趨勢,這有助于推動人工智能技術(shù)的應(yīng)用與創(chuàng)新的同時,確保其在各個領(lǐng)域中的安全、合規(guī)。未來,中國還將針對分類分級方法做進一步的安排,具體而言,可以圍繞下面四個環(huán)節(jié)展開:首先,評估風(fēng)險和影響。國家相關(guān)部門需要對不同類型的生成式人工智能進行全面的風(fēng)險評估和潛在影響分析。比如可以考慮其應(yīng)用場景、可能的濫用風(fēng)險、對社會和個人隱私的影響,以及可能引發(fā)的倫理和道德問題。其次,制定分類標(biāo)準(zhǔn)。根據(jù)評估結(jié)果,相關(guān)部門需要制定生成式人工智能的分類標(biāo)準(zhǔn),需要考慮模型的用途、風(fēng)險級別、數(shù)據(jù)隱私要求、決策透明度等因素。第三,進行分類和分級。根據(jù)制定的分類標(biāo)準(zhǔn),將生成式人工智能分為不同的等級,如高風(fēng)險、中風(fēng)險和低風(fēng)險等級。最后,確定監(jiān)管措施。對于不同級別的生成式人工智能,確定相應(yīng)的監(jiān)管方案。比如,高風(fēng)險模型可能需要嚴(yán)格的數(shù)據(jù)采集和使用規(guī)定、審核程序、透明度要求和定期審查等。分類分級的監(jiān)管方法有助于實現(xiàn)對生成式人工智能的個性化監(jiān)管、促進創(chuàng)新發(fā)展、提高透明度、加強數(shù)據(jù)隱私保護、推動國際合作,以及保障公眾利益。通過合理分類和分級監(jiān)管,可以實現(xiàn)生成式人工智能技術(shù)的安全、可信和可持續(xù)發(fā)展。

      (四)治理結(jié)果的包容性:促進社會分配正義

      生成式人工智能技術(shù)的發(fā)展建立在數(shù)據(jù)、算法和超級算力的基礎(chǔ)上,而擁有超大規(guī)模數(shù)據(jù)和超級算力的研發(fā)機構(gòu)一般都是互聯(lián)網(wǎng)“巨頭”。數(shù)據(jù)資源不斷流向優(yōu)勢者,這加劇了數(shù)字不平等,加深了數(shù)字鴻溝。因此,對于生成式人工智能的包容性治理,其結(jié)果應(yīng)當(dāng)促進社會正義,完善數(shù)據(jù)要素的合理分配,消除社會成員和組織在數(shù)字參與過程中遭遇的數(shù)字不平等待遇,實現(xiàn)公平共享數(shù)字紅利,保障數(shù)字空間的人權(quán)和正義。首先,普惠生成式人工智能技術(shù),促進數(shù)字包容,使更多人能夠參與并受益于數(shù)字技術(shù)的發(fā)展。生成式人工智能可以用于提供定制化的教育、醫(yī)療和其他公共服務(wù),彌補資源分配的不平等,使基礎(chǔ)設(shè)施和服務(wù)更加普及和可及。此外,可以通過開展技術(shù)培訓(xùn)和數(shù)字素養(yǎng)教育,提升人們對生成式人工智能的理解和運用能力,減少由于數(shù)字鴻溝帶來的信息獲取和技術(shù)使用的障礙。其次,生成式人工智能的包容性治理需要建立更加公平和透明的數(shù)據(jù)共享機制。在確保隱私安全的前提下,可以通過建立數(shù)據(jù)共享平臺或開放數(shù)據(jù)集,促進數(shù)據(jù)共享和合作,以便更多的利益相關(guān)者能夠訪問和使用數(shù)據(jù),推動數(shù)字技術(shù)創(chuàng)新和推動社會經(jīng)濟發(fā)展,彌合數(shù)據(jù)鴻溝。最后,生成式人工智能的包容性治理要保障數(shù)字正義的實現(xiàn)。數(shù)字正義的基本意涵包括數(shù)據(jù)資源的合理分配、數(shù)字權(quán)利的充分配置、算法決策的公開透明[32]166。在生成式人工智能技術(shù)迭代更新的時代,數(shù)字正義的實現(xiàn)可以采取的措施:一是確保數(shù)據(jù)資源的合理分配。數(shù)據(jù)被譽為21 世紀(jì)的石油,生成式人工智能技術(shù)的發(fā)展依賴大規(guī)模的數(shù)據(jù)資源。因此,數(shù)據(jù)資源的不公平分配直接影響不同國家生成式人工智能技術(shù)的進步,也對全球數(shù)字正義的實現(xiàn)產(chǎn)生重要影響。為了確保全球數(shù)據(jù)資源的公平分配,國際社會可以建立全球合作框架來監(jiān)管數(shù)據(jù)資源的跨國流動,以確保各國能夠充分行使數(shù)據(jù)主權(quán),同時防止數(shù)據(jù)霸權(quán)。二是保障數(shù)字權(quán)利的充分配置。數(shù)字權(quán)利的充分配置是數(shù)字正義實現(xiàn)的基本保障。生成式人工智能服務(wù)技術(shù)的濫用對個人信息權(quán)益、隱私權(quán)、人格權(quán)等重要權(quán)利造成了嚴(yán)重的威脅。為了保障數(shù)字權(quán)利的充分配置,需要確立以人為本的“數(shù)字人權(quán)”理念,在價值上申言生成式人工智能服務(wù)技術(shù)必須以人為本,把人的權(quán)利及尊嚴(yán)作為其最高目的,并在此基礎(chǔ)上建構(gòu)起新型數(shù)字權(quán)利體系。三是確保算法決策的公開透明。算法決策的公開透明是實現(xiàn)數(shù)字正義的外在表征,它強調(diào)生成式人工智能技術(shù)的決策過程應(yīng)該是可解釋的和透明的。這種透明性有助于確保決策的公平性、合理性和合規(guī)性,同時也使受影響的個體和群體能夠理解和驗證決策的基礎(chǔ),從而維護相關(guān)利益者的合法權(quán)益,推動數(shù)字社會朝著更加公正的方向發(fā)展,保障數(shù)字正義的實現(xiàn)。

      五、結(jié)語

      濫用生成式人工智能可能導(dǎo)致數(shù)據(jù)安全危機、虛假信息泛濫、個人隱私侵犯、市場不正當(dāng)競爭、偏見和歧視等現(xiàn)實社會問題。傳統(tǒng)人工智能治理模式難以應(yīng)對具有通用性、跨模態(tài)、涌現(xiàn)性的生成式人工智能帶來的社會風(fēng)險。因此,需要建立一套合適的法律框架,以確保生成式人工智能的開發(fā)和使用符合倫理和法律準(zhǔn)則。包容性法律治理框架的實施需要各方的積極參與和合作。政府、監(jiān)管機構(gòu)、技術(shù)專家、企業(yè)界代表、學(xué)術(shù)界研究人員以及公眾都應(yīng)當(dāng)共同努力,為生成式人工智能的治理提供專業(yè)知識和意見。只有通過透明、負責(zé)任、可解釋和可追溯的機制,才能確保生成式人工智能的發(fā)展不會對社會造成不可挽回的損害。在未來的發(fā)展中,必須始終將人類價值和利益置于首位。生成式人工智能應(yīng)當(dāng)為人類帶來福祉,而不是造成威脅。通過合理的法律治理框架,實現(xiàn)生成式人工智能的包容性發(fā)展,使其為社會的各個方面帶來積極的影響。

      猜你喜歡
      包容性人工智能數(shù)字
      夜經(jīng)濟要有“包容性”
      商周刊(2019年18期)2019-10-12 08:51:14
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      答數(shù)字
      Diversity:Driver of Innovation and Growth
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      數(shù)字看G20
      下一幕,人工智能!
      包容性增長的理論內(nèi)涵及實施
      成雙成對
      清原| 大渡口区| 周宁县| 方山县| 柳州市| 微山县| 葵青区| 社旗县| 大名县| 湘潭县| 泾川县| 永顺县| 左贡县| 扎鲁特旗| 铅山县| 黄浦区| 宁夏| 黑龙江省| 宣恩县| 克拉玛依市| 钟山县| 阳曲县| 灯塔市| 彭泽县| 腾冲县| 叙永县| 文昌市| 洞头县| 开平市| 青河县| 凤山市| 通化县| 布拖县| 金阳县| 偃师市| 北安市| 兰考县| 墨江| 吉隆县| 大连市| 塔河县|