• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能標(biāo)識義務(wù)的功能與實踐

      2023-12-29 13:41:06劉曉春夏杰
      中國對外貿(mào)易 2023年11期
      關(guān)鍵詞:透明度義務(wù)人工智能

      劉曉春 夏杰

      生成式人工智能(AIGC),例如ChatGPT、Midjourney等的飛速發(fā)展,使得人工智能生成物與人類生成物之間的邊界越來越模糊,采取措施分辨這兩者,對于治理假新聞、知識產(chǎn)權(quán)保護、避免學(xué)術(shù)造假和維持人類社會的基本信任,都具有重大的意義。本文從現(xiàn)有法律法規(guī)對于人工智能生成物的標(biāo)識義務(wù)出發(fā),探討這一合規(guī)義務(wù)目前的規(guī)制現(xiàn)狀、必要性以及落地展望。

      一、多個國家和地區(qū)主張對人工智能提出標(biāo)識要求

      2021年12月,中國國家網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》首次在法律文件層面規(guī)定了針對人工智能生成物的標(biāo)識義務(wù),其中第九條規(guī)定,算法推薦服務(wù)提供者發(fā)現(xiàn)未作顯著標(biāo)識的算法生成合成信息的,應(yīng)當(dāng)作出顯著標(biāo)識后,方可繼續(xù)傳輸。隨后的2022年11月,網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,細化了這一標(biāo)識制度,其第16條規(guī)定一般的標(biāo)識義務(wù);第17條將標(biāo)識義務(wù)進行分類(一類是可能導(dǎo)致公眾混淆或者誤認(rèn)的深度合成服務(wù),深度合成服務(wù)提供者應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進行顯著標(biāo)識;一類是其他深度合成服務(wù),深度合成服務(wù)提供者應(yīng)當(dāng)提供顯著標(biāo)識功能);第18條規(guī)定了其他組織和個人不得刪除、篡改、隱匿標(biāo)識的義務(wù)。2023年6月網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法》,其第16條對這一標(biāo)識義務(wù)進行了重申。2023年7月網(wǎng)信辦發(fā)布的《關(guān)于加強“自媒體”管理的通知》也在其第16條中對自媒體發(fā)布的內(nèi)容進行了規(guī)定,即“使用技術(shù)生成的圖片、視頻的,需明確標(biāo)注系技術(shù)生成?!?/p>

      歐盟《人工智能法案(2021年草案)》在第52條規(guī)定,人工智能提供者應(yīng)當(dāng)向自然人確保,其正在與人工智能系統(tǒng)進行交互,除非在某些用戶明顯知曉和使用的場景。而且這一義務(wù)不適用于經(jīng)過法律授權(quán)的用于偵察、預(yù)防、調(diào)查和起訴刑事犯罪的場景,除非這一系統(tǒng)用于公眾舉報刑事犯罪這一場景。生成或操控的圖片、音頻或視頻內(nèi)容容易像存在的人、物體、地方或其他實體/事件以及可能被錯誤地當(dāng)成真實的人(深度偽造),其人工智能系統(tǒng)的使用者應(yīng)當(dāng)披露其生成的內(nèi)容已經(jīng)被人工生成或操縱。然而,上述義務(wù)不適用于如下場景:法律授權(quán)的偵察、預(yù)防、調(diào)查和起訴刑事犯罪;履行言論自由或歐盟基本權(quán)利憲章所賦予的藝術(shù)和科學(xué)自由的權(quán)利所必需;對第三方行使言論自由的適當(dāng)保護。上述義務(wù)不區(qū)分人工智能系統(tǒng)的風(fēng)險程度,屬于普遍適用的相關(guān)義務(wù)。2023年,歐盟《人工智能法案(2023年草案)》將這一義務(wù)專門寫進生成式人工智能的義務(wù)條款里。

      美國國會眾議員TORRES在2023年6月提出《2023年人工智能披露法》議案,法案要求生成式人工智能應(yīng)當(dāng)在其生成物上標(biāo)注“聲明:本物由人工智能生成(Disclaimer: this output has been generated by artificial intelligence. )”任何違反上述義務(wù)的主體,都被認(rèn)為違反了FTC法案下的不公平或欺詐的行為,F(xiàn)TC有權(quán)依據(jù)《聯(lián)邦貿(mào)易委員會法》適用管轄、采取措施或賦予相關(guān)的義務(wù)。美國國會參議員Michael Bennet也向包括OpenAI、Google公司在內(nèi)的頭部人工智能公司寫信,要求這些頭部的科技公司給人工智能生成物內(nèi)容進行打標(biāo)(label),并限制具有誤導(dǎo)用戶的相關(guān)內(nèi)容的傳播。這一義務(wù)并不是全新的要求,在美國加州2018年通過的《提升網(wǎng)絡(luò)透明度法(Bolstering Online Transparency Act)》中就有類似的規(guī)定,即任何使用聊天機器人(bot)與用戶進行交互時,如果沒有清晰、明確的披露,而誤導(dǎo)用戶關(guān)于其人工的身份而激勵用戶購買,或影響用戶選舉投票,在加州都是非法的行為。

      除了法律上的要求之外,全球知名互聯(lián)網(wǎng)公司在其平臺治理實踐中也開始嘗試這一舉措。微軟公司2022年6月發(fā)布其透明度目標(biāo),該目標(biāo)的第三個子項就是AI交互的披露(Disclosure of AI interaction),即微軟的AI系統(tǒng)應(yīng)當(dāng)告知用戶其正在與AI系統(tǒng)交互,或其正在使用AI系統(tǒng)生成或操作能以假亂真的圖像、聲音、視頻內(nèi)容。這一義務(wù)適用于:(1)與人交互的AI系統(tǒng),除非用戶明顯認(rèn)知到這一環(huán)境和場景在使用AI系統(tǒng);(2)能生成或操作以假亂真的圖像、音頻或視頻內(nèi)容的AI系統(tǒng)。微軟公司也將這一要求納入到影響評估的一環(huán)。

      綜上,中國、歐盟和美國都不約而同開始對人工智能的標(biāo)識義務(wù)提出要求,有些國家是要求對人工智能本身提出標(biāo)識的要求,例如歐盟;而有些國家是需要對人工智能生成物提出標(biāo)識的要求,例如中國??梢?,關(guān)于人工智能的標(biāo)識義務(wù)可以粗略區(qū)分為兩類:

      第一類標(biāo)識:針對人工智能技術(shù)本身的標(biāo)識義務(wù),例如標(biāo)識某個產(chǎn)品是使用了人工智能技術(shù)的產(chǎn)品,目的是讓使用該產(chǎn)品的用戶明確知曉其中使用了人工智能技術(shù)。上述歐盟《人工智能法案(草案)》中的方案,以及微軟公司的行業(yè)實踐屬于此類。

      第二類標(biāo)識:針對人工智能生成物進行標(biāo)識,例如對某個圖片、聲音或視頻采取技術(shù)措施等其進行標(biāo)識,告知使用者其屬于人工智能生成的產(chǎn)品,當(dāng)上述生成物傳播到人工智能系統(tǒng)之外時,也能讓其他第三方用戶明確知曉。中國網(wǎng)信辦的部門規(guī)章,以及美國參議員的提議均屬于此種類型。

      二、對人工智能進行標(biāo)識的功能和必要性

      對第一類涉人工智能技術(shù)的產(chǎn)品或服務(wù)的標(biāo)識義務(wù)來說,告知用戶產(chǎn)品或服務(wù)帶有人工智能的屬性,是滿足消費者知情權(quán)的重要內(nèi)容,也對于用戶基本權(quán)利的保障具有重要的作用,例如在移民、邊境管理等領(lǐng)域,不論是否使用人工智能,其結(jié)果都可能對人類用戶的基本權(quán)利(如自由、非歧視、私人生活和個人數(shù)據(jù)的保護等)具有較大的影響,因此在這類領(lǐng)域中強制要求披露人工智能使用情況具有重大意義,而這也成為界定人工智能是否屬于高風(fēng)險的重要依據(jù)之一。

      對第二類人工智能生成物進行標(biāo)識也具有多重必要性。

      首先,目前生成式人工智能帶來的最大挑戰(zhàn)在于以假亂真的信息,例如假新聞、深度偽造信息、詐騙信息等,對人工智能生成物進行標(biāo)識也成為解決這一問題的主要路徑。AI標(biāo)識不僅能降低文字等內(nèi)容本身的可信任度,還能緩解人工智能內(nèi)容接收者在遭遇網(wǎng)暴等現(xiàn)象時的情感痛苦(emotional distress)。當(dāng)網(wǎng)暴受害者了解到辱罵其的信息都是人工智能機器人生成的(例如具有類似群控軟件功能的聊天機器人Chatbot),網(wǎng)暴受害者對上述內(nèi)容的認(rèn)知僅僅限于背后的機器人,這能極大程度上減少網(wǎng)暴受害者的感情壓力,僅僅將其歸類為某種網(wǎng)絡(luò)黑灰產(chǎn)。相反,倘若網(wǎng)暴受害者對于網(wǎng)暴內(nèi)容的認(rèn)知是每一網(wǎng)暴內(nèi)容背后都代表著一個活生生的人,那這一精神上的壓力極有可能會造成較大的后果。

      其次,對人工智能生成物進行標(biāo)識屬于平臺廣義透明度的一部分,是典型的面向公眾的信息治理工具之一。透明度規(guī)制路徑是治理人工智能帶來的風(fēng)險和危害的重要路徑之一。透明度規(guī)制路徑包括多種不同的方式,包括向監(jiān)管透明、向公眾透明、向上下游行業(yè)相關(guān)方透明,而對人工智能生成物進行標(biāo)識就是典型的向公眾或消費者受眾透明的一種路徑,這一路徑很難被其他路徑取代,畢竟用戶只有對產(chǎn)品或服務(wù)進行親自使用時才會傾注足夠的注意力,單純在隱私政策或用戶協(xié)議里進行提醒或說明本產(chǎn)品是人工智能產(chǎn)品或服務(wù),已經(jīng)不足以達到適當(dāng)透明度的義務(wù),即第一類標(biāo)識實踐達不到第二類標(biāo)識的作用。OECD(經(jīng)濟合作與發(fā)展組織)在2019年通過的報告(目前46個國家已通過)中明確指出,使相關(guān)主體知道其正在與AI系統(tǒng)進行交互應(yīng)當(dāng)成為AI系統(tǒng)透明度和可解釋性的關(guān)鍵一環(huán)。在歐盟最新的《人工智能法案(2023年草案)》中,關(guān)于透明度的定義,就包括讓人類用戶明確知曉其正在與人工智能系統(tǒng)進行交流或交互。

      對人工智能的透明度是具有多個維度的系統(tǒng)性要求,通常目的是為了讓人們能夠理解人工智能系統(tǒng)是如何開發(fā)、訓(xùn)練、部署、生成某個特定決策。特別是在某些特定的場景下,例如刑事犯罪、無人駕駛、金融或醫(yī)療、招聘等領(lǐng)域,對其中使用的人工智能系統(tǒng)有更高的透明度要求,甚至要給予相關(guān)受眾主體明確拒絕適用上述AI決策的權(quán)利。但這一透明度的要求在技術(shù)方面面臨較大的問題,主要表現(xiàn)在基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法在可解釋性上表現(xiàn)很弱,這一技術(shù)上的特點使得對于人工智能系統(tǒng)的內(nèi)部透明度遇到較大的阻礙,因此對于人工智能產(chǎn)品或生成物進行外表特征上的透明度成為較合適的替代補充選擇。

      再次,對人工智能生成物進行標(biāo)識,能夠解決AI生成物知識產(chǎn)權(quán)法上的相關(guān)難題。人工智能生成物是否可版權(quán)問題目前成為爭議的焦點問題之一。從最近美國版權(quán)局的政策文件來看,完全的人工智能生成物不應(yīng)當(dāng)被作為版權(quán)法保護的可版權(quán)客體,不應(yīng)受到美國版權(quán)法的保護。其他一些知產(chǎn)學(xué)者和司法實踐也基本上傾向于這一觀點。倘若人工智能生成物不是可版權(quán)的客體,那么下一步的問題顯然是如何區(qū)分人工智能生成物和人工生成物,而當(dāng)前這一制度能夠恰當(dāng)?shù)亟鉀Q這一問題。

      最后,對于人工智能生成物進行標(biāo)識,能否明確告知人工智能使用者相關(guān)生成物的法律屬性,也是后續(xù)賦予人工智能使用者相關(guān)義務(wù)的基礎(chǔ)。如果人工智能技術(shù)或服務(wù)提供者不明確告知人工智能使用者或受眾相關(guān)生成物是否完全由人工智能技術(shù)產(chǎn)生,那要求人工智能使用者不得刪除、篡改的要求,將是不可能的任務(wù)。特別對于專業(yè)領(lǐng)域的使用者,這一標(biāo)識義務(wù)更顯必要性,如新聞、學(xué)術(shù)或教育等領(lǐng)域的生成式人工智能內(nèi)容,對其進行標(biāo)識能夠提醒相關(guān)專業(yè)研究者采取更多的措施對這一內(nèi)容進行驗證,這一標(biāo)識能夠明確提醒專業(yè)使用者上述生成物內(nèi)容信息的可信程度。

      三、行業(yè)應(yīng)用與展望

      在此意義上,人工智能生成內(nèi)容和深度合成內(nèi)容添加技術(shù)標(biāo)識的實際落地,一方面固然需要政府的明確規(guī)定和推動執(zhí)行,另一方面,行業(yè)自發(fā)自主的主動作為,也是推動這一舉措全面應(yīng)用的重要推動力。

      近日,抖音作為知名的短視頻和直播平臺,發(fā)布了人工智能生成內(nèi)容治理規(guī)范,為行業(yè)提供人工智能內(nèi)容標(biāo)識等技術(shù)能力和標(biāo)準(zhǔn),包括為用戶提供人工智能生成內(nèi)容水印功能,可供用戶選取標(biāo)注,為監(jiān)管措施落地提供了行業(yè)實踐的樣本。

      從這一行業(yè)實踐可以看出,對于人工智能生成內(nèi)容的監(jiān)管和治理,通過添加水印標(biāo)簽幫助用戶直觀分辨內(nèi)容屬性和來源,相對于其他治理手段,是成本較低而效果明顯的技術(shù)方式,而且只要設(shè)計得當(dāng),標(biāo)識添加可以兼顧用戶體驗和內(nèi)容美觀,并不會影響創(chuàng)意和內(nèi)容呈現(xiàn)。當(dāng)然,對于技術(shù)標(biāo)簽和水印這一治理方式,也需要根據(jù)實踐應(yīng)用不斷回應(yīng)新挑戰(zhàn)并進行完善,相關(guān)行業(yè)實踐也可以為完善治理技術(shù)和手段,積累重要的實踐素材和經(jīng)驗。例如,針對數(shù)字虛擬人這一新型應(yīng)用,由于其具有的動態(tài)性和隨機性等特點,除了水印標(biāo)識之外,有可能還需要提供類似“實名制”的注冊機制對其加以規(guī)范和保護。

      從內(nèi)容傳播和行業(yè)發(fā)展的角度,人工智能生成內(nèi)容和深度合成內(nèi)容的精準(zhǔn)有效治理,除了內(nèi)容傳播平臺的積極作為之外,還需要行業(yè)內(nèi)各個環(huán)節(jié)各方主體的全面參與。從全社會治理成本與全產(chǎn)業(yè)鏈治理效果考慮,直接面向用戶的平臺已經(jīng)處于內(nèi)容生產(chǎn)和傳播鏈的相對下游位置,僅僅依靠下游平臺和用戶打標(biāo),無法實現(xiàn)更好的源頭治理效果。如果人工智能生成工具的技術(shù)開發(fā)者和支持者,都能夠積極加入治理行動,響應(yīng)監(jiān)管要求,從生成技術(shù)、工具等源頭上,就對生成圖片、視頻等內(nèi)容進行標(biāo)識或者提供標(biāo)識工具,并形成標(biāo)準(zhǔn)化的行業(yè)實踐,與內(nèi)容傳播平臺形成產(chǎn)業(yè)鏈合力,共同培養(yǎng)培育用戶生成、傳播深度合成內(nèi)容的媒介素養(yǎng)和行為倫理,就能標(biāo)本兼治,推動形成更加健康有序、風(fēng)清氣朗的網(wǎng)絡(luò)內(nèi)容生態(tài)空間。

      (作者單位:中國社會科學(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心,南開大學(xué)·中國社會科學(xué)院大學(xué)21世紀(jì)馬克思主義研究院。本文為教育部新文科研究與改革實踐項目“計算社會科學(xué)與國家治理”(2021140027)和北京高等教育本科教學(xué)改革創(chuàng)新項目“檢法協(xié)作機制下網(wǎng)絡(luò)法治研究型人才培養(yǎng)模式創(chuàng)新研究”的階段性成果。)

      猜你喜歡
      透明度義務(wù)人工智能
      幸福的人,有一項獨特的義務(wù)
      海峽姐妹(2020年12期)2021-01-18 05:53:12
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      中國FTA中的透明度原則
      三十載義務(wù)普法情
      跟蹤導(dǎo)練(一)(4)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      “良知”的義務(wù)
      股權(quán)結(jié)構(gòu)與信息透明度相關(guān)性的實證研究
      三门峡市| 丹东市| 保靖县| 塔河县| 博客| 托克逊县| 隆尧县| 伊春市| 乐陵市| 德令哈市| 中西区| 泾源县| 黔西县| 西城区| 常熟市| 茶陵县| 永兴县| 镇康县| 城步| 南川市| 卢湾区| 囊谦县| 沁阳市| 吐鲁番市| 南宁市| 大足县| 绍兴市| 张家界市| 山阳县| 乌鲁木齐市| 三河市| 蒲城县| 许昌市| 静乐县| 唐山市| 施秉县| 汶川县| 郯城县| 新绛县| 酉阳| 蒲江县|