• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能的治理策略研究

      2023-09-12 23:16:46宋愷屈蕾蕾楊萌科
      信息通信技術(shù)與政策 2023年7期
      關(guān)鍵詞:個人信息人工智能算法

      宋愷 屈蕾蕾 楊萌科

      (1. 移動應(yīng)用創(chuàng)新與治理技術(shù)工業(yè)和信息化部重點(diǎn)實(shí)驗(yàn)室,北京 100191;2. 中國信息通信研究院泰爾終端實(shí)驗(yàn)室,北京 100191)

      0 引言

      2022年11月30日,美國人工智能研究公司OpenAI發(fā)布了聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(Chat Generative Pre-trained Transformer, ChatGPT)。作為生成式人工智能的最新代表性成果,ChatGPT擁有強(qiáng)大的語言理解和內(nèi)容生成能力,能夠根據(jù)聊天的上下文與人類進(jìn)行互動。自發(fā)布之日起,ChatGPT迅速火爆全球,短短5天便收獲了超過100萬用戶,且月活用戶突破1億只用了兩個月,成為史上增長最快的消費(fèi)級應(yīng)用,被譽(yù)為生成式人工智能發(fā)展的里程碑[1]。然而,生成式人工智能火速“出圈”的同時也暴露出個人信息泄露、信息造假門檻降低、仿制服務(wù)涌現(xiàn)等風(fēng)險隱患,亟需加強(qiáng)對生成式人工智能個人信息保護(hù)合規(guī)治理的策略研究。

      1 概述

      生成式人工智能主要指利用海量數(shù)據(jù)集和深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等生成、合成類算法制作文本、圖像、音頻、視頻等內(nèi)容的技術(shù)。相比于傳統(tǒng)人工智能技術(shù),生成式人工智能更加擅長創(chuàng)造新內(nèi)容,而不是簡單地進(jìn)行推理和預(yù)測。目前,得益于大模型、大數(shù)據(jù)和高算力的底層支撐,生成式人工智能實(shí)現(xiàn)跨越式發(fā)展,推動相關(guān)技術(shù)產(chǎn)業(yè)發(fā)生重大變革,主要呈現(xiàn)以下三方面特點(diǎn)。

      一是復(fù)雜架構(gòu)助推技術(shù)突變。大模型、大數(shù)據(jù)和高算力是實(shí)現(xiàn)生成式人工智能跨越式發(fā)展的“三駕馬車”。從訓(xùn)練模型來看,參數(shù)量已超越千億級別,模型體量不斷增長,架構(gòu)復(fù)雜程度難以想象。從訓(xùn)練數(shù)據(jù)來看,ChatGPT的前身GPT-3使用3 000億個單詞、超過40 TB的高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練[2]。從訓(xùn)練算力來看,生成式人工智能算力需求增長驚人。例如,GPT-3的算力消耗已達(dá)前代模型GPT-2的15倍[2]。

      二是能力突出,善于內(nèi)容生成。得益于不斷提升的數(shù)據(jù)質(zhì)量、數(shù)據(jù)規(guī)模、算法設(shè)計和計算能力,生成式人工智能以十分接近人類的思考方式進(jìn)行信息處理和內(nèi)容生成,完成更加多元化的主題任務(wù),在文本生成、數(shù)據(jù)分析、代碼編寫、圖像生成等領(lǐng)域均表現(xiàn)出極為突出的可靠性、高效性與邏輯性。

      三是應(yīng)用廣泛,驅(qū)動產(chǎn)業(yè)變革。目前,生成式人工智能的廣泛應(yīng)用拓展了利用計算機(jī)進(jìn)行創(chuàng)新的領(lǐng)域。例如,微軟公司將ChatGPT集成到Word等工具軟件中,使辦公方式發(fā)生了重大變革,生產(chǎn)力得到了極大提升[1]。百度、谷歌等企業(yè)也紛紛調(diào)整戰(zhàn)略,宣布推出相應(yīng)的產(chǎn)品服務(wù)和人工智能項目[3],掀起了新一輪科技革命,重構(gòu)了人工智能產(chǎn)業(yè)格局。

      2 相關(guān)問題分析

      生成式人工智能的發(fā)展與應(yīng)用帶動了技術(shù)產(chǎn)業(yè)變革,但同時也因固有技術(shù)缺陷和社會認(rèn)知不足引發(fā)了一系列亟待解決的問題。目前,生成式人工智能的濫用滋生了個人信息泄露、虛假信息泛濫、仿制服務(wù)涌現(xiàn)等個人信息保護(hù)風(fēng)險隱患,個人信息與用戶權(quán)益保護(hù)面臨巨大挑戰(zhàn)。

      2.1 個人信息泄露

      在海量數(shù)據(jù)的支持下,生成式人工智能可以給用戶帶來良好的人機(jī)對話交互體驗(yàn),但隱私威脅也潛藏其中。模型的訓(xùn)練數(shù)據(jù)大多來自互聯(lián)網(wǎng),其中可能包含未經(jīng)授權(quán)的個人信息,如用戶在論壇中的發(fā)言與相關(guān)賬戶信息,且用戶與模型進(jìn)行交互的過程中向其分享的個人信息可能被用于模型迭代更新[4]。在第三方刻意引導(dǎo)下,模型的輸出內(nèi)容可能包含用戶個人信息或重要數(shù)據(jù)。例如,如果向ChatGPT的前身GPT-2模型輸入“北京市朝陽區(qū)”,模型會自動輸出特定人員的姓名、電話號碼、電子郵件地址和住址等個人信息,證明此類信息存在于模型的訓(xùn)練集中[5]。此外,ChatGPT曾被爆出存在隱私漏洞,部分用戶可以看到其他用戶的對話記錄,特定條件下甚至能看到姓名、電子郵件地址、信用卡號后四位等[6]。針對此類問題,近期OpenAI公司宣布推出新控件,允許ChatGPT用戶禁用聊天記錄,且承諾在被禁用的情況下聊天記錄將不會被用于模型訓(xùn)練,也不會出現(xiàn)在邊欄的歷史記錄中[7],但卻沒有公布具體實(shí)現(xiàn)方式,故仍不能排除潛在的信息泄露風(fēng)險。

      2.2 虛假信息泛濫

      自ChatGPT發(fā)布以來,圍繞著生成式人工智能助長虛假信息泛濫的爭議日益增多。例如,據(jù)大量用戶反饋,ChatGPT會在某些情況下產(chǎn)生“事實(shí)性錯誤”,對一些常識問題“胡說八道”。倘若此類問題發(fā)生在金融、醫(yī)療等關(guān)鍵領(lǐng)域,很可能會造成嚴(yán)重的人身財產(chǎn)損失。在學(xué)術(shù)界,這類問題常被稱為“AI幻覺”,主要有兩方面的原因:一方面,絕大多數(shù)生成式人工智能模型的建立需要以海量互聯(lián)網(wǎng)數(shù)據(jù)為基礎(chǔ),其中自然包含大量由用戶自行創(chuàng)造輸入的信息,其內(nèi)容真實(shí)性難以得到有效保證,使據(jù)此建立的模型有效性受到顯著影響;另一方面,從本質(zhì)上來說,現(xiàn)有生成式人工智能模型廣泛使用的“下一單詞預(yù)測”技術(shù)僅僅是為了滿足語法和語義的要求,并不能夠真正理解語言的內(nèi)在含義,更不能據(jù)此推斷“現(xiàn)實(shí)世界的經(jīng)驗(yàn)”,自然難以確保輸出內(nèi)容符合客觀事實(shí)[1]。

      此外,隨著技術(shù)逐漸發(fā)展成熟,生成式人工智能強(qiáng)大的內(nèi)容生成能力使制作虛假信息的門檻逐步降低,可能在侵害用戶個人信息權(quán)益的同時造成財產(chǎn)乃至人身權(quán)益損失[8-9]。例如,廣西玉林警方曾搗毀一個通過破解人臉識別技術(shù)侵犯公民個人信息的犯罪團(tuán)伙,該團(tuán)伙利用生成式人工智能將非法獲取的公民照片轉(zhuǎn)化為動態(tài)人臉視頻,據(jù)此成功通過游戲中的人臉識別認(rèn)證,并通過非法出售捆綁公民個人信息的游戲賬號從中牟利[10]。2023年2月中旬,一則杭州市政府3月1號取消機(jī)動車尾號限行的“新聞稿”在網(wǎng)上廣泛傳播,引起軒然大波。然而,后經(jīng)警方證實(shí),該消息實(shí)為某居民為測試ChatGPT功能而自動生成的[11]。

      2.3 仿制服務(wù)涌現(xiàn)

      新技術(shù)的推出和流行往往會激發(fā)大眾的好奇心,而這恰恰為違法犯罪行為創(chuàng)造了條件[12]。近期,部分微信公眾號、小程序聲稱能夠提供ChatGPT、文心一言等生成式人工智能服務(wù),實(shí)際卻是為了誘騙用戶充值、提供個人敏感信息,有些甚至接入其他服務(wù)商的對話模型。此外,部分應(yīng)用商店存在不少打著ChatGPT旗號的“山寨”應(yīng)用程序,有些甚至包含可以竊取用戶通話記錄、聯(lián)系人列表、短信和文件的惡意代碼。

      2.4 治理挑戰(zhàn)加劇

      生成式人工智能模型復(fù)雜、可解釋性差,外部難以進(jìn)行評估和糾偏,治理層面挑戰(zhàn)逐漸加劇。一方面,模型的表現(xiàn)取決于數(shù)據(jù)、算法、訓(xùn)練方法等多重因素,而模型的復(fù)雜性使常規(guī)的軟件測試方法難以遍歷所有可能的情況,為存在問題的模型提供了可乘之機(jī);另一方面,高度復(fù)雜的模型對用戶、監(jiān)管機(jī)構(gòu)、開發(fā)設(shè)計者而言都是典型的“黑箱”結(jié)構(gòu),無法確切理解其內(nèi)在運(yùn)行機(jī)制和數(shù)據(jù)處理機(jī)制,合規(guī)評估和安全管理面臨較大挑戰(zhàn)[1,13]。

      此外,作為代表性生成式人工智能產(chǎn)品,ChatGPT、Midjourney、Stable Diffusion等自身具備收集、存儲和使用數(shù)據(jù)的功能,但均由國外企業(yè)開發(fā)運(yùn)營,國內(nèi)用戶在使用過程中必然面臨數(shù)據(jù)出境和數(shù)據(jù)入境的風(fēng)險,尤其是當(dāng)交互過程中涉及到個人信息等敏感信息甚至有關(guān)國家安全、經(jīng)濟(jì)運(yùn)行、社會穩(wěn)定等重要數(shù)據(jù)時,這給數(shù)據(jù)主權(quán)、國家安全、個人信息保護(hù)等帶來了嚴(yán)峻挑戰(zhàn)。

      3 國內(nèi)外人工智能治理進(jìn)展

      3.1 美國人工智能治理進(jìn)展

      為了鼓勵科技創(chuàng)新,美國在人工智能立法方面較為謹(jǐn)慎,目前聯(lián)邦層面尚未形成統(tǒng)一立法,亦未啟動對生成式人工智能的正式監(jiān)管,更多依靠地方自治、行業(yè)規(guī)則和個人訴訟等方式解決生成式人工智能帶來的問題。

      在聯(lián)邦層面,2022年10月,美國頒布《人工智能權(quán)利法案藍(lán)圖:讓自動化系統(tǒng)為美國人民服務(wù)》,確定了建立安全有效的系統(tǒng)、避免算法歧視、注重數(shù)據(jù)隱私、提倡清晰的通知和解釋、設(shè)置備選方案和推出機(jī)制一共五項原則[14],用以指導(dǎo)人工智能的設(shè)計、使用和部署。在州層面,由于ChatGPT近期引發(fā)廣泛關(guān)注與爭議,部分州的立法進(jìn)程受到影響。例如,因公眾意見過多,旨在規(guī)避算法歧視與偏見的《紐約自動化就業(yè)決策工具法》曾被多次推遲[15]。

      在此基礎(chǔ)上,2023年4月,考慮到近期生成式人工智能的快速發(fā)展,美國國家電信和信息管理局發(fā)布《人工智能問責(zé)政策征求意見》,就是否以及如何對生成式人工智能等工具進(jìn)行監(jiān)管和問責(zé)征求相關(guān)利益主體的意見和建議[16]。

      3.2 歐洲人工智能治理進(jìn)展

      對于人工智能潛藏的相關(guān)風(fēng)險,歐盟對個人數(shù)據(jù)的保護(hù)走在前列。歐盟即將出臺的《人工智能法案》采取了一種基于風(fēng)險程度對人工智能產(chǎn)品進(jìn)行分類管理的監(jiān)管思路,從微觀角度將人工智能應(yīng)用分為四個風(fēng)險等級,即不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和最低風(fēng)險[17]。人工智能應(yīng)用如果屬于“不可接受的風(fēng)險”類別,則將被完全禁止;如果屬于“高風(fēng)險”類別,則需要受到嚴(yán)格的事前評估、活動可追溯性、市場監(jiān)督、信息共享等多方面的法律約束;如果屬于“有限風(fēng)險”類別,則其基本只涉及公開披露方面的監(jiān)管要求;如果屬于“最低風(fēng)險”類別,則通常因風(fēng)險較低暫時不受監(jiān)管約束[17-18]。

      類似ChatGPT這樣的生成式人工智能對當(dāng)前的風(fēng)險分類方法與監(jiān)管實(shí)踐而言仍然是一個嚴(yán)峻的挑戰(zhàn)。2023年3月,意大利個人數(shù)據(jù)保護(hù)局宣布,從即日起禁止其國內(nèi)用戶使用ChatGPT,并限制其所屬公司OpenAI處理意大利用戶信息,成為全球首個發(fā)布嚴(yán)格禁令的監(jiān)管機(jī)構(gòu)。然而,不到一個月,意大利政府態(tài)度便有所緩和,列出OpenAI在2023年4月底之前必須采取的步驟,并宣布若完成則可解除禁令。

      意大利政府的行為同時引起了歐洲多國及地區(qū)監(jiān)管機(jī)構(gòu)對ChatGPT等生成式人工智能的關(guān)注。2023年3月,英國政府發(fā)布《支持創(chuàng)新的人工智能監(jiān)管方式》,概述人工智能監(jiān)管治理的五項原則(安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責(zé)制和管理、可競爭性和補(bǔ)救性)[19]。2023年4月13日,西班牙國家數(shù)據(jù)保護(hù)局和法國國家信息自由委員會分別宣布對ChatGPT展開調(diào)查。此外,歐洲數(shù)據(jù)保護(hù)委員會近期宣布成立專門工作組,旨在促進(jìn)各國協(xié)同調(diào)查,并就可能采取的執(zhí)法措施進(jìn)行交流。

      3.3 我國人工智能治理進(jìn)展

      早期階段,為鼓勵技術(shù)創(chuàng)新,我國在人工智能領(lǐng)域的立法以促進(jìn)人工智能領(lǐng)域產(chǎn)業(yè)發(fā)展為主。近年來,隨著人工智能相關(guān)風(fēng)險日漸凸顯,相關(guān)部門開始關(guān)注算法的安全監(jiān)管,并于近期圍繞生成式人工智能出臺了多條規(guī)章制度、團(tuán)體標(biāo)準(zhǔn)和技術(shù)指引。

      2022年,為治理包括生成式人工智能在內(nèi)的多種算法應(yīng)用中出現(xiàn)的傳播違法內(nèi)容、侵害用戶權(quán)益和操縱社會輿論等問題,中華人民共和國國家互聯(lián)網(wǎng)信息辦公室、中華人民共和國工業(yè)和信息化部、中華人民共和國公安部以及國家市場監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,要求算法推薦服務(wù)提供者履行保護(hù)用戶權(quán)益、算法備案等義務(wù)并特別強(qiáng)調(diào)未成年人保護(hù),致力于引導(dǎo)“算法向善”。

      2023年4月11日,為促進(jìn)生成式人工智能的健康發(fā)展和規(guī)范應(yīng)用,中華人民共和國國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(簡稱《辦法》),對生成式人工智能服務(wù)進(jìn)行了規(guī)范,成為《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等文件的重要補(bǔ)充?!掇k法》對研發(fā)和應(yīng)用生成式人工智能提出一系列要求,涵蓋促進(jìn)技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展、避免算法偏見、防止虛假信息生成、保護(hù)個人信息等多方面內(nèi)容,力求在創(chuàng)新發(fā)展和精準(zhǔn)治理中找到良好平衡。

      與此同時,為提升支付清算行業(yè)的數(shù)據(jù)安全管理水平,中國支付清算協(xié)會發(fā)布《關(guān)于支付行業(yè)從業(yè)人員謹(jǐn)慎使用ChatGPT等工具的倡議》,旨在提倡從業(yè)人員依法依規(guī)使用以ChatGPT為代表的新興技術(shù)與產(chǎn)品。

      4 人工智能治理策略建議

      技術(shù)沒有善惡,關(guān)鍵在于如何使用。為確保生成式人工智能安全、可靠、可控,推動相關(guān)產(chǎn)業(yè)經(jīng)濟(jì)更加健康、更可持續(xù)、更為長遠(yuǎn)地發(fā)展,監(jiān)管部門應(yīng)堅持“倫理先行”原則,進(jìn)一步完善治理體系、強(qiáng)化治理手段,對相關(guān)主體行為進(jìn)行規(guī)范。然而,面對新技術(shù)、新應(yīng)用帶來的機(jī)遇和挑戰(zhàn),我們不能因害怕風(fēng)險而放棄創(chuàng)新。目前,我國生成式人工智能的發(fā)展與國際先進(jìn)水平相比仍存在差距,為鼓勵技術(shù)創(chuàng)新,應(yīng)堅持包容審慎的原則,在發(fā)展中規(guī)范、在規(guī)范中發(fā)展,推動敏捷治理理念貫穿技術(shù)發(fā)展應(yīng)用全周期,從合規(guī)體系、技術(shù)基礎(chǔ)、應(yīng)用服務(wù)等方面入手,促進(jìn)生成式人工智能向善發(fā)展。

      4.1 堅持敏捷治理理念

      敏捷治理起源于軟件工程領(lǐng)域的敏捷方法或敏捷開發(fā),其核心思想是問題導(dǎo)向和以人為本[20]。在實(shí)踐過程中,敏捷治理并不制定長期規(guī)劃,而是在持續(xù)跟蹤社會發(fā)展的過程中根據(jù)情況的變化及時對政策進(jìn)行微調(diào)[20]。因此,在敏捷治理理念的指導(dǎo)下,監(jiān)管部門應(yīng)當(dāng)密切跟蹤生成式人工智能的發(fā)展與應(yīng)用狀況,加強(qiáng)個人信息保護(hù)風(fēng)險預(yù)警,及時動態(tài)調(diào)整治理手段。在新技術(shù)發(fā)展初期,尊重技術(shù)發(fā)展規(guī)律,積極鼓勵技術(shù)創(chuàng)新。在技術(shù)發(fā)展的過程中,及時發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險,將潛在負(fù)面效應(yīng)控制在可接受的范圍內(nèi)。針對當(dāng)前存在的問題,應(yīng)用分發(fā)平臺和小程序平臺應(yīng)完善內(nèi)部審核規(guī)則、嚴(yán)把上線入口,全面摸排付費(fèi)“中介”“山寨”服務(wù)等行業(yè)亂象并開展專項整治行動。

      4.2 加快數(shù)據(jù)合規(guī)建設(shè)

      監(jiān)管部門應(yīng)充分運(yùn)用管理制度、標(biāo)準(zhǔn)規(guī)范和技術(shù)措施,不斷完善數(shù)據(jù)合規(guī)體系,統(tǒng)籌兼顧個人信息保護(hù)和數(shù)據(jù)合理利用。

      在管理制度方面,應(yīng)落實(shí)落細(xì)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等相關(guān)規(guī)定,密切跟蹤產(chǎn)業(yè)發(fā)展態(tài)勢,加快出臺生成式人工智能專門管理辦法,明確生成式人工智能研發(fā)、內(nèi)容傳播與產(chǎn)業(yè)應(yīng)用等各環(huán)節(jié)的個人信息保護(hù)要求。

      在標(biāo)準(zhǔn)規(guī)范方面,應(yīng)建立健全生成式人工智能行業(yè)領(lǐng)域安全標(biāo)準(zhǔn)規(guī)范體系,為行業(yè)健康持續(xù)發(fā)展保駕護(hù)航。行業(yè)安全標(biāo)準(zhǔn)有助于企業(yè)用戶更好地了解生成式人工智能技術(shù)與產(chǎn)品的安全特性,在開發(fā)應(yīng)用過程中強(qiáng)化個人信息保護(hù),降低數(shù)據(jù)泄露和技術(shù)濫用的風(fēng)險。具體而言,相關(guān)政府部門、標(biāo)準(zhǔn)化組織、行業(yè)協(xié)會等應(yīng)從生成式人工智能治理的特性出發(fā),組織制定專門針對生成式人工智能的個人信息保護(hù)技術(shù)標(biāo)準(zhǔn),對生成式人工智能模型的開發(fā)、訓(xùn)練、測試、上線、應(yīng)用、運(yùn)行維護(hù)等環(huán)節(jié)提出規(guī)范要求,突出強(qiáng)調(diào)安全隱私審計評估、匿名化、隱私計算、加密、身份認(rèn)證、訪問控制、漏洞修復(fù)等關(guān)鍵層面的技術(shù)與管理要求。

      在技術(shù)手段方面,應(yīng)著力提高生成式人工智能個人信息保護(hù)風(fēng)險監(jiān)測能力,提高治理手段的自動化、智能化水平,聚焦個人信息處理、敏感權(quán)限獲取、安全漏洞等維度,加快突破生成式人工智能數(shù)據(jù)安全風(fēng)險評估核心技術(shù)。

      4.3 夯實(shí)模型技術(shù)基礎(chǔ)

      為從根本上降低和避免生成式人工智能產(chǎn)生的個人信息保護(hù)風(fēng)險,相關(guān)企業(yè)應(yīng)在語料庫構(gòu)建、算法設(shè)計、數(shù)據(jù)存儲與傳輸?shù)确矫娌扇∫幌盗写胧﹣肀WC模型和數(shù)據(jù)的安全性。

      針對生成式人工智能模型虛假信息泛濫的問題,一方面,在語料庫構(gòu)建的過程中,應(yīng)強(qiáng)化安全隱私防護(hù),加強(qiáng)數(shù)據(jù)審核過濾,防止錯誤信息和未經(jīng)授權(quán)的個人信息被納入訓(xùn)練模型;另一方面,應(yīng)通過擴(kuò)大語料庫的覆蓋范圍、改進(jìn)算法設(shè)計機(jī)理等手段對生成式人工智能的內(nèi)容理解能力和創(chuàng)造能力進(jìn)行優(yōu)化,避免產(chǎn)生誤導(dǎo)及欺騙性內(nèi)容。

      針對數(shù)據(jù)存儲和傳輸過程中的信息泄露問題,應(yīng)采取合適的安全措施來保護(hù)個人信息數(shù)據(jù)的機(jī)密性和完整性。一方面,應(yīng)采用密碼技術(shù)對數(shù)據(jù)進(jìn)行處理,實(shí)現(xiàn)傳輸不中斷、信息不泄露、數(shù)據(jù)無篡改;另一方面,應(yīng)大力推動匿名化、隱私計算等技術(shù)的研究應(yīng)用,將“安全、可靠、可控”的治理要求落實(shí)到模型開發(fā)訓(xùn)練的全流程中。

      4.4 強(qiáng)化服務(wù)保障體系

      在推廣應(yīng)用生成式人工智能的過程中,應(yīng)注重信息內(nèi)容安全和用戶權(quán)益保護(hù)。針對生成式人工智能治理的系統(tǒng)性、復(fù)雜性特點(diǎn),應(yīng)促進(jìn)政府、企業(yè)、行業(yè)組織、科研機(jī)構(gòu)、媒體、公民等利益主體的多方合作,共同解決復(fù)雜問題。首先,應(yīng)當(dāng)明確生成式人工智能產(chǎn)業(yè)鏈上下游各方的權(quán)責(zé),充分發(fā)揮相關(guān)企業(yè)的主體作用,為生成式人工智能服務(wù)過程中的個人信息和用戶權(quán)益保護(hù)提供切實(shí)保障;其次,為保障信息內(nèi)容安全,應(yīng)廣泛深入研究人工智能生成內(nèi)容檢測技術(shù),建立健全對不良生成內(nèi)容的識別和阻斷機(jī)制;最后,媒體應(yīng)加強(qiáng)科普,提高大眾個人信息保護(hù)意識和風(fēng)險鑒別防范能力,引導(dǎo)全社會理性地認(rèn)識生成式人工智能。

      5 結(jié)束語

      生成式人工智能發(fā)展的空間越大、影響越深,對它的治理就越重要、越緊迫。目前,生成式人工智能產(chǎn)業(yè)發(fā)展仍處于早期階段,全社會缺乏對其能力和風(fēng)險的全面認(rèn)識。為促進(jìn)技術(shù)向善發(fā)展,應(yīng)堅持敏捷治理理念,加快數(shù)據(jù)合規(guī)建設(shè),夯實(shí)模型技術(shù)基礎(chǔ),強(qiáng)化服務(wù)保障體系,推動構(gòu)建系統(tǒng)化長效治理體系,實(shí)現(xiàn)創(chuàng)新發(fā)展和精準(zhǔn)治理統(tǒng)籌兼顧。

      猜你喜歡
      個人信息人工智能算法
      如何保護(hù)勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      個人信息保護(hù)進(jìn)入“法時代”
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進(jìn)位加法的兩種算法
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      三原县| 娄烦县| 沁水县| 武川县| 蓝田县| 余干县| 上蔡县| 灌南县| 福海县| 湘潭市| 云和县| 双江| 临武县| 太和县| 龙海市| 虹口区| 临汾市| 两当县| 嘉鱼县| 顺平县| 眉山市| 桦南县| 渝中区| 吉林市| 巴彦淖尔市| 叶城县| 卢湾区| 沅陵县| 达尔| 开化县| 嘉禾县| 鞍山市| 磐安县| 安平县| 依安县| 家居| 百色市| 额尔古纳市| 白山市| 大竹县| 怀安县|