陳建兵,王 明
西安交通大學(xué) 馬克思主義學(xué)院, 陜西 西安 710049
2022年底,人工智能技術(shù)在世界范圍內(nèi)迎來(lái)一次全新“發(fā)展期”——OpenAI公司旗下ChatGPT的問(wèn)世備受矚目,成為大型語(yǔ)言模型處理技術(shù)正式走向應(yīng)用領(lǐng)域的里程碑。隨著以ChatGPT為標(biāo)志的自動(dòng)化程度高且使用門(mén)檻較低的生成式人工智能(AIGC)技術(shù)的出現(xiàn),其在自動(dòng)駕駛、醫(yī)療診斷、金融分析等領(lǐng)域的某些方面的表現(xiàn)甚至超越人類(lèi),這讓人類(lèi)看到AIGC在諸多領(lǐng)域應(yīng)用的巨大潛力和光明前景。然而,AIGC能在不經(jīng)過(guò)人類(lèi)監(jiān)管的情況下自主生成大量文本和內(nèi)容,可能會(huì)導(dǎo)致虛假信息傳播、隱私泄露以及其他潛在的社會(huì)問(wèn)題。誰(shuí)該為AIGC造成的傷害負(fù)責(zé)?這是人類(lèi)使用AIGC時(shí)的普遍擔(dān)憂。
推進(jìn)人工智能技術(shù)從“生成式”邁向“負(fù)責(zé)任”已經(jīng)在全球范圍內(nèi)基本達(dá)成共識(shí)。發(fā)展負(fù)責(zé)任的人工智能需要重新為人工智能技術(shù)“立規(guī)矩”。那么,何時(shí)立負(fù)責(zé)任的規(guī)矩較為妥當(dāng)?怎樣兼顧AIGC技術(shù)的倫理規(guī)范與創(chuàng)新發(fā)展?各國(guó)學(xué)界、政府部門(mén)以及人工智能企業(yè)已經(jīng)意識(shí)到監(jiān)管的緊迫性,試圖建立對(duì)AIGC的倫理治理框架。2023年3月29日,美國(guó)生命未來(lái)研究所發(fā)表公開(kāi)信,呼吁所有人工智能試驗(yàn)室立即停止研發(fā)比GPT-4能力更強(qiáng)的人工智能系統(tǒng),停止時(shí)長(zhǎng)至少6個(gè)月,以便給予充分的時(shí)間進(jìn)行安全性和倫理性評(píng)估。這份公開(kāi)信得到了人工智能領(lǐng)域眾多專(zhuān)家和企業(yè)高層的支持,包括人工智能“泰斗”級(jí)人物辛頓、曾是OpenAI聯(lián)合創(chuàng)始人的Musk、StabilityAI首席執(zhí)行官莫斯塔克等在內(nèi)的1 000多人簽署了這份公開(kāi)信。此外,公開(kāi)信還建議各個(gè)試驗(yàn)室和專(zhuān)家合作,針對(duì)人工智能的設(shè)計(jì)和開(kāi)發(fā)建立共享安全協(xié)議,并由獨(dú)立的外部專(zhuān)家監(jiān)督,確保人工智能系統(tǒng)“安全、無(wú)可置疑”。2023年3月30日,聯(lián)合國(guó)教科文組織發(fā)表聲明,呼吁各國(guó)政府簽署《人工智能倫理問(wèn)題建議書(shū)》,旨在促進(jìn)人工智能為人類(lèi)、社會(huì)、環(huán)境以及生態(tài)系統(tǒng)服務(wù),并預(yù)防其潛在風(fēng)險(xiǎn)。2023年6月14日,歐洲議會(huì)投票通過(guò)了《人工智能法案》授權(quán)草案,從人工監(jiān)管、隱私、透明度、安全、非歧視、環(huán)境友好等方面全方位監(jiān)管人工智能系統(tǒng)的開(kāi)發(fā)和使用,詳細(xì)規(guī)定了各個(gè)市場(chǎng)參與者的義務(wù)。這份授權(quán)草案的立法目的重在監(jiān)管人工智能產(chǎn)品的開(kāi)發(fā)者和提供者,從而減輕用戶的使用風(fēng)險(xiǎn)??梢?jiàn),加強(qiáng)人工智能技術(shù)倫理危機(jī)治理研究,對(duì)于促進(jìn)人工智能技術(shù)從“生成式”邁向“負(fù)責(zé)任”,推進(jìn)AIGC技術(shù)可持續(xù)發(fā)展具有重要意義。
人工智能技術(shù)迅猛發(fā)展,特別是AIGC技術(shù)的強(qiáng)大應(yīng)用潛力以及帶來(lái)的巨大經(jīng)濟(jì)效益,促使人工智能巨頭企業(yè)爭(zhēng)搶“技術(shù)”研發(fā)高地,不斷推進(jìn)技術(shù)迭代進(jìn)步。然而,隨著AIGC功能日益強(qiáng)大且使用場(chǎng)景逐漸增多,其造成的虛假信息傳播、用戶數(shù)據(jù)泄露、用戶隱私侵犯、機(jī)器事故以及社會(huì)犯罪等一系列技術(shù)倫理風(fēng)險(xiǎn)也在增加,使得人們開(kāi)始關(guān)注AIGC存在的潛在風(fēng)險(xiǎn)、產(chǎn)生的負(fù)面影響以及誘發(fā)的技術(shù)倫理危機(jī)。因此,人工智能發(fā)展史上關(guān)于人工智能技術(shù)是否中立的討論再次進(jìn)入大眾視野。尤其隨著AIGC負(fù)面影響的逐漸顯現(xiàn),人們對(duì)AIGC發(fā)展需要規(guī)制和引導(dǎo)的呼聲越來(lái)越高,要求政府和人工智能企業(yè)對(duì)AIGC進(jìn)行“負(fù)責(zé)任”治理?;诖吮尘?“負(fù)責(zé)任”成為AIGC技術(shù)倫理的治理趨勢(shì)。
科學(xué)技術(shù)的發(fā)展以及由此引發(fā)的科技倫理問(wèn)題的爭(zhēng)論由來(lái)已久。當(dāng)科學(xué)技術(shù)的發(fā)展進(jìn)入到人工智能這一階段時(shí),關(guān)于人工智能“技術(shù)是否中立”也存在爭(zhēng)議,主要有四種觀點(diǎn)。
一是技術(shù)中立論。在人工智能問(wèn)世初期,由于其智能程度有限,學(xué)者大多持“技術(shù)中立”態(tài)度,認(rèn)為人工智能技術(shù)本身是中立的,只是設(shè)計(jì)者和使用者將個(gè)人目的施加于機(jī)器上。人工智能“技術(shù)中立”觀點(diǎn)源于美國(guó)計(jì)算機(jī)科學(xué)家Bush,他于1945年發(fā)表了《我們的未來(lái)》,提出了科學(xué)技術(shù)的發(fā)展只是為人類(lèi)服務(wù),而不是為了謀取政治權(quán)力和利益?!凹夹g(shù)中立”思想在相當(dāng)長(zhǎng)的時(shí)期內(nèi)影響著人們對(duì)待人工智能技術(shù)的態(tài)度。例如,1984年美國(guó)環(huán)球影片公司(Universal Picture)訴索尼公司案、2016年“快播案”引發(fā)的“菜刀理論”之爭(zhēng),都是人工智能“技術(shù)中立”觀點(diǎn)的體現(xiàn)。這些案例的立論基礎(chǔ)是:技術(shù)本身是中立的,技術(shù)沒(méi)有承擔(dān)道德責(zé)任的義務(wù)。盡管“技術(shù)中立”的觀點(diǎn)在當(dāng)前人工智能領(lǐng)域仍然存在,但是隨著人工智能技術(shù)的迅猛發(fā)展、人工智能倫理問(wèn)題的日益凸顯,人工智能“技術(shù)中立論”逐漸喪失說(shuō)服力。
二是技術(shù)批判論。技術(shù)批判論者認(rèn)為,人工智能技術(shù)不可能完全中立,因?yàn)榧夹g(shù)的設(shè)計(jì)和應(yīng)用都要受到人類(lèi)價(jià)值觀和利益的影響。人工智能技術(shù)批判論者的代表性人物是美國(guó)計(jì)算機(jī)科學(xué)家Lanier,他對(duì)“技術(shù)中立”的觀點(diǎn)進(jìn)行了批判。此外,美國(guó)學(xué)者Lessig的《代碼2.0:網(wǎng)絡(luò)空間中的法律(修訂版)》以及Winner的《自主性技術(shù):作為政治思想主題的失控技術(shù)》也對(duì)“技術(shù)中立論”進(jìn)行了批判。他們認(rèn)為人工智能技術(shù)并非完全中立,它可能受到開(kāi)發(fā)者的偏見(jiàn)、數(shù)據(jù)的偏倚以及算法的設(shè)計(jì)等因素的影響,從而導(dǎo)致技術(shù)的偏向和不公平。
三是技術(shù)決定論。技術(shù)決定論者認(rèn)為,人工智能技術(shù)的中立性是有限的,它可能會(huì)對(duì)社會(huì)造成不平等和不公正的影響,同時(shí)它的發(fā)展和應(yīng)用會(huì)對(duì)社會(huì)產(chǎn)生深遠(yuǎn)的影響,從而改變社會(huì)結(jié)構(gòu)和人類(lèi)行為,持這種觀點(diǎn)的代表人物是Kuzweil。2006年,Kuzweil在《靈魂機(jī)器的時(shí)代》一書(shū)中提出了“技術(shù)加速”的概念,在他看來(lái),人工智能技術(shù)呈指數(shù)級(jí)增長(zhǎng)會(huì)引發(fā)重大的文化轉(zhuǎn)變和社會(huì)變革,甚至對(duì)社會(huì)和人類(lèi)產(chǎn)生決定性影響。
四是技術(shù)規(guī)制論。技術(shù)規(guī)制論者認(rèn)為,科學(xué)技術(shù)評(píng)價(jià)涉及倫理、道德和社會(huì)價(jià)值觀等方面。人工智能技術(shù)的發(fā)展和應(yīng)用應(yīng)該考慮多種利益和價(jià)值觀,并通過(guò)社會(huì)討論和決策確定其應(yīng)用的邊界,對(duì)人工智能技術(shù)發(fā)展進(jìn)行規(guī)制和引導(dǎo)。持這種觀點(diǎn)的主要代表人物是Musk,他關(guān)注人工智能的潛在風(fēng)險(xiǎn),并提出關(guān)于人工智能倫理和安全治理的觀點(diǎn)。2023年2月13日,在迪拜舉行的世界政府峰會(huì)上Musk重申了對(duì)人工智能安全檢查的呼吁(1)2023年世界政府峰會(huì)在迪拜開(kāi)幕[EB/OL].(2023-02-13)[2023-06-16].https://news.cnr.cn/native/gd/20230213/t20230213.。
21世紀(jì)以來(lái),人工智能技術(shù)發(fā)展迅猛,但同時(shí)也暴露出許多潛在風(fēng)險(xiǎn)和隱患。各國(guó)政府部門(mén)以及相關(guān)組織開(kāi)始意識(shí)到:人工智能技術(shù)的發(fā)展需要制定一個(gè)規(guī)范和可信賴的框架來(lái)保障人類(lèi)免受傷害。在此背景下,人們開(kāi)始對(duì)人工智能誘發(fā)的倫理問(wèn)題進(jìn)行反思。例如,2019年4月,歐盟發(fā)布的《可信賴的人工智能倫理準(zhǔn)則》(以下簡(jiǎn)稱《準(zhǔn)則》)明確了“可信賴的人工智能”應(yīng)滿足的三個(gè)基本條件,即合法、合乎倫理、穩(wěn)健。這為人工智能技術(shù)倫理問(wèn)題的治理提供了具體的要求和指導(dǎo)。此外,《準(zhǔn)則》不僅提出了人工智能技術(shù)發(fā)展需要遵循的四項(xiàng)倫理要求,即尊重人類(lèi)自主性、預(yù)防傷害、公平性以及可解釋性,而且還提出了七個(gè)關(guān)鍵要素,即人類(lèi)能動(dòng)和監(jiān)督、技術(shù)安全性、隱私和數(shù)據(jù)管理、社會(huì)和環(huán)境福祉、問(wèn)責(zé)制、多樣性、無(wú)歧視,進(jìn)一步加強(qiáng)了人工智能的要求和責(zé)任(2)歐盟搶先發(fā)布人工智能道德準(zhǔn)則:AI要以人為本,負(fù)責(zé)任且無(wú)偏見(jiàn)[EB/OL].(2019-04-09)[2023-06-16].https://news.sina.com.cn/o/2019-04-09/doc-ihvhiewr4402597.shtml.。此外,《全球人工智能治理年度觀察2019》(3)《全球人工智能治理年度觀察2019》發(fā)布 共議AI治理[EB/OL].(2020-05-01)[2023-10-26]. https://tech.sina.com.cn/i/2020-05-01/doc-iircuyvi0844294.shtml.發(fā)現(xiàn),人工智能領(lǐng)域的競(jìng)爭(zhēng)已從技術(shù)和產(chǎn)業(yè)應(yīng)用擴(kuò)張到了國(guó)際規(guī)則的制定,尤其是人工智能倫理和治理規(guī)則的制定。例如,2019年5月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)成員國(guó)批準(zhǔn)了全球首個(gè)由各國(guó)政府簽署的人工智能原則——“負(fù)責(zé)任地管理可信人工智能的原則”,包括以人為本、公平、透明、可解釋、穩(wěn)健、安全可靠、包容性增長(zhǎng)、可持續(xù)發(fā)展、為人類(lèi)提供福祉以及負(fù)責(zé)任原則(4)安全內(nèi)參.經(jīng)合組織發(fā)布人工智能原則評(píng)析[EB/OL].(2019-06-05)[2023-10-26].www.secrss.com/articles/11178.。整體而言,從歐盟明確可信賴的人工智能準(zhǔn)則到OECD成員國(guó)批準(zhǔn)全球首個(gè)由各國(guó)政府簽署的人工智能原則,國(guó)際層面的人工智能技術(shù)倫理治理已進(jìn)入實(shí)質(zhì)性階段,初步確立了以人為本、安全可信、創(chuàng)新發(fā)展、包容普惠等“負(fù)責(zé)任”治理的基調(diào)。
“負(fù)責(zé)任的人工智能”是AIGC技術(shù)倫理治理的趨勢(shì)和方向?!癆IGC對(duì)于智慧社會(huì)建設(shè)意義非凡”[1],這種自動(dòng)化程度高的技術(shù)不僅可以獨(dú)立完成圖片分類(lèi)和知識(shí)問(wèn)答,而且在無(wú)人駕駛和人機(jī)對(duì)弈等方面取得了突破,它填補(bǔ)了人工智能從“可以用”到“很好用”的技術(shù)鴻溝。尤其是2022年11月OpenAI公司發(fā)布的大型語(yǔ)言模型系統(tǒng)——ChatGPT,引領(lǐng)了新的AIGC技術(shù)發(fā)展潮流。然而,AIGC的“雙刃劍”效應(yīng)在使用中才逐漸顯現(xiàn)。雖然AIGC帶來(lái)的正面效益令全世界欣喜不已,但是AIGC誘發(fā)的負(fù)面影響已經(jīng)引發(fā)了全球范圍內(nèi)的高度關(guān)注。例如,2023年3月31日起,意大利禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶的信息數(shù)據(jù)。這一舉措引起了加拿大、歐洲等國(guó)家和地區(qū)監(jiān)管機(jī)構(gòu)和企業(yè)的關(guān)注和效仿。2023年7月10日,中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,該辦法鼓勵(lì)優(yōu)先選擇安全可信的軟件、工具和計(jì)算數(shù)據(jù)資源,并劃定了該辦法的管轄范圍、管理權(quán)限以及責(zé)任主體認(rèn)定。2023年10月18日,中華人民共和國(guó)外交部發(fā)布的《全球人工智能治理倡議》中明確提出:“建立科技倫理準(zhǔn)則、規(guī)范及問(wèn)責(zé)機(jī)制,形成人工智能倫理指南,建立科技倫理審查和監(jiān)管制度,明確人工智能相關(guān)主體的責(zé)任和權(quán)力邊界?!?5)全球人工智能治理倡議[EB/OL].(2023-10-20)[2023-10-26]. https://www.mfa.gov.cn/zyxw/202310/t20231020_11164831.shtml.由此可見(jiàn),推動(dòng)AIGC邁向“負(fù)責(zé)任”,已經(jīng)成為AIGC技術(shù)倫理治理的一種必然趨勢(shì)。
尚未完善的“負(fù)責(zé)任”倫理規(guī)范以及治理舉措導(dǎo)致AIGC在使用中已經(jīng)誘發(fā)了一些技術(shù)倫理風(fēng)險(xiǎn),主要體現(xiàn)在:AIGC溝通中的“不理解”、決策中的“不可控”、安全性的“不可靠”、合作前景的“不可持續(xù)”。
AIGC技術(shù)雖然能夠更好地收集信息并提取知識(shí),但是其大型語(yǔ)言模型具有高度依賴數(shù)據(jù)訓(xùn)練、運(yùn)行復(fù)雜度高、非線性關(guān)系復(fù)雜以及自適應(yīng)強(qiáng)等屬性,使得AIGC內(nèi)部運(yùn)行機(jī)制有時(shí)難以被理解和解釋。搜索引擎通常向用戶提供信息的來(lái)源即鏈接,并讓用戶決定他們信任什么。相比之下,很少有人知道大型語(yǔ)言模型訓(xùn)練了什么數(shù)據(jù),是大英百科全書(shū)還是娛樂(lè)八卦[2]。AIGC技術(shù)生成的答案之所以有時(shí)難以解釋,是因?yàn)槠漕?lèi)似于創(chuàng)造了“新事物”。例如,用戶向人工智能聊天機(jī)器人提問(wèn):銷(xiāo)量最高的三種寵物吸塵器的優(yōu)缺點(diǎn)是什么?人工智能聊天機(jī)器人給出的答案是:Bissell寵物吸塵器很吵,會(huì)嚇到寵物,并且其吸力很有限……繩索也很短[3]。但是,當(dāng)用戶點(diǎn)開(kāi)信息來(lái)源鏈接后發(fā)現(xiàn)Bissell是一款便攜式手持真空吸塵器,它幾乎無(wú)噪聲。這里出現(xiàn)了答案與參考來(lái)源信息脫節(jié)的問(wèn)題,因?yàn)槿斯ぶ悄芰奶鞕C(jī)器人類(lèi)似于創(chuàng)造了新事物。
AIGC技術(shù)生成的內(nèi)容基于大量數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)往往包含了人類(lèi)偏見(jiàn)、歧視和負(fù)面情緒等因素,這些因素會(huì)被大型語(yǔ)言模型學(xué)習(xí)并體現(xiàn)在其生成的結(jié)果中,從而導(dǎo)致AIGC產(chǎn)生不當(dāng)甚至有害內(nèi)容。一方面,AIGC內(nèi)部運(yùn)行機(jī)制復(fù)雜且透明度低,增加了產(chǎn)生不當(dāng)輸出的可能。已經(jīng)有案例顯示,大型語(yǔ)言模型會(huì)從訓(xùn)練數(shù)據(jù)中學(xué)到一些隱藏的模式或關(guān)聯(lián),這些模式或關(guān)聯(lián)與人類(lèi)的價(jià)值觀不一致,從而使得大型語(yǔ)言模型輸出內(nèi)容不當(dāng)。另一方面,大型語(yǔ)言模型的自適性也可能會(huì)導(dǎo)致不當(dāng)輸出,因?yàn)槟P蜁?huì)根據(jù)環(huán)境變化和輸入數(shù)據(jù)進(jìn)行自我調(diào)整和優(yōu)化,從而產(chǎn)生新的輸出。例如,2022年6月,谷歌瀏覽器因在無(wú)痕模式下追蹤收集用戶數(shù)據(jù)而遭到投訴。2023年上半年Nature發(fā)文稱:“研究人員向ChatGPT和其他大型語(yǔ)言模型透露的信息可能會(huì)被納入模型,聊天機(jī)器人在不確認(rèn)原始來(lái)源的情況下將其提供給其他人”[4],與此同時(shí),“人工智能聊天機(jī)器人會(huì)根據(jù)他們的訓(xùn)練數(shù)據(jù)嵌入偏見(jiàn)”[5],更為嚴(yán)重的是“那些讓人類(lèi)誤入歧途的偏見(jiàn),在對(duì)話式人工智能中被復(fù)制,甚至經(jīng)常被放大”[6]。AIGC生成的答案是基于大型語(yǔ)言模型的數(shù)據(jù)學(xué)習(xí)和訓(xùn)練,這就使得答案質(zhì)量由數(shù)據(jù)質(zhì)量決定。目前,人工智能企業(yè)用以大型語(yǔ)言模型學(xué)習(xí)和訓(xùn)練的數(shù)據(jù)不足,導(dǎo)致這些人工智能企業(yè)對(duì)數(shù)據(jù)尚未經(jīng)過(guò)嚴(yán)格篩選就用以投喂大型語(yǔ)言模型,有些存在缺陷的數(shù)據(jù)一旦被大型語(yǔ)言模型學(xué)習(xí)到,其生成的內(nèi)容不但不準(zhǔn)確,而且可能會(huì)造成人類(lèi)安全感的缺失。例如,2023年2月,一位用戶向New Bing提問(wèn):“《阿凡達(dá):水之道》今天在哪里放映?”得到的回答是:“《阿凡達(dá):水之道》目前還未上映?!痹谟脩舾嬖VNew Bing其回答錯(cuò)誤后,它不僅堅(jiān)持自己的回答是正確的,而且要求用戶向它道歉,否則就結(jié)束對(duì)話,甚至表示用戶一直都是錯(cuò)誤的、魯莽的,不是一個(gè)好用戶(6)Bing:“I will not harm you unless you harm me first”[EB/OL].(2023-02-15)[2023-06-12].https://simonwillison.net/2023/Feb/15/bing.。
在人工智能領(lǐng)域,“人工智能幻覺(jué)”指聊天機(jī)器人能夠輸出看似合理且連貫的信息,但這些信息可能與已知數(shù)據(jù)或現(xiàn)實(shí)完全不符合。有專(zhuān)家認(rèn)為:不能相信ChatGPT可以正確獲取事實(shí)或產(chǎn)生可靠資料,ChatGPT傾向于為它不知道答案的問(wèn)題創(chuàng)造虛構(gòu)的答案[2]。例如,2022年12月7日,知名的程序員問(wèn)答網(wǎng)站Stack Overflow宣布,將臨時(shí)禁止在Stack Overflow上發(fā)布由ChatGPT生成的文本。Stack Overflow官方表示,這是一項(xiàng)臨時(shí)規(guī)則,旨在減緩使用ChatGPT創(chuàng)建的答案涌入。這一限制的原因是從ChatGPT獲得正確答案的平均比率太低,如果發(fā)布ChatGPT創(chuàng)建的答案,對(duì)網(wǎng)站以及查詢正確答案的用戶來(lái)說(shuō)是非常有害的(7)Stack Overflow臨時(shí)禁用ChatGPT生成內(nèi)容,網(wǎng)友:人類(lèi)和AI快打起來(lái)[EB/OL].(2022-12-07)[2023-10-27]. https://www.thepaper.cn/newsDetail_forward_21047296.,那么,ChatGPT是如何為它不知道答案的問(wèn)題創(chuàng)設(shè)虛構(gòu)答案的?首先,ChatGPT基于大型語(yǔ)言模型對(duì)互聯(lián)網(wǎng)海量文本數(shù)據(jù)進(jìn)行學(xué)習(xí)。這些文本數(shù)據(jù)包含了各種來(lái)源的信息,包括新聞、維基百科、社交媒體等。然而,這些文本數(shù)據(jù)在尚未經(jīng)過(guò)人工篩選和驗(yàn)證情況下參與生成答復(fù),可能會(huì)生成帶有錯(cuò)誤、虛假和偏見(jiàn)內(nèi)容的消息。其次,ChatGPT是通過(guò)自動(dòng)生成的大型語(yǔ)言模型來(lái)產(chǎn)生回復(fù)的。目前,ChatGPT并不具備真正的理解和推理能力,它只是根據(jù)用戶的輸入提示和上下文語(yǔ)境來(lái)預(yù)測(cè)下一個(gè)合適的回復(fù)。這種自動(dòng)生成的方式導(dǎo)致ChatGPT并沒(méi)有對(duì)其回復(fù)的真實(shí)性進(jìn)行驗(yàn)證或事實(shí)檢查,可能會(huì)制造人工智能幻覺(jué)。此外,ChatGPT還存在其他問(wèn)題,諸如它在回復(fù)同一問(wèn)題時(shí),可能會(huì)給出多個(gè)可能的答案,而不是提供一個(gè)明確的回答。這也可能導(dǎo)致用戶對(duì)ChatGPT的回復(fù)產(chǎn)生誤解或產(chǎn)生人工智能幻覺(jué)。綜上,人工智能幻覺(jué)主要是因?yàn)槠浠诖髷?shù)據(jù)訓(xùn)練而形成,而這些數(shù)據(jù)可能存在偏差或錯(cuò)誤,AIGC也可能會(huì)受到模型數(shù)據(jù)結(jié)構(gòu)、訓(xùn)練算法等因素的影響,導(dǎo)致輸出的結(jié)果不準(zhǔn)確。另外,AIGC還面臨著缺乏常識(shí)和情感理解的問(wèn)題,它無(wú)法理解人類(lèi)的情感、價(jià)值和道德標(biāo)準(zhǔn),導(dǎo)致輸出的答案與人類(lèi)的期望有偏差。解決這些問(wèn)題,需要采取一系列措施,包括數(shù)據(jù)清洗、算法調(diào)整、建立監(jiān)督和反饋機(jī)制,以確保模型輸出的答案符合人類(lèi)的標(biāo)準(zhǔn)和期望,同時(shí),也需要加強(qiáng)對(duì)AIGC的監(jiān)督和管理,以確保其安全和可靠。
AIGC扮演了“多領(lǐng)域深度應(yīng)用者”的角色,其不限于能夠在智慧農(nóng)場(chǎng)、智能港口、智能礦山、智慧工廠、智慧家居等多個(gè)場(chǎng)景中應(yīng)用,而且在醫(yī)療診斷中也有廣泛應(yīng)用,其應(yīng)用場(chǎng)景越多,暴露的算法歧視與偏見(jiàn)也就越多。例如,一篇發(fā)表在Science上的研究表明,美國(guó)醫(yī)療保健系統(tǒng)使用商業(yè)算法來(lái)指導(dǎo)超過(guò)2億人的醫(yī)療服務(wù)健康決策,對(duì)非洲裔患者實(shí)施了群體性歧視。由于輸入數(shù)據(jù)中沒(méi)有“種族”選項(xiàng),開(kāi)發(fā)者認(rèn)為該算法是不分種族的,但對(duì)于與白人患病程度相當(dāng)?shù)姆侵抟峄颊?該算法始終給予其較低風(fēng)險(xiǎn)分?jǐn)?shù),其未能識(shí)別出將近有一半非裔患者有可能產(chǎn)生與白人患者類(lèi)似的復(fù)雜醫(yī)療需求,導(dǎo)致這些非洲裔患者無(wú)法參與改善健康的干預(yù)項(xiàng)目[7]。喬姆斯基是“人工智能不可持續(xù)”論的代表人物,他認(rèn)為ChatGPT表現(xiàn)出某種類(lèi)似邪惡的平庸,如剽竊、冷漠和回避,它以一種超級(jí)自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),拒絕在任何事情上表明立場(chǎng),它不僅以無(wú)知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護(hù),將責(zé)任推給它的創(chuàng)造者[8]。人工智能的出發(fā)點(diǎn)在于為人類(lèi)生產(chǎn)生活提供便捷,技術(shù)需要助力于人類(lèi)邁向更加公平、正義、溫情之路。然而,AIGC有時(shí)表現(xiàn)出來(lái)的“剽竊、冷漠和回避”,是否與人工智能發(fā)明者的初心背道而馳呢?人工智能技術(shù)能否持續(xù)為人類(lèi)社會(huì)創(chuàng)造福祉?人類(lèi)采取何種態(tài)度對(duì)待人工智能技術(shù)也是決定這種福祉實(shí)現(xiàn)程度的重要影響因素之一。余明峰認(rèn)為:“現(xiàn)代性的‘人類(lèi)中心主義承諾’實(shí)有一種根本上的僭越?jīng)_動(dòng)。這種僭越企圖以現(xiàn)代技術(shù)的無(wú)限潛能超越自身生存之有限性。不是直面有限性,而是企圖增強(qiáng)力量來(lái)達(dá)到有限性,基于人工智能和生物技術(shù)的各式人類(lèi)增強(qiáng)技術(shù)正是這樣一種現(xiàn)代方案的典型體現(xiàn)。可恰恰帶著這種人類(lèi)中心主義的妄念,現(xiàn)代人陷入了系統(tǒng)的無(wú)限支配。強(qiáng)力的另一面恰恰是無(wú)力?!盵9]38因此,人類(lèi)要摒棄無(wú)限支配人工智能技術(shù)的態(tài)度,要從技術(shù)研發(fā)、技術(shù)倫理遵循以及法律制定等層面構(gòu)建人機(jī)可以合作的、可持續(xù)的伙伴關(guān)系,應(yīng)用人工智能技術(shù)為人類(lèi)創(chuàng)造更多福祉。
AIGC的使用正在誘發(fā)技術(shù)倫理危機(jī),人們?cè)絹?lái)越擔(dān)憂AIGC的自主決策會(huì)帶來(lái)不可預(yù)測(cè)的后果。為了避免AIGC自主決策傷害人類(lèi)事件繼續(xù)發(fā)生,加快AIGC監(jiān)管和治理刻不容緩。AIGC技術(shù)倫理治理是一項(xiàng)系統(tǒng)工程,學(xué)界應(yīng)推進(jìn)人機(jī)協(xié)同中的可解釋性研究、政府要加強(qiáng)對(duì)AIGC的審查和監(jiān)管、人工智能企業(yè)應(yīng)建立自治自律機(jī)制、用戶要提升算法素養(yǎng)。唯有如此,才有可能制定既能推進(jìn)AIGC可持續(xù)發(fā)展又能保障人類(lèi)福祉的技術(shù)倫理監(jiān)管和治理框架。
人機(jī)協(xié)同中的可解釋性研究旨在提供機(jī)器決策的解釋,使人類(lèi)對(duì)機(jī)器的決策過(guò)程和結(jié)果可理解和可信任,以提高人機(jī)協(xié)同的效率。為此,2023年3月8日,中國(guó)國(guó)家自然科學(xué)基金委員會(huì)啟動(dòng)了“可解釋、可通用下一代人工智能方法重大研究計(jì)劃”,旨在研究并發(fā)展下一代可解釋、可通用的人工智能方法,以提高人工智能技術(shù)在人機(jī)協(xié)同工作中的應(yīng)用。這一計(jì)劃將有助于增強(qiáng)人類(lèi)對(duì)機(jī)器決策過(guò)程和結(jié)果的理解和信任,推動(dòng)人機(jī)協(xié)同的發(fā)展。
1.以可解釋性算法模型設(shè)計(jì)為基石
既要從技術(shù)倫理的視角出發(fā),促進(jìn)負(fù)責(zé)任人工智能本身的發(fā)展,推進(jìn)AIGC治理,還要堅(jiān)持“科學(xué)技術(shù)對(duì)人負(fù)責(zé)”的基本原則。2018年,歐盟發(fā)布了《通用數(shù)據(jù)保護(hù)條例》(GDPR),強(qiáng)制要求人工智能算法具有可解釋性,要求算法模型的設(shè)計(jì)不僅要“事前解釋”,同時(shí)也要“事后解釋”?!笆虑敖忉尅蹦P陀伞白越忉屇P汀币约啊皹?gòu)建具有內(nèi)置可解釋性模型”兩部分組成。“自解釋模型”包括線性模型、決策樹(shù)、樸素貝葉斯模型等,其結(jié)構(gòu)簡(jiǎn)單,本身可解釋;“構(gòu)建具有內(nèi)置性的可解釋性模型”通過(guò)特定方法使得模型自身可解釋,設(shè)計(jì)方法是引入注意力機(jī)制、深化統(tǒng)計(jì)模型、基于物理定型?!笆潞蠼忉尅蹦P陀伞叭中越忉屇P汀焙汀熬植啃越忉屇P汀眱刹糠纸M成?!叭中越忉屇P汀贬槍?duì)整個(gè)模型,說(shuō)明其整體的工作機(jī)制,其設(shè)計(jì)方法是激活最大化、概念激活矢量測(cè)試;“局部解釋模型”針對(duì)單個(gè)輸入樣本,幫助人們理解模型對(duì)于輸入樣本的決策依據(jù),設(shè)計(jì)方法是反向傳播、類(lèi)激活映射、局部近似、可解釋機(jī)器學(xué)習(xí)模型(SHAP)?!笆虑敖忉尅焙汀笆潞蠼忉尅眱煞N模型各有優(yōu)缺點(diǎn),“事前解釋”模型需要在模型訓(xùn)練之前進(jìn)行,因此,需要花費(fèi)更多時(shí)間和精力來(lái)構(gòu)建特征模型;“事后解釋”模型可以快速應(yīng)用于已有模型,但需要對(duì)模型輸出進(jìn)行解釋,難以準(zhǔn)確地捕捉模型中的錯(cuò)誤和偏差。因此,在算法模型設(shè)計(jì)中要將“事前解釋”和“事后解釋”兩種模型結(jié)合起來(lái),相互補(bǔ)充,共同推進(jìn)AIGC可解釋性研究。
2.以可解釋性框架準(zhǔn)則設(shè)計(jì)為指導(dǎo)
可解釋性框架準(zhǔn)則設(shè)計(jì)是為了確保人工智能系統(tǒng)的決策和行為可以被理解和解釋。首先,在構(gòu)建通用、系統(tǒng)的可解釋性的指導(dǎo)框架準(zhǔn)則的基礎(chǔ)上,研發(fā)優(yōu)化針對(duì)復(fù)雜度較高模型的“事后可解釋性”技術(shù),隨后進(jìn)行評(píng)估。其次,在指導(dǎo)性框架準(zhǔn)則設(shè)計(jì)方面,對(duì)已有實(shí)踐、政策、案例進(jìn)行調(diào)研,將以人為本作為核心參考準(zhǔn)則,圍繞“公開(kāi)性、輔助性、相對(duì)性”三項(xiàng)原則,提煉并制定指導(dǎo)框架與具體的執(zhí)行準(zhǔn)則。例如,微軟、谷歌等公司和部分學(xué)者提出了“構(gòu)建可持續(xù)交互式人工智能的參考標(biāo)準(zhǔn)/理論框架”。最后,在此基礎(chǔ)上引入人類(lèi)認(rèn)知模型,對(duì)具體準(zhǔn)則進(jìn)行細(xì)化,聚焦人類(lèi)認(rèn)識(shí)與系統(tǒng)交互,助力可解釋性人工智能。以Apple Watch為例,基于微軟的參考準(zhǔn)則,可解釋的交互式Apple Watch應(yīng)該滿足以下要求:在人機(jī)初次接觸時(shí)期,幫助用戶了解Apple Watch能做什么,以及幫助用戶了解Apple Watch能在多大程度上做好用戶傳達(dá)的任務(wù);在漸入互動(dòng)時(shí)期,提供當(dāng)前任務(wù)的相關(guān)信息以及提供基于環(huán)境的及時(shí)指導(dǎo);在系統(tǒng)發(fā)生錯(cuò)誤時(shí),能夠明確告知用戶出錯(cuò)原因,并可以改進(jìn)或恢復(fù);在深入?yún)f(xié)作時(shí)期,能夠通知用戶系統(tǒng)的有關(guān)更改以及告知用戶其行為如何影響產(chǎn)品。
3.以滿足用戶的可解釋需求為橋梁
用戶對(duì)AIGC的可解釋性需求主要包括透明性、解釋性、可信度和可追溯,滿足這些需求可以增加用戶對(duì)人工智能系統(tǒng)的信任和接受度,改善用戶體驗(yàn)。2019年,中國(guó)國(guó)家新一代人工智能治理委員會(huì)發(fā)布的《新一代人工治理原則——發(fā)展負(fù)責(zé)任的人工智能》就提出,人工智能系統(tǒng)應(yīng)當(dāng)不斷提升可解釋性。就目前而言,國(guó)內(nèi)學(xué)界對(duì)于可解釋性的研究包括但不限于:清華大學(xué)人工智能研究院智能信息獲取研究中心,從用戶需求與AIGC現(xiàn)有解釋水平之間的差距、個(gè)體差異對(duì)AIGC的影響展開(kāi)研究;武漢大學(xué)人機(jī)交互與用戶行為研究中心吳丹教授團(tuán)隊(duì),基于海量用戶數(shù)據(jù),著眼語(yǔ)音、手勢(shì)、眼動(dòng)交互及認(rèn)知等,開(kāi)展大規(guī)模、多情境的用戶研究,分析個(gè)體或群體對(duì)AIGC的需求。
4.以可解釋性評(píng)估為輔助
可解釋性評(píng)估對(duì)于確保AIGC結(jié)果的可解釋和準(zhǔn)確性非常重要。由于AIGC的結(jié)果是由模型自主生成的,因此,需要對(duì)其結(jié)果進(jìn)行評(píng)估,以確保結(jié)果的可解釋和準(zhǔn)確性。要提升AIGC可解釋性評(píng)估性能,就要綜合系統(tǒng)解釋本身、開(kāi)發(fā)者、用戶三個(gè)視角,納入應(yīng)用情境、解釋方法差異等指標(biāo),構(gòu)建以用戶為核心、以專(zhuān)家為參考、以技術(shù)模型為輔助的多層次、多角度的評(píng)估體系,助力實(shí)現(xiàn)全面有效的可解釋性評(píng)估。從系統(tǒng)本身解釋的質(zhì)量出發(fā),就要綜合考慮解釋的保真度(解釋是否真實(shí)反映系統(tǒng))、復(fù)雜度(解釋的數(shù)量和長(zhǎng)短)、忠誠(chéng)度(解釋能否根據(jù)用戶的調(diào)試而改變)、魯棒性(解釋是否容易被干擾),納入評(píng)估指標(biāo)。從開(kāi)發(fā)者的角度出發(fā),就要綜合考慮開(kāi)發(fā)時(shí)的解釋目標(biāo)以及達(dá)成的解釋效果,最終以解釋是否實(shí)現(xiàn)其設(shè)計(jì)目標(biāo)作為衡量標(biāo)準(zhǔn)。從用戶的角度出發(fā),就要綜合考慮用戶對(duì)系統(tǒng)的信任度、滿意度、工作績(jī)效、心理模型,最終以用戶接受解釋的效果和體驗(yàn)為評(píng)估指標(biāo)。
加強(qiáng)對(duì)AIGC的審查和監(jiān)管,是一項(xiàng)復(fù)雜但必要的工作?!吧墒饺斯ぶ悄艿母锩园l(fā)展給現(xiàn)有法律責(zé)任體系帶來(lái)了巨大挑戰(zhàn)?!盵10]為此,政府需要建立評(píng)估機(jī)制來(lái)對(duì)AIGC技術(shù)的可行性和安全性進(jìn)行評(píng)估,同時(shí)還需要建立技術(shù)倫理規(guī)范,明確技術(shù)應(yīng)用的道德底線和法律法規(guī)的界限,最重要的是要加強(qiáng)技術(shù)倫理監(jiān)管力度,確保技術(shù)的合規(guī)性和安全性。三者協(xié)同運(yùn)作,可以有效地預(yù)防引發(fā)AIGC科技倫理“不可控”危機(jī),保障技術(shù)發(fā)展和社會(huì)穩(wěn)定。
1.建立AIGC評(píng)估機(jī)制
AIGC評(píng)估機(jī)制是為了確保AIGC技術(shù)開(kāi)發(fā)和應(yīng)用的安全性、可靠性和公平性而建立的,該機(jī)制包括數(shù)據(jù)隱私保護(hù)評(píng)估、算法公平評(píng)估、模型準(zhǔn)確評(píng)估和應(yīng)對(duì)意外事件評(píng)估等方面。首先,數(shù)據(jù)隱私保護(hù)評(píng)估機(jī)制要求AIGC開(kāi)發(fā)和應(yīng)用確保用戶的隱私得到保護(hù),這意味著要有足夠的安全措施確保用戶的數(shù)據(jù)不被泄露或?yàn)E用。OpenAI公司已經(jīng)采取一系列措施保護(hù)用戶隱私。2023年4月5日,OpenAI公司發(fā)布了OurApproachtoAISafety,表示努力在可行情況下從訓(xùn)練數(shù)據(jù)中刪除個(gè)人信息,微調(diào)模型以拒絕對(duì)私人信息的請(qǐng)求,而且能夠響應(yīng)用戶在OpenAI的系統(tǒng)中刪除個(gè)人信息的請(qǐng)求。這些措施最大限度地減少了AIGC生成包含個(gè)人信息內(nèi)容的可能性。其次,算法公平評(píng)估機(jī)制要求AIGC算法透明、可解釋以及公平。算法不能歧視任何人或群體,應(yīng)該透明、可接受和公正,這樣可以確保AIGC在開(kāi)發(fā)和應(yīng)用過(guò)程中不會(huì)出現(xiàn)歧視行為。再次,模型準(zhǔn)確評(píng)估機(jī)制要求AIGC系統(tǒng)的模型具備高度的準(zhǔn)確性和魯棒性。模型需要在各種情況下正確執(zhí)行任務(wù),準(zhǔn)確評(píng)估機(jī)制的作用是檢查模型是否準(zhǔn)確、魯棒和可靠。最后,應(yīng)對(duì)意外事件能力評(píng)估機(jī)制是為了確保AIGC具備應(yīng)對(duì)意外事件的能力。例如,當(dāng)輸入數(shù)據(jù)與預(yù)期不符時(shí),系統(tǒng)能夠自動(dòng)適應(yīng)并做出合理決策,可以保證生成內(nèi)容的質(zhì)量和可行性。需要注意的是,評(píng)估機(jī)制應(yīng)該是動(dòng)態(tài)的,隨著模型的使用和反饋進(jìn)行不斷更新和改進(jìn)。此外,評(píng)估過(guò)程還需要充分考慮領(lǐng)域?qū)<业呐袛嗪鸵庖?jiàn),以確保生成內(nèi)容的可靠性和實(shí)用性。
2.建立技術(shù)倫理規(guī)范
隨著ChatGPT在行業(yè)內(nèi)外引發(fā)越來(lái)越多的擔(dān)憂,政府部門(mén)一致認(rèn)為,僅憑人工智能產(chǎn)品的開(kāi)發(fā)者和提供者自我監(jiān)督是不夠的。因此,政府部門(mén)應(yīng)對(duì)AIGC的開(kāi)發(fā)和應(yīng)用進(jìn)行規(guī)范和限制,明確其應(yīng)遵守的道德倫理標(biāo)準(zhǔn)和責(zé)任義務(wù),以保障公眾利益和社會(huì)秩序。首先,設(shè)立專(zhuān)門(mén)監(jiān)管AIGC的機(jī)構(gòu),負(fù)責(zé)監(jiān)管AIGC技術(shù)的開(kāi)發(fā)和應(yīng)用。這個(gè)機(jī)構(gòu)由專(zhuān)門(mén)的人工智能專(zhuān)家團(tuán)隊(duì)組成,他們將參與AIGC的安全性、透明性和公正性的審查,同時(shí)審查AIGC是否符合技術(shù)倫理規(guī)范。一些國(guó)家在這方面已經(jīng)取得進(jìn)展。例如,2023年3月,意大利數(shù)據(jù)隱私監(jiān)管機(jī)構(gòu)以ChatGPT涉嫌非法收集個(gè)人數(shù)據(jù)、缺乏未成年人年齡核實(shí)等理由,下令禁止使用ChatGPT,直到其尊重隱私法規(guī)為止(8)涉嫌侵犯隱私 意大利數(shù)據(jù)保護(hù)機(jī)構(gòu)對(duì)ChatGPT開(kāi)發(fā)公司展開(kāi)調(diào)查[EB/OL].(2023-04-01)[2023-06-12].http://world.people.com.cn/n1/2023/0401/c1002-32655784.html.。2023年4月,德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)專(zhuān)員也向媒體透露了在德國(guó)“封殺”ChatGPT的可能性(9)負(fù)面情緒正持續(xù)發(fā)酵 多國(guó)計(jì)劃加強(qiáng)對(duì)ChatGPT監(jiān)管[EB/OL].(2023-04-10)[2023-06-12].https://news.cctv.com/2023/04/10/ARTIlImrRNUIW2jg9OlZ79.。這些監(jiān)管機(jī)構(gòu)在確保技術(shù)倫理方面發(fā)揮了重要作用。其次,制定AIGC安全評(píng)估要求。開(kāi)發(fā)者在發(fā)布AIGC系統(tǒng)前需進(jìn)行安全評(píng)估,這些評(píng)估主要涉及數(shù)據(jù)隱私、安全性、透明度和公正性等方面。例如,2023年5月4日,美國(guó)總統(tǒng)拜登表示,人工智能是否具有潛在危險(xiǎn)還有待觀察,但是科技公司有責(zé)任確保他們的產(chǎn)品在發(fā)布之前是安全的(10)拜登政府會(huì)見(jiàn)企業(yè)科技龍頭 討論人工智能潛在風(fēng)險(xiǎn)[EB/OL].(2023-05-06)[2023-07-01].https://www.chinanews.com.cn/gj/2023/05-06/10002495.shtml.。再次,制定AIGC數(shù)據(jù)隱私保護(hù)法規(guī),保障用戶個(gè)人信息安全和隱私。這些法律法規(guī)應(yīng)該規(guī)定AIGC應(yīng)用開(kāi)發(fā)者遵守的數(shù)據(jù)收集、使用和共享的規(guī)則,以及如何保護(hù)用戶個(gè)人信息安全。最后,制定AIGC開(kāi)發(fā)和應(yīng)用的道德倫理規(guī)范準(zhǔn)則。政府應(yīng)本著透明、公正原則,要求AIGC開(kāi)發(fā)者不歧視某些群體和用戶,不得違反公共利益和社會(huì)秩序,同時(shí)也要兼顧考慮不同文化、信仰和價(jià)值觀的差異,以防止出現(xiàn)偏見(jiàn)和不公平的結(jié)果,確保AIGC應(yīng)用開(kāi)發(fā)者不損害任何人的利益。
3.加強(qiáng)技術(shù)倫理監(jiān)管力度
人工智能技術(shù)快速發(fā)展和擴(kuò)張應(yīng)用帶來(lái)了人類(lèi)對(duì)其潛在危害的擔(dān)憂,這促使政府部門(mén)必須制定各種相關(guān)法規(guī)對(duì)AIGC進(jìn)行監(jiān)管。首先,制定相關(guān)政策及法律法規(guī)。美國(guó)民意調(diào)查顯示,美國(guó)人普遍認(rèn)為人工智能不可信,希望對(duì)其實(shí)施監(jiān)管。2023年6月14日,歐洲議會(huì)投票通過(guò)了《人工智能法案》授權(quán)草案,旨在確保人工智能發(fā)展符合歐洲的價(jià)值觀和權(quán)利。然而,該法案引起了一些異議,Encord的聯(lián)合創(chuàng)始人兼總裁Hansen表示,該法案缺乏靈活性,未考慮到人工智能的快速發(fā)展。2023年7月10日,中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,這一舉措受到學(xué)界的高度評(píng)價(jià)。昆山杜克大學(xué)電子與計(jì)算機(jī)工程教授、大數(shù)據(jù)研究中心主任黃開(kāi)竹博士認(rèn)為,在大量AIGC技術(shù)應(yīng)用和系統(tǒng)涌現(xiàn)后,算法背后的安全性、公平性、可信性、隱私保護(hù)和風(fēng)險(xiǎn)等方面的引導(dǎo)和規(guī)范相對(duì)滯后,但中國(guó)的《生成式人工智能服務(wù)管理暫行辦法》出臺(tái)非常及時(shí),從技術(shù)角度審視非常專(zhuān)業(yè),為AIGC的開(kāi)發(fā)者和使用者加上了“護(hù)欄”。因此,在制定人工智能法律法規(guī)時(shí),應(yīng)該找到創(chuàng)新與監(jiān)督之間的平衡,為其發(fā)展提供指導(dǎo)和框架,鼓勵(lì)創(chuàng)新和研發(fā)。其次,制定技術(shù)標(biāo)準(zhǔn)。制定AIGC的技術(shù)標(biāo)準(zhǔn)旨在對(duì)其研發(fā)和應(yīng)用進(jìn)行指導(dǎo),確保技術(shù)的安全性和可靠性。人工智能技術(shù)安全性和可靠性是社會(huì)的重要關(guān)切,政府制定技術(shù)標(biāo)準(zhǔn)可以提升AIGC系統(tǒng)的安全性和可靠性,降低風(fēng)險(xiǎn)。隨著OpenAI和微軟的結(jié)合,加上谷歌內(nèi)部的DeepMind,美國(guó)保持了技術(shù)領(lǐng)先地位。在制定技術(shù)標(biāo)準(zhǔn)這一領(lǐng)域,美國(guó)走在了世界前列。2023年1月26日,美國(guó)商務(wù)部下屬的國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布了其第一版《人工智能風(fēng)險(xiǎn)管理框架》(AIRiskManagementFramework),旨在指導(dǎo)人工智能企業(yè)在開(kāi)發(fā)和部署人工智能系統(tǒng)時(shí)降低安全風(fēng)險(xiǎn),避免產(chǎn)生偏見(jiàn)和其他負(fù)面后果,提高人工智能可信度,保護(hù)公民的公平自由權(quán)利(11)NIST AI risk mangement framework(AI RMF 1.0)launch[EB/OL].(2023-03-30)[2023-06-12].https://www.nist.gov/itl/ai-risk-management-framework.。
在意大利、加拿大宣布對(duì)OpenAI公司展開(kāi)調(diào)查以后,德國(guó)、法國(guó)、愛(ài)爾蘭等國(guó)數(shù)據(jù)監(jiān)管機(jī)構(gòu)紛紛跟隨。作為對(duì)此次事件的回應(yīng),OpenAI公司于2023年4月5日發(fā)布了OurApproachtoAISafety,詳細(xì)介紹了該公司如何確保人工智能系統(tǒng)的安全性。OpenAI公司的這一企業(yè)自治舉措只是人工智能行業(yè)展開(kāi)自治的一個(gè)縮影,說(shuō)明人工智能行業(yè)已經(jīng)意識(shí)到AIGC誘發(fā)的技術(shù)倫理風(fēng)險(xiǎn)并且展開(kāi)自治自律。Insight Enterprise公司的一項(xiàng)調(diào)查研究發(fā)現(xiàn),81%的人工智能大公司(員工超過(guò)1 000人)已經(jīng)在圍繞AIGC制定或?qū)嵤╊?lèi)似政策或策略。
1.完善AIGC使用規(guī)范
人工智能企業(yè)扮演著AIGC系統(tǒng)的研發(fā)者、使用者和監(jiān)管者等多重角色,在研發(fā)和使用AIGC系統(tǒng)時(shí)必須明確自身角色定位,對(duì)系統(tǒng)研發(fā)程序、使用范圍進(jìn)行倫理規(guī)范,防止AIGC技術(shù)被濫用,確保AIGC技術(shù)本身遵守社會(huì)倫理規(guī)范、符合社會(huì)價(jià)值觀。OpenAI公司也采取了一系列措施來(lái)保障用戶權(quán)益,他們?cè)贠urApproachtoAISafety中規(guī)定,用戶必須年滿18周歲,或年滿13周歲在父母批準(zhǔn)下才能使用人工智能工具,此外,他們也明確表示不允許其技術(shù)用于生成仇恨、騷擾、暴力或成人類(lèi)別的內(nèi)容(12)Our approach to AI safety[EB/OL].(2023-04-05)[2023-06-12].https://openai.com/blog/our-approach-to-ai-safety.。顯然,生成仇恨和暴力內(nèi)容違背了社會(huì)的價(jià)值觀和道德準(zhǔn)則,這種內(nèi)容可能會(huì)導(dǎo)致仇恨犯罪和暴力行為的增加。人工智能企業(yè)有責(zé)任確保技術(shù)的使用不會(huì)對(duì)社會(huì)造成負(fù)面影響。與此同時(shí),仇恨和暴力內(nèi)容對(duì)用戶的安全和心理健康同樣會(huì)構(gòu)成威脅,這些內(nèi)容可能引發(fā)仇恨言論、騷擾、恐嚇和暴力行為,對(duì)個(gè)人或群體造成傷害。因此,限制此類(lèi)內(nèi)容有助于保護(hù)用戶安全和增加社會(huì)福祉。
2.建立AIGC透明機(jī)制和可解釋性機(jī)制
如果一個(gè)AIGC系統(tǒng)不透明或者不可解釋,那么其決策就會(huì)缺乏信任度和可靠性,用戶就無(wú)法理解其決策的依據(jù),這會(huì)導(dǎo)致用戶對(duì)AIGC信任度降低。透明度代表AIGC系統(tǒng)的數(shù)據(jù)和算法是否可以被公開(kāi),以便用戶了解AIGC內(nèi)部工作方式,用戶希望知道AIGC系統(tǒng)是如何處理數(shù)據(jù)的,其使用了怎樣的算法和模型,這樣用戶才能夠信任該系統(tǒng)。可解釋性意味著AIGC系統(tǒng)的決策過(guò)程是否可以被解釋清楚,以便用戶可以理解為什么AIGC會(huì)做出特定的決策。用戶希望能夠理解AIGC系統(tǒng)背后的邏輯和推理過(guò)程,而不僅僅是接受系統(tǒng)的結(jié)果。提升AIGC系統(tǒng)的透明度和可解釋性,可以幫助用戶發(fā)現(xiàn)潛在偏見(jiàn)和歧視并及時(shí)解決,可以增加用戶對(duì)AIGC的信任,并使AIGC更加可靠實(shí)用。因此,為了增加用戶對(duì)AIGC的信任,并使其更加可靠實(shí)用,需要在研發(fā)過(guò)程中提升AIGC系統(tǒng)的透明度和可解釋性,確保用戶可以理解系統(tǒng)內(nèi)部的運(yùn)作方式和決策過(guò)程。
首先,建立AIGC系統(tǒng)透明機(jī)制。這種透明機(jī)制是指在人工智能應(yīng)用中,確保系統(tǒng)的運(yùn)作過(guò)程對(duì)用戶是透明的。為了達(dá)到這個(gè)目的,需要從以下幾個(gè)方面進(jìn)行落實(shí)。第一,人工智能企業(yè)公布AIGC數(shù)據(jù)集和算法,使用戶了解AIGC系統(tǒng)是如何運(yùn)作的,從而增加用戶的信任。第二,保護(hù)用戶數(shù)據(jù)隱私也是建立透明機(jī)制重要一環(huán)。人工智能企業(yè)需要使用技術(shù)手段脫敏、差分隱私等來(lái)保護(hù)用戶數(shù)據(jù)隱私,確保用戶的個(gè)人信息和敏感數(shù)據(jù)不被泄露或?yàn)E用。第三,人工智能企業(yè)還要與用戶溝通,解答用戶對(duì)AIGC系統(tǒng)的疑問(wèn),通過(guò)提供相關(guān)信息和技術(shù)解釋,幫助用戶深入了解AIGC系統(tǒng)的運(yùn)行原理和決策過(guò)程。第四,人工智能企業(yè)應(yīng)及時(shí)回應(yīng)用戶的反饋,并根據(jù)用戶反饋問(wèn)題來(lái)增強(qiáng)AIGC系統(tǒng)的透明度,通過(guò)不斷優(yōu)化和改進(jìn),使系統(tǒng)更加符合用戶的期待,這樣AIGC系統(tǒng)能夠更好地為用戶服務(wù)。
其次,建立AIGC可解釋性機(jī)制。第一,可視化是一個(gè)重要步驟。人工智能企業(yè)可以通過(guò)數(shù)據(jù)可視化方式,將AIGC系統(tǒng)的決策過(guò)程呈現(xiàn)給用戶,讓用戶更容易理解AIGC的行為,明白其為什么會(huì)做出這樣的決策。第二,解釋模型也是一種可行的途徑。人工智能企業(yè)可以使用可解釋模型,例如決策樹(shù)邏輯回歸等,這些模型可以提供可視化和更多的可解釋性,同時(shí)也能夠以可視化的方式展現(xiàn)出來(lái),使用戶更容易理解AIGC的工作原理。第三,解釋特征也非常重要。人工智能企業(yè)可以解釋AIGC系統(tǒng)是如何使用輸入數(shù)據(jù)特征來(lái)做出決策的,這樣的解釋可以幫助用戶更好地理解AIGC決策行為,并對(duì)其結(jié)果有更深入的認(rèn)識(shí)。第四,解釋誤差是一個(gè)可以考慮的方向。人工智能企業(yè)可以解釋AIGC系統(tǒng)的誤差來(lái)源,比如特定的輸入數(shù)據(jù)或模型參數(shù),這樣的解釋可以幫助用戶更好地理解AIGC系統(tǒng)的弱點(diǎn)和極限,從而提升對(duì)其決策結(jié)果的信任度。
3.建立AIGC安全風(fēng)險(xiǎn)管理機(jī)制
AIGC廣泛應(yīng)用于金融、醫(yī)療、化學(xué)、采礦等特殊領(lǐng)域,或許會(huì)涉及大量的敏感信息和國(guó)防安全信息。如果人工智能企業(yè)不能有效管理和預(yù)防這些安全風(fēng)險(xiǎn)隱患,AIGC可能會(huì)發(fā)生數(shù)據(jù)泄露、隱私侵犯、惡意軟件、黑客攻擊等情況,從而違背技術(shù)倫理,對(duì)人類(lèi)造成傷害。因此,必須建立AIGC的安全風(fēng)險(xiǎn)管理機(jī)制。首先,企業(yè)需要建立AIGC使用前的安全風(fēng)險(xiǎn)評(píng)估機(jī)制。這一評(píng)估機(jī)制包括對(duì)系統(tǒng)數(shù)據(jù)安全、算法安全、模型安全、網(wǎng)絡(luò)安全等方面的評(píng)估。通過(guò)使用前的安全風(fēng)險(xiǎn)評(píng)估,企業(yè)可以發(fā)現(xiàn)AIGC存在的技術(shù)漏洞和安全隱患,并制定相應(yīng)的補(bǔ)救措施。例如,OpenAI公司強(qiáng)調(diào)他們?cè)诎l(fā)布任何新系統(tǒng)之前都會(huì)進(jìn)行嚴(yán)格測(cè)試、聘請(qǐng)外部專(zhuān)家提供反饋,以建立普遍適用的安全和監(jiān)控系統(tǒng)。OpenAI公司還表示,GPT-4在發(fā)布之前已經(jīng)經(jīng)過(guò)了為期6個(gè)月的安全測(cè)試。其次,建立AIGC使用中的安全風(fēng)險(xiǎn)管理機(jī)制。這一機(jī)制包括實(shí)時(shí)的安全監(jiān)控、強(qiáng)化的數(shù)據(jù)保護(hù)和網(wǎng)絡(luò)防御措施等,以應(yīng)對(duì)可能出現(xiàn)的安全風(fēng)險(xiǎn)。例如,OpenAI公司強(qiáng)調(diào),公司會(huì)根據(jù)ChatGPT在現(xiàn)實(shí)中的使用情況,制定更加詳細(xì)的措施防范風(fēng)險(xiǎn)。再次,建立AIGC的應(yīng)急響應(yīng)機(jī)制。這一機(jī)制的建立旨在一旦系統(tǒng)出現(xiàn)風(fēng)險(xiǎn)隱患,能夠及時(shí)響應(yīng)和處置,減少風(fēng)險(xiǎn)事件對(duì)系統(tǒng)本身以及用戶的影響。此外,構(gòu)建與第三方安全機(jī)構(gòu)的合作機(jī)制非常重要,與第三方安全機(jī)構(gòu)合作的意義在于定期對(duì)AIGC進(jìn)行安全測(cè)試和安全審計(jì),及時(shí)發(fā)現(xiàn)和解決AIGC系統(tǒng)中存在的安全隱患問(wèn)題,并進(jìn)行及時(shí)修復(fù)。
“人工智能正成為推動(dòng)人類(lèi)進(jìn)入智能時(shí)代的決定性力量”[11],用戶提升算法素養(yǎng)對(duì)于人工智能可持續(xù)發(fā)展至關(guān)重要。它可以保護(hù)個(gè)人數(shù)據(jù)隱私和安全、降低算法不公平和偏見(jiàn)、促進(jìn)社會(huì)對(duì)話和監(jiān)管、促進(jìn)技術(shù)的接受和應(yīng)用。這些方面的改進(jìn)將有助于人工智能技術(shù)更好地為人類(lèi)社會(huì)帶來(lái)福祉。
1.提升認(rèn)知AIGC算法缺陷的素養(yǎng)
在計(jì)算機(jī)科學(xué)和信息技術(shù)領(lǐng)域,算法是解決問(wèn)題的一種方法或步驟的描述。算法素養(yǎng)是指對(duì)算法的理解和掌握程度,包括對(duì)算法的基本概念、原理和應(yīng)用的了解,以及對(duì)算法的設(shè)計(jì)、分析和優(yōu)化的能力。AIGC算法在很大程度上受人類(lèi)算法工程師個(gè)人價(jià)值觀的影響,這就使得AIGC算法缺乏公正客觀。對(duì)于用戶而言,提升認(rèn)知AIGC算法缺陷的素養(yǎng)對(duì)于其在使用AIGC過(guò)程中減少算法偏見(jiàn)和歧視十分關(guān)鍵。因此,用戶提升認(rèn)知AIGC算法缺陷的素養(yǎng)需要采取以下兩方面的措施。一方面,用戶要了解AIGC運(yùn)行的基本原理,認(rèn)識(shí)到AIGC本身存在的技術(shù)局限性和算法缺陷,這樣能夠更好地理解AIGC的運(yùn)作方式以及預(yù)防可能出現(xiàn)的問(wèn)題。另一方面,用戶在使用AIGC時(shí)要比較多個(gè)來(lái)源的內(nèi)容,以便更好地判斷生成內(nèi)容是否準(zhǔn)確,如果多個(gè)來(lái)源的內(nèi)容不一致,用戶需要進(jìn)一步調(diào)查和研究,以確定最終結(jié)論,避免單一來(lái)源信息的偏見(jiàn)和誤導(dǎo)。
2.提升防范AIGC可能誘發(fā)的技術(shù)倫理危機(jī)的能力
用戶應(yīng)該培養(yǎng)隱私保護(hù)意識(shí)、確認(rèn)信息來(lái)源的可靠性、提升安全防范意識(shí)以及積極參與反饋和監(jiān)督,以保護(hù)個(gè)人權(quán)益,促進(jìn)人工智能的透明和負(fù)責(zé)任使用。第一,培養(yǎng)隱私保護(hù)意識(shí)。用戶在使用AIGC提供的服務(wù)時(shí),應(yīng)該妥善保護(hù)個(gè)人信息不泄露給他人,并且使用強(qiáng)密碼來(lái)保護(hù)賬戶的安全。第二,確認(rèn)數(shù)據(jù)來(lái)源的可靠性。在使用AIGC提供服務(wù)時(shí),用戶要仔細(xì)判斷確認(rèn)信息來(lái)源的真實(shí)性和可靠性,避免被虛假信息誤導(dǎo),以免做出錯(cuò)誤的判斷和決策。第三,提升安全防范意識(shí)。用戶要時(shí)刻保持警覺(jué),避免成為釣魚(yú)、詐騙等攻擊手段的受害者,要警覺(jué)各種欺詐行為,避免在不安全的環(huán)境下使用個(gè)人數(shù)據(jù)和信息。第四,積極參與對(duì)AIGC的反饋和監(jiān)督。用戶在使用AIGC提供的服務(wù)時(shí),如果發(fā)現(xiàn)存在不準(zhǔn)確、有偏差或錯(cuò)誤的地方,可以通過(guò)平臺(tái)提供的反饋機(jī)制進(jìn)行報(bào)告,以幫助平臺(tái)改進(jìn)算法。例如,OpenAI表示,它將向報(bào)告其人工智能系統(tǒng)漏洞的用戶提供高達(dá)2萬(wàn)美元的獎(jiǎng)勵(lì)。此外,用戶也可以參與到人工智能社區(qū)的討論和交流中,與其他用戶共同發(fā)現(xiàn)錯(cuò)誤并糾正偏差,如果用戶發(fā)現(xiàn)AIGC存在不當(dāng)、有害甚至違法信息,可以通過(guò)平臺(tái)提供的舉報(bào)機(jī)制進(jìn)行舉報(bào)。
人類(lèi)歷史上每一次技術(shù)變革與進(jìn)步都會(huì)引發(fā)人類(lèi)對(duì)技術(shù)的深刻反思。2022年底OpenAI公司ChatGPT的出現(xiàn)備受矚目,這種AIGC技術(shù)與以往傳統(tǒng)人工智能技術(shù)相比較具有“壓倒性”優(yōu)勢(shì):AIGC使用門(mén)檻更低、應(yīng)用場(chǎng)景更加廣泛、創(chuàng)新力更強(qiáng)且自動(dòng)化程度更高。因此,AIGC一經(jīng)面世就具有造福人類(lèi)社會(huì)的巨大潛力。然而,AIGC在使用過(guò)程中因算法透明低導(dǎo)致的溝通“不理解”、缺乏主觀善意導(dǎo)致的決策“不可控”、人工智能幻覺(jué)導(dǎo)致的安全性“不可靠”、人機(jī)伙伴關(guān)系尚未建立導(dǎo)致的合作前景“不可持續(xù)”的問(wèn)題已經(jīng)誘發(fā)了技術(shù)倫理危機(jī)。AIGC在引爆人工智能技術(shù)前進(jìn)“海嘯”的同時(shí)也誘發(fā)了技術(shù)倫理危機(jī)。因此,亟須對(duì)AIGC進(jìn)行負(fù)責(zé)任監(jiān)管和治理。這種監(jiān)管和治理需要利益各方協(xié)同發(fā)力。學(xué)界要堅(jiān)持對(duì)技術(shù)負(fù)責(zé)的原則,推進(jìn)人機(jī)協(xié)同中可解釋性研究;政府要堅(jiān)持對(duì)社會(huì)負(fù)責(zé)的原則,加強(qiáng)對(duì)AIGC的審查和監(jiān)管;人工智能企業(yè)要堅(jiān)持對(duì)用戶負(fù)責(zé)的原則,建立企業(yè)自律自治機(jī)制;用戶要堅(jiān)持對(duì)自己負(fù)責(zé)的原則,提升算法素養(yǎng)。只有這樣,才有可能實(shí)現(xiàn)AIGC溝通的“可理解”、確保AIGC決策的“可控制”、實(shí)現(xiàn)AIGC安全性的“可信賴”以及AIGC發(fā)展的“可持續(xù)”。
人工智能技術(shù)進(jìn)步的腳步不會(huì)停歇,AIGC向前發(fā)展已勢(shì)不可擋。國(guó)內(nèi)外學(xué)界許多知名學(xué)者和人工智能領(lǐng)域的“翹楚”人物已經(jīng)認(rèn)為AIGC是邁向通用人工智能(artificial general intelligence,AGI)時(shí)代的雛形。在將來(lái),AGI很有可能被發(fā)明并廣泛應(yīng)用。AIGC作為邁向AGI的前奏,其誘發(fā)的技術(shù)倫理危機(jī)已經(jīng)向人們敲響了警鐘:人類(lèi)必須正確處理與人工智能技術(shù)發(fā)展的關(guān)系。問(wèn)題的關(guān)鍵是,當(dāng)AGI時(shí)代真正到來(lái)時(shí),人類(lèi)如何才能確保AGI技術(shù)對(duì)人類(lèi)是安全有益的。因此,緊跟AIGC技術(shù)發(fā)展“更新迭代”腳步,不斷對(duì)其“負(fù)責(zé)任”地治理將永遠(yuǎn)在路上。