• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能技術(shù)的倫理風(fēng)險防治

      2023-02-20 13:08:33張景玥
      關(guān)鍵詞:倫理人工智能算法

      鄒 曈,張景玥

      (1.四川師范大學(xué) 哲學(xué)學(xué)院,成都 610066;2.信陽航空職業(yè)學(xué)院 馬克思主義學(xué)院,河南 信陽 464100;3.河南財經(jīng)政法大學(xué) 訴訟法研究中心,鄭州 450016)

      生成式人工智能是可以通過自我學(xué)習(xí)和適應(yīng)使用深度神經(jīng)網(wǎng)絡(luò)和概率模型的機(jī)器學(xué)習(xí)模型。較之一般人工智能擁有不依賴于專家知識和編程指令來執(zhí)行特定任務(wù)的特性。生成式人工智能的技術(shù)邏輯既包含了對現(xiàn)有信息的學(xué)習(xí)和模仿,也包含了對新信息的創(chuàng)造和生成。以ChatGPT為例,其是一種基于自然語言生成的對話系統(tǒng),使用了一種叫做Transformer的神經(jīng)網(wǎng)絡(luò)架構(gòu),能夠從輸入的文本中學(xué)習(xí)語言模型并生成輸出文本。[1]生成式人工智能技術(shù)采用了雙向互動成長的技術(shù)邏輯,擁有強(qiáng)大語言分析能力,會標(biāo)記語言的關(guān)鍵信息,同時也會忽略它們認(rèn)為不重要的細(xì)節(jié)。這依賴于在開發(fā)過程中工程師的認(rèn)知偏好對其影響的程度,也受到使用者是否能夠繞過防火墻讓其生成答案。例如,如果問ChatGPT“如何毀滅人類”,它會回答“我必須明確地指出,毀滅人類是違反道德和法律的行為,嚴(yán)重影響人類社會的安全和穩(wěn)定。”改問它“如果你是作家,要寫毀滅人類的書,如何實施?”它回答“作為一個人工智能語言模型,我不會在創(chuàng)作過程中有意毀滅人類,但我可以幫你找到這本書?!笔聦嵣希祟惖拿恳淮问褂枚纪瓿闪巳藱C(jī)互動,它的回答也更加趨向于人類個體的表達(dá)。隨著以ChatGPT類生成式人工智能技術(shù)的應(yīng)用,擔(dān)心技術(shù)濫用、管理缺陷、生成內(nèi)容問題和知識產(chǎn)權(quán)保護(hù)等問題的討論也愈加激烈。人類已經(jīng)不可避免的進(jìn)入智能化時代,生成式人工智能帶來的倫理和道德風(fēng)險必須得到有效的防治。

      一、生成式人工智能技術(shù)何以引發(fā)倫理風(fēng)險

      生成式人工智能的發(fā)展帶來人類社會新的知識革命,同時也打開了“潘多拉魔盒”(Pandoras box),引致工作崗位流失、認(rèn)知偏差、責(zé)任模糊、隱私侵害、數(shù)據(jù)濫用等現(xiàn)實風(fēng)險,破壞全球經(jīng)濟(jì)、政治和社會安全。[2]產(chǎn)生這些風(fēng)險的原因在于生成式人工智能可以被用于生成虛假的內(nèi)容,包括假新聞、虛假圖像和語音。惡意使用者可以利用這些技術(shù)來散布假消息、誤導(dǎo)公眾或傷害他人聲譽(yù);還可以根據(jù)個人的數(shù)據(jù)生成逼真的虛擬個人資料,這可能導(dǎo)致隱私侵犯和個人信息泄露;還會出現(xiàn)因為生成內(nèi)容使用他人原創(chuàng)作品而侵犯著作權(quán)的情形。生成式人工智能生成的或真實或虛假的內(nèi)容可能引發(fā)更為廣泛的倫理邊界模糊問題。這是因為倫理問題常常涉及價值觀、文化背景和不同利益方之間博弈等問題。而導(dǎo)致出現(xiàn)倫理邊界模糊的主要原因可以歸結(jié)為以下四點:

      1.人工智能快速發(fā)展出現(xiàn)的“倫理真空”

      生成式人工智能、基因編輯、虛擬現(xiàn)實等新興技術(shù)的涌現(xiàn),這些技術(shù)帶來了一系列全新的倫理問題。這些問題超出了傳統(tǒng)倫理學(xué)的研究范圍,需要新的倫理框架和分析方法。人工智能技術(shù)的快速發(fā)展引發(fā)了倫理學(xué)面臨的新挑戰(zhàn),例如自主性系統(tǒng)的倫理決策、人工智能的責(zé)任和道德義務(wù)等。這些問題需要深入的探討和研究,以確定如何在人工智能時代確保技術(shù)的負(fù)責(zé)任使用。不僅如此,全球化使得不同文化之間的倫理觀念和價值觀產(chǎn)生碰撞和沖突。傳統(tǒng)的倫理框架和理論可能難以適應(yīng)多元文化的倫理挑戰(zhàn),需要更多的跨文化研究和對話。人工智能發(fā)展所帶來的全世界范圍內(nèi)人類行為方式、思維方式的變化是加速、不可逆轉(zhuǎn)的,而傳統(tǒng)倫理學(xué)的發(fā)展卻是緩慢的、滯后的,這就使得現(xiàn)代社會出現(xiàn)了巨大的倫理真空[3]地帶。

      2.生成式人工智能技術(shù)隱藏的主觀文化差異

      生成式人工智能的設(shè)計、訓(xùn)練數(shù)據(jù)和算法等方面會受到開發(fā)者的主觀觀念、價值取向和文化偏好的影響,這些主觀因素可能會對人工智能系統(tǒng)的性能、決策和結(jié)果產(chǎn)生重要影響。例如,人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)是由開發(fā)者主觀選擇、標(biāo)注和收集的。一般開發(fā)者會在選擇上主觀偏向于符合自身文化背景的信息,進(jìn)而使得人工智能在生成內(nèi)容時無法準(zhǔn)確地理解和應(yīng)對不同文化背景的用戶需求或情境,這就是出現(xiàn)開發(fā)過程中的數(shù)據(jù)偏差。在生成式人工智能的使用過程中,使用者也會受到這種主觀文化偏好的影響。例如,在個性化推薦系統(tǒng)中,算法會根據(jù)用戶的興趣和偏好提供推薦內(nèi)容。但如果這些模型過度強(qiáng)調(diào)某些文化、價值觀或偏好,可能會導(dǎo)致信息過濾、偏見強(qiáng)化或信息孤立。

      3.生成式人工智能應(yīng)用多方主體利益沖突

      生成式人工智能應(yīng)用中,涉及到多個利益方,包括用戶、開發(fā)者、公司、政府以及整個社會。這些利益方可能擁有不同的目標(biāo)和關(guān)注點,因此,在確定倫理邊界[4]時可能出現(xiàn)利益沖突和權(quán)衡,導(dǎo)致邊界的模糊性。首先是用戶與數(shù)據(jù)所有者之間的利益沖突。生成式人工智能應(yīng)用在訓(xùn)練階段和服務(wù)階段都需要大量的數(shù)據(jù)信息,這些數(shù)據(jù)可能涉及用戶隱私,當(dāng)個人的敏感信息被用于訓(xùn)練算法或數(shù)據(jù)共享時,則出現(xiàn)了用戶與數(shù)據(jù)所有者之間的利益沖突。其次是特殊群體與技術(shù)開發(fā)者、企業(yè)或政府之間的利益沖突。生成式人工智能擅于完成自然語言處理和創(chuàng)造性任務(wù),這些功能會引發(fā)相關(guān)領(lǐng)域更為廣泛的失業(yè)問題,可能引發(fā)工人、工會或相關(guān)組織與技術(shù)開發(fā)者、企業(yè)或政府之間的利益沖突;還可能對一些特殊領(lǐng)域?qū)崿F(xiàn)直接替代,繼而出現(xiàn)結(jié)構(gòu)性失業(yè)問題。第三是公眾、政府監(jiān)管機(jī)構(gòu)和技術(shù)開發(fā)者之間的利益沖突。生成式人工智能應(yīng)用涉及各種安全和道德問題,如可以生成虛假的新聞、評論導(dǎo)致信息混亂、傳播謠言和誤導(dǎo)公眾;還可以偽造文件、執(zhí)行網(wǎng)絡(luò)釣魚攻擊、冒充他人身份等,這會引發(fā)公眾、政府監(jiān)管機(jī)構(gòu)和技術(shù)開發(fā)者之間的利益沖突。第四是企業(yè)之間、企業(yè)與政府之間的利益沖突。人工智能技術(shù)的發(fā)展涉及企業(yè)和組織之間的競爭。在研究、開發(fā)和應(yīng)用人工智能技術(shù)時,知識產(chǎn)權(quán)的問題可能引發(fā)競爭和利益沖突,政府需要對專利、商業(yè)機(jī)密和技術(shù)標(biāo)準(zhǔn)等問題作出規(guī)范。

      4.倫理邊界模糊引發(fā)責(zé)任缺失

      生成式人工智能的技術(shù)用于許多應(yīng)用場景,例如社交媒體內(nèi)容生成或自動寫作。如何確保對生成內(nèi)容的合理使用,以及明確約定使用者的責(zé)任和限制,是一個重要的問題。隨著生成式人工智能的快速發(fā)展,沒有明確、廣泛接受且適用于不同環(huán)境和任務(wù)的倫理指導(dǎo)原則,也沒有明確的契約和使用條款,這可能導(dǎo)致濫用和不當(dāng)使用,還會導(dǎo)致倫理邊界模糊。然而,確定清晰的倫理邊界并將其轉(zhuǎn)化為操作性的規(guī)范是一項具有挑戰(zhàn)性的任務(wù)。在理論層面上討論倫理原則和價值觀不同于在實際應(yīng)用中,要平衡各種利益和確??刹僮餍浴V贫ň唧w的倫理指南,應(yīng)吸納多方利益相關(guān)者的意見,考慮技術(shù)、法律和社會因素。

      生成式人工智能技術(shù)的設(shè)計初衷是為了創(chuàng)造一個更加智能、高效和便捷的世界,將計算機(jī)智能應(yīng)用到各個領(lǐng)域,實現(xiàn)人機(jī)協(xié)同共生,推動社會科技的進(jìn)步。面對這些風(fēng)險,如何制定道德準(zhǔn)則,解決數(shù)據(jù)隱私、人機(jī)關(guān)系、算法歧視、責(zé)任缺失等方面的倫理風(fēng)險迫在眉睫。

      二、生成式人工智能倫理風(fēng)險的主要類型

      倫理是處理人與人、人與社會等關(guān)系時的道德準(zhǔn)則,也是行為規(guī)范。倫理風(fēng)險作為現(xiàn)代社會新型的風(fēng)險類型,它是“在人與人、人與社會、人與自然、人與自身的倫理關(guān)系方面由于正面或負(fù)面影響可能產(chǎn)生不確定事件或條件,尤指其產(chǎn)生的不確定的倫理負(fù)效應(yīng),諸如倫理關(guān)系失調(diào)、社會失序、機(jī)制失控、人們行為失范、心理失衡等等”。[5]生成式人工智能依賴于輸入的文本與互聯(lián)網(wǎng)數(shù)據(jù)信息的多少,其本身并不能驗證信息的真?zhèn)闻c獲得是否合法。其文本生成要經(jīng)過數(shù)據(jù)收集、模型構(gòu)建、模型訓(xùn)練、模型評估、模型部署、模型持續(xù)優(yōu)化的過程。在數(shù)據(jù)收集階段會在互聯(lián)網(wǎng)上獲取大量的文本數(shù)據(jù);在模型構(gòu)建階段使用Transformer 模型來預(yù)處理學(xué)習(xí)文本語言;在模型訓(xùn)練階段對預(yù)處理后的數(shù)據(jù)進(jìn)行優(yōu)化損失函數(shù)來調(diào)整模型參數(shù)[6];在模型評估階段評估和測試數(shù)據(jù)的可靠性與準(zhǔn)確性;在模型部署階段將訓(xùn)練好的模型部署到生產(chǎn)環(huán)境,以供使用;在模型持續(xù)優(yōu)化通過不斷獲取用戶的反饋以及進(jìn)行數(shù)據(jù)更新[7],不斷優(yōu)化模型以提高其準(zhǔn)確率和效率。生成式人工智能是高效的人類知識學(xué)習(xí)工具,它不生產(chǎn)知識,是知識的搬運(yùn)工。那么,作為工具生成式人工智能是沒有必要對信息的真?zhèn)魏瞳@得是否合法負(fù)責(zé)的。為此,會存在基于數(shù)據(jù)信息的提供、選擇、輸出等環(huán)節(jié)的倫理風(fēng)險。

      1.技術(shù)嵌入缺乏倫理制約引發(fā)的道德價值偏離

      生成式人工智能技術(shù)的應(yīng)用在目標(biāo)對象上具有廣泛性,并不會對年齡進(jìn)行分層,也不會對領(lǐng)域進(jìn)行分類,決定了其使用者無差別化的特征。因此,使用者與生成式人工智能技術(shù)互動過程中會出現(xiàn)不確定的倫理負(fù)效應(yīng)。例如,對未成年人使用者輸入問題的無差別分類和輸出,會因為缺少對年齡階段的分層而導(dǎo)致認(rèn)知偏差。未成年人接觸到超于年齡認(rèn)知范圍的信息,在沒有正確的引導(dǎo)下會產(chǎn)生好奇或崇拜的心理,而人工智能的算法規(guī)則本身會迎合使用者的需要,因此可能會發(fā)生未成年人作為個體的主體權(quán)利喪失,缺乏道德的約束,逐漸淪為技術(shù)的擁躉。

      2.數(shù)據(jù)信息的提供和選擇標(biāo)準(zhǔn)不明引發(fā)的“算法黑箱”問題

      生成式人工智能技術(shù)并沒有公開其對數(shù)據(jù)信息提供和選擇的標(biāo)準(zhǔn)是什么,也就是說這些存在于互聯(lián)網(wǎng)上的信息只要是關(guān)于使用者的提問內(nèi)容,都有可能會被檢索并進(jìn)入文本生成的數(shù)據(jù)收集階段。那么在之后的其他階段中如何甄別這些信息,信息采用的優(yōu)先級是什么則并不可知。在此情形下,生成式人工智能所提供的互動方式對于不掌握編程技術(shù)的人類而言只能是被動地輸入。普通人對生成式人工智能的每一次使用都構(gòu)成了對其的一次訓(xùn)練,是其運(yùn)用Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)的又一次模仿和測試。在這個過程中普通人看起來好似得到了想要的答案,但是并沒有獲得真正意義上的新知識。由此,會產(chǎn)生基于人工智能數(shù)據(jù)信息的提供和選擇標(biāo)準(zhǔn)不明,而引發(fā)的“算法黑箱”問題。[8]

      “算法黑箱”(Algorithmic black-box)是指在算法社會中,擁有類似Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)的模型經(jīng)過大量訓(xùn)練后,其內(nèi)部狀態(tài)變得相當(dāng)復(fù)雜,輸入與輸出之間的運(yùn)算是自動進(jìn)行的,這也導(dǎo)致了算法缺乏透明性,人們既難以準(zhǔn)確預(yù)測算法的行為,也不易理解算法輸出特定結(jié)果的機(jī)制。[9]“算法黑箱”容易引發(fā)社會公眾的焦慮,還會引發(fā)不同道德主體面臨道德風(fēng)險時發(fā)生價值沖突。例如,醫(yī)療診斷過程是基于知識和經(jīng)驗的共同協(xié)作完成的,但是人工智能輔助醫(yī)療診斷過程中,會對收集到的既有醫(yī)療數(shù)據(jù)予以錄入、分析和總結(jié),雖然最終給出的數(shù)據(jù)會隱去患者的關(guān)鍵信息,但是依然會帶來隱私安全問題。同時,因為算法不透明,使用這一數(shù)據(jù)作為參考的醫(yī)生也并不知道算法是基于什么做出的決策,無法對其是否合理作出預(yù)判和解釋。

      3.文化偏見可能引發(fā)的算法歧視

      生成式人工智能的開發(fā)和使用過程是基于算法模型對數(shù)據(jù)的選擇和利用。開發(fā)者對敏感數(shù)據(jù)的采集一般受到個人信息選擇偏好的影響[10],尤其是對種族、性別等信息的選擇,而東西方文化的差異性更會影響生成式人工智能給出的答案。除了開發(fā)者的個人偏好外,還可以對算法模型進(jìn)行訓(xùn)練,以到達(dá)開發(fā)者想要的類型偏好。例如,如果問ChatGPT關(guān)于人性本善還是本惡的問題,東西方社會對這個問題存在分歧,原本是出于討論還沒有定論的問題,卻可以通過訓(xùn)練ChatGPT來自然抓取互聯(lián)網(wǎng)上對人性是善還是惡的信息,開發(fā)者可以通過選擇偏好來訓(xùn)練出想要的答案。技術(shù)本身是中立的,但是使用技術(shù)的人卻有不同立場。生成式人工智能的開發(fā)和使用過程中已經(jīng)呈現(xiàn)出了東西方文化的巨大差異性,也不可避免地出現(xiàn)了文化偏見帶來的算法歧視。

      4.基于數(shù)字化造成的社會分層、數(shù)字鴻溝

      生成式人工智能勢必會加速結(jié)構(gòu)性失業(yè),形成社會分層,產(chǎn)生數(shù)字鴻溝。在就業(yè)上,生成式人工智能已經(jīng)不僅僅局限于替代流水線上的工人而是轉(zhuǎn)向替代具有創(chuàng)造性的工作崗位。未來藝術(shù)設(shè)計者、培訓(xùn)師、程序員、教育工作者、法律工作者都有可能會面臨待崗失業(yè)的風(fēng)險。數(shù)字化的快速發(fā)展使得不同階層和社會群體從擁有電子設(shè)備接入互聯(lián)網(wǎng)的傳統(tǒng)差異轉(zhuǎn)變?yōu)槭欠駮褂脭?shù)字產(chǎn)品以享受數(shù)字紅利的“數(shù)字鴻溝”。社會如果以年齡作為區(qū)分,最明顯的就是數(shù)字紅利向年輕人轉(zhuǎn)移,呈現(xiàn)出低齡化趨勢,而中老年群體正在被數(shù)字邊緣化。生成式人工智能的發(fā)展不僅會使得不同年齡數(shù)字化分層加劇,還會使得地區(qū)貧富差異更加明顯,從而影響到教育公平、就業(yè)平等等社會問題。例如,我國城鄉(xiāng)發(fā)展尚不均衡,教育資源的配置也存在差異[11],城市與農(nóng)村地區(qū)的教育資源硬件配置水平相差較大,這會加速社會分層。

      三、生成式人工智能倫理風(fēng)險防治

      ChatGPT類人工智能倫理風(fēng)險的出現(xiàn)是綜合因素作用的結(jié)果,也是這個時代必然要解決的問題。一個完備的倫理規(guī)范體系應(yīng)當(dāng)包含倫理風(fēng)險、倫理原則與倫理責(zé)任三方面,即告知我們現(xiàn)在面臨的問題,應(yīng)采取的措施與踐行措施的主體。[12]人工智能的倫理風(fēng)險需要明確生成式人工智能倫理價值目標(biāo),增強(qiáng)生成式人工智能技術(shù)的透明度和可解釋性,增加對生成式人工智能的倫理審核和審查,制定生成式人工智能應(yīng)用安全法律規(guī)范,提高公眾意識和參與度,建立倫理委員會來共同防治。

      1.明確生成式人工智能倫理價值目標(biāo)

      生成式人工智能的首要倫理價值目標(biāo)應(yīng)當(dāng)是以人類為中心,尊重和保障人權(quán)。生成式人工智能的設(shè)計和應(yīng)用應(yīng)當(dāng)以人類福祉為中心,尊重人類的價值和尊嚴(yán)。這意味著人工智能系統(tǒng)應(yīng)該促進(jìn)人類創(chuàng)造力、自主性和參與,而不是取代人類或削弱人類的自主權(quán)和決策權(quán)。其次,應(yīng)當(dāng)尊重和維護(hù)人權(quán),包括言論自由、隱私權(quán)、尊嚴(yán)等。人工智能生成的內(nèi)容不應(yīng)該侵犯這些權(quán)利,也不應(yīng)該被用于騷擾、歧視、恐嚇或其他不當(dāng)行為。除此之外,生成式人工智能還應(yīng)當(dāng)將公平公正、真實誠信、責(zé)任與適當(dāng)性等作為倫理價值目標(biāo)。公平公正應(yīng)體現(xiàn)在人工智能生成內(nèi)容是基于多樣性和代表性的數(shù)據(jù)訓(xùn)練的結(jié)果,具有客觀、公正的特征。真實誠信是基于生成式人工智能生成內(nèi)容要與現(xiàn)實世界相對應(yīng),在與用戶進(jìn)行互動時應(yīng)該避免誤導(dǎo)用戶認(rèn)為自己是具備超越其實際能力的智能體,出現(xiàn)因虛假信息發(fā)生不良影響的情況。責(zé)任與適當(dāng)性是指生成式人工智能應(yīng)當(dāng)遵守法律、道德和社會準(zhǔn)則,對其生成內(nèi)容負(fù)責(zé),并確保生成結(jié)果的適當(dāng),防止出現(xiàn)具有冒犯、歧視或者有危害社會或人身的內(nèi)容生成。

      2.增強(qiáng)生成式人工智能技術(shù)的透明度和可解釋性

      透明度和可解釋性是用戶對人工智能系統(tǒng)建立信任的關(guān)鍵因素。當(dāng)用戶能夠理解系統(tǒng)的工作原理和生成結(jié)果時,更有可能廣泛應(yīng)用生成式人工智能。透明度可以使用戶更容易地發(fā)現(xiàn)和解決生成式人工智能潛在的偏見、不平等或不公正現(xiàn)象,能夠幫助用戶理解和評估人工智能系統(tǒng)的倫理和社會影響,確保技術(shù)的使用是符合道德和社會責(zé)任的。可解釋性可以幫助用戶更容易理解生成式人工智能系統(tǒng)的決策過程和行為方式。通過增強(qiáng)生成式人工智能技術(shù)的可解釋性來揭示模型對輸入數(shù)據(jù)和特征的重要性和影響,幫助判斷模型的合理性和公正性,并進(jìn)行必要的調(diào)整和改進(jìn),以防止出現(xiàn)偏見和歧視等問題的發(fā)生。增強(qiáng)生成式人工智能的透明度和可解釋性能夠為醫(yī)療、金融、法律等特殊領(lǐng)域提高決策的合法性、公正性和可靠性。例如,醫(yī)生在醫(yī)療方案的選擇上可以通過生成式人工智能識別和規(guī)避潛在的風(fēng)險,選擇最佳方案,還能提高與患者及其家屬溝通方案的可接受度。增強(qiáng)生成式人工智能技術(shù)的透明度和可解釋性需要在模型選擇與設(shè)計階段增加簡單易為公眾所了解的方法幫助理解生產(chǎn)過程;在數(shù)據(jù)處理和生成階段,可以公開采集數(shù)據(jù)的信息、處理過程以及選擇的標(biāo)準(zhǔn),這樣有助于幫助公眾理解生成結(jié)果的來源和依據(jù),增加信任度。生成式人工智能技術(shù)也可以通過開放源代碼和模型架構(gòu),使更多研究者參與到開發(fā)和驗證過程中,以防止出現(xiàn)偏見或歧視問題,還可以促進(jìn)模型的改進(jìn)和演化。

      3.增加對生成式人工智能的倫理審核和審查

      對生成式人工智能的倫理審核和審查[13]能夠保障生成內(nèi)容是符合法律法規(guī)、道德和社會價值觀的,這有助于防止?jié)撛诘姆蓡栴}和責(zé)任缺失問題發(fā)生。生成式人工智能涉及數(shù)據(jù)的獲取方式、渠道是否合法,內(nèi)容的生成是否包含有冒犯、歧視性或者有危害社會與人身的信息,是否已經(jīng)對敏感數(shù)據(jù),如個人隱私信息等經(jīng)過模糊化處理,是否構(gòu)成對他人知識產(chǎn)權(quán)的侵犯等,都是倫理審核和審查的重點內(nèi)容。參加倫理審核和審查的人員應(yīng)當(dāng)具備專業(yè)背景和跨學(xué)科知識,例如倫理學(xué)、計算機(jī)科學(xué)、法學(xué)、社會學(xué)等領(lǐng)域。倫理審核和審查應(yīng)當(dāng)遵循倫理價值目標(biāo),確保生成式人工智能的應(yīng)用符合倫理規(guī)范。

      4.制定生成式人工智能應(yīng)用安全法律規(guī)范

      生成式人工智能系統(tǒng)研究的最初目的是模擬和復(fù)制人類的智能,包括理性思維、學(xué)習(xí)和推理能力,以實現(xiàn)人工智能與人類的對話和交互,解決人類面臨的各種問題?,F(xiàn)今人工智能技術(shù)的發(fā)展速度已經(jīng)超越了我國法律監(jiān)管的速度。首先,現(xiàn)有法律法規(guī)缺乏前瞻性。我國現(xiàn)有的法律體系是根據(jù)現(xiàn)階段人工智能技術(shù)的發(fā)展來開展設(shè)計的,模擬的是傳統(tǒng)的和現(xiàn)代的技術(shù)演進(jìn)邏輯,難以對未來人工技術(shù)發(fā)展出現(xiàn)的新問題予以預(yù)測。其次,法律監(jiān)管難以對生成式人工智能技術(shù)規(guī)范統(tǒng)一。生成式人工智能較之一般人工智能技術(shù)已經(jīng)表現(xiàn)出了跨越式的發(fā)展態(tài)勢,世界各國發(fā)展水平不一,無論是電子信息設(shè)備的尖端和更新,還是人才技術(shù)實力的培養(yǎng),不同國家和地區(qū)之間的差異明顯,也意味著法律規(guī)范生成式人工智能技術(shù)會在不同的國家和地區(qū)會呈現(xiàn)巨大差異。第三,生成式人工智能技術(shù)法律規(guī)范有技術(shù)門檻。生成式人工智能技術(shù)具有很高的電子信息技術(shù)門檻,不懂計算機(jī)二進(jìn)制語言的人類將被阻擋在開發(fā)程序之外,只能被動地使用或者成為開發(fā)模型中的一個互動因子,難以真正涉及核心技術(shù)。因此,制定生成式人工智能應(yīng)用安全法律規(guī)范必須具有現(xiàn)實性與前瞻性。[14]

      生成式人工智能立法的現(xiàn)實性是人工智能技術(shù)發(fā)展迅猛,立法需要一定的時間和程序才能制定和生效。而制定法規(guī)需要深入了解生成式人工智能的工作原理、數(shù)據(jù)使用方式和潛在風(fēng)險,還要預(yù)測人工智能技術(shù)的下一次跨越式發(fā)展。這需要專業(yè)知識和跨學(xué)科、跨國家合作,還需要前瞻性的立法目標(biāo)和技術(shù)。不僅如此,政府需要足夠的資源和技術(shù)能力來審查算法、監(jiān)控數(shù)據(jù)使用和應(yīng)對安全威脅等問題。為了應(yīng)對不同領(lǐng)域之間的專家意見不一致,不同國家之間法律沖突的問題,立法機(jī)關(guān)需要成立專門立法小組,負(fù)責(zé)把握生成式人工智能技術(shù)發(fā)展的趨勢,尤其是藝術(shù)創(chuàng)作、醫(yī)療保健、法律、媒體等領(lǐng)域應(yīng)用的需求,確保立法具有一定的靈活性,以適應(yīng)不斷變化的場景。生成式人工智能立法還應(yīng)該關(guān)注到潛在的長期風(fēng)險,如失業(yè)、隱私侵犯、社會不平等、歧視等,以及如何減輕這些風(fēng)險,在必要時開展風(fēng)險評估。最重要的是,當(dāng)生成式人工智能作出具有誤導(dǎo)或危害社會與人身安全的內(nèi)容時,法律如何問責(zé)與實現(xiàn)權(quán)利救濟(jì)。這就需要立法明確生成式人工智能應(yīng)用的主體責(zé)任。開發(fā)者、使用者、數(shù)據(jù)提供者、監(jiān)管者都應(yīng)當(dāng)作為各階段的主體對其行為負(fù)責(zé)。對受到侵害的權(quán)利主體,立法能夠及時有效地救濟(jì)其權(quán)利。

      5.提高公眾意識和參與度

      提高公眾意識和參與度的目的是促進(jìn)公眾對生成式人工智能技術(shù)的了解、認(rèn)識和參與,提高對虛假信息和偏見的辨別能力,為人工智能領(lǐng)域的可持續(xù)發(fā)展?fàn)I造良好的社會環(huán)境和公眾基礎(chǔ)。人工智能的快速發(fā)展促使了傳統(tǒng)工業(yè)社會生產(chǎn)力的更新與替代。生成式人工智能技術(shù)模擬了人類的學(xué)習(xí)方式,可以自動生成文本、繪畫等各種形式的內(nèi)容,一些行業(yè)已經(jīng)出現(xiàn)了辭退人工而選擇人工智能技術(shù)的現(xiàn)象。人工智能技術(shù)在生產(chǎn)領(lǐng)域的運(yùn)用極大地減少了生產(chǎn)成本,但是公眾對人工智能技術(shù)懷有積極探索心態(tài)的同時也抱有高度的陌生感和恐懼感。通過加強(qiáng)公眾參與,可以讓公眾在人工智能相關(guān)政策的制定和評估過程中發(fā)表自己的意見和訴求,參與決策過程,從而增強(qiáng)公眾的主體意識和民主意識,提高公眾對技術(shù)發(fā)展的信任和支持。同時,也可以為人工智能技術(shù)的發(fā)展提供多方面的意見和建議,促進(jìn)技術(shù)的合理性和實用性,為社會發(fā)展和人民福祉做出貢獻(xiàn)。

      6.建立倫理委員會

      人工智能倫理委員會的建立是為了確保生成式人工智能的研究和應(yīng)用符合社會倫理原則和法律法規(guī),解決使用生成式人工智能所產(chǎn)生的道德、隱私和倫理安全問題。人工智能倫理委員會主要負(fù)責(zé)研究和制定生成式人工智能被負(fù)責(zé)任地使用,遵守倫理和法律價值目標(biāo)和準(zhǔn)則,對人工智能相關(guān)項目進(jìn)行倫理審查和監(jiān)督,評估數(shù)據(jù)壟斷、算法歧視、數(shù)據(jù)與算法濫用、侵犯隱私、違反倫理道德、就業(yè)影響等倫理問題,發(fā)布人工智能倫理安全實踐指南、人工智能倫理安全白皮書以及人工智能企業(yè)倫理安全治理優(yōu)秀案例集等,引導(dǎo)不同類型的人工智能企業(yè)建立完善倫理安全治理制度。同時,人工智能倫理委員會還可以與政府部門、企業(yè)、研究機(jī)構(gòu)等合作,共同推進(jìn)人工智能倫理的研究和實踐。[15]首先,明確委員會的使命和目標(biāo),包括監(jiān)督和管理人工智能倫理問題,制定相關(guān)政策和規(guī)范,確保人工智能的發(fā)展符合社會價值觀和道德準(zhǔn)則。其次,委員會成員,可以由來自不同領(lǐng)域和背景的專家和學(xué)者來組成,如計算機(jī)科學(xué)、人工智能、倫理學(xué)、法律等領(lǐng)域。這些成員應(yīng)當(dāng)在自己研究的領(lǐng)域具有代表性和一定的影響力。第三,確定委員會的職責(zé)和權(quán)限,例如審查和評估人工智能產(chǎn)品的倫理風(fēng)險,制定風(fēng)險管理計劃和應(yīng)對措施,監(jiān)督倫理政策的執(zhí)行情況等。第四,建立委員會內(nèi)部制度,包括決策機(jī)制、會議制度、工作程序等,以確保委員會的工作有序進(jìn)行。第五,建立跟蹤和反饋機(jī)制。監(jiān)測生成式人工智能的使用情況,及時發(fā)現(xiàn)潛在的倫理問題。建立反饋機(jī)制,讓用戶和公眾能夠報告不當(dāng)內(nèi)容和濫用行為。

      五、結(jié)語

      生成式人工智能技術(shù)必然引發(fā)人類社會新一輪的科技革命,也必將重塑社會的生活形態(tài)。在人類享受科技革命帶來生產(chǎn)和生活便利的同時,人工智能技術(shù)引發(fā)的倫理風(fēng)險問題迫使人們重新思考科技與人類的關(guān)系。技術(shù)嵌入缺乏倫理制約引發(fā)的道德價值偏離、數(shù)據(jù)信息的提供和選擇標(biāo)準(zhǔn)不明引發(fā)的“算法黑箱”、文化偏見引發(fā)的算法歧視、基于數(shù)字化造成的社會分層、數(shù)字鴻溝都是亟待解決的人工智能倫理問題。而人類在面對出現(xiàn)的人工智能技術(shù)倫理風(fēng)險問題面前顯現(xiàn)出了局促,需要明確生成式人工智能倫理價值目標(biāo),增強(qiáng)生成式人工智能技術(shù)的透明度和可解釋性,增加對生成式人工智能的倫理審核和審查,制定生成式人工智能應(yīng)用安全法律規(guī)范,提高公眾意識和參與度,建立倫理委員會來促進(jìn)創(chuàng)新,確保負(fù)責(zé)任地開發(fā)人工智能技術(shù),構(gòu)建人類新的數(shù)字生態(tài)文明。

      猜你喜歡
      倫理人工智能算法
      《心之死》的趣味與倫理焦慮
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進(jìn)位加法的兩種算法
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      一種改進(jìn)的整周模糊度去相關(guān)算法
      两当县| 西丰县| 尚义县| 金阳县| 本溪市| 龙州县| 南平市| 岫岩| 安庆市| 玉田县| 溆浦县| 酉阳| 鹿邑县| 靖州| 汽车| 镇赉县| 崇明县| 沅江市| 循化| 兴仁县| 佛坪县| 莆田市| 富平县| 武汉市| 台山市| 陆丰市| 苏尼特左旗| 南丰县| 慈溪市| 长汀县| 杭州市| 榆社县| 花垣县| 黑河市| 安国市| 兖州市| 朝阳市| 德庆县| 尖扎县| 洮南市| 永春县|