何志權(quán) 何玉鵬 曹文明
摘要:當(dāng)前,我國人工智能技術(shù)飛速發(fā)展,但該領(lǐng)域內(nèi)的工程倫理教育卻遲滯于技術(shù)的發(fā)展,正逐漸受到重視。為此,文章在總結(jié)電子信息工程和人工智能技術(shù)特點(diǎn)的基礎(chǔ)上,提出了目前人工智能領(lǐng)域工程倫理教育中存在的三大問題,從不同維度反映了目前工程倫理教育面臨的挑戰(zhàn)。隨后,探討了以人為本的責(zé)任倫理解決方案,倡導(dǎo)具有人文溫度、規(guī)范創(chuàng)新、價(jià)值引導(dǎo)等工程倫理理念和方法,把工程倫理原則轉(zhuǎn)化為倫理實(shí)踐成果。
關(guān)鍵詞:工程倫理; 人工智能;? 責(zé)任倫理; 以人為本;公共福祉
中圖分類號(hào):TP3? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2022)11-0084-02
1 引言
工程活動(dòng)是現(xiàn)代社會(huì)存在與發(fā)展的重要驅(qū)動(dòng)力,反映了人與自然、人與人之間和人與社會(huì)的相互關(guān)系[1]。工程活動(dòng)目前還面臨著諸多深刻、重大的工程倫理問題。工程應(yīng)用、科學(xué)研究、技術(shù)工具等本身并無善惡之分。不論科學(xué)研究還是技術(shù)應(yīng)用都與人類生存和可持續(xù)發(fā)展息息相關(guān),對(duì)社會(huì)公共福祉產(chǎn)生影響,科研和技術(shù)因此而具有道德內(nèi)涵。所以,加強(qiáng)工程倫理教育是實(shí)現(xiàn)科學(xué)技術(shù)發(fā)展風(fēng)險(xiǎn)可控、健康有序、服務(wù)于大眾的內(nèi)在條件。目前,我國正逐步健全工程倫理教育的標(biāo)準(zhǔn),并越來越重視培養(yǎng)工程師的行業(yè)責(zé)任與社會(huì)責(zé)任[2]。
人工智能是以數(shù)據(jù)為基礎(chǔ)的機(jī)器學(xué)習(xí)技術(shù),其中深度學(xué)習(xí)技術(shù)的應(yīng)用最為廣泛。深度學(xué)習(xí)模型分析和解決問題的能力從海量數(shù)據(jù)中學(xué)習(xí),從而在專業(yè)領(lǐng)域做出比人類更迅速、更精準(zhǔn)、更客觀的預(yù)測(cè)。人工智能信息技術(shù)對(duì)我國產(chǎn)業(yè)結(jié)構(gòu)的直接影響不僅是工業(yè)數(shù)字化,而且是工業(yè)智能化,因此我國正在大力支持和推動(dòng)人工智能信息技術(shù)在電子政務(wù)和公共民生政策方面的更深層次應(yīng)用。與此同時(shí),人工智能發(fā)展也衍生出復(fù)雜多樣的倫理問題[3]。在全球科技產(chǎn)業(yè)競爭加劇和數(shù)字經(jīng)濟(jì)發(fā)展成為一個(gè)國家戰(zhàn)略核心競爭力等重大背景下,考慮到當(dāng)前我國人工智能行業(yè)的自身發(fā)展情況,我國對(duì)人工智能行業(yè)需要加強(qiáng)創(chuàng)新技術(shù)治理和嚴(yán)格規(guī)范技術(shù)監(jiān)管,保障人工智能的健康發(fā)展和積極應(yīng)用。
2019年7月24日下午,中央全面深化改革委員會(huì)第九次會(huì)議中,審議通過了《國家科技倫理委員會(huì)組建方案》。會(huì)議要求“科技倫理為科技活動(dòng)必須遵守的價(jià)值準(zhǔn)則,且構(gòu)建一套覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系”。從此,在國家頂層設(shè)計(jì)中明確了倫理道德在科技活動(dòng)中的準(zhǔn)則地位,為科技倫理治理指明了具體要求和路徑。對(duì)人工智能而言:2020年被認(rèn)為是人工智能監(jiān)管元年,歐盟和美國分別通過了《人工智能白皮書》《人工智能應(yīng)用監(jiān)管指南》。我國則采用立法形式漸進(jìn)式約束工程倫理、保障公民權(quán)利。例如2021年7月28日科學(xué)技術(shù)部科技監(jiān)督與誠信建設(shè)司研究起草了《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(征求意見稿) 》,用于強(qiáng)化科技倫理審查和監(jiān)管,查處科技倫理違規(guī)行為;2021年8月20日,十三屆全國人大常委會(huì)第三十次會(huì)議表決通過《中華人民共和國個(gè)人信息保護(hù)法》,協(xié)調(diào)個(gè)人信息保護(hù)與規(guī)范不同信息處理者的規(guī)制方式,促進(jìn)安全健康的信息自由流動(dòng)。
2 工程倫理問題分析
人工智能越來越多地被應(yīng)用到社會(huì)生活的各個(gè)方面。目前人們生活在算法之下,算法決策開始幫助甚至主導(dǎo)越來越多的人類社會(huì)事務(wù)。目前人工智能更多的是IT和算法工程師的參與,缺乏哲學(xué)、倫理學(xué)、法學(xué)等社會(huì)學(xué)科。要想讓人工智能真正有益于人類社會(huì),服務(wù)于大眾,就需要關(guān)注人工智能背后的倫理問題。目前人工智能技術(shù)帶來的主要問題表現(xiàn)為算法歧視、隱私泄露、責(zé)任與安全混亂等。
2.1 算法歧視
算法歧視可以描述為通過設(shè)定特定的數(shù)據(jù)管理方式,在無正當(dāng)理由的情況下對(duì)用戶實(shí)施差別待遇,侵害客戶合法權(quán)益的行為。算法決策是人工智能技術(shù)的重要組成部分,使用歷史的和當(dāng)前的數(shù)據(jù)預(yù)測(cè)未來的趨勢(shì)[4]。而預(yù)測(cè)結(jié)果取決于算法模型的設(shè)計(jì)和數(shù)據(jù)的選擇。因此,這兩個(gè)因素成為算法歧視的主要來源。一方面,算法構(gòu)建的過程在很大程度上被描述為設(shè)計(jì)者和開發(fā)人員實(shí)現(xiàn)其設(shè)計(jì)、目標(biāo)、成功標(biāo)準(zhǔn)和數(shù)據(jù)使用的主觀意圖,這允許設(shè)計(jì)者和開發(fā)人員將自己的價(jià)值觀甚至偏見嵌入算法系統(tǒng)。另一方面,數(shù)據(jù)的廣泛性、有效性和適用性也會(huì)影響整個(gè)算法決策和預(yù)測(cè)的準(zhǔn)確性。在人工智能系統(tǒng)與現(xiàn)實(shí)世界的交互過程中,不合適的算法優(yōu)化和人機(jī)交互數(shù)據(jù)的干擾都可能引發(fā)算法歧視。更重要的是,數(shù)據(jù)在一定程度上反映了社會(huì)現(xiàn)實(shí),訓(xùn)練數(shù)據(jù)本身可能具有歧視性,采用這種數(shù)據(jù)訓(xùn)練出來的人工智能系統(tǒng)自然具有歧視性。
進(jìn)一步來說,人工智能算法的訓(xùn)練優(yōu)化過程固化或放大了歧視,使得歧視在整個(gè)算法中持續(xù)存在。人工智能算法用于預(yù)測(cè)未來,過去的歧視性數(shù)據(jù)和不恰當(dāng)?shù)挠?xùn)練和優(yōu)化過程可能會(huì)在算法中固化和強(qiáng)化。此時(shí)將會(huì)產(chǎn)生正反饋將算法歧視不斷放大。最終,算法決策會(huì)造成錯(cuò)誤,影響人與人、人與自然的關(guān)系。歸根到底,人工智能算法決策高度專業(yè)化,且大部分不可解釋,從而導(dǎo)致算法歧視,甚至違背常理和公序良俗。
2.2 隱私泄露
數(shù)據(jù)已經(jīng)成了人工智能時(shí)代的基礎(chǔ)能源,參與人工智能算法的數(shù)據(jù)樣本越多,模型越完善,結(jié)果越準(zhǔn)確。一些互聯(lián)網(wǎng)公司和電信、金融等單位在提供服務(wù)活動(dòng)中獲得的公民個(gè)人信息被非法泄露或者未經(jīng)授權(quán)私自采集個(gè)人信息的情況時(shí)有發(fā)生,給人們帶來新的隱私憂慮[5]。一方面,個(gè)人信息的收集變得越來越容易,對(duì)信息的不當(dāng)使用或予以泄露會(huì)給個(gè)人造成財(cái)產(chǎn)、精神上的損失。另一方面,各行業(yè)服務(wù)之間交易數(shù)據(jù)量大,數(shù)據(jù)不斷流動(dòng)和備份,數(shù)據(jù)進(jìn)入新的循環(huán),可能會(huì)削弱對(duì)個(gè)人數(shù)據(jù)的控制和管理。與此同時(shí),隱私保護(hù)的倫理規(guī)范和法律制度落后于人工智能技術(shù)的發(fā)展和數(shù)據(jù)應(yīng)用。從外部來看,現(xiàn)有的社會(huì)秩序和法律規(guī)范不能很好地適應(yīng)新興工程技術(shù)的高速發(fā)展。目前各主體的道德倫理意識(shí)尚未形成:各主體的道德倫理意識(shí)薄弱,數(shù)據(jù)責(zé)任感缺失,主要表現(xiàn)在用戶在網(wǎng)絡(luò)空間中的自我控制與行為約束能力不足和服務(wù)部門工程道德倫理教育匱乏。
2.3 風(fēng)險(xiǎn)與責(zé)任缺失
人工智能、物聯(lián)網(wǎng)、大數(shù)據(jù)等數(shù)字新技術(shù)的出現(xiàn)對(duì)產(chǎn)品安全和責(zé)任提出了新的挑戰(zhàn)。這些技術(shù)的特點(diǎn)是系統(tǒng)性、決策自主性、解釋復(fù)雜性和數(shù)據(jù)依賴性。他們可以根據(jù)自主程序執(zhí)行任務(wù),幾乎不需要人工決策。同時(shí),配備人工智能的復(fù)雜系統(tǒng)可以通過學(xué)習(xí)過去的數(shù)據(jù)經(jīng)驗(yàn)來提高決策效率。人工智能技術(shù)通常集成在復(fù)雜的網(wǎng)絡(luò)環(huán)境中,其中許多不同的傳感器連接設(shè)備和服務(wù)應(yīng)用程序相互作用[5]。
決策自主性、算法的復(fù)雜性、數(shù)據(jù)的不完備性會(huì)帶來產(chǎn)品的安全性問題。由于一些人工智能系統(tǒng)的“算法黑箱”,算法和數(shù)據(jù)需要具備專業(yè)的分析能力和技術(shù)專長,算法解釋性差,系統(tǒng)的復(fù)雜度不斷增加。系統(tǒng)越復(fù)雜,風(fēng)險(xiǎn)性越高,經(jīng)由優(yōu)化和訓(xùn)練的模型可能做出錯(cuò)誤的,甚至反常識(shí)的決策。對(duì)自主系統(tǒng)的責(zé)任歸屬尚沒有清晰的界定,數(shù)據(jù)使用者和管理者沒有承擔(dān)相應(yīng)的隱私保護(hù)責(zé)任。
3 對(duì)策探討與改革方案
伴隨著人工智能技術(shù)第三次浪潮的興起,目前歐美和日本針對(duì)人工智能的相關(guān)倫理問題開展了同步討論。在我國,工程倫理研究和教育已經(jīng)在高校得到了一定程度的普及,但高校師資缺乏,技術(shù)發(fā)展更迭快,教學(xué)效果不甚理想。只有不斷解決技術(shù)帶來的社會(huì)熱點(diǎn)問題,才能增強(qiáng)學(xué)生的工程倫理意識(shí)。為此,文章在以下四個(gè)方面提出解決思路:
3.1 符合倫理的人工智能設(shè)計(jì)
做好頂層設(shè)計(jì),將人類社會(huì)的法律、道德規(guī)范和價(jià)值評(píng)價(jià)標(biāo)準(zhǔn)嵌入人工智能設(shè)計(jì)理念中。根據(jù)電氣和電子工程師協(xié)會(huì)對(duì)人工智能技術(shù)的倡議,人工智能工程倫理設(shè)計(jì)分三步實(shí)現(xiàn):首先是發(fā)現(xiàn)需要嵌入AI系統(tǒng)的道德規(guī)范和價(jià)值標(biāo)準(zhǔn)。如果技術(shù)存在道德或價(jià)值的問題,明確功能需求合理安排系統(tǒng)倫理邏輯,做好預(yù)案準(zhǔn)備工作,統(tǒng)籌兼顧。第二步是將所發(fā)現(xiàn)的規(guī)范和價(jià)值加入人工智能系統(tǒng),需要辯證唯物方法論,探尋客觀規(guī)律,并用實(shí)踐檢驗(yàn)工程倫理,積極創(chuàng)新。第三步是評(píng)估已經(jīng)嵌入AI系統(tǒng)的規(guī)范和價(jià)值觀,看它們是否與人類社會(huì)相一致。一方面做好人工智能技術(shù)的解釋性,做到過程可理解,結(jié)果可追溯;另一方面是完善工程倫理理念,建立一套價(jià)值一致性和相符性標(biāo)準(zhǔn)。
AI工程倫理教育應(yīng)包括三個(gè)原則:一是利他主義,技術(shù)發(fā)展的唯一目標(biāo)是最大限度地滿足人類需求;二是不確定性,為應(yīng)對(duì)不確定性風(fēng)險(xiǎn)健全行業(yè)標(biāo)準(zhǔn)和應(yīng)急預(yù)案;三是考慮人類,即人類行為提供了關(guān)于人類價(jià)值的信息。
3.2 培養(yǎng)以人為本的價(jià)值觀念
為避免人工智能“去人類中心化”產(chǎn)生的技術(shù)、權(quán)力、責(zé)任、倫理等方面的道德風(fēng)險(xiǎn),人工智能技術(shù)的發(fā)展理念應(yīng)始終圍繞“社會(huì)公平”“人道主義”以及“人與人、人與自然關(guān)系”三大基本原則展開。人工智能工程倫理教育核心以人為本,秉承把人類的利益、安全和健康福祉放在首位的原則,實(shí)現(xiàn)人類社會(huì)可持續(xù)發(fā)展。
應(yīng)確立人的自主性原則,強(qiáng)化人的領(lǐng)導(dǎo)能力和監(jiān)督意識(shí)。人工智能工程倫理的發(fā)展和應(yīng)用支持人類的自主和決策。人類所有權(quán)和監(jiān)督權(quán)的不斷加強(qiáng)、人類控制權(quán)的獲得以及人類的監(jiān)督和干預(yù),有助于確保人工智能系統(tǒng)不會(huì)影響人類的決策自主權(quán),也不會(huì)將其影響力擴(kuò)大到造成其他不利的傷害,以確保它被人類實(shí)際使用。顯然,開發(fā)人員和設(shè)計(jì)人員應(yīng)該充分發(fā)揮自主、支配和監(jiān)督的作用,這對(duì)人工智能的成功至關(guān)重要。重點(diǎn)培養(yǎng)人的倫理觀念,增加人工智能工程倫理的方法和作用,實(shí)踐且落實(shí)工程中人的觀念。
3.3 進(jìn)行監(jiān)管,避免作惡
由于人工智能算法的復(fù)雜性不斷增加,同時(shí)算法決策的影響范圍也越來越大,因此需要人們對(duì)算法的設(shè)計(jì)和應(yīng)用進(jìn)行監(jiān)督。首先,監(jiān)管措施包括行業(yè)標(biāo)準(zhǔn)、應(yīng)用領(lǐng)域分類、性能指標(biāo)、設(shè)計(jì)標(biāo)準(zhǔn)、責(zé)任主體標(biāo)準(zhǔn)等。在過程可解釋性和結(jié)果可追溯性方面,包括算法自身代碼的可解釋性以及算法決策的嚴(yán)密邏輯推理過程。此外,還有民生服務(wù)和政府權(quán)力審批制度,例如對(duì)于自動(dòng)駕駛汽車所采用的算法,監(jiān)管部門需要進(jìn)行事先檢查審批。
要落實(shí)監(jiān)管措施,必須將科技倫理納入制度和法律,建立健全相關(guān)法律法規(guī)、倫理規(guī)范和政策體系,形成完整有效的安全評(píng)價(jià)和管控能力。應(yīng)加強(qiáng)科技倫理監(jiān)督,構(gòu)建從實(shí)驗(yàn)室研發(fā)階段到工程應(yīng)用階段的新技術(shù)全鏈條監(jiān)管體系,完善相應(yīng)的問責(zé)機(jī)制。
3.4 針對(duì)算法決策建立責(zé)任倫理
根據(jù)責(zé)任倫理的觀點(diǎn)進(jìn)行推廣,每一人工智能算法的作用效果和群體都是獨(dú)一無二的,設(shè)計(jì)和開發(fā)團(tuán)隊(duì)都應(yīng)該對(duì)算法決策行為承擔(dān)相應(yīng)的后果,這是責(zé)任體系中個(gè)體應(yīng)承擔(dān)的,并且在做出決策前要理性對(duì)待可能誘發(fā)的工程倫理問題,及時(shí)應(yīng)對(duì)所帶來的風(fēng)險(xiǎn)與不良后果。同時(shí),考慮人工智能帶來的隱形責(zé)任倫理,考慮人的主觀觀念,漸進(jìn)化改變?nèi)伺c人、人與自然的關(guān)系。人不能漠視人工智能技術(shù)產(chǎn)生的風(fēng)險(xiǎn),考慮到滯后性問題,要進(jìn)行及時(shí)的反思性批判,自覺形成實(shí)質(zhì)的工程倫理意識(shí),從而減少或者避免人工智能技術(shù)帶來的風(fēng)險(xiǎn)。因此,責(zé)任倫理更應(yīng)考慮到技術(shù)當(dāng)前的任何行為都可能對(duì)社會(huì)及未來后果負(fù)責(zé)之上,并且形成多主體參與的倫理責(zé)任共擔(dān)的自覺意識(shí),這一原則對(duì)構(gòu)建人工智能技術(shù)責(zé)任倫理體系有著重要的借鑒意義。
工程倫理教育中采用責(zé)任倫理的方法,將“責(zé)任”與“倫理精神”進(jìn)行融合,通過顯性與隱性化教育,內(nèi)化到人工智能技術(shù)開發(fā)人員觀念中。因此,在提升責(zé)任的倫理價(jià)值時(shí),工程倫理教育應(yīng)引入人員的自我責(zé)任意識(shí),電子信息專業(yè)人員要強(qiáng)化自我責(zé)任的倫理意識(shí)。同樣,應(yīng)結(jié)合唯物辯證法的思想政治教育,提升責(zé)任倫理在工程生態(tài)學(xué)中的指導(dǎo)作用。
4 結(jié)論
面向未來發(fā)展的工程倫理教育,不斷加強(qiáng)思想政治教育,既要以人為本又要積極落實(shí)責(zé)任,深化工程倫理教育。本文分析了人工智能領(lǐng)域工程倫理教育中存在的三大問題,從不同維度反映了目前工程倫理教育面臨的挑戰(zhàn)。采用以人為本的責(zé)任倫理解決方案,采取倫理治理,把工程倫理原則轉(zhuǎn)化為倫理實(shí)踐成果,協(xié)調(diào)技術(shù)與社會(huì)關(guān)系,使人工智能技術(shù)最大化地服務(wù)人民。
參考文獻(xiàn):
[1] 林健,衣芳青.面向未來的工程倫理教育[J].高等工程教育研究,2021(5):1-11.
[2] 廖莉,陳萬球.中國工程倫理規(guī)范的歷史進(jìn)路[J].長沙理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020,35(2):33-40.
[3] 馬佳義,陳珺.新形勢(shì)下信息學(xué)科工程倫理教育的重要性和目標(biāo)層次[J].未來與發(fā)展,2019,43(4):93-95.
[4] 鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2021,39(1):14-26.
[5] 余婷.人工智能的倫理問題及對(duì)策研究[D].武漢:武漢理工大學(xué),2016.
收稿日期:2021-10-09
基金項(xiàng)目:該文的工作和相關(guān)的教學(xué)實(shí)踐得到了基金項(xiàng)目“面向深度學(xué)習(xí)的卓越AI人才培養(yǎng)體系探索與實(shí)踐”(編號(hào):E-RGZN20201035) 的支持
作者簡介:何志權(quán)(1978—) ,男,湖南邵陽人,講師,博士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)和多媒體信息處理;何玉鵬(1996—) ,男,江西贛州人,在讀碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)圖像處理;曹文明(1965—) ,男,江蘇洪波人,教授,博士,主要研究方向?yàn)槎嗝襟w信息處理、模式識(shí)別和人工智能算法研究。