摘 要:在人工智能廣泛運(yùn)用于社會(huì)之際,從人權(quán)倫理的角度重新審視人工智能技術(shù)所帶來的社會(huì)影響以及探討人權(quán)倫理在人工智能發(fā)展中所起到的作用十分重要。
關(guān)鍵詞:人工智能;社會(huì)影響;人權(quán)倫理
現(xiàn)代弱人工智能的能力在一系列的活動(dòng)中被認(rèn)為已經(jīng)取代了人類專家,并在不久的將來,人工智能會(huì)在各個(gè)領(lǐng)域不斷超越人類。直到最近,人類控制技術(shù)的能力仍是毋庸置疑的,但現(xiàn)在的趨勢(shì)傾向于權(quán)力差距的縮小,從而導(dǎo)致這種權(quán)力關(guān)系的逆轉(zhuǎn)。雖然這些影響目前只能在人類活動(dòng)的有限領(lǐng)域內(nèi)看到,但值得注意的是,弱人工智能的影響正在加深,其范圍正在擴(kuò)大。因而,如何審視人權(quán)與人工智能技術(shù)之間的關(guān)系,如何理解人工智能技術(shù)給人權(quán)帶來的沖擊和影響,如何明確人權(quán)倫理規(guī)則在人工智能研究中的指導(dǎo)意義,這都是人類必須面對(duì)且亟須解決的問題。
1 人工智能與人權(quán)倫理的內(nèi)在聯(lián)系
1.1 人權(quán)倫理對(duì)人工智能所產(chǎn)生的作用
迄今為止,人工智能引發(fā)了許多關(guān)于人與機(jī)器之間相互作用的討論,比如人工智能的社會(huì)影響以及人工智能在人類生活中起到的作用等。人權(quán)倫理幫助那些研究和開發(fā)人工智能的技術(shù)人員和企業(yè)劃定界限。例如,谷歌、微軟和DeepMind等主要人工智能企業(yè)已經(jīng)制定了倫理原則,用以指導(dǎo)他們進(jìn)一步開展人工智能活動(dòng)。
人權(quán)倫理因?yàn)槠渚哂衅毡樾?,也更符合道德?guī)范,它規(guī)定了問責(zé)制和糾正措施。這樣,人權(quán)倫理和人工智能可以相互依存。例如,一家公司可以制定合乎道德的人工智能原則,比如避免加深負(fù)面的社會(huì)偏見,確保其系統(tǒng)對(duì)人類的監(jiān)督負(fù)責(zé)。然后,隱私權(quán)和不受歧視權(quán)等可以進(jìn)一步界定這些倫理原則,如果違反這些原則,國(guó)際人權(quán)組織可以規(guī)定補(bǔ)救辦法。此外,如果人工智能的使用被認(rèn)為是不道德的,那么它很可能也違反了人權(quán),而國(guó)際人權(quán)制度中規(guī)定的原則和程序可以用來打擊這種不符合人權(quán)倫理的人工智能的使用。
1.2 人工智能對(duì)人權(quán)倫理的影響與批判
每一項(xiàng)重大技術(shù)的創(chuàng)新都有可能促進(jìn)或損害社會(huì)的發(fā)展。人工智能的數(shù)據(jù)處理和分析能力有助于緩解世界上一些最緊迫的問題,比如,加快人們疾病診斷和治療的進(jìn)展等。然而,這些人工智能的“有益”應(yīng)用也可能造成潛在的負(fù)面影響。例如,人工智能在醫(yī)療保健中的許多應(yīng)用對(duì)隱私構(gòu)成了嚴(yán)重威脅。而隨著科技的發(fā)展,人工智能系統(tǒng)以及機(jī)器人的功能越來越多,在廣泛運(yùn)用于社會(huì)各個(gè)領(lǐng)域的同時(shí),它們對(duì)人權(quán)倫理造成的影響也值得人們深思。
重點(diǎn)需要注意的是,人工智能的應(yīng)用會(huì)對(duì)工作權(quán)和適當(dāng)生活水準(zhǔn)權(quán)造成巨大的影響。一方面,人工智能在工作自動(dòng)化中的大量應(yīng)用可能會(huì)給傳統(tǒng)手工業(yè)者造成一定的威脅,導(dǎo)致了大量的工人因此而失業(yè),使他們難以養(yǎng)活自己和家人。但人工智能的發(fā)展也催生了很多新的就業(yè)崗位,比如快遞、外賣的配送,電商客服以及專車司機(jī)等,人們可以通過更換職業(yè)類型來實(shí)現(xiàn)再就業(yè)。另一方面,工作自動(dòng)化實(shí)際上提高了人們的生活水準(zhǔn),原本許多勞動(dòng)強(qiáng)度大的工作崗位可以由人工智能系統(tǒng)替代,不僅提高了工作效率,改善了生活方式與工作環(huán)境,還大大降低了人力成本,減少了勞動(dòng)時(shí)間,解放了人們的“雙手”,使更多的人從體力勞動(dòng)轉(zhuǎn)向腦力勞動(dòng),從而更好地發(fā)揮自己的作用,并留出更多的閑暇時(shí)間享受生活。正如1966年聯(lián)合國(guó)大會(huì)通過的《經(jīng)濟(jì)、社會(huì)和文化權(quán)利國(guó)際公約》中第11條規(guī)定:“本公約締約各國(guó)承認(rèn)人人有權(quán)為他自己和家庭獲得相當(dāng)生活水準(zhǔn),包括足夠的食物、衣著和住房,并能不斷改進(jìn)生活條件?!盵1]工作自動(dòng)化在一定程度上保證了人們適當(dāng)?shù)纳钏疁?zhǔn)權(quán),并滿足了人民日益增長(zhǎng)的美好生活需要。
2 解決與人工智能相關(guān)的人權(quán)倫理危害的路徑與方法
現(xiàn)在就采取應(yīng)對(duì)人權(quán)風(fēng)險(xiǎn)的行動(dòng),不僅有助于防范人工智能可預(yù)見的有害影響,還為我們無法預(yù)測(cè)的問題提供了空間和框架。
2.1 從政府層面來看,應(yīng)制定全面的人權(quán)倫理法律,并準(zhǔn)備好各種有效的應(yīng)對(duì)措施
第一,立法以減輕人工智能對(duì)人權(quán)倫理的負(fù)面影響,做到有法可依,有章可循。法律是國(guó)家維護(hù)各項(xiàng)事業(yè)和人們權(quán)利的必要保障,全面的人權(quán)倫理法律可以預(yù)見和降低人工智能帶來的人權(quán)風(fēng)險(xiǎn),該法律應(yīng)該同時(shí)適用于政府和企業(yè)。目前,雖然針對(duì)人工智能的立法進(jìn)程相對(duì)緩慢,但全球各國(guó)都有關(guān)于人工智能的立法需求,盡快填補(bǔ)人工智能領(lǐng)域的空白。如果人工智能系統(tǒng)的開發(fā)人員在設(shè)計(jì)智能產(chǎn)品的時(shí)候都不考慮其倫理合法性,那么開發(fā)人員及其設(shè)計(jì)出的產(chǎn)品免不了會(huì)遭受負(fù)面后果。全面的人權(quán)倫理法不僅提供了減輕損害的問責(zé)機(jī)制,還降低了人工智能技術(shù)損害他人或整個(gè)社會(huì)的概率。
第二,政府應(yīng)提前準(zhǔn)備好與人工智能相關(guān)的有效措施,使人工智能技術(shù)對(duì)人權(quán)倫理的不利影響最小化。在自由民主的政府系統(tǒng)中,政府的人工智能系統(tǒng)往往隱含著與政治過程必然相關(guān)的價(jià)值判斷。因此,建議公共部門在使用人工智能方面提高標(biāo)準(zhǔn)。各國(guó)根據(jù)國(guó)際法負(fù)有促進(jìn)、保護(hù)、尊重和履行人權(quán)的首要責(zé)任,無論是在設(shè)計(jì)還是在使用人工智能系統(tǒng)時(shí),都不得從事或支持侵犯人權(quán)的行為,對(duì)于日后是否應(yīng)該賦予強(qiáng)人工智能機(jī)器人“人權(quán)”,一定要有“度”的把握。
2.2 從企業(yè)和科學(xué)家的層面來看,應(yīng)制定嚴(yán)格的道德政策并實(shí)行問責(zé)制
第一,企業(yè)和科學(xué)家應(yīng)該秉承著“以人為本”的發(fā)展理念,堅(jiān)持公共利益優(yōu)先的原則。開發(fā)或者使用人工智能的企業(yè)和科學(xué)家有責(zé)任尊重和維護(hù)人權(quán)倫理,而不僅僅只是因?yàn)槭車?guó)家義務(wù)的約束。為了履行其職責(zé),企業(yè)領(lǐng)導(dǎo)人、科研負(fù)責(zé)人必須采取措施,制定嚴(yán)格的道德政策,增強(qiáng)開發(fā)人員的道德責(zé)任感,不能為了某些人的利益而損害公共福祉或者破壞生態(tài)環(huán)境,確保人工智能的開發(fā)和使用不會(huì)造成或助長(zhǎng)侵犯人權(quán)倫理的行為。
第二,在設(shè)計(jì)之初最好將人類社會(huì)的道德倫理觀念輸入人工智能程序中??茖W(xué)家可以將哲學(xué)和程序語言同時(shí)融入人工智能的系統(tǒng)里,這樣可以使機(jī)器人形成好的價(jià)值觀、世界觀,像善的方向進(jìn)化,降低機(jī)器人的使用風(fēng)險(xiǎn),滿足人類的正當(dāng)需求,從而更好地為人類服務(wù)。
第三,進(jìn)一步加強(qiáng)對(duì)人權(quán)影響的評(píng)估并嚴(yán)格把控倫理審查的過程。企業(yè)或科學(xué)家應(yīng)保持其使用人工智能時(shí)的透明度和可解釋性,確定對(duì)人權(quán)可能產(chǎn)生的不利后果,評(píng)估人工智能系統(tǒng)可能導(dǎo)致或促成侵犯人權(quán)的風(fēng)險(xiǎn),在識(shí)別、預(yù)防和減輕人工智能系統(tǒng)的危害方面,要做到透明公開,為人工智能系統(tǒng)的運(yùn)作建立適當(dāng)?shù)膬?nèi)部問責(zé)機(jī)制和補(bǔ)救機(jī)制,不能謊報(bào)、瞞報(bào),欺騙政府和消費(fèi)者,要長(zhǎng)期處于政府以及企業(yè)部門的監(jiān)管下,采取有效措施預(yù)防和減輕危害,并隨著時(shí)間的推移跟蹤風(fēng)險(xiǎn),切實(shí)維護(hù)好消費(fèi)者的使用權(quán)和知情權(quán),有效預(yù)防和減少人工智能對(duì)人類的侵權(quán)行為。另外,并不是所有人工智能的使用都具有同等的人權(quán)損害風(fēng)險(xiǎn),預(yù)防和應(yīng)對(duì)侵犯人權(quán)行為所需的行動(dòng)應(yīng)取決于具體情況。
參考文獻(xiàn):
[1] 張軍蓮,龔志民,李時(shí)華.論農(nóng)民工的適當(dāng)生活水準(zhǔn)權(quán)——以完善我國(guó)社會(huì)保障制度為視角[J].前沿,2006(03):169-172.
[2] 黃兵明,郭慧峰,趙良,薛金明.人工智能在通信網(wǎng)絡(luò)故障溯源的應(yīng)用研究 [J].郵電設(shè)計(jì)技術(shù),2018(12):35-40.
[3] 馬克思,恩格斯.馬克思恩格斯選集(第1卷)[M].人民出版社,2012.
[4] 焦鏡竹.人工智能技術(shù)應(yīng)用發(fā)展中的人權(quán)倫理問題研究[D].延邊大學(xué),2017.
[5] 馮德浩.關(guān)于人工智能的哲學(xué)思考[J].大連干部學(xué)刊,2019(05):22-25.
作者簡(jiǎn)介:陳雯(1994—),女,江西吉安人,上海理工大學(xué)馬克思主義學(xué)院碩士研究生,研究方向:馬克思主義基本原理。