• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      自動駕駛技術(shù)道德算法困境探析

      2023-10-31 08:58:58鄭凱歌
      中國軍轉(zhuǎn)民 2023年18期
      關(guān)鍵詞:功利主義羅爾斯電車

      鄭凱歌

      人工智能技術(shù)已經(jīng)應(yīng)用到人們?nèi)粘I畹母鱾€方面,逐漸開啟了人工智能時代。而人工智能的普及也孕育出一系列的倫理問題,自動駕駛技術(shù)中“電車難題”應(yīng)運(yùn)而生:面對即將發(fā)生碰撞的行人,是直行直接撞向行人,還是急轉(zhuǎn)彎撞向一旁,將乘車人置于險地。自動駕駛技術(shù)作為人工智能時代的產(chǎn)物,這一倫理難題的解決決定著自動駕駛技術(shù)在未來能否順利推廣。自動駕駛汽車只有被提前置入具有倫理道德的事故算法,公眾才會放心購買使用。

      一、自動駕駛汽車道德算法困境的提出

      自動駕駛汽車在行駛過程中,需要自動駕駛系統(tǒng)自主做出行駛決策,這就需要設(shè)計者和倫理學(xué)家提前為自動駕駛汽車嵌入道德算法,在此期間產(chǎn)生一系列倫理難題,比較典型的包括電車難題和隧道難題。

      (一)電車難題

      “電車難題”是指當(dāng)自動駕駛汽車發(fā)生不可避免的碰撞時,關(guān)于碰撞目標(biāo)如何選擇的問題。這一問題最初由菲利帕·福特提出,經(jīng)典表述是:一輛失控的電車在電車軌道上高速駛來,軌道上有五個人,碰撞馬上發(fā)生。此時,你可以拉動一個拉桿,讓電車開到另一條軌道上。但另一個電車軌道上也有一個人,你是否會拉動拉桿嗎?[1]。另外一種表述為:一輛失控的電車在電車軌道上高速駛來,軌道上有五個人,碰撞馬上發(fā)生。此時你站在軌道上方的天橋上,天橋上有一個胖子,若推下胖子就可以擋住即將碰撞的電車,拯救軌道上的五人。考慮以上狀況,你會推下胖子嗎?一項(xiàng)關(guān)于“電車難題”的調(diào)查顯示:89%的人認(rèn)為拉動拉桿拯救五人是可接受的,但只有12%的被調(diào)查者同意推下胖子。這一調(diào)查結(jié)果表現(xiàn)了謀殺和放任死亡的差別,對此調(diào)查的解釋還有很多,這也反映了倫理困境的復(fù)雜兩難,而自動駕駛道德算法設(shè)置就是這一復(fù)雜倫理困境的現(xiàn)實(shí)化。

      (二)隧道難題

      隧道難題是電車難題的變型,但本質(zhì)上具有差異。“電車難題”表征的是面對不可避免的碰撞時,對碰撞目標(biāo)的選擇困境;“隧道難題”突出的是當(dāng)乘車人和行人發(fā)生利益沖突時的選擇困境。隧道難題的表述為:一輛電車正高速駛?cè)胨淼?,此時一名兒童堵在了隧道入口處,悲劇即將發(fā)生。如果選擇直行進(jìn)隧道,會導(dǎo)致兒童死亡;如果選擇撞向隧道的墻壁,會致使乘車者死亡。而這些復(fù)雜兩難的倫理難題,必須在自動駕駛汽車投入市場前得到妥善解決。畢竟沒有人會把自身和家人安危交給決策不明確的自動駕駛系統(tǒng),這也是自動駕駛技術(shù)發(fā)展的首要難題。

      二、自動駕駛技術(shù)道德算法困境的成因

      (一)功利主義算法中的“損失厭惡”困境

      讓·弗朗索瓦·伯尼法等學(xué)者力圖尋找一種即能降低社會事故死亡預(yù)期,又符合大眾道德偏好的倫理理論,以此作為自動駕駛道德算法的基礎(chǔ)。因此,自動駕駛技術(shù)的道德算法選擇面對一個問題: 是道德偏好和選擇偏好本身就相互獨(dú)立,還是因?yàn)橘徺I情境導(dǎo)致道德偏好的轉(zhuǎn)變?

      調(diào)查顯示,大眾在選擇偏好中會表現(xiàn)出道德偏好,但在購買情境中,選擇偏好又會發(fā)生改變。因此,在置入自動駕駛汽車的道德算法時,不能簡單地依賴大眾在電車難題中表現(xiàn)出的功利主義偏好。道德偏好與選擇偏好的相互獨(dú)立表現(xiàn)出道德判斷的雙加工模型。在道德困境中,被試者在“非親身性”情境中,理性的認(rèn)知占主導(dǎo),感性的情感喚起較輕,容易作出功利主義選擇;而涉及直接傷害的“親身性”兩難困境,被試者更易感同身受。購買情境對被試者來說,更容易激發(fā)被試主體關(guān)于生存發(fā)展和個體安危的關(guān)注,其情感喚起度高于“非親身性”的電車難題,影響了主體的行動偏好。

      (二)羅爾斯式算法中的“反向不公”困境

      盡管功利主義道德算法在調(diào)查中得到了大眾的道德認(rèn)同,也可以減少社會整體事故死亡率,但在購買情境中受到阻礙。因此,尋找一種既能保證大眾購買意愿,又能提高社會整體安全預(yù)期的道德算法便成了當(dāng)務(wù)之急。

      “羅爾斯算法”為改變功利主義犧牲少數(shù)人的算法預(yù)設(shè),提出“底線優(yōu)先原則”。雷本提出以羅爾斯的“最大化最小值”原則為基礎(chǔ),建構(gòu)一種底線安全最大化的新算法。羅爾斯式算法通過最大化弱勢群體的收益推動博弈雙方達(dá)成“帕累托最優(yōu)”,改變了功利主義為達(dá)到生存最大化而舍棄少數(shù)人的方式。在乘車者和行人生命同時受到威脅時,羅爾斯式算法選擇最大化生存率最低一方的生存率。

      但羅爾斯式算法對事故主體生存率的評估是否準(zhǔn)確卻存在爭議,另外一種觀點(diǎn)關(guān)于反向不公:如果我們把事故中生存概率小的一方作為重點(diǎn)保護(hù)對象,那是不是事故中安全系數(shù)更高的一方就會成為 “靶子”?例如,據(jù)官方數(shù)據(jù)統(tǒng)計,戴頭盔會讓騎行者在事故中的傷亡率降低,但如果騎行者知道自動駕駛事故算法會優(yōu)先保護(hù)生存率最低者,他們是否會不再戴頭盔呢? 因?yàn)椤邦^盔”很可能因其安全性而成為自動駕駛事故算法的 “靶子”,這顯然是不公平的[2]。

      (三)道德旋鈕算法中的“囚徒困境”

      獲得大眾支持的功利主義算法陷入了購買困境;具有“最大最小值”原則的羅爾斯算法帶來了反向不公困境,使設(shè)計者不得不考慮另一個問題:如果統(tǒng)一的算法無法滿足實(shí)際需要,那放棄統(tǒng)一算法,打造個人倫理算法,把選擇權(quán)讓渡給車主。自動駕駛汽車道德算法設(shè)置一直面對的問題:怎么為一個復(fù)雜兩難的道德問題預(yù)設(shè)答案,個人倫理算法的提出,將統(tǒng)一性的道德算法變更為個體的獨(dú)特選擇,以“預(yù)設(shè)選擇”代替“預(yù)設(shè)答案”。

      賈斯帕·康提薩的“道德旋鈕”架構(gòu)是個人化倫理算法中最具有代表性的。該架構(gòu)中,旋鈕兩端分別對應(yīng)“利他主義”和“利己主義”,中央對應(yīng)“功利主義算法”:即優(yōu)先保護(hù)行人和優(yōu)先保護(hù)乘客,以及完全中立。駕乘人員在“利他主義”與“自我主義”之間進(jìn)行傾向性選擇?!暗赖滦o”優(yōu)勢在于:自動駕駛系統(tǒng)成為使用者道德選擇的延伸,以“多元主體”代替“單一主體”,完成了設(shè)計者向使用者的權(quán)責(zé)讓渡。并且,道德旋鈕的利己主義選項(xiàng)可以完全保護(hù)乘車人的完全,緩解了大眾對純粹功利主義算法自動駕駛汽車的購買排斥。

      三、自動駕駛技術(shù)道德算法困境對策分析

      (一)采用強(qiáng)制性的、互利的算法倫理程序

      個人化倫理算法與強(qiáng)制性倫理算法的本質(zhì),都是通過對有限資源的權(quán)衡以求達(dá)到生存率最大化的帕累托最優(yōu)解。

      個人選擇事故算法會帶來更多倫理難題,所帶來的囚徒困境讓個體更加不堪重負(fù)。以機(jī)動車道路通行原則作類比,我國采取右側(cè)通行原則,而有些國家采用左側(cè)通行原則。左側(cè)通行和右側(cè)通行無法判斷誰更具有優(yōu)勢,但一定都優(yōu)于誰快誰占道。在混亂的秩序中,采取一個統(tǒng)一的、強(qiáng)制的規(guī)則,更能打破僵局規(guī)范秩序。只有政府介入進(jìn)行強(qiáng)制性的倫理設(shè)定才能使社會全體利益最大化,政府應(yīng)該給自動駕駛技術(shù)制定統(tǒng)一的、強(qiáng)制性的算法標(biāo)準(zhǔn)。

      (二)倫理理論相互融合以突破自身局限

      如今學(xué)界,倫理理論已經(jīng)出現(xiàn)相互融合之勢。規(guī)則功利主義是功利主義對義務(wù)論的吸納;康德式倫理學(xué)開始對后果進(jìn)行考量;義務(wù)論和功利主義也逐漸承認(rèn)美德的重要性并試圖將美德納入自身理論框架。不同倫理理論彼此吸收、相互融合正在發(fā)生,這一過程實(shí)際上也是倫理理論對自身局限性的認(rèn)識和突破。

      設(shè)計者從研究方法和實(shí)踐操作層次上提出許多方案,目標(biāo)旨在消解諸生命間的排他性沖突。多數(shù)道德算法都選擇引用系統(tǒng)性的倫理理論,但又因?yàn)闆]有處理好自身缺陷而走向失敗。因而,運(yùn)用倫理理論相互融合的方式以突破自身局限,來處理好內(nèi)部特征之間的關(guān)系。我們應(yīng)該吸收和利用美德倫理學(xué)、義務(wù)論和目的論等可借鑒的倫理理論,形成備選規(guī)則系統(tǒng)庫。

      (三)從依賴單一倫理理論轉(zhuǎn)為達(dá)到共享理解

      改變規(guī)則思維,焦距達(dá)成共識。為了解決不同主體的倫理價值沖突,可以引用契約論精神。在自動駕駛汽車道德算法設(shè)定過程中,需要考慮的利益主體包括行人、乘車人、制造商以及政府,契約主義為事故中利益主體的商議提供了借鑒。另外,可以展開討論,考慮不被接受倫理規(guī)則有哪些,進(jìn)行反向啟發(fā),從而為達(dá)成共享理解。

      在設(shè)計自動駕駛汽車的道德算法時,可遵循兩大原則:綜合性原則和個性化原則?;趦纱笤瓌t的批評性反思的道德算法:調(diào)用一切倫理資源,形成備選規(guī)則庫—綜合性原則化;乘客自主地因情境采用不同的倫理規(guī)則—個性化原則。我們應(yīng)尊重復(fù)雜的倫理直覺,調(diào)用一切倫理資源,因情境采用相應(yīng)的倫理規(guī)則而非倫理理論。

      四、結(jié)語

      政府介入進(jìn)行強(qiáng)制性的倫理設(shè)定可以提供社會整體安全預(yù)期,自動駕駛技術(shù)應(yīng)制定統(tǒng)一的、強(qiáng)制性的算法標(biāo)準(zhǔn)。自動駕駛技術(shù)道德算法也需要倫理理論相互融合。倫理理論融合或許不能完全實(shí)現(xiàn),但不同倫理理論彼此吸收、相互融合卻正在發(fā)生。自動駕駛技術(shù)的道德算法的設(shè)計還有很長的路要走,需要改變規(guī)則思維,達(dá)成共識,并且在實(shí)踐中不斷完善。

      猜你喜歡
      功利主義羅爾斯電車
      羅爾斯政治自由主義對非理性者的排斥
      基于Baja電車點(diǎn)線面動態(tài)仿真轉(zhuǎn)向設(shè)計
      小電車,大問題
      康有為早期政治思想的功利主義解讀
      原道(2019年2期)2019-11-03 09:15:08
      法律解釋的功利主義傾向
      法律方法(2018年3期)2018-10-10 03:20:54
      不能將功利主義標(biāo)簽化
      論羅爾斯理論中術(shù)語“device of representation”的翻譯
      瘦企鵝
      淺析西方現(xiàn)代功利主義
      辛苦的電車售票員
      奇台县| 六安市| 芮城县| 南宫市| 文化| 育儿| 六枝特区| 杭锦后旗| 和硕县| 富宁县| 宜宾县| 凤凰县| 友谊县| 平遥县| 于田县| 云浮市| 丘北县| 北宁市| 盐津县| 昌乐县| 通州区| 南漳县| 湘阴县| 常山县| 屯门区| 云梦县| 丰都县| 科技| 无为县| 荆州市| 蛟河市| 禄丰县| 朝阳县| 安乡县| 定襄县| 太湖县| 龙里县| 大埔区| 昭觉县| 秦皇岛市| 舒兰市|