• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      構(gòu)建可信賴機(jī)器翻譯系統(tǒng)的基本原則
      ——一種基于工程倫理的觀點(diǎn)

      2021-03-07 16:27:22張霄軍邵璐
      外國語文 2021年1期
      關(guān)鍵詞:譯文倫理人工智能

      張霄軍 邵璐

      (1.西交利物浦大學(xué) 翻譯系,江蘇 蘇州 215123;2. 中山大學(xué) 外國語學(xué)院,廣東 廣州 510275)

      0 問題的產(chǎn)生

      近年來,面對人工智能和機(jī)器翻譯所取得的突出進(jìn)步,尤其是神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯在機(jī)器翻譯譯文的可讀性方面大幅提高,這就使得高校翻譯專業(yè)不得不面對這樣一個問題:人工智能時代翻譯專業(yè)該怎么辦?其實(shí),這是一個市場“倒逼”的提問,比這個問題更加尖銳的問題是:翻譯專業(yè)會不會消亡?機(jī)器翻譯是否會取代人工翻譯?

      “機(jī)器翻譯與人工翻譯”的問題在2014年德國柏林召開的第20屆世界翻譯大會上得以顯化,該屆大會的主題就是“人工翻譯還是機(jī)器翻譯?翻譯工作者與術(shù)語學(xué)家的未來”(Man vs. Machine? The Future of Translators, Interpreters and Terminologists),自此拉開了翻譯研究技術(shù)轉(zhuǎn)向的序幕(張霄軍 等,2014)。之后機(jī)器翻譯甚囂塵上,翻譯“大事件”層出不窮,如百度機(jī)器翻譯2015年正式上線神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯系統(tǒng)并獲得國家科學(xué)技術(shù)進(jìn)步獎二等獎、谷歌于2016年發(fā)布神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯引擎、2017年微軟翻譯發(fā)布神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯系統(tǒng)、2018年博鰲論壇騰訊同傳登臺亮相、科大訊飛宣稱2019年其語音翻譯將達(dá)到“專業(yè)八級”水平,等等。然而,我們發(fā)現(xiàn),引領(lǐng)上述“大事件”的大都是機(jī)器翻譯公司或者人工智能企業(yè),韓林濤(2019)認(rèn)為由于商業(yè)炒作而產(chǎn)生的斷言“以偏概全、夸大事實(shí)”,但不得不承認(rèn)我們已經(jīng)來到一個“無技術(shù)不翻譯”的時代(任文,2019)。這也引發(fā)了學(xué)術(shù)界對該論題的憂思與爭論。蔡基剛(2020)認(rèn)為“隨著機(jī)器翻譯時代的到來,高校翻譯專業(yè)必然走向消亡”,他認(rèn)為“技術(shù)文本和政治文獻(xiàn)的機(jī)器翻譯替代人工翻譯在未來幾年就可以實(shí)現(xiàn)”;李長栓(2019)則認(rèn)為“要想通過機(jī)器翻譯,實(shí)現(xiàn)自然語言的處理,恐怕還有很長的路要走;也許永遠(yuǎn)沒有實(shí)現(xiàn)的一天”;祝朝偉(2018)直接斷言“機(jī)器取代人不過是不證自明的偽命題”。陳偉(2020)從機(jī)器翻譯對譯者主體性結(jié)構(gòu)說明“機(jī)器翻譯無法完全取代人工翻譯”;劉和平和梁爽(2019)則提出翻譯的教與學(xué)應(yīng)該“擁抱技術(shù)”,而不是畏懼和排斥技術(shù)。

      其實(shí),無論是“人工智能時代翻譯專業(yè)最終走向消亡”還是“機(jī)器翻譯會取代人工翻譯”,真正從事機(jī)器翻譯研發(fā)的科學(xué)家很少提出這樣的論斷。對于機(jī)器翻譯研發(fā)者而言,機(jī)器翻譯系統(tǒng)的開發(fā)與應(yīng)用是一項系統(tǒng)工程,任何未經(jīng)檢驗(yàn)的論斷都會涉及人工智能和機(jī)器翻譯技術(shù)的工程倫理問題。正如王華樹(2020)在回答《翻譯技術(shù)100問》中“機(jī)器翻譯是否會取代人類譯員?”這個問題時所言:“機(jī)器翻譯目前還存在著許多技術(shù)和倫理層面的問題,同時也給人類帶來了新的機(jī)遇?!蹦壳坝懻撊斯しg能否被“取代”為時尚早,我們應(yīng)該盡快厘清的是機(jī)器翻譯的工程倫理問題。

      1 人工智能和機(jī)器翻譯技術(shù)的工程倫理問題

      工程倫理是對在工程實(shí)踐中涉及的道德價值、問題和決策的研究(李世新,2010)。也就是研究如何開發(fā)對人類有用卻不會傷害人類的系統(tǒng),系統(tǒng)開發(fā)過程中如何保護(hù)隱私,如何確保系統(tǒng)安全性和魯棒性,等等。機(jī)器翻譯技術(shù)是用計算機(jī)來模擬人的翻譯能力,是人工智能技術(shù)的一個重要分支,兩者“本是同根生,在發(fā)展過程中幾經(jīng)浮沉,同甘苦共命運(yùn),它們之間存在著密切的聯(lián)系”(馮志偉,2018)。因此,人工智能從業(yè)者所面臨的工程倫理問題同時也是機(jī)器翻譯研發(fā)者所面臨的工程倫理問題,兩者并無二致。鑒于機(jī)器翻譯和人工智能在各自發(fā)展歷程中具有相似的特征以及人工智能專家和機(jī)器翻譯工程師在職業(yè)發(fā)展中的雷同性,我們將這兩者的工程倫理問題歸并到一起進(jìn)行討論。人工智能和機(jī)器翻譯技術(shù)的工程倫理指的是人工智能和機(jī)器翻譯系統(tǒng)或者產(chǎn)品在設(shè)計、研發(fā)過程中所產(chǎn)生的倫理問題。

      1.1 工程倫理的制度化建設(shè)問題

      在制度化建設(shè)方面,一個直接相關(guān)的就是職業(yè)注冊制度問題。人工智能行業(yè)從業(yè)者和機(jī)器翻譯研發(fā)者應(yīng)不應(yīng)該注冊某種職業(yè)資格,要獲得何種職業(yè)資格證,目前尚無討論。在美國和英國,目前推行的是職業(yè)工程師執(zhí)照制度,要求工程師申請職業(yè)工程師執(zhí)照(professional engineer,簡稱P.E.執(zhí)照)。在我國推行的是國家職業(yè)資格證書制度,規(guī)定“對從事技術(shù)復(fù)雜、通用性廣、涉及國家財產(chǎn)、人民生命安全和消費(fèi)者利益的職業(yè)(工種)的勞動者,必須經(jīng)過培訓(xùn),并取得職業(yè)資格證書后,方可就業(yè)上崗”。然而,在人力資源社會保障部印發(fā)的《關(guān)于公布國家職業(yè)資格目錄的通知》公布的140項國家職業(yè)資格目錄中,對人工智能從業(yè)者和機(jī)器翻譯研發(fā)者并無明確規(guī)定。這意味著大多數(shù)人工智能和機(jī)器翻譯工程師無法以可能會被吊銷資格證的方式來抵制參與不遵守倫理道德的行為。

      制度化建設(shè)的第二個方面是工程社團(tuán)和社團(tuán)倫理章程的制定。在促進(jìn)工程倫理的建設(shè)中,工程社團(tuán)應(yīng)起怎樣的作用?對此,學(xué)術(shù)界有不同的看法。比較一致的觀點(diǎn):(1)社團(tuán)是探討技術(shù)爭論和倫理紛爭的最好的場所;(2)職業(yè)社團(tuán)應(yīng)當(dāng)促進(jìn)而不是實(shí)施工程倫理建設(shè)。工程社團(tuán)通常會制定行業(yè)的倫理章程來確立工程師應(yīng)關(guān)注的主要的倫理領(lǐng)域。然而,對于章程的性質(zhì)和功能卻存在著爭議。中國人工智能學(xué)會、中國中文信息學(xué)會和中國翻譯協(xié)會是三個在民政部注冊的一級學(xué)會,也就是我國人工智能從業(yè)者和機(jī)器翻譯研發(fā)者賴以解決倫理紛爭和制定倫理章程的工程社團(tuán)。然而,對于并不隸屬于上述任何一家社團(tuán)的從業(yè)者,倫理章程所包含的標(biāo)準(zhǔn)、規(guī)則、原則和理念是否同樣適用呢?

      制度化建設(shè)的第三個方面是工程倫理教育問題,即工程倫理在學(xué)科體系中的地位問題,目前能夠達(dá)成共識的是工程倫理教育是工程教育的一部分。此外,馮志偉(2005)論證了自然語言處理是一個多邊緣的交叉學(xué)科,機(jī)器翻譯是自然語言處理的一個任務(wù)。那么人工智能和機(jī)器翻譯技術(shù)的工程倫理應(yīng)該納入工程學(xué)工科學(xué)科體系還是語言學(xué)/翻譯學(xué)文科學(xué)科體系?如何將工程倫理的內(nèi)容融入現(xiàn)有的教育體系中?有無開設(shè)相應(yīng)必修課或者選修課的必要,還是不單獨(dú)開設(shè)倫理課程而要求在授課內(nèi)容中包含倫理的內(nèi)容?

      1.2工程師的責(zé)任和義務(wù)問題

      20世紀(jì)70年代之前,大多數(shù)的工程倫理章程認(rèn)為,工程師的首要義務(wù)是對客戶或雇主的忠誠,而很少提到對公眾所承擔(dān)的義務(wù)。1974年,美國職業(yè)發(fā)展工程理事會(Engineering Council on Professional Development,ECPD)采用了一項新的倫理章程,該章程認(rèn)為,工程師的最高義務(wù)是公眾的健康、福祉與安全?,F(xiàn)在,幾乎所有的章程都把這一觀點(diǎn)視為工程師的首要義務(wù),并稱之為“首要條款”。當(dāng)工程師發(fā)現(xiàn)首要條款被違反時,舉報在道德上應(yīng)該是必需的,或至少是允許的。這其中當(dāng)然有商業(yè)利益的考量,利益沖突是近年來頗受關(guān)注的話題。某些職業(yè)利益會威脅一個人的職業(yè)判斷從而使其判斷變得不可靠,或者與人們所期待的相比變得不容易讓人們信服。盡管機(jī)器翻譯研發(fā)者不能確定其研發(fā)的系統(tǒng)能否實(shí)用,可一旦資本涌入想要商業(yè)化其系統(tǒng),很難有研發(fā)者拒絕如此豐厚的商業(yè)利潤,甚至?xí)橄到y(tǒng)商業(yè)化而沾沾自喜,并以此高估其系統(tǒng)性能。

      1.3工程活動與社會政策問題

      工程活動對環(huán)境的影響已得到普遍認(rèn)同,但對于工程師對環(huán)境是否應(yīng)承擔(dān)責(zé)任以及這種責(zé)任的基礎(chǔ)和范圍是什么,仍存爭議。其中一個核心問題是,是否只有當(dāng)人類的健康和福祉受到明顯威脅的時候接受對環(huán)境的責(zé)任才是充分的,或者說,是否應(yīng)該出自環(huán)境自身的原因而關(guān)注環(huán)境。人工智能和機(jī)器翻譯等信息技術(shù)產(chǎn)業(yè)看起來貌似是對環(huán)境不會產(chǎn)生太大影響的綠色產(chǎn)業(yè),然而隨著人們駕馭信息技術(shù)能力的增強(qiáng)和公眾對人工智能產(chǎn)品的依賴,人類賴以生存的生態(tài)環(huán)境、工作環(huán)境和家庭環(huán)境都在發(fā)生深刻的變化。以機(jī)器翻譯為例,隨著語音識別技術(shù)和機(jī)器翻譯質(zhì)量的提高,一種全新的會議口譯新模式正在形成。新模式下,口譯員更加“隱身”,取而代之的要么是口譯員語音即時轉(zhuǎn)寫后以字幕的形式投射到會場的大屏幕上或者聽眾席的小屏幕上,要么是發(fā)言者語音即時轉(zhuǎn)寫后經(jīng)機(jī)器翻譯將翻譯結(jié)果以字幕的形式投射到屏幕上。這就需要給會場增加投影和屏幕,聽眾席上也要增加可視設(shè)備,如此會議口譯會場的生態(tài)環(huán)境就會發(fā)生了改變。隨著5G網(wǎng)絡(luò)的普及,互聯(lián)網(wǎng)數(shù)據(jù)傳輸?shù)娜萘吭絹碓酱?,傳輸速度越來越快,這就使得遠(yuǎn)程即時翻譯,尤其是遠(yuǎn)程口譯成為現(xiàn)實(shí),口譯員的工作環(huán)境發(fā)生變化。借助自動口譯設(shè)備和機(jī)器翻譯系統(tǒng),不同國度交流越來越便利,國際家庭的組建也越來越多,家庭成員之間的溝通也越來越依賴自動口譯設(shè)備,家庭環(huán)境也在悄然發(fā)生變化。同時,人工智能驅(qū)動翻譯模式轉(zhuǎn)向眾包,基于網(wǎng)絡(luò)的眾包翻譯模式的興起也“重寫”了翻譯倫理。上述因機(jī)器翻譯技術(shù)而發(fā)生變化所帶來的環(huán)境倫理問題鮮有討論。

      馬丁(M. W. Martin)和欣津格(R. Schinzinger)認(rèn)為工程是一種“社會實(shí)驗(yàn)”,這種實(shí)驗(yàn)給“實(shí)驗(yàn)”的對象(公眾)帶來了一定的風(fēng)險(李世新,2010)。然而,什么是可接受的風(fēng)險?誰來確定這種風(fēng)險?翻譯客戶能否接受機(jī)器翻譯系統(tǒng)所產(chǎn)生的譯文?在多大程度上采用機(jī)器的譯文?機(jī)器翻譯譯文質(zhì)量到底如何?如果因機(jī)器翻譯的譯文質(zhì)量造成了交際失誤或者交易失敗,機(jī)器翻譯譯文提供者和機(jī)器翻譯譯文使用者誰該承擔(dān)主要責(zé)任?供應(yīng)商傾向于功利主義,通過可能性的產(chǎn)物和傷害的大小來定義風(fēng)險,他們認(rèn)為,如果潛在的收益超過了潛在的危害,那么這種風(fēng)險就是可接受的。但是,公眾卻試圖將可接受風(fēng)險、自由和知情同意以及風(fēng)險和收益的合理分配聯(lián)系起來。在這種實(shí)驗(yàn)性的社會活動中,工程師們又該如何去確定和規(guī)避實(shí)驗(yàn)風(fēng)險?

      工程活動是一種職業(yè)行為,什么樣的職業(yè)行為是社會所期待和所信賴的?我們之所以會向醫(yī)生毫無隱瞞地坦陳病情是因?yàn)槲覀冃刨囜t(yī)生;我們之所以會心安理得地住在高樓大廈中是因?yàn)槲覀冃刨嚱ㄔ旃こ處?。那么,公眾會像信賴醫(yī)生和建造師那樣信賴人工智能產(chǎn)品和機(jī)器翻譯系統(tǒng)嗎?怎樣的職業(yè)倫理準(zhǔn)則才能滿足(或符合)這種社會所給予的信賴呢?對社會而言的職業(yè)信賴對于建設(shè)和諧社會是必不可少的。遺憾的是,這些問題至今尚未得到充分研究。

      2 人工智能技術(shù)的倫理原則

      2018年6月7日,谷歌(Google)發(fā)布了七條人工智能應(yīng)用的“倫理原則”(1)https:∥ai.google/principles.,包括:(1)對社會有益(Be socially beneficial);(2)避免制造或強(qiáng)加不公平的偏見 (Avoid creating or reinforcing unfair bias);(3)提前測試安全性(Be built and tested for safety);(4)對人類負(fù)責(zé)(Be accountable to people);(5)保證隱私(Incorporate privacy design principles);(6)堅持科學(xué)高標(biāo)準(zhǔn)(Uphold high standards of scientific excellence);(7)從主要用途、技術(shù)獨(dú)特性發(fā)展(Be made available for uses that accord with these principles)。

      無獨(dú)有偶,2019年4月8日,歐盟委員會發(fā)布了《可信賴人工智能的倫理準(zhǔn)則》(EthicsGuidelinesforTrustworthyAI)(2)https:∥ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.,報告提出了四項倫理準(zhǔn)則:

      (1)尊重人的自主性(Respect for human autonomy)。人工智能系統(tǒng)不應(yīng)該脅迫、欺騙和操縱人類。相反,人工智能系統(tǒng)的設(shè)計應(yīng)該以增強(qiáng)、補(bǔ)充人類的認(rèn)知、社會和文化技能為目的。人類和人工智能系統(tǒng)之間的功能分配應(yīng)遵循以人為中心的設(shè)計原則,而且人工智能系統(tǒng)的工作過程中要確保人的監(jiān)督。人工智能系統(tǒng)也可能從根本上改變工作領(lǐng)域。它應(yīng)該在工作環(huán)境中支持人類并致力于創(chuàng)造有意義的工作。

      (2)預(yù)防傷害(Prevention of harm)。人工智能系統(tǒng)不應(yīng)該引發(fā)、加重傷害,或?qū)θ祟惍a(chǎn)生不好的影響。因此需要保護(hù)人類的尊嚴(yán)和身心健康。人工智能系統(tǒng)和運(yùn)行的環(huán)境必須是安全的。因此要求技術(shù)上必須是魯棒的,而且要確保人工智能技術(shù)不會被惡意使用。尤其要注意可能會惡意使用該技術(shù)的人和可能會造成不良影響的應(yīng)用場景。

      (3)公平性(Fairness)。人工智能系統(tǒng)的開發(fā)、實(shí)現(xiàn)和應(yīng)用必須是公平的。雖然對公平性可能會有不同的解讀,但是應(yīng)當(dāng)確保個人和組織不會受到不公平的偏見、歧視等。如果人工智能系統(tǒng)可以避免不公平的偏見,就可以增加社會公平性。為此,人工智能系統(tǒng)做出的決策以及做決策的過程應(yīng)該是可解釋的。

      (4)可解釋性(Explicability)??山忉屝詫?gòu)建用戶對人工智能系統(tǒng)的信任非常關(guān)鍵。也就是說整個決策的過程、輸入和輸出的關(guān)系都應(yīng)該是可解釋的。但目前的人工智能算法和模型都是以黑盒(black box)的形式運(yùn)行。

      谷歌公司和歐盟委員會發(fā)布的上述人工智能倫理準(zhǔn)則為突飛猛進(jìn)的機(jī)器翻譯技術(shù)發(fā)展提供了工程倫理借鑒?;诖?,我們總結(jié)了實(shí)現(xiàn)可信賴的機(jī)器翻譯系統(tǒng)的七個關(guān)鍵原則。

      3 可信賴的機(jī)器翻譯系統(tǒng)的七個原則

      3.1人本性(Human Centricity)

      人工智能系統(tǒng)應(yīng)通過支持人的能動性和基本權(quán)利以實(shí)現(xiàn)公平社會,而不是減少、限制或錯誤地指導(dǎo)人類自治。機(jī)器翻譯也不可以脫離人的監(jiān)督直接去實(shí)現(xiàn)語碼自由轉(zhuǎn)換。事實(shí)上,ALPAC報告之后,機(jī)器翻譯研究已經(jīng)放棄了“全自動高質(zhì)量機(jī)器翻譯(Fully Automatic High Quality Machine Translation, FAHQMT)”的企圖,轉(zhuǎn)而向“人助機(jī)譯(Human-aided Machine Translation, HAMT)”或“機(jī)助人譯(Machine-aided Human Translation, MAHT)”方向發(fā)展。近年來,隨著統(tǒng)計機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)在機(jī)器翻譯中的廣泛應(yīng)用,系統(tǒng)運(yùn)算能力的增強(qiáng)和訓(xùn)練語料的不斷豐富,機(jī)器翻譯質(zhì)量得到了大幅提升,“機(jī)器翻譯替代人工翻譯”的論斷才有了傳播的基礎(chǔ)。然而,此類武斷的說法大多來自市場宣傳而非出自系統(tǒng)研發(fā)人員之口,但普通用戶并不知其所以然,所以在一定程度上迷惑了消費(fèi)者,造成大眾對機(jī)器翻譯不切實(shí)際的期望,產(chǎn)生了不良后果。人類的監(jiān)督可以幫助確保機(jī)器翻譯系統(tǒng)不影響人類自主或產(chǎn)生不良后果。監(jiān)督可以通過不同的管理機(jī)制來實(shí)現(xiàn),包括human-in-the-loop(HITL)、human-on-the-loop(HOTL)、human-in-command(HIC)等方法(3)人機(jī)協(xié)同的方式,按照機(jī)器的自主權(quán)限從低到高,分為“人在環(huán)中(in the loop)”“人在環(huán)上(on the loop)”“人在環(huán)外(in command)”三種。。根據(jù)機(jī)器翻譯系統(tǒng)應(yīng)用領(lǐng)域和潛在的風(fēng)險,可以實(shí)現(xiàn)不同程度的監(jiān)督機(jī)制以支持不同的安全和控制措施。

      3.2魯棒性 (Robustness)

      可信賴的人工智能系統(tǒng)的關(guān)鍵部分就是技術(shù)魯棒性,這與歐盟委員會發(fā)布的《可信賴人工智能的倫理準(zhǔn)則》中的預(yù)防傷害原則是緊密相關(guān)的。技術(shù)魯棒性要求算法足夠安全、可靠和穩(wěn)健,以克服人工智能系統(tǒng)所有生命周期階段的錯誤或者不一致。機(jī)器翻譯系統(tǒng)應(yīng)該防止被黑客攻擊或出現(xiàn)可以被攻擊的漏洞。黑客攻擊可能是針對翻譯或者語言模型的、也可能是針對訓(xùn)練數(shù)據(jù)的、也可能是針對底層基礎(chǔ)設(shè)施的,包括軟件和硬件。如果機(jī)器翻譯系統(tǒng)被攻擊,其中的數(shù)據(jù)和系統(tǒng)行為可能會被修改,導(dǎo)致系統(tǒng)產(chǎn)生不同的翻譯結(jié)果。機(jī)器翻譯系統(tǒng)應(yīng)該有出現(xiàn)緊急情況的備用方案——機(jī)器翻譯系統(tǒng)可能從基于統(tǒng)計的決策轉(zhuǎn)為基于規(guī)則的決策,或者要求詢問人工譯員才可以繼續(xù)(計算機(jī)輔助翻譯或者交互式機(jī)器翻譯),必須保證系統(tǒng)所做的一切都不會對用戶造成傷害。良好的機(jī)器翻譯系統(tǒng)開發(fā)和譯文質(zhì)量評估過程可以支持、緩解和糾正出現(xiàn)不準(zhǔn)確的機(jī)器譯文及其所帶來的潛在風(fēng)險。如果偶爾不準(zhǔn)確的譯文不可避免,那么系統(tǒng)應(yīng)該要能計算這種錯誤情況發(fā)生的概率。在可能會對人類生命安全帶來影響的機(jī)器翻譯系統(tǒng)中,譯文準(zhǔn)確度的要求是非常重要的,比如在衛(wèi)生健康領(lǐng)域和刑事司法領(lǐng)域的應(yīng)用。

      3.3私密性(Confidentiality)

      人工智能系統(tǒng)必須確保系統(tǒng)的整個生命周期內(nèi)部都要確保隱私和數(shù)據(jù)保護(hù),這既包括用戶提供的信息,也包括用戶在和系統(tǒng)交互過程中生成的信息。用于機(jī)器翻譯系統(tǒng)訓(xùn)練和測試所用的數(shù)據(jù)不會被用來傷害或歧視數(shù)據(jù)的所有者和用戶,同時要確保收集的數(shù)據(jù)不會用于非法地或不公平地歧視用戶的行為。訓(xùn)練語料(數(shù)據(jù)集)的質(zhì)量對機(jī)器翻譯系統(tǒng)的性能非常關(guān)鍵(劉群,2003),但特定機(jī)器翻譯系統(tǒng)開發(fā)(如對話機(jī)器翻譯)收集的數(shù)據(jù)可能是含有偏見的、不準(zhǔn)確的、有錯誤的。這些數(shù)據(jù)在訓(xùn)練之前要進(jìn)行清洗,去除這些有偏見的、不準(zhǔn)確的、有錯誤的數(shù)據(jù),但同時又要確保數(shù)據(jù)的完整性,如在對話機(jī)器翻譯系統(tǒng)中,就要完整保留說話者信息(Wang et al., 2017)。如果說話者信息必須保密,那就需要對語料進(jìn)行脫敏處理,比如用特定標(biāo)記標(biāo)注說話者信息等。如果給機(jī)器翻譯系統(tǒng)的訓(xùn)練數(shù)據(jù)是低質(zhì)量的甚至是惡意的,就可能會改變機(jī)器翻譯系統(tǒng)的整體性能。因此,在規(guī)劃、訓(xùn)練、測試和實(shí)現(xiàn)的整個過程中都要對數(shù)據(jù)集進(jìn)行測試和處理。系統(tǒng)在處理數(shù)據(jù)時,都會用到管理數(shù)據(jù)訪問的數(shù)據(jù)協(xié)議,該協(xié)議應(yīng)該列出誰以及什么情況下可以訪問數(shù)據(jù)。

      3.4可解釋性(Explicability)

      人工智能系統(tǒng)應(yīng)確保相關(guān)元素的可追溯性,包括數(shù)據(jù)、系統(tǒng)和商業(yè)模型。因此,機(jī)器翻譯系統(tǒng)產(chǎn)生決策使用的數(shù)據(jù)集和過程也都應(yīng)該記錄下來以備追溯,并且應(yīng)增加透明性,具體包括收集的數(shù)據(jù)和算法使用的數(shù)據(jù)標(biāo)記??勺匪菪栽跈C(jī)器翻譯系統(tǒng)中通常被稱為可解釋性??山忉屝跃褪且忉寵C(jī)器翻譯系統(tǒng)的技術(shù)過程和相關(guān)的決策過程。技術(shù)可解釋性要求機(jī)器翻譯所產(chǎn)生的譯文是可以被人們所理解的。在機(jī)器翻譯系統(tǒng)會對人類的生活造成重大影響時,就需要機(jī)器翻譯系統(tǒng)的決策過程有一個合理的解釋。此外,人類有權(quán)知道與其直接進(jìn)行對外交流的是譯員還是機(jī)器翻譯系統(tǒng),這就要求機(jī)器翻譯系統(tǒng)可以被識別。出現(xiàn)譯文質(zhì)量糾紛時,要能明確權(quán)責(zé),讓客戶知曉誰該為翻譯服務(wù)負(fù)責(zé),誰又該為譯文質(zhì)量負(fù)責(zé)。

      3.5公平性 (Fairness)

      人工智能系統(tǒng)應(yīng)考慮人類能力、技能和要求的總體范圍,并確??山咏?。該要素與歐盟委員會發(fā)布的《可信賴人工智能的倫理準(zhǔn)則》中的公平性原則是緊密相關(guān)的。因此,機(jī)器翻譯系統(tǒng)所使用的數(shù)據(jù)集會不可避免地存在歧視、不完整和管理不當(dāng)?shù)葐栴}。這類數(shù)據(jù)集的歧視可能會造成機(jī)器翻譯系統(tǒng)的針對特定人群或個人的歧視。機(jī)器翻譯系統(tǒng)開發(fā)的方式也可能會出現(xiàn)不公平的歧視問題,可以通過一種明確的、透明的方式來分析和解決系統(tǒng)的目的、局限性、需求和決策。尤其在垂直領(lǐng)域,機(jī)器翻譯系統(tǒng)可能是以用戶為中心的,以一種允許所有人都平等地使用機(jī)器翻譯產(chǎn)品和服務(wù)的方式,即無論年齡、性別、能力和其他特征,因此針對殘障人士的輔助功能就顯得格外重要,特別是在口語機(jī)器翻譯系統(tǒng)研發(fā)中。因此,機(jī)器翻譯系統(tǒng)的設(shè)計不應(yīng)該采用一種通用的設(shè)計,為了開發(fā)出可信賴的機(jī)器翻譯系統(tǒng),建議對受系統(tǒng)直接或間接影響的利益相關(guān)方進(jìn)行咨詢。

      3.6可復(fù)現(xiàn)性(Replicability)

      可復(fù)現(xiàn)性指人工智能專家要能夠準(zhǔn)確地描述人工智能系統(tǒng)的行為和公開實(shí)驗(yàn)方法、算法和數(shù)據(jù),方便其他人工智能研發(fā)者進(jìn)行驗(yàn)證和再次實(shí)現(xiàn)。人工智能系統(tǒng)的結(jié)果必須是可復(fù)現(xiàn)的和可靠的,要對人工智能系統(tǒng)進(jìn)行詳細(xì)檢查以防產(chǎn)生意外。機(jī)器翻譯系統(tǒng)的復(fù)現(xiàn)依賴譯文評價機(jī)制和系統(tǒng)代碼與數(shù)據(jù)開源情況。評價可分為人工評價和機(jī)器自動評價,前者可解釋性強(qiáng)但耗時費(fèi)力花錢,后者快速方便但可解釋性較差。如何設(shè)計和開發(fā)一個客觀科學(xué)的機(jī)器翻譯譯文評價系統(tǒng)是目前制約機(jī)器翻譯發(fā)展的一個瓶頸。系統(tǒng)代碼和數(shù)據(jù)開源在機(jī)器翻譯研究中做得相對成熟,Github(4)https:∥github.com/.等平臺為代碼和數(shù)據(jù)開源提供了足夠的空間,arxiv(5)https:∥arxiv.org/.等網(wǎng)站為科研產(chǎn)出評價和共享提供了共享和同行評審的平臺。同行評審包括對研究算法、數(shù)據(jù)和設(shè)計過程的評估,也包括對研究實(shí)驗(yàn)的復(fù)現(xiàn)結(jié)果。

      3.7可持續(xù)性 (Sustainability)

      人工智能系統(tǒng)具有積極促進(jìn)社會變革、增強(qiáng)可持續(xù)性生態(tài)之責(zé)任。一般情況下,人工智能系統(tǒng)大都是為了解決一些迫在眉睫的社會難題,同時又要保證盡可能以環(huán)境友好型的方式出現(xiàn)。因此,機(jī)器翻譯系統(tǒng)的開發(fā)、實(shí)現(xiàn)和使用過程,以及整個供應(yīng)鏈都應(yīng)該進(jìn)行這方面的評估。同時,機(jī)器翻譯系統(tǒng)在社會生活各領(lǐng)域的應(yīng)用,可能會改變我們對社會機(jī)構(gòu)的理解,影響我們的社會關(guān)系。機(jī)器翻譯在增強(qiáng)我們的社交技能的同時,可能也會減弱我們的社交技能,會對人們的身心健康帶來影響。機(jī)器翻譯在翻譯教學(xué)和二語寫作教學(xué)領(lǐng)域也會產(chǎn)生爭議,并日漸影響學(xué)生的翻譯和寫作習(xí)慣。同時要考慮評估機(jī)器翻譯應(yīng)用對民生、社會的影響,因?yàn)闄C(jī)器翻譯系統(tǒng)極有可能應(yīng)用于政治決策和外交內(nèi)聯(lián)等的政治進(jìn)程之中(傅瑩,2019)。

      4 結(jié)語

      技術(shù)可以被理解為廣義的技術(shù)——一種旨在控制自然(和人類)的方法,這種方法奠基于一套嚴(yán)格、客觀中立的方法之上,將所處理的對象一律視為僵化的客體。然而,我們不能簡單地拒絕現(xiàn)代技術(shù)。首先這是不可能的,我們已然生活在現(xiàn)代技術(shù)之中,我們對生活的理解都深深地涉及技術(shù)。其次,這也是不可逆的,因?yàn)榉艞壖夹g(shù)意味著放棄技術(shù)為我們帶來的巨大福利。我們需要的首先是發(fā)展技術(shù),其次是遏制技術(shù)的發(fā)展。如何遏制?這就需要倫理學(xué)的規(guī)范和約束。工程倫理學(xué)的產(chǎn)生促進(jìn)了安全和有用的技術(shù)產(chǎn)品并給工程師的努力賦予意義,也直接地增強(qiáng)工程師在工程中有效地處理道德問題復(fù)雜性的能力,增進(jìn)工程師的道德自治,即理性地思考以道德關(guān)注為基礎(chǔ)的倫理問題之習(xí)俗與技能。越來越多的技術(shù)研究者和應(yīng)用者,尤其是人工智能技術(shù)應(yīng)用領(lǐng)域的專家開始意識到倫理的重要性。谷歌公司和歐盟委員會發(fā)布的準(zhǔn)則就是負(fù)責(zé)任的人工智能產(chǎn)業(yè)代表和有擔(dān)當(dāng)?shù)恼块T對此發(fā)出的積極響應(yīng)。在學(xué)術(shù)界,斯普林格出版社(Springer-Verlag)正在編輯出版“工程技術(shù)哲學(xué)”系列叢書(SeriesofPhilosophyofEngineeringandTechnology),目前已出版《技術(shù)的規(guī)范》(NormsinTechnology)、《技術(shù)為善》(DoingGoodwithTechnologies)等32部著作(6)https:∥www.springer.com/series/8657?detailsPage=titles.。在自然語言處理領(lǐng)域、技術(shù)倫理和工程倫理的探討也逐步深入。目前已經(jīng)連續(xù)召開了兩屆以“自然語言處理的倫理”(Ethics in Natural Language Processing,EthNLP)為主題的國際研討會,第一屆2017年在西班牙瓦倫西亞召開(7)http:∥www.ethicsinnlp.org/ethnlp-2017.,第二屆2018年在美國新奧爾良市召開(8)http:∥www.ethicsinnlp.org/.。

      在國內(nèi),對機(jī)器翻譯的過度宣傳一方面引發(fā)了行業(yè)對這一技術(shù)應(yīng)用的憂思,另一方面也催生了一些學(xué)者對機(jī)器翻譯技術(shù)倫理學(xué)的探討。討論人工翻譯能不能被機(jī)器翻譯所取代的基礎(chǔ)是機(jī)器翻譯的工程倫理,如果沒有厘清機(jī)器翻譯的技術(shù)和工程倫理的框架,任何與之相關(guān)的斷言都是不可信的。2018年在北京召開的“首屆語言智能與社會發(fā)展論壇”上,與會專家集體通過了《語言智能與外語教育協(xié)同發(fā)展宣言》。宣言稱:“機(jī)器翻譯等語言智能技術(shù)的發(fā)展和實(shí)踐,不應(yīng)也不可能謀求全面替代人類的外語能力,在公共宣傳、科普演示中,語言智能學(xué)界和產(chǎn)業(yè)界應(yīng)當(dāng)實(shí)事求是地報告語言智能的發(fā)展現(xiàn)實(shí),不夸大語言智能技術(shù)的現(xiàn)有性能,不做缺乏科學(xué)依據(jù)的展望,不能對人類的外語工作造成恐慌,不能對人類的外語事業(yè)規(guī)劃造成形勢誤判。”因此我們也呼吁更多的仁人志士加入機(jī)器翻譯/翻譯技術(shù)倫理探討之中,期盼語言智能界、倫理學(xué)界及社會有關(guān)學(xué)界能成立“語言智能倫理委員會”,保證語言智能在符合人類倫理的框架內(nèi)發(fā)展。

      猜你喜歡
      譯文倫理人工智能
      《心之死》的趣味與倫理焦慮
      Stem cell-based 3D brain organoids for mimicking,investigating,and challenging Alzheimer’s diseases
      譯文摘要
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      I Like Thinking
      下一幕,人工智能!
      醫(yī)改莫忘構(gòu)建倫理新機(jī)制
      梅河口市| 上杭县| 邢台县| 荥经县| 赤峰市| 钦州市| 张家川| 阳泉市| 红安县| 温宿县| 柳林县| 宿州市| 邛崃市| 蒲城县| 深州市| 绥滨县| 漳平市| 炎陵县| 富平县| 高邮市| 策勒县| 云和县| 竹溪县| 荃湾区| 望城县| 闽清县| 平邑县| 连平县| 祥云县| 米林县| 双牌县| 鹰潭市| 嫩江县| 左云县| 山东| 陕西省| 石门县| 亚东县| 永仁县| 福清市| 澄江县|