• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能的倫理困境探討

      2019-01-16 16:05:27段文萱石旭雯
      中國醫(yī)學倫理學 2019年8期
      關(guān)鍵詞:倫理原則道德

      段文萱,石旭雯

      (天津醫(yī)科大學醫(yī)學人文學院,天津 300070,dwx_1121@126.com)

      1 人工智能的界定

      人工智能就是讓機器或者是人所創(chuàng)造的其他的人工方法或系統(tǒng)來模擬人類智能。人工智能又分為強人工智能和弱人工智能,而我們目前所研究的領(lǐng)域及成果都屬于弱人工智能,即讓機器具有某種行為,處于模仿人類行為的階段。

      20世紀50年代由圖靈初次提出了圖靈測試的觀點,并且預言出了智能機器存在的可能性,引起了全世界范圍內(nèi)的普遍關(guān)注,為人工智能科學的發(fā)展奠定了基礎(chǔ)。從1956年,在達特茅斯會議上首次提出了“人工智能”一詞,直到現(xiàn)在經(jīng)過60多年的曲折發(fā)展,人工智能進入了一個全新的飛速發(fā)展的時期。隨著互聯(lián)網(wǎng)、云計算、大數(shù)據(jù)等一系列新的信息技術(shù)的發(fā)展和應(yīng)用給部分產(chǎn)業(yè)帶來了巨大的沖擊,同時也給新興產(chǎn)業(yè)帶來了新的機遇。人工智能在我們生活中的各個領(lǐng)域發(fā)揮著重要的作用,為我們的生活提供了便利[1];但在飛速發(fā)展的同時也引發(fā)了一系列的探討,例如“人工智能是否會取代人類”“人工智能的快速發(fā)展是否會導致人類的滅亡”。人工智能的倫理問題逐漸受到了重視。

      2 人工智能發(fā)展的倫理困境

      針對“人工智能是否會征服人類”這一類問題學界也有著不同的看法,但我們不能因為擔憂未來而阻止人工智能的發(fā)展,阻礙社會的進步;同樣,我們也不能因為現(xiàn)階段人工智能并未超越人類而放松警惕,任其發(fā)展。

      2.1 隱私倫理

      互聯(lián)網(wǎng)、物聯(lián)網(wǎng)技術(shù)的發(fā)展,為我們帶來了巨大便利的同時也增加了數(shù)據(jù)泄漏的風險[2]。我們在享受網(wǎng)絡(luò)便利的同時,手機也會記錄下我們的偏好,同時根據(jù)我們的搜索來推送適合我們的東西。而與這些常規(guī)數(shù)據(jù)相比,醫(yī)療數(shù)據(jù)的泄漏會造成更大的損失。例如,現(xiàn)如今的康復機器人就是要收集患者的數(shù)據(jù),患者的腦電波,從而幫助患者康復。這就使人工智能時代的到來面臨著一種尷尬的境地:①對于人工智能,數(shù)據(jù)是一切的基礎(chǔ),若想讓人工智能發(fā)展更好地服務(wù)于人類就必須讓其掌握一定的數(shù)據(jù);②當人工智能掌握了大量的數(shù)據(jù)之后,我們的隱私又面臨著巨大的挑戰(zhàn)。那么在完全拋棄隱私和保護隱私兩個方面可否有一個平衡點[2],針對不同的數(shù)據(jù)具有不同的管理辦法,是我們目前發(fā)展應(yīng)解決的一個問題。

      2.2 公平倫理

      人工智能應(yīng)用在各個領(lǐng)域中時與人類的公平待遇也存在一定的沖突,人工智能的目的是服務(wù)于人類,當它的出現(xiàn)漸漸取代了一部分人工職業(yè)時,會造成部分人失業(yè),如果忽視這個問題,是對失業(yè)人員的一種不公平待遇。怎樣在這種模式的轉(zhuǎn)換中保證相對的穩(wěn)定和公平是目前需要解決的問題。另外,在公司招聘時采用的自動篩選系統(tǒng),系統(tǒng)通過輸入的條件自動篩選符合條件的面試者,由于程序設(shè)置可能會自動將女性應(yīng)聘者或者已婚應(yīng)聘者從名單中剔除,系統(tǒng)并不像人類靈活,無法對應(yīng)聘者作出客觀的評價,從而造成了歧視,這是對應(yīng)聘者的不公平。在醫(yī)療領(lǐng)域,這種不公平待遇也會出現(xiàn),由于資源分配以及條件限制的原因,只有小部分患者可以享受人工智能醫(yī)療的服務(wù),那么如何在普及新型醫(yī)療的同時,又能保證醫(yī)生護士不會因為過度依賴人工智能產(chǎn)品,而導致專業(yè)素養(yǎng)退化,這也是應(yīng)重視的問題。在明確的人工智能的輔助地位后,此類的問題也就迎刃而解了[3]。

      2.3 責任倫理

      責任倫理問題主要指的是當使用人工智能發(fā)生故障導致人類受傷或者造成損害時,應(yīng)追究誰的責任,是人工智能的設(shè)計者、制造者、編程者還是使用者,同時該不該追究人工智能本身的責任的問題。在醫(yī)療領(lǐng)域,目前達芬奇手術(shù)機器人為醫(yī)學的發(fā)展注入了新的力量,新型手術(shù)機器人克服了醫(yī)生由于長時間手術(shù)而產(chǎn)生的手部抖動問題,而且機械手臂僅有4毫米的直徑,超越人手極限,做到創(chuàng)傷小,更高效,出血少,恢復快,是人類醫(yī)療史上里程碑式的進步。但是當使用手術(shù)機器人過程中如果產(chǎn)生了意外,對患者造成了損傷,此時,應(yīng)追究誰的責任,或者術(shù)后患者出現(xiàn)了并發(fā)癥,那么誰又該為此種情況負責呢?到底是研發(fā)機器人的公司還是操作機器人的醫(yī)生?機器人本身有沒有責任?這一系列的問題都是亟待解決的。當有了一套完備的責任分配體系,同時也是對每個環(huán)節(jié)的個人以及相應(yīng)機構(gòu)的明確約束,也可以保證人工智能的健康發(fā)展。

      2.4 主體性倫理

      人工智能體——基于人工智能的智能體,是理解人工智能的核心概念。人工智能體在某種程度上顯示出一定的“主體性”,而這種“主體性”有何內(nèi)涵,人工智能體是否是獨立存在的道德個體?計算機倫理學創(chuàng)始人摩爾根據(jù)機器人可能具有的道德影響力,將其分為幾類,分別是:道德影響力智能體,是無論行為是否有意義但具有道德影響力的智能體;隱含的道德智能體,是具有道德的智能體隱含在其設(shè)計的考慮因素(通常指的是安全因素),可以對特定情況采用一些自動的道德反映;明確的道德智能體,能夠識別和處理各種情況并對應(yīng)該做什么作出合理決定的智能體;完全的道德智能體,指的是像人一樣具有意識、意向性和自由意志等特征,并能對各種情況作出道德判斷[4]。理論上來說,人工智能體還是具有成為道德主體的可能的,假如我們把特定的倫理規(guī)范編程到人工智能體的系統(tǒng)中去,從而培養(yǎng)他們的道德判斷能力,這是否說明人工智能體成為道德載體?如果我們可以把合乎道德的倫理規(guī)范編入人工智能中,是否也意味著可以把非道德的反倫理的體系編入其中?那么針對這一問題,應(yīng)如何規(guī)范和約束人類的行為,防止把非道德體系編入人工智能系統(tǒng)中呢?那編入其中的道德是否屬于人的道德,是否與人的道德相同?機器人倫理是否應(yīng)該與人類的倫理區(qū)分開來?就目前的研究狀況來看,人工智能體要想作為獨立的道德個體而存在還有很長的一段路要走;而我們只有切實地解決了一系列潛在問題后,人工智能才有可能向前邁進一步。

      3 人工智能倫理困境的解決思路

      3.1 規(guī)范倫理原則

      人工智能的倫理問題引起了全世界范圍內(nèi)的關(guān)注,我們國家尚處在著手建立的階段。借鑒國際上已有的準則,總結(jié)出幾點適合我國國情的人工智能倫理原則:

      “不傷害”原則。由阿西莫夫提出的“機器人的三大定律”:①不傷害人類原則;②聽命于人類;③在保證前兩點的前提下,人工智能具有保障自己安全的權(quán)利。并以此為法則在“不傷害”前提下發(fā)展人工智能。

      以人為本的原則。要明確規(guī)定人工智能產(chǎn)品是為人類服務(wù)的,不應(yīng)凌駕于人類之上而存在,而人類對于人工智能產(chǎn)品和技術(shù)有監(jiān)督管理權(quán)。

      安全性原則。人工智能技術(shù)和人工智能產(chǎn)品本身都應(yīng)該是安全的,不易受到外界干擾的。在使用過程中應(yīng)是穩(wěn)定安全的,不可對使用者造成傷害;另外,一般的人工智能產(chǎn)品是服務(wù)于人類,聽命于人類的,不可輕易被人操縱用來攻擊傷害他人(用于軍事戰(zhàn)場的作戰(zhàn)型機器人除外)。人工智能產(chǎn)品收集到的數(shù)據(jù)也應(yīng)是安全的,不可隨意泄露,用戶也應(yīng)擁有隨時查看和刪除的權(quán)利,要充分保護用戶的隱私。

      公平性原則。人工智能產(chǎn)品應(yīng)是服務(wù)于全人類的,不應(yīng)存在種族、年齡、性別等方面的歧視,其系統(tǒng)算法的編入也應(yīng)是公平公正的,不帶個人感情色彩的。

      可持續(xù)性發(fā)展的原則。人工智能的產(chǎn)生和發(fā)展是一個時代的進步,它應(yīng)當是不斷前進的,造福于人類的。所以人工智能的發(fā)展要符合可持續(xù)發(fā)展的原則,不應(yīng)破壞生態(tài)平衡,不應(yīng)破壞環(huán)境,真正做到人、機器、環(huán)境和諧相處,共同發(fā)展。

      3.2 限制人工智能

      對于“人工智能是否會超越人類”這一問題,必須要引起我們的高度重視。針對這一隱藏問題,我們首先要對人工智能本身進行限制,也就是限制其智能程度,控制權(quán)始終掌握在人類手中[2]。當人工智能變成一個絕對安全可靠的工具時,人們自然也不會擔心被取代的問題。比如,當人工智能應(yīng)用于醫(yī)療領(lǐng)域時,我們便可以充分發(fā)揮其在醫(yī)學診斷領(lǐng)域的作用,對患者作最初步的診斷,為患者節(jié)省時間,患者在就醫(yī)前可先通過人工智能系統(tǒng)自行診斷,對于系統(tǒng)處理不了的問題再由醫(yī)生治療,同時也為醫(yī)生減小了工作量。由人工智能先作預判,最終的診斷和治療還是掌握在醫(yī)生的手中。

      另外,對人工智能的使用范圍也應(yīng)作一定的限制[2]。人工智能產(chǎn)品在領(lǐng)域方面有著明確的區(qū)分,比如AlphaGo的勝利說明在棋類競賽領(lǐng)域,人工智能確實超越了人類智能,AlpahGo采取了更高級的算法和學習的策略,它通過自身的學習而戰(zhàn)勝了人類,但也僅是在棋類領(lǐng)域,在其他領(lǐng)域里,人工智能還是無法超越人類本身的。人工智能的研究者莫拉維克(Hans Moravec)發(fā)現(xiàn),計算機在智力測驗以及各種棋類游戲中表現(xiàn)超出人類的水平,然而它在視覺、知覺等領(lǐng)域卻連一歲小孩的程度都很難達到[5]。因此,把針對棋類競賽、醫(yī)療衛(wèi)生、無人駕駛等專業(yè)的人工智能的應(yīng)用限制在自身領(lǐng)域范圍內(nèi)。一方面可以保證人工智能在此領(lǐng)域內(nèi)的絕對水平;另一方面也可以有效避免人工智能過于強大從而產(chǎn)生取代人類的危險[3]。

      3.3 明確責任歸屬

      人工智能科學家和設(shè)計師是人工智能的創(chuàng)造者,同時也是安全問題的主體。人工智能體,機器人只是輔助人類生產(chǎn)生活的工具,無論它是否具有意識,是否享有權(quán)利或者作為獨立的道德體所存在,它始終應(yīng)遵循“不傷害”原則[6]。人工智能產(chǎn)品在應(yīng)用時難免會出現(xiàn)一些問題,由于涉及的人員和外界因素較為復雜,對于事故的責任劃分以及后續(xù)的賠償?shù)葐栴}也變得十分復雜,目前尚沒有一個完整的責任劃分的標準。因此在“不傷害”原則的同時,也應(yīng)推出“責任制”,制定一套系統(tǒng)的責任劃分標準以及賠償標準。責任制應(yīng)明確規(guī)定不同情況負責人承擔的相應(yīng)責任,首先,我們需要明確幾個概念:研發(fā)者——設(shè)計創(chuàng)造出人工智能產(chǎn)品的人;開發(fā)商——投資開發(fā)某種產(chǎn)品的公司或個人;使用者——人工智能產(chǎn)品上市后根據(jù)需要而消費使用的個人。然后根據(jù)不同情況劃分責任,根據(jù)不同的情況采取不同的追究辦法,保證從產(chǎn)品的研發(fā)到應(yīng)用,每個環(huán)節(jié)的個人都能承擔起自己相應(yīng)的責任。當產(chǎn)生消極影響時可以明確追溯到個人,而不是相互推脫,把責任推脫到不確定的技術(shù)因素上[7]。同時,也能有效避免開發(fā)商或者科學家由于私心在設(shè)計過程中編入違反倫理原則的程序。

      3.4 正確價值導向

      現(xiàn)代科學技術(shù)發(fā)展及應(yīng)用也是充滿著不確定性的,對于科學家而言,如何向大眾解釋產(chǎn)品的問題也應(yīng)當引起重視,雖然諸多學者持樂觀態(tài)度,但并不能完全消除我們心中的疑慮。此時就需要科學家向大眾作出解釋,倘若有了統(tǒng)一的倫理原則,就可以依據(jù)原則適當?shù)墓家恍┘夹g(shù)的細節(jié)以及設(shè)計理念,引導大眾接受新產(chǎn)品、新技術(shù),促進人們觀念的改變,使其相互信任。一般認為,大眾的參與感越強其接受起來越容易,當其真正適應(yīng)了這種轉(zhuǎn)變之后科學家們的研究也會越來越順利。此問題的關(guān)鍵點在于——要對大眾作出正確的引導。當科學家和研發(fā)人員對大眾作出引導的同時,科學家們的價值觀也顯得尤為重要。首先,對于人工智能的開發(fā)科學家要樹立最基本的觀念:一是“以人為本”,任何人工智能產(chǎn)品的開發(fā)首先遵循的一點就是不傷害人類,科學家們在研發(fā)過程中要對產(chǎn)品的危險系數(shù)作出預判,及時更改。二是“為人類服務(wù)”,科學家們要明確的一點就是人工智能技術(shù)是由于人類的需求而產(chǎn)生的,旨在增強人類智能,輔助人類的生產(chǎn)生活,從而促進人類社會的發(fā)展。即真正的實現(xiàn)人機協(xié)作,人機之間的相互尊重,機器與自然的共同生長,需要人、機器以及自然三者之間的和諧共處,共同為人類文明的進步而努力。明確這兩點后,對人工智能的發(fā)展和大眾的引導也具有積極的作用。

      3.5 健全規(guī)章制度

      要確保人工智能的健康發(fā)展,對人工智能的監(jiān)管以及人工智能倫理原則的建立最終都要落實到法律法規(guī)上。因此,首先需要建立人工智能倫理委員會,明確劃分各部門職責,全面監(jiān)管和把控人工智能的發(fā)展,從產(chǎn)品研發(fā)到投入使用的各個環(huán)節(jié)都要層層把關(guān),任何產(chǎn)品的研發(fā)都要首先獲得倫理委員會的批準方可投入生產(chǎn)。在投入使用之后,倫理委員會也要定期跟蹤獲得反饋結(jié)果,對于違背倫理原則的情況要第一時間掌握并及時作出補救措施,把風險降到最低。其次,要根據(jù)人工智能的倫理原則出臺相關(guān)的法律文件,明確規(guī)定事故責任的劃分。同時,倫理委員會也應(yīng)強調(diào)專家的社會責任,指導和約束科學家合理地研究人工智能,對科學家本身的行為作出合理的規(guī)范和監(jiān)督[8]。國際應(yīng)該加強合作,早日出臺國際通用的法律法規(guī)。

      隨著智能手機、電腦的普及,人工智能已經(jīng)完全融入我們的生活中,當我們在享受著人工智能所帶來的便利的同時,也不可過于依賴人工智能產(chǎn)品。當我們把全部都交予機器時,這其實是人類自己在為自己的未來增加隱患。因此,我們得益于社會發(fā)展的同時也應(yīng)當隨時保持警惕,避免由于過度依賴和過度使用而造成的后果。

      4 結(jié)語

      人工智能在造福人類的同時也確實存在諸多的安全隱患,當我們在人工智能新時代前行時,人工智能的倫理道德問題不可忽視,應(yīng)當同科學技術(shù)一樣作為一門專門的學科進行研究。目前,機器人和人工智能的飛速發(fā)展引起了社會的廣泛關(guān)注,其倫理影響也引起了社會各界的高度重視。各個國家和國際組織應(yīng)成立專門的機構(gòu)監(jiān)督人工智能的生產(chǎn)和發(fā)展。只有國際合作,才能促進人工智能的健康發(fā)展。只有真正的解決了安全隱患問題,人工智能才能促進人類文明的前進和發(fā)展。

      猜你喜歡
      倫理原則道德
      《心之死》的趣味與倫理焦慮
      頭上的星空與心中的道德律
      十幾歲(2021年24期)2021-11-18 02:18:40
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      跟蹤導練(五)(2)
      道德是否必需?——《海狼》對道德虛無主義的思考
      堅守原則,逐浪前行
      無罪推定原則的理解與完善
      用道德驅(qū)散“新聞霧霾”
      新聞前哨(2015年2期)2015-03-11 19:29:31
      醫(yī)改莫忘構(gòu)建倫理新機制
      婚姻家庭法的倫理性及其立法延展
      岑巩县| 大竹县| 平舆县| 宽甸| 福清市| 巴楚县| 山东省| 新和县| 阳东县| 通河县| 保定市| 拉萨市| 太白县| 长武县| 临泉县| 武义县| 宣武区| 中西区| 昭通市| 德化县| 新巴尔虎右旗| 岑巩县| 萨嘎县| 双牌县| 宁国市| 天台县| 湘乡市| 青海省| 远安县| 房产| 吴忠市| 都匀市| 龙岩市| 桑植县| 麦盖提县| 达拉特旗| 仪征市| 余干县| 紫金县| 灯塔市| 南丰县|