• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      踐行科技向善,筑牢可信人工智能的道德藩籬

      2019-02-24 07:08:48欒群
      民主與科學(xué) 2019年6期
      關(guān)鍵詞:人機(jī)信任倫理

      欒群

      發(fā)展可信人工智能,技術(shù)治理與倫理準(zhǔn)則必須兼顧,民族立場(chǎng)與人類情懷必須協(xié)調(diào),經(jīng)由設(shè)計(jì)的倫理和基于監(jiān)督的信任必須同步,才有可能在人工智能加持的戰(zhàn)場(chǎng)上贏得優(yōu)勢(shì)、贏得主動(dòng)、贏得未來。

      隨著人工智能技術(shù)和產(chǎn)業(yè)的飛速發(fā)展,我們迎來了人工智能的第三次浪潮(第一次:1956—1976年,基于符號(hào)邏輯的推理證明階段;第二次:1976—2006年,基于人工規(guī)則的專家系統(tǒng)階段;第三次:2006至今,基于大數(shù)據(jù)驅(qū)動(dòng)的深度神經(jīng)網(wǎng)絡(luò)階段)。同時(shí),也有人警醒地看到,人工智能倫理問題已迫在眉睫。隨著技術(shù)突破和產(chǎn)業(yè)落地頻繁見諸報(bào)端,讓人感到恐懼和緊張的還有人工智能技術(shù)及其應(yīng)用帶來的負(fù)面影響。在國家政策和科技倫理的指引下,很多機(jī)構(gòu)和研究人員開始關(guān)注:如何建立起人類與人工智能的信任關(guān)系,并通過一系列機(jī)制構(gòu)筑起可信人工智能的道德邊界,確保人工智能在創(chuàng)新和使用中沿著人類預(yù)想的方向發(fā)展。

      人工智能技術(shù)必須貫徹科技向善

      發(fā)展人工智能之所以必須更加強(qiáng)調(diào)道德倫理和向善理念,是因?yàn)檫@種東西可能是直接“威脅”人類的“新物種”。首先,人類第一次面對(duì)自己的創(chuàng)造物感覺到被替代的恐懼。傳統(tǒng)的工業(yè)化技術(shù)指向性在于產(chǎn)品,而人工智能技術(shù)的指向性卻在人本身。傳統(tǒng)工業(yè)化技術(shù)的功能性被嚴(yán)格定義,服務(wù)于人類的生產(chǎn)、生活和學(xué)習(xí),無論如何提高工藝但不改變其工具性——突出表現(xiàn)在無論使用者是誰,其功能性都是普適的。這也是技術(shù)中立觀念的工業(yè)化基礎(chǔ)。而人工智能技術(shù)的產(chǎn)品或服務(wù),都指向了特定人——當(dāng)無法辨認(rèn)為特定對(duì)象時(shí)就可能享受不了服務(wù)。如傳統(tǒng)相機(jī)提高的是照相的清晰度,而智能相機(jī)人臉識(shí)別是可以鎖定你的身份的。其次,人類在面臨人工智能技術(shù)時(shí)感到普遍的無能為力。當(dāng)然,目前為止這種“無能為力”更多的是一種感受,而且人工智能的成熟度還遠(yuǎn)沒有到達(dá)那一地步。但筆者想強(qiáng)調(diào)的是,由于人類智力增長是線性增長和對(duì)數(shù)增長,人工智能技術(shù)的發(fā)展卻是指數(shù)增長,奇點(diǎn)一旦來臨,人類就再無勝算。這種機(jī)器對(duì)人體力和智力、物種和物理多重“碾壓”帶來的壓迫感,在科幻作品中已經(jīng)頻繁上演了。第三,人類面對(duì)人工智能有一種復(fù)雜的感情。人類創(chuàng)造出人工智能,想讓它越智能越好,但又怕它太智能而超越自己、替代自己、不受控制甚至反過來控制自己。特別是,當(dāng)“互聯(lián)網(wǎng)+”進(jìn)入3.0的物聯(lián)網(wǎng)新階段,機(jī)器之間可以互聯(lián)甚至交流——當(dāng)機(jī)器也有了人類以為自己才能獨(dú)有的“社會(huì)性”,人類社會(huì)的普遍自信就被“瓦解”了。

      人類對(duì)技術(shù)進(jìn)步的復(fù)雜感情,促使人類轉(zhuǎn)而探索完善對(duì)技術(shù)的治理。以騰訊為代表倡導(dǎo)“科技向善”的理念,并在此理念下提出科技倫理的三個(gè)層面內(nèi)容:第一,技術(shù)信任。即人工智能等新技術(shù)需要價(jià)值引導(dǎo),具體表現(xiàn)為“四可”原則:可用、可靠、可知、可控。第二,個(gè)體幸福。即確保人人都有追求數(shù)字福祉、幸福工作的權(quán)利,未來的社會(huì)必定是人機(jī)共存的智能社會(huì),在此背景下實(shí)現(xiàn)個(gè)體更自由、智慧、幸福的發(fā)展。第三,社會(huì)可持續(xù)。發(fā)揮好人工智能等新技術(shù)的巨大“向善”潛力,善用技術(shù)塑造健康包容可持續(xù)的智慧社會(huì),持續(xù)推動(dòng)經(jīng)濟(jì)發(fā)展和社會(huì)進(jìn)步。

      谷歌之前的信條是“Dont be Evil(不作惡)”,雖然由于外部不明原因這一表述在2018年4月5日被從網(wǎng)頁上撤下,但“向善”“不作惡”的科技發(fā)展理念已經(jīng)深入人心,特別是當(dāng)科技發(fā)展帶來的事故被報(bào)道出來,就更加使人堅(jiān)信這樣的信條。也許當(dāng)時(shí)提出“不作惡”信條時(shí),是創(chuàng)始者看到了太多人類的自大、傲慢和私欲,一次次將本來用于造福于世的技術(shù)變成了可能毀滅人類未來的武器。周國平提出,“科技向善”至少有四個(gè)維度:功能層面科技應(yīng)該讓人類更高效、舒適;社會(huì)層面科技應(yīng)該普惠更多普通人;倫理層面科技及使用應(yīng)該恪守基本倫理底線;精神層面科技應(yīng)當(dāng)含有人文精神。但值得警醒的是,“科技向善”的提出,實(shí)際上就意味著“科技作惡”的可能性在大大增加。當(dāng)我們討論科技向善時(shí),是在討論科技嗎?可能不真是,毋寧說我們是在討論人類對(duì)科技及其使用的共識(shí)。古希臘哲學(xué)家普羅泰戈拉說,“人是萬物的尺度”。我們?cè)诿鎸?duì)世界的時(shí)候,可能價(jià)值選擇因人而異,出現(xiàn)萬人、萬物、萬尺度。但人類不會(huì)因?yàn)檫_(dá)成共識(shí)的困難,就泯滅對(duì)發(fā)展的渴望。普羅泰戈拉的這句名言是針對(duì)神提出的,他是在強(qiáng)調(diào)人的尺度性,意在“滅神”。但對(duì)于人類正在大力發(fā)展的人工智能技術(shù)來說,萬物尺度的人是不是在重新“造神”呢?無論是或不是,人類都不應(yīng)忘記自己尺度性中“向善”的成分。

      人工智能需要建立人機(jī)之間信任

      從“向善”到“信任”,是理念到行動(dòng)的落實(shí)。“向善”是人類的共識(shí),達(dá)成共識(shí)的人類之間的“信任”是不言而喻的。但在人工智能技術(shù)大發(fā)展的大背景下,人工智能要獲得更長遠(yuǎn)的發(fā)展,建立起人機(jī)之間的信任是一種必需。先從詞義上看,信任一詞英文動(dòng)詞是trust,tru-代表真實(shí),意指堅(jiān)信某人或某物純良、誠實(shí)、善意,不會(huì)傷害你或算計(jì)你。段偉文教授提出,人機(jī)之間的信任需要一種beliving,這是一種面向智能化時(shí)代的人機(jī)信任機(jī)制,需要每個(gè)人拿出人類的能動(dòng)性采取行動(dòng),糾正那些被采集和被分析的數(shù)據(jù)中的錯(cuò)誤或偏見。人機(jī)之間的信任首要的一點(diǎn)是“不要害怕”,當(dāng)人類處在或主要處在害怕情緒之中時(shí),這種beliving機(jī)制是建立不起來的。畢竟人機(jī)之間的關(guān)系說到最后,是人與人之間以機(jī)器為中介的關(guān)系。若以這種角度來做建設(shè)性人機(jī)關(guān)系的構(gòu)筑行動(dòng),可能就感到比較輕松一點(diǎn)了。

      傳統(tǒng)意義上的信任關(guān)系,是一種托付關(guān)系,發(fā)生在委托人與受托人之間。所以,英文單詞trust還有信托(財(cái)產(chǎn))的意義,即委托人基于對(duì)受托人的信任,將其財(cái)產(chǎn)權(quán)委托給受托人,由受托人按委托人的意愿以自己的名義,為受益人的利益或特定目的進(jìn)行管理和處分,通常要一直達(dá)到特定年齡(an arrangement by which an organization or a group of people has legal control of money or property that has been given to sb., usually until that person reaches a particular age)。從這里實(shí)際上也可以看出人機(jī)之間信任關(guān)系的影子,人類出于對(duì)機(jī)器或人工智能系統(tǒng)的信任,而委托其處理自己的事務(wù)。特別是,如兒童看護(hù)、情感交流等情形,真的是典型的情感信任。甚至,可以預(yù)想被人工智能看護(hù)的兒童,成長起來后對(duì)它的信任幾乎是牢不可破的。但這里不同于傳統(tǒng)trust的有兩點(diǎn),一是二者之間不是兩個(gè)平等主體之間的關(guān)系,而往往是一個(gè)主體與一個(gè)平臺(tái)之間,或一個(gè)平臺(tái)與所有人之間的關(guān)系;二是二者之間目前來看還不清楚相互關(guān)系的全貌,即人類信任機(jī)器基本可以理解,但機(jī)器信任人或機(jī)器之間信任的機(jī)制還不甚清楚。而要弄清楚這一點(diǎn),真正建立起人機(jī)信任關(guān)系,就需要充分的聯(lián)接和善意的引導(dǎo)。

      達(dá)成向善的共識(shí),建立信任的情感,人機(jī)才能攜手奔向美好的明天。所以,為人工智能技術(shù)或新興科技找到道德倫理的把手,可能才是構(gòu)筑人機(jī)信任的關(guān)鍵??v觀整個(gè)科技史,沒有跡象表明技術(shù)自身帶有道德倫理的品質(zhì),科技哲學(xué)觀念是被開發(fā)、使用技術(shù)的人所賦予的。人工智能的倫理價(jià)值和倫理責(zé)任,與其說是機(jī)器對(duì)人的啟迪,不如說是人類尺度性的啟動(dòng)發(fā)揮和自我意識(shí)的主動(dòng)尋找。關(guān)于信任有句名言,“信任別人的善良是自己善良的明證”,但問題是,人類自己足夠善良嗎?谷歌在2019年3月26日成立了外部專家委員會(huì)(ATEAC),用于探討人工智能倫理問題,但僅成立了9天即被解散。其所面臨的人事斗爭(zhēng)姑且不論,但被反對(duì)的理由如:ATEAC成員在為軍方提供無人機(jī)自動(dòng)駕駛方案(可能直接有悖于“不作惡”信條),還有成員反對(duì)跨性別者(Transgender)涉嫌歧視特定人群,還有服務(wù)保守派智庫傳統(tǒng)基金會(huì)迎合政治需要,等等。這啟示我們,善良也可能是一張“普洛透斯的臉”(a Proteus face),變幻無常,那么要建立信任真的是“路漫漫其修遠(yuǎn)兮”。

      可信人工智能的國際經(jīng)驗(yàn)與啟示

      2019年是可信人工智能的元年。歐盟委員會(huì)發(fā)布《可信人工智能倫理準(zhǔn)則》(Ethics Guidelines For Trustworthy AI),美國更新了2016年發(fā)布的《國家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃:2019更新版》(The National AI R&D Strategic Plan: 2019 Update),中國國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》;而國際組織如經(jīng)濟(jì)合作與發(fā)展組織(Organization for Economic Co-operation and Development,OECD)成員國于5月22日批準(zhǔn)了《OECD人工智能原則》(OECD Principles on Artificial Intelligence),6月9日二十國集團(tuán)貿(mào)易和數(shù)字經(jīng)濟(jì)部長會(huì)議發(fā)布了《G20人工智能原則》(G20 AI Principles)等。不論是各主要國家政府,還是國際政府間組織,都開始采納政府簽署的人工智能原則,確立人工智能的治理方式。

      這其中,OECD、G20的文件更側(cè)重原則,而以歐盟《可信人工智能倫理準(zhǔn)則》為代表則提供了完整的倫理規(guī)范體系。我們從歐盟的倫理準(zhǔn)則中,可以探尋到一些關(guān)于可信人工智能構(gòu)建的線索。根據(jù)歐盟人工智能倫理準(zhǔn)則,可信人工智能必須至少具備三個(gè)特征:合法性、合倫理性、穩(wěn)健性(Robus又譯為魯棒性)。而可信人工智能的倫理框架包括三個(gè)層次:可信人工智能的根基、可信人工智能的實(shí)現(xiàn)、可信人工智能的評(píng)估??尚湃斯ぶ悄艿母撬捻?xiàng)倫理原則:尊重人類自主性、防止損害、公平原則、可解釋原則。而可信人工智能的實(shí)現(xiàn)至少包括七個(gè)方面,分別是:(1)人類的能動(dòng)性及監(jiān)督;(2)技術(shù)穩(wěn)健性與安全;(3)隱私和數(shù)據(jù)治理;(4)透明性;(5)多樣性、非歧視和公平;(6)社會(huì)和環(huán)境福祉;(7)問責(zé)機(jī)制。可信人工智能的評(píng)估,主要是根據(jù)上述七個(gè)方面給出了《可信人工智能評(píng)估清單(試用版)》,幫助企業(yè)及其部門如管理層、法務(wù)、研發(fā)、質(zhì)量控制、HR、采購、運(yùn)營部門等,在上述七方面的百余項(xiàng)細(xì)化指標(biāo)中共同完成對(duì)可信人工智能的構(gòu)建和保障。

      歐盟《可信人工智能倫理準(zhǔn)則》剛剛實(shí)施半年,現(xiàn)在評(píng)論也許為時(shí)尚早。但值得我們注意的是,歐洲在人工智能技術(shù)和產(chǎn)業(yè)發(fā)展上沒做到先發(fā)制人,但在人工智能治理和倫理上確實(shí)走在世界前面。同時(shí),可信人工智能的構(gòu)建肯定是一項(xiàng)復(fù)雜的系統(tǒng)工程,并且里面有很多價(jià)值觀和方法論的內(nèi)容需要預(yù)先研究。閆宏秀老師提出,我們說的可信人工智能包括人類對(duì)人工智能的信任和人類對(duì)自身的信任,事實(shí)上這兩個(gè)方面歸根到底是人類對(duì)自身所制造產(chǎn)物是否可以有效應(yīng)對(duì)的解答,即關(guān)于可信任人工智能實(shí)現(xiàn)途徑的探討。中國的可信人工智能治理的方案,提出不算早但也不算晚。新一代人工智能治理原則,以發(fā)展負(fù)責(zé)任的人工智能為主題,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八項(xiàng)原則,算是趕上了全球可信人工智能發(fā)展的“準(zhǔn)點(diǎn)班車”。但正如莎士比亞所說,“一切過往,皆為序章”(What's past is prologue),人工智能新時(shí)代大幕拉開,一切可能才剛剛開始。發(fā)展可信人工智能,技術(shù)治理與倫理準(zhǔn)則必須兼顧,民族立場(chǎng)與人類情懷必須協(xié)調(diào),經(jīng)由設(shè)計(jì)的倫理和基于監(jiān)督的信任必須同步,才有可能在人工智能加持的戰(zhàn)場(chǎng)上贏得優(yōu)勢(shì)、贏得主動(dòng)、贏得未來。

      (作者為工業(yè)和信息化部賽迪研究院政策法規(guī)所所長)

      責(zé)任編輯:馬莉莎

      猜你喜歡
      人機(jī)信任倫理
      《心之死》的趣味與倫理焦慮
      人機(jī)“翻譯員”
      從內(nèi)到外,看懂無人機(jī)
      南都周刊(2021年3期)2021-04-22 16:43:49
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      表示信任
      嚶嚶嚶,人與人的信任在哪里……
      桃之夭夭B(2017年2期)2017-02-24 17:32:43
      從生到死有多遠(yuǎn)
      “人機(jī)大戰(zhàn)”人類智慧遭遇強(qiáng)敵
      海外星云(2016年7期)2016-12-01 04:17:50
      未來深空探測(cè)中的人機(jī)聯(lián)合探測(cè)
      太空探索(2016年5期)2016-07-12 15:17:58
      信任
      太湖县| 铜山县| 英山县| 武隆县| 资阳市| 长泰县| 民丰县| 从化市| 通州市| 邻水| 中超| 普格县| 南和县| 桐乡市| 大理市| 娱乐| 无极县| 郎溪县| 保康县| 北流市| 嘉黎县| 安西县| 正安县| 桑日县| 卓尼县| 道孚县| 富民县| 武清区| 东阳市| 厦门市| 集安市| 萍乡市| 滁州市| 汪清县| 沽源县| 北京市| 贵南县| 含山县| 涞水县| 雷波县| 尼玛县|