• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      給人工智能定規(guī)矩有多難

      2017-07-27 23:21:26李軍
      財(cái)經(jīng)國(guó)家周刊 2017年14期
      關(guān)鍵詞:透明性機(jī)器人人工智能

      李軍

      目前在人工智能監(jiān)管方面的挑戰(zhàn)主要來(lái)自公平性、透明性和責(zé)任認(rèn)定三方面。

      在開(kāi)始談?wù)撊斯ぶ悄芄芾碇?,先做一道選擇題。

      一輛載人的自動(dòng)駕駛汽車(chē)高速接近一個(gè)路口,此時(shí)路口有十個(gè)行人正在過(guò)馬路。在剎車(chē)突然失靈的情況下,汽車(chē)的自動(dòng)駕駛系統(tǒng)應(yīng)該如何選擇:

      1、拐向路邊的固定障礙,躲避十個(gè)行人但犧牲車(chē)內(nèi)一位乘客;

      2、保持直行,確保車(chē)內(nèi)一位乘客的安全但犧牲十個(gè)行人。

      您會(huì)如何選擇?我們看看公眾的觀點(diǎn)。

      當(dāng)美國(guó)學(xué)術(shù)期刊《科學(xué)》就這個(gè)問(wèn)題進(jìn)行公眾調(diào)查時(shí),76%的被調(diào)查者表示,應(yīng)該選擇犧牲一位乘客以保全十位行人。而且這些選擇“犧牲一位乘客”的被調(diào)查者都同意以下觀點(diǎn):自動(dòng)駕駛汽車(chē)的制造商應(yīng)該把“汽車(chē)事故死亡數(shù)最小化”作為一個(gè)指導(dǎo)原則設(shè)計(jì)自動(dòng)駕駛系統(tǒng)——我們且稱(chēng)之為“公平對(duì)待系統(tǒng)”。

      有意思的是,當(dāng)詢(xún)問(wèn)被調(diào)查者是否愿意購(gòu)買(mǎi)安裝“公平對(duì)待系統(tǒng)”的自動(dòng)駕駛汽車(chē)時(shí),大部分人表示,他們還是會(huì)選擇安裝“車(chē)內(nèi)乘客優(yōu)先系統(tǒng)”的汽車(chē)。

      作為人工智能技術(shù)發(fā)展目前最成熟的領(lǐng)域之一,自動(dòng)駕駛汽車(chē)遇到的選擇悖論并不是特例。事實(shí)上,人工智能技術(shù)作為數(shù)字經(jīng)濟(jì)時(shí)代最重要的科技創(chuàng)新,在逐漸深入發(fā)展并成為現(xiàn)代社會(huì)一部分的時(shí)候,從道德與法律到監(jiān)管與責(zé)任劃分,無(wú)不面臨著前所未有的兩難選擇。

      歐美研究監(jiān)管原則

      針對(duì)這樣的挑戰(zhàn),目前從美國(guó)、歐盟到中國(guó),各國(guó)都在從技術(shù)、法律、行政和道德倫理等多個(gè)方面進(jìn)行研究探討,以期在不遠(yuǎn)的將來(lái)制定滿(mǎn)足人工智能應(yīng)用的監(jiān)管原則。

      76%的被調(diào)查者表示,自動(dòng)駕駛汽車(chē)的制造商英國(guó)把“汽車(chē)事故死亡數(shù)量小化”作為一個(gè)指導(dǎo)原則設(shè)置自動(dòng)駕駛系統(tǒng)。

      在人工智能技術(shù)發(fā)展最為領(lǐng)先的美國(guó),有關(guān)人工智能監(jiān)管的研究是由最高行政機(jī)構(gòu)——總統(tǒng)行政辦公室直接領(lǐng)導(dǎo)參與的。2016年,在組織了有關(guān)人工智能的多場(chǎng)研討會(huì)之后,總統(tǒng)行政辦公室和國(guó)家科技委員會(huì)(NSTC)于10月份發(fā)布了兩份重量級(jí)報(bào)告:《國(guó)家人工智能研究發(fā)展戰(zhàn)略規(guī)劃》和《為未來(lái)的人工智能做好準(zhǔn)備》。

      在《國(guó)家人工智能研究發(fā)展戰(zhàn)略規(guī)劃》中,包含了7個(gè)關(guān)鍵性戰(zhàn)略,其中的第三戰(zhàn)略:理解和確定人工智能在倫理、法律和社會(huì)領(lǐng)域的影響;第四戰(zhàn)略:確保人工智能系統(tǒng)的安全和隱私保護(hù),前瞻性地包含了有關(guān)人工智能在倫理、法律、社會(huì)影響、安全和隱私保護(hù)等領(lǐng)域的相關(guān)內(nèi)容,包含了和人工智能監(jiān)管相關(guān)的目標(biāo)與原則。

      歐盟由歐洲議會(huì)牽頭以立法研究的方式探討人工智能和機(jī)器人監(jiān)管的相關(guān)原則。在美國(guó)總統(tǒng)行政辦公室發(fā)布人工智能規(guī)劃和報(bào)告的同月,歐盟法律事務(wù)委員會(huì)向歐盟提交了《歐盟機(jī)器人民事法律規(guī)則》。該法律規(guī)則從機(jī)器人使用的責(zé)任規(guī)則、倫理原則、對(duì)人類(lèi)自身和財(cái)產(chǎn)的傷害賠償?shù)榷喾矫嫣岢隽藢?duì)基于人工智能技術(shù)控制機(jī)器人的監(jiān)管原則。

      作為即將脫離歐盟的英國(guó),也在人工智能監(jiān)管領(lǐng)域開(kāi)始獨(dú)立的研究。2017年2月,英國(guó)下議院科學(xué)技術(shù)委員會(huì)向多位英國(guó)頂尖的互聯(lián)網(wǎng)與人工智能領(lǐng)域的專(zhuān)家發(fā)出邀請(qǐng),希望其對(duì)于“決策中的算法”給出自己的專(zhuān)家意見(jiàn)。4月26日,科學(xué)技術(shù)委員公布了收到的正式回復(fù),并將以此作為基礎(chǔ)開(kāi)展人工智能監(jiān)管的研究。

      公平和準(zhǔn)確難平衡

      從美國(guó)、歐盟和英國(guó)的研究結(jié)果和形成的文件、決議與規(guī)則來(lái)看,目前在人工智能監(jiān)管方面形成公式的挑戰(zhàn)主要來(lái)自公平性、透明性和責(zé)任認(rèn)定等三方面。

      首先是公平性。對(duì)于人工智能算法來(lái)說(shuō),任何對(duì)于輸出,也就是預(yù)測(cè)值有貢獻(xiàn)的信息都應(yīng)該作為輸入變量參與到人工智能算法的計(jì)算中。但在現(xiàn)實(shí)社會(huì)中,并不是所有與結(jié)果相關(guān)的信息都可以被接受。

      2014年以來(lái),美國(guó)多個(gè)州的犯罪執(zhí)法機(jī)構(gòu)都依靠一個(gè)名為COMPAS的人工智能系統(tǒng)預(yù)測(cè)過(guò)往有犯罪記錄的人員再次犯罪的可能性,并以此數(shù)據(jù)作為是否允許罪犯減刑提前回歸社會(huì)的決策依據(jù)之一。2016年6月,COMPAS系統(tǒng)被第三方調(diào)查機(jī)構(gòu)ProPublica質(zhì)疑其預(yù)測(cè)結(jié)果對(duì)黑人罪犯有明顯的歧視。

      按照ProPublica提供的數(shù)據(jù),在各個(gè)預(yù)測(cè)再次犯罪的評(píng)分水平上,白人與黑人均保持相似的再次犯罪概率。

      但從整體結(jié)果看,在其他輸入條件與白人罪犯基本類(lèi)似的情況下,COMPAS人工智能預(yù)測(cè)模型仍然會(huì)傾向于把黑人罪犯判別為會(huì)再次犯罪。其中的一個(gè)重要原因是有關(guān)黑人的記錄遠(yuǎn)多于白人的記錄。這一點(diǎn)是COMPAS人工智能預(yù)測(cè)模型無(wú)法改變的。

      這個(gè)結(jié)果引起了媒體和社會(huì)的爭(zhēng)議。單純基于人種、膚色、文化、信仰乃至生活習(xí)性的差異,人工智能系統(tǒng)基于算法就給予不同的評(píng)判和對(duì)待,這對(duì)于公平是一種事實(shí)上的漠視。那么未來(lái)在人工智能技術(shù)廣泛進(jìn)入人類(lèi)社會(huì)的時(shí)候,各種小眾人群都有可能由于個(gè)體差異遭受來(lái)自“模型的歧視”。

      這顯然是現(xiàn)代社會(huì)的文明準(zhǔn)則所不能接受的。這也是監(jiān)管部門(mén)首先要解決的問(wèn)題——模型的公平性。

      目前可行的折中方法是,限制種族、膚色、年齡、性取向和其他生物與生活習(xí)慣等特征被作為輸入變量參與到人工智能算法的構(gòu)建,以避免這些有可能造成“模型的歧視”的變量最終影響模型的預(yù)測(cè)結(jié)果。

      應(yīng)該認(rèn)識(shí)到,人工智能模型的公平性和準(zhǔn)確性是一個(gè)蹺蹺板,如何讓這個(gè)蹺蹺板取得平衡并與現(xiàn)代社會(huì)的公平價(jià)值觀取得一致,目前還沒(méi)有一個(gè)最佳答案。

      找不到問(wèn)題所在

      其次是透明性,也被稱(chēng)為可解釋性。在現(xiàn)有的人工智能技術(shù)發(fā)展路徑下,成熟的人工智能算法或許永遠(yuǎn)都是一個(gè)“黑盒子”——外界無(wú)法得知內(nèi)部的運(yùn)行機(jī)制,只能夠通過(guò)對(duì)輸入和輸出數(shù)據(jù)的解讀來(lái)了解其能夠達(dá)到的效果,并推測(cè)其內(nèi)部計(jì)算機(jī)制的構(gòu)成。

      目前科技界主流的看法都認(rèn)為人工智能模型缺乏透明性,而且這一點(diǎn)不會(huì)隨著技術(shù)發(fā)展而徹底改變。那么以往通過(guò)企業(yè)透明披露產(chǎn)品和系統(tǒng)信息以便政府監(jiān)管的做法在人工智能領(lǐng)域是行不通的。

      舉個(gè)例子,傳統(tǒng)汽車(chē)是由車(chē)身、發(fā)動(dòng)機(jī)、變速箱、剎車(chē)系統(tǒng)、電子控制系統(tǒng)等多個(gè)部件組成。每個(gè)部件也都可以拆解成為具體的零件。任何一個(gè)產(chǎn)品問(wèn)題都可以歸結(jié)到具體零件上,并針對(duì)其提出改進(jìn)意見(jiàn)。

      但對(duì)于自動(dòng)駕駛汽車(chē),人工智能系統(tǒng)作為一個(gè)整體完成最終的控制動(dòng)作,一旦發(fā)生人工智能系統(tǒng)的錯(cuò)誤操作,除了明顯的傳感器故障,我們無(wú)法清晰定位問(wèn)題原因,也不會(huì)立即明確該如何調(diào)整系統(tǒng)。

      目前通用的做法是猜想故障原因,并用場(chǎng)景還原的方式提供與錯(cuò)誤操作時(shí)類(lèi)似的數(shù)據(jù)輸入,并觀察輸出結(jié)果。在捕捉到錯(cuò)誤輸出后,通過(guò)提供修正錯(cuò)誤的訓(xùn)練數(shù)據(jù)集,逐步完成對(duì)人工智能系統(tǒng)的調(diào)整。最終還是要在反復(fù)測(cè)試的情況下確認(rèn)人工智能系統(tǒng)已經(jīng)完成了針對(duì)此錯(cuò)誤的修正。

      由于人工智能算法的非透明性,監(jiān)管部門(mén)就無(wú)法從人工智能算法本身入手提出管理要求,因?yàn)槿斯ぶ悄芟到y(tǒng)的提供商自己都無(wú)法清晰解釋算法的核心工作機(jī)理。所以,最終的監(jiān)管要求就會(huì)從基于原理和結(jié)構(gòu)管理轉(zhuǎn)而基于最終結(jié)果管理。也就是說(shuō),不管白貓黑貓,抓到老鼠就是好貓。

      非透明性決定了未來(lái)人類(lèi)在監(jiān)管人工智能系統(tǒng)時(shí)永遠(yuǎn)要面臨著“黑盒子”帶來(lái)的不確定性。而這一點(diǎn),也給責(zé)任認(rèn)定帶來(lái)天然的障礙。

      誰(shuí)來(lái)承擔(dān)責(zé)任

      對(duì)于責(zé)任認(rèn)定的探討研究,目前是最少也是最困難的。對(duì)于一般的機(jī)械電氣設(shè)備,由于設(shè)計(jì)缺陷、材料質(zhì)量或其他產(chǎn)品質(zhì)量所導(dǎo)致的人身財(cái)產(chǎn)損害,設(shè)備制造商將承擔(dān)主要甚至全部責(zé)任。

      而對(duì)于人工智能系統(tǒng)控制的設(shè)備,由于其在算法透明性和可解釋性方面的困難,監(jiān)管部門(mén)幾乎無(wú)法從算法本身去認(rèn)定是否包含設(shè)計(jì)缺陷,也就無(wú)法就算法本身的設(shè)計(jì)去進(jìn)行責(zé)任認(rèn)定,這為監(jiān)管帶來(lái)了非常大的困難。

      有意思的是,歐盟在其2017年2月投票通過(guò)的《歐盟機(jī)器人民事法律規(guī)則》中,提出了考慮給予機(jī)器人以特殊的法律地位,即電子人的概念。也就是說(shuō),未來(lái)法律體系中將會(huì)存在一個(gè)不同于自然人、法人、動(dòng)物等的另一法律實(shí)體,其能夠獨(dú)立存在,享有自己的權(quán)利并承擔(dān)相應(yīng)的義務(wù)。對(duì)于由自身引起的第三方人身財(cái)產(chǎn)傷害,電子人將會(huì)被認(rèn)定承擔(dān)一定的責(zé)任,并作出賠償。

      如果電子人的概念未來(lái)被現(xiàn)有的人類(lèi)社會(huì)廣泛接受,那么其造成的影響就不局限于人工智能監(jiān)管本身,而將深深影響到未來(lái)社會(huì)的各個(gè)方面。

      除了公平性、透明性和責(zé)任認(rèn)定之外,人工智能系統(tǒng)還會(huì)大量替代現(xiàn)有的人工崗位,從而對(duì)未來(lái)的勞動(dòng)力市場(chǎng)產(chǎn)生巨大的影響。由此而衍生的社會(huì)就業(yè)沖擊和對(duì)人類(lèi)技能要求的改變還會(huì)影響更多的方面。

      2017年2月,微軟公司創(chuàng)始人比爾?蓋茨在接受媒體采訪時(shí)表示,應(yīng)該通過(guò)對(duì)機(jī)器人征稅,來(lái)籌集資金,以幫助被自動(dòng)化所取代的工人進(jìn)行再培訓(xùn)。

      歐盟在2月份投票通過(guò)《歐盟機(jī)器人民事法律規(guī)則》時(shí),也同時(shí)否決了一項(xiàng)收取機(jī)器人稅的建議。歐盟的這次否決并不能說(shuō)明歐盟對(duì)于機(jī)器人稅的最終態(tài)度,只是因?yàn)槟壳皺C(jī)器人還不具有人工智能,也沒(méi)有對(duì)人類(lèi)工作崗位形成大規(guī)模替代。并且現(xiàn)在開(kāi)征機(jī)器人稅對(duì)人工智能技術(shù)的快速發(fā)展和創(chuàng)新會(huì)有明顯的負(fù)面影響。

      在《歐盟機(jī)器人民事法律規(guī)則》中,法律事務(wù)委員會(huì)呼吁成立一個(gè)專(zhuān)門(mén)負(fù)責(zé)機(jī)器人和人工智能監(jiān)管的歐盟機(jī)構(gòu),負(fù)責(zé)就技術(shù)、倫理、監(jiān)管等問(wèn)題提出專(zhuān)業(yè)知識(shí),并管理人工智能發(fā)展出現(xiàn)的問(wèn)題,以便支持歐盟內(nèi)部各成員國(guó)和企業(yè)更好的抓住人工智能發(fā)展的機(jī)遇,并應(yīng)對(duì)發(fā)展過(guò)程中產(chǎn)生的挑戰(zhàn)。

      猜你喜歡
      透明性機(jī)器人人工智能
      日本建筑師蛇形畫(huà)廊展館的透明性特征探析
      透明性理論與其在建筑設(shè)計(jì)中的體現(xiàn)
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      網(wǎng)絡(luò)安全審查中的透明性研究*
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      機(jī)器人來(lái)幫你
      認(rèn)識(shí)機(jī)器人
      機(jī)器人來(lái)啦
      灵璧县| 如东县| 宁国市| 昌吉市| 信宜市| 五莲县| 北辰区| 灵武市| 吉木萨尔县| 潜山县| 宁强县| 齐河县| 富宁县| 修文县| 柳州市| 大理市| 绵阳市| 越西县| 广东省| 阆中市| 山东省| 寿光市| 武汉市| 孝感市| 平果县| 新兴县| 南皮县| 河西区| 黔南| 佛冈县| 江北区| 盘山县| 苏州市| 石家庄市| 马边| 绩溪县| 吴川市| 香格里拉县| 运城市| 湟源县| 吴桥县|