• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能算法面臨倫理困境

      2018-05-14 14:40:30魏強陸平
      互聯(lián)網(wǎng)經(jīng)濟 2018年5期
      關(guān)鍵詞:倫理人工智能算法

      魏強 陸平

      人工智能從上世紀50年代興起至今只有近60多年的歷史,但近年來其研究及應(yīng)用領(lǐng)域迅速拓展、影響深遠。隨著各行各業(yè)開始部署人工智能,尤其是利用人工智能進行自動化決策的時候,人工智能的諸多倫理與道德問題已悄然浮出水面。

      算法問題凸顯 威脅人類生活

      當(dāng)1956年人工智能開始起步的時候,人們更多是在說人工智能;在第二次浪潮期間,機器學(xué)習(xí)成為主流;第三次AI浪潮則是深度學(xué)習(xí),是能夠自我學(xué)習(xí)、自我編程的學(xué)習(xí)算法,可以用來解決更復(fù)雜的任務(wù)。此外,計算能力的提升,包括現(xiàn)在的量子計算機,以及越來越普遍的大數(shù)據(jù),對人工智能的作用和價值也非常大,使得更復(fù)雜的算法成為可能。人工智能的持續(xù)進步帶來的好處將是巨大的,但是,隨之帶來了諸多倫理問題,為了讓AI真正有益于人類社會,我們也不能忽視。

      預(yù)見性問題。隨著計算能力的不斷攀升,人工智能可以計算大量的可能性,其選擇空間往往大于人類,它們能夠輕易地去嘗試人類以前從未考慮的解決方案。換而言之,盡管人們設(shè)計了某人工智能產(chǎn)品,但受限于人類自身的認知能力,研發(fā)者無法預(yù)見其所研發(fā)的智能產(chǎn)品做出的決策以及產(chǎn)生的效果。以谷歌DeepMind團隊開發(fā)的AlphaGo與多位人類圍棋高手的“人機大戰(zhàn)”為例,AlphaGo在2016年3月對陣李世石時為第18代(AlphaGo Lee),在2017年5月對陣柯潔時已經(jīng)迭代為第60代(AlphaGo Master)。而在2017年10月,谷歌DeepMind開發(fā)的AlphaGo Zero機器系統(tǒng)僅訓(xùn)練3天就以100:0的比分戰(zhàn)勝了AlphaGo Lee;經(jīng)過40天訓(xùn)練后,AlphaGo Zero又以89:11戰(zhàn)勝了橫掃柯潔的AlphaGo Master??焖俚谋澈笫茿lphaGo全新的深度學(xué)習(xí)邏輯,這種經(jīng)歷迭代的深度學(xué)習(xí)邏輯,其強大的進化速度讓人類難以追趕,只能望其項背。當(dāng)前,基于深度學(xué)習(xí)技術(shù)的新一代人工智能產(chǎn)品大都具備自學(xué)習(xí)能力和自適應(yīng)能力,人工智能應(yīng)用帶來的后果越來越難以預(yù)測,這不得不引發(fā)人們的擔(dān)憂。

      透明性與安全性問題。由于人工智能技術(shù)模擬了人腦的工作模式,系統(tǒng)十分復(fù)雜,沒有采用明確的數(shù)據(jù)存儲和分析方式,因此人工智能存在一些難以捉摸的“黑盒子”。包括開發(fā)者工程師在內(nèi)的人都很難確切知道它的內(nèi)部運作方式和某個具體行動背后的邏輯,因而可能引發(fā)嚴重問題。例如,谷歌研究院的Christian Szegedy等提出在輸入的數(shù)據(jù)集中故意添加細微的干擾,形成輸入樣本,將導(dǎo)致深度神經(jīng)網(wǎng)絡(luò)得出錯誤的預(yù)測結(jié)果,這個錯誤在人類看來一目了然,但是往往能把計算機帶入陷阱。再如,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的后續(xù)層能在前一層得出的信息中尋找更高層次模式,這樣能夠丟棄次要細節(jié),優(yōu)先識別出某種顯著模式,但這也造成提取出來的特征間關(guān)系的丟失,這將導(dǎo)致CNN可能受到特征相同但特征關(guān)系不同的樣本數(shù)據(jù)的欺騙,從而得到錯誤的預(yù)測結(jié)果。這些算法問題由于黑盒子難以被人們察覺,如何增加算法的可解釋性,從而真正了解機器的學(xué)習(xí)方式已經(jīng)成為擺在科學(xué)家面前的嚴峻挑戰(zhàn)。

      責(zé)任分擔(dān)問題。人工智能系統(tǒng)通常借助虛擬社區(qū)(如Github開源平臺)進行協(xié)同研發(fā),開發(fā)過程中可能會用到許多其他人開發(fā)的組件。數(shù)量眾多的潛在責(zé)任人再加上大多數(shù)人工智能產(chǎn)品的內(nèi)部運作并不透明,這使得人工智能產(chǎn)品一旦出現(xiàn)安全問題,劃分責(zé)任歸屬可能會異常復(fù)雜。例如,特斯拉自動駕駛汽車自2016年以來已在多個國家發(fā)生多場車禍,造成多人傷亡。較近的一次事故發(fā)生在2018年5月,一輛特斯拉Model S在美國佛羅里達發(fā)生撞車事故并起火,事故造成兩人遇難,另有一人受傷。據(jù)當(dāng)?shù)啬繐粽呓榻B,車速過快可能是引發(fā)交通事故的一個原因。當(dāng)時,一輛Model S在海風(fēng)小道飛速行駛,后來撞墻起火,其中一名青少年被甩出車外,而另外兩名在大火中不幸遇難。針對前幾次交通事故的責(zé)任判定存在嚴重分歧,特斯拉公司、駕駛員、傳感器Mobileye公司各執(zhí)一詞,目前美國國家運輸安全委員會還在對這起車禍進行調(diào)查。

      隱私保護問題。人工智能系統(tǒng)需要大量的數(shù)據(jù)來訓(xùn)練學(xué)習(xí)算法,因此數(shù)據(jù)又被稱為AI時代的“新石油”。數(shù)據(jù)的重要性越來越高,但在采集數(shù)據(jù)和使用數(shù)據(jù)的過程中,如何保證用戶數(shù)據(jù)的安全也面臨越來越多的挑戰(zhàn)。一方面,人工智能在深度學(xué)習(xí)過程中使用大量的敏感數(shù)據(jù),這些個人數(shù)據(jù)可能會在后續(xù)被披露出去。另一方面,數(shù)據(jù)已經(jīng)成為新的流通物,數(shù)據(jù)流動不斷頻繁,其中可能存在某些不為人知的數(shù)據(jù)交易,個人數(shù)據(jù)的控制和管理面臨威脅。例如,社交網(wǎng)站Facebook在2018年3月被曝5000萬用戶數(shù)據(jù)遭到泄露。據(jù)Facebook稱,這些數(shù)據(jù)最初是由一名劍橋大學(xué)講師通過一個性格測試應(yīng)用收集來的。收集行為完全合法,但是這些信息后來被轉(zhuǎn)移到第三方,包括劍橋分析(Cambridge Analytica)公司。劍橋分析被曝非法將大量Facebook用戶的信息用于大數(shù)據(jù)分析,從而精準刻畫這些用戶的心理特征,并向他們推送定制廣告,甚至假新聞。而在2018年4月,美團等外賣平臺的訂餐客戶數(shù)據(jù)信息出現(xiàn)大范圍泄露,被不法分子在網(wǎng)上進行販賣。這些數(shù)據(jù)包括訂餐用戶的姓名、電話號碼和詳細的訂餐地址,且準確度較高。

      利益分享問題。人工智能通過輔助或替代人類勞動,能夠更有效率地完成現(xiàn)有工作,從而提高生產(chǎn)效率。以英特爾為例,該公司在芯片生產(chǎn)過程中會收集大量數(shù)據(jù)。過去,如果生產(chǎn)中出現(xiàn)問題,公司需依靠人工分析數(shù)據(jù)尋找根本原因。而現(xiàn)在,機器學(xué)習(xí)以遠勝人工的速度完成這項任務(wù),其算法能夠篩選成千上萬的數(shù)據(jù)點以找出殘次芯片的共同特征。當(dāng)前主流觀點認為,人工智能能夠降低用工成本,提升生產(chǎn)效率,而未來一些重復(fù)性的工作崗位將會被人工智能所替代。因此,這也引發(fā)了人們對于人工智能將會帶來失業(yè)、不公和加劇貧富差距的擔(dān)憂。

      惡意控制問題。有觀點認為,人工智能會加劇數(shù)字和物理安全系統(tǒng)的威脅,并將造成全新的危險。人工智能一旦被惡意使用不僅僅威脅到人們的財產(chǎn)和隱私,它還會威脅到人們的生命。例如,在軍事領(lǐng)域,具有指揮高效化、打擊精確化、操作自動化、行為智能化等特點的人工智能武器,可以“有意識”地尋找、辨別需要打擊的目標,它同時具有辨別自然語言的能力,是一種“會思考”的武器系統(tǒng)。人工智能武器的危險之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無辜的機器。在政治領(lǐng)域,有研究機構(gòu)反映劍橋分析公司通過非法獲取超過5000萬Facebook個人賬戶信息,使用這些數(shù)據(jù)構(gòu)建算法,分析用戶個性資料,并在2016年美國總統(tǒng)大選中將這些信息與他們的投票行為關(guān)聯(lián)起來,讓競選團隊能夠準確識別搖擺不定的選民,并有針對性地制作和投放廣告。人工智能算法和大數(shù)據(jù)兩者結(jié)合可形成一種強有力的政治武器,可用于影響甚至是操控選民的輿論,進而可能引發(fā)政治風(fēng)險。

      構(gòu)建算法治理的約束機制

      人工智能算法引發(fā)的諸多倫理問題,如果不引起重視,隨著人工智能的進一步發(fā)展將會從多個層面影響甚至是威脅人類生活,鑒于此,應(yīng)對人工智能倫理問題的具體做法,筆者總結(jié)出以下六個層面:

      引入自我終結(jié)機制。人工智能最大的威脅是當(dāng)前人類尚難以理解其決策行為存在未來失控的風(fēng)險,而一旦失控則后果嚴重。參照所有生命體中都有的衰老機制,人工智能也應(yīng)該嵌入自我毀滅機制。谷歌旗下DeepMind公司在2016年曾提出要給人工智能系統(tǒng)安裝“切斷開關(guān)(kill switch)”的想法,為的是阻止AI學(xué)會如何阻止人類對某項活動(比方說發(fā)射核武器)的干預(yù),這種提法被稱作 “安全可中斷性”。據(jù)介紹,安全可中斷性可用于控制機器人不端甚至可能導(dǎo)致不可逆后果的行為,相當(dāng)于在其內(nèi)部強制加入某種自我終結(jié)機制,一旦常規(guī)監(jiān)管手段失效,還能夠觸發(fā)其自我終結(jié)機制,從而使其始終處于人們監(jiān)管范圍之內(nèi)。

      發(fā)展可解釋性人工智能算法。打開人工智能黑箱最有效的途徑就是增強算法的可解釋性,目前這已經(jīng)得到科學(xué)界的認同和重視。例如,美國計算機協(xié)會(USACM)下屬的美國公共政策委員會在2017年1月發(fā)布的《算法透明性和可問責(zé)性聲明》中提出了七項基本原則,其中一項即為“解釋”,希望鼓勵使用算法決策的系統(tǒng)和機構(gòu),對算法的過程和特定的決策提供解釋,尤其在公共政策領(lǐng)域。電氣和電子工程師協(xié)會(IEEE)則在2016年和2017年連續(xù)推出了《人工智能設(shè)計的倫理準則》白皮書,在多個部分都提出了對人工智能和自動化系統(tǒng)應(yīng)有解釋能力的要求。2017年10月,美國加州大學(xué)伯克利分校的研究者們發(fā)布了《對人工智能系統(tǒng)挑戰(zhàn)的伯克利觀點》一文,從人工智能的發(fā)展趨勢出發(fā),總結(jié)了九項挑戰(zhàn)和研究方向,其中一項即為“可解釋的決策”。

      加強數(shù)據(jù)安全保護。近年來,數(shù)據(jù)安全事件造成的影響越來越嚴重,已逐漸深入擴展到國家政治、經(jīng)濟、民生不同層面,涉及國家關(guān)鍵信息基礎(chǔ)設(shè)施、商業(yè)系統(tǒng)、乃至個人生命等各個方面,數(shù)據(jù)安全問題已經(jīng)成為世界各國和各行各業(yè)普遍關(guān)注的焦點。目前,多國已經(jīng)頒布相關(guān)法律,加大數(shù)據(jù)安全保護。例如,歐盟于2018年5月正式實施《一般數(shù)據(jù)保護條例》(General Data Protection Regulation),該條例具有全球適用性,適用于所有為歐盟居民提供商品服務(wù)的境外數(shù)據(jù)處理商,也包括服務(wù)于歐洲客戶的中國公司。該條例提出“解釋權(quán)”,將賦予歐盟國家公民“審查某項特定服務(wù)中如何做出特定算法決策”。新條例的實施意味著歐盟對個人信息保護及其監(jiān)管達到了前所未有的高度,堪稱史上最嚴格的數(shù)據(jù)保護條例。法國國民議會通過《數(shù)據(jù)保護法草案》,并將其納入法國法律。愛爾蘭正式發(fā)布《2018年數(shù)據(jù)保護法案》,設(shè)立數(shù)據(jù)保護委員會,并將全面執(zhí)行歐盟頒布的《一般數(shù)據(jù)保護條例》以及愛爾蘭法律中的相關(guān)指令。

      開源人工智能算法。開源人工智能算法,在某種程度上能夠降低技術(shù)壁壘,讓更多的人接觸、應(yīng)用和發(fā)展這項技術(shù),同時讓更多的主體分享人工智能發(fā)展帶來的成果。人工智能兩大巨頭OpenAI和DeepMind公司均已開源了各自的人工智能訓(xùn)練平臺。DeepMind開放的DeepMind Lab,是類似3D游戲的平臺,所有開發(fā)者都能下載源代碼并對其進行個性化設(shè)置,以此訓(xùn)練和測試原有的 AI系統(tǒng)。OpenAI開放了三個大的開源平臺Gym、Universe和Robot,主要研究方向是機器人的遷移學(xué)習(xí)與增強學(xué)習(xí)。Gym是指研究在每個細分研究領(lǐng)域建立自己的算法以后,把算法放在不同的環(huán)境中測試;Universe目標是讓AI智能像人一樣使用計算機,目前已有1000種訓(xùn)練環(huán)境;而Robot則是訓(xùn)練機器人。而微軟則更早地啟動了Malmo項目,這是基于一個流行游戲“Minecraft”的AI開發(fā)平臺。

      加強算法監(jiān)管。美國紐約市議會在2017年12月通過了一項算法問責(zé)法案。根據(jù)該法案,將成立一個由自動化決策系統(tǒng)專家和受自動化決策系統(tǒng)影響的公民組織代表組成的工作組,專門監(jiān)督市政機構(gòu)使用的自動決策算法的公平性、問責(zé)性和透明度。隨著人工智能技術(shù)不斷發(fā)展,美國的自動化決策系統(tǒng)逐漸進入政府決策和司法應(yīng)用領(lǐng)域,該法案所提倡的促進政府自動決策算法的公開透明和可解釋性,將促進政府決策中的算法的可信度。

      加強人工智能倫理教育。2017年1月,近千名人工智能和機器人相關(guān)領(lǐng)域的專家在加利福尼亞州阿西洛馬舉行的Beneficial AI會議上聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》,涉及科研問題、倫理價值和長期問題,呼吁全世界在發(fā)展人工智能的同時,應(yīng)嚴格恪守這些原則,共同保障人類未來的倫理、利益和安全。目前美國已將人工智能倫理規(guī)范教育引入人才培養(yǎng)體系。在2018年新學(xué)期,哈佛、康奈爾、麻省理工學(xué)院、斯坦福大學(xué)等諸多美國高校開設(shè)跨學(xué)科、跨領(lǐng)域的人工智能倫理課程,名為人工智能倫理、數(shù)據(jù)科學(xué)倫理、技術(shù)倫理、機器人倫理等。如康奈爾大學(xué)開設(shè)兩門人工智能倫理課程,一門是數(shù)據(jù)科學(xué)倫理和政策課程,重點研究數(shù)據(jù)科學(xué)的倫理挑戰(zhàn);另一門是智能自主系統(tǒng)的倫理問題(機器人倫理)課程,重點研究科技公司的倫理問題。哈佛和麻省理工學(xué)院聯(lián)合開設(shè)的課程則重點研究人工智能的倫理、政策和法律影響。這門課程涵蓋算法歧視、責(zé)任、自主性、系統(tǒng)設(shè)計、數(shù)據(jù)所有權(quán)、AI 治理、AI可解釋性和可問責(zé)性、AI 監(jiān)管等前沿問題,用來激發(fā)學(xué)生對基本倫理的思考。

      加強倫理研究 防范安全風(fēng)險

      為了讓人工智能系統(tǒng)更安全地促進社會發(fā)展,我們應(yīng)該多維度深入進行人工智能倫理問題的研究,以下有幾點啟示與建議。

      一是將人工智能倫理價值算法嵌入編程語言,讓程序語言融入倫理規(guī)范;建立人工智能技術(shù)研發(fā)的倫理準則,指導(dǎo)開發(fā)者和制造商如何對一個機器人做出道德風(fēng)險評估,并形成完善的人工智能技術(shù)研發(fā)規(guī)范,以確保人工智能系統(tǒng)的行為符合社會倫理道德標準。

      二是加強理論攻關(guān),研發(fā)透明性和可解釋性更高的智能計算模型,開發(fā)可解釋、可理解、可預(yù)測的智能系統(tǒng),降低系統(tǒng)行為的不可預(yù)知性和不確定性。

      三是開展立法研究,明確重點領(lǐng)域人工智能應(yīng)用中的法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任,建立和完善適應(yīng)智能時代的法律法規(guī)體系。在事故責(zé)任劃分方面,可借鑒云安全責(zé)任共擔(dān)模型,建立人工智能責(zé)任分擔(dān)模型,探索更加適用的責(zé)任劃分準則。

      四是提高安全標準,推行人工智能產(chǎn)品安全認證,定期對智能產(chǎn)品的安全性、可靠性、一致性進行檢測,并定期披露數(shù)據(jù)樣本、算法機制、測試結(jié)果等信息。

      五是學(xué)習(xí)美國高校做法,開設(shè)跨學(xué)科、跨領(lǐng)域的人工智能倫理課程,把倫理規(guī)范教育作為人才培養(yǎng)體系的重要內(nèi)容,從源頭上確保人工智能系統(tǒng)安全地促進人類文明的進步和發(fā)展。

      六是加強機器人倫理和安全風(fēng)險等人工智能國際共性問題研究,深化人工智能法律法規(guī)、行業(yè)監(jiān)管等方面的交流合作,推進人工智能技術(shù)標準和安全標準的國際統(tǒng)一,推動全球治理,共同應(yīng)對風(fēng)險挑戰(zhàn)。

      人工智能的迅速發(fā)展對人類經(jīng)濟、文化、生態(tài)、生活等方面都產(chǎn)生了深遠影響。但需要注意的是,新一代人工智能因具有高度的自主性、自學(xué)習(xí)及適應(yīng)能力等特征給人類帶來福利的同時,也給人類社會帶來了諸多道德倫理問題。人類社會即將進入人機共存的時代,為確保人類與機器人、人工智能系統(tǒng)能夠和諧共處,需要在設(shè)計、研發(fā)、使用等多個環(huán)節(jié)采取一系列的應(yīng)對措施,妥善應(yīng)對人工智能的安全、隱私、倫理問題和其他風(fēng)險。如何處理人工智能帶來的一系列新問題,人類還在積極探索之中。

      猜你喜歡
      倫理人工智能算法
      《心之死》的趣味與倫理焦慮
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      基于MapReduce的改進Eclat算法
      Travellng thg World Full—time for Rree
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進位加法的兩種算法
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      一種改進的整周模糊度去相關(guān)算法
      长宁区| 浦城县| 克山县| 油尖旺区| 景宁| 侯马市| 眉山市| 巨野县| 南开区| 凭祥市| 将乐县| 镇安县| 自贡市| 新沂市| 永昌县| 湘潭市| 凤凰县| 宝山区| 腾冲县| 瓦房店市| 大田县| 鸡东县| 岳阳县| 兴隆县| 桦南县| 霍山县| 任丘市| 延长县| 庄浪县| 蕲春县| 高州市| 宁南县| 九龙坡区| 郴州市| 邯郸县| 岑巩县| 靖宇县| 会东县| 宁国市| 钟山县| 西安市|