• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      “科技向善”下的AI倫理構(gòu)建

      2019-10-28 05:39:05司曉
      中歐商業(yè)評論 2019年10期
      關鍵詞:倫理人工智能人類

      司曉

      智能時代需要面向數(shù)據(jù)和算法的技術倫理

      互聯(lián)網(wǎng)的前三十年,是一個連接一切的故事,從連接人到連接商業(yè),再到連接萬事萬物,互聯(lián)網(wǎng)技術以前所未有的速度和規(guī)模改變著人類和人類社會。如今,隨著人工智能技術的快速發(fā)展和廣泛應用,智能時代的大幕正在拉開,在其中,無處不在的數(shù)據(jù)和算法正在催生一種新型的人工智能驅(qū)動的經(jīng)濟和社會形式。人們常以“數(shù)據(jù)化”“智能化”“算法決定論”等詞匯描述這一趨勢,但核心都是一樣:人工智能算法正在改變這個世界?;诖罅康臄?shù)據(jù),人工智能有潛力做出比人類更優(yōu)、更準的預測和決策。

      任何有望變革人類社會的新技術都必然會帶來法律、倫理以及社會等領域的影響。例如,互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等數(shù)字技術及其應用帶來的隱私保護、虛假信息、算法歧視、網(wǎng)絡安全、網(wǎng)絡犯罪、電子產(chǎn)品過度使用等問題已經(jīng)成為全球關注焦點,引發(fā)全球范圍內(nèi)對數(shù)字技術及其應用的影響的反思和討論,探索如何讓新技術帶來個人和社會福祉的最大化。未來可能出現(xiàn)的通用人工智能和超級人工智能則可能帶來更深遠而廣泛的安全、倫理等影響。

      因此,在當前的人工智能等新技術背景下,我們比歷史上任何時候都更加需要“科技向善”理念,更加需要技術與倫理的平衡,以便確保新技術朝著更加有利于人類和人類社會的方向發(fā)展。歐盟、德國、英國、OECD、G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應的人工智能倫理原則,共同促進AI知識的共享和可信AI的構(gòu)建。

      2019年5月22日,OECD成員采納了首個由各成員政府簽署的AI原則,即“負責任地管理可信AI的原則(Principles for responsible stewardship of trustworthy AI)”,這些原則之后被G20采納,成為人工智能治理方面的首個政府間國際共識,確立了以人為本的發(fā)展理念和敏捷靈活的治理方式。我國新一代人工智能治理原則也于同年6月17日發(fā)布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理八項原則,以發(fā)展負責任的人工智能。

      我們處在一個正在實現(xiàn)數(shù)據(jù)化和智能化的時代,所以當前強調(diào)的技術倫理主要面向數(shù)據(jù)和算法。歐盟的GDPR已經(jīng)針對人工智能應用做出了一些制度安排,歐盟議會發(fā)布的《算法責任與透明治理框架》則在考慮建立算法治理框架。

      因此,在新的發(fā)展階段,我們提出新的技術倫理(technology ethics),探索技術、個人、社會三者之間的平衡。就AI技術自身而言,AI需要價值引導,應做到可用、可靠、可知、可控(即“四可”理念),從而讓人們可以信任AI,讓AI可以給個人和社會創(chuàng)造價值。就AI與個人之關系而言,幸福是人生的終極目的,需要構(gòu)建和諧的人機關系,保障個人的數(shù)字福祉和幸福工作權(quán)利,實現(xiàn)智能社會人機共生,讓個體更自由、智慧、幸福地生活和發(fā)展。就AI與社會之關系而言,AI可以成為一股“向善”的力量,發(fā)揮出巨大的“向善”潛力,應當鼓勵社會各界踐行“科技向善”,助力經(jīng)濟與社會健康、包容、可持續(xù)發(fā)展。

      信任:AI需要價值引導

      互聯(lián)網(wǎng)在過去二十多年中持續(xù)帶來的問題,連同最近的人工智能等新技術帶來的倫理和社會影響,歸根結(jié)底是技術信任方面的挑戰(zhàn)。現(xiàn)在人們無法完全信任人工智能,一方面是因為人們?nèi)狈ψ銐蛐畔ⅲ瑢@些與我們的生活和生產(chǎn)息息相關的技術發(fā)展缺少足夠的了解;另一方面是因為人們?nèi)狈︻A見能力,既無法預料企業(yè)會拿自己的數(shù)據(jù)做什么,也無法預測人工智能系統(tǒng)的行為。也有人說,技術無關價值,但實際情況是,雖然AI等技術自身沒有道德、倫理的品質(zhì),但是開發(fā)、使用技術的人會賦予其倫理價值,因為基于數(shù)據(jù)做決策的軟件是人設計的,他們設計模型、選擇數(shù)據(jù)并賦予數(shù)據(jù)意義,從而影響我們的行為。所以,這些代碼并非價值中立,其中包括了太多關于我們的現(xiàn)在和未來的決定。而在技術與社會生態(tài)系統(tǒng)互動的過程中,技術發(fā)展常常具有環(huán)境的、社會的和人類的影響,這些影響遠遠超過了技術設備和實踐自身的直接目的。因此,我們需要構(gòu)建能夠讓社會公眾信任人工智能等新技術的規(guī)制體系,讓技術接受價值引導。

      作為建立技術信任的起點,人工智能等新技術的發(fā)展和應用需要遵循倫理原則。為此,秉持“負責任研究與創(chuàng)新”(responsible research and innovation)、“科技向善”等理念,進一步闡釋騰訊公司董事會主席兼首席執(zhí)行官馬化騰提出的人工智能“四可”理念,用以引導負責任地發(fā)展和應用人工智能技術,使其可以造福于人類和人類社會。“四可”翻譯為“ARCC”(讀作“ark”),即“可用(available)”“可靠(reliable)”“可知(comprehensible) ”和“可控(controllable)”四個方面。正如傳說中保存人類文明火種的諾亞方舟,人工智能的健康發(fā)展需要以“倫理方舟”為保障,確保將來友好、和諧、共生的人機關系。

      第一,可用(available)。發(fā)展人工智能的首要目的,是促進人類發(fā)展,給人類和人類社會帶來福祉,實現(xiàn)包容、普惠和可持續(xù)發(fā)展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現(xiàn)技術鴻溝。

      可用性,一方面意味著人工智能的發(fā)展應遵循以人為本的理念,尊重人的尊嚴、權(quán)利和自由以及文化多樣性,讓技術真正能夠為人們所用,給人們帶來價值。另一方面意味著人工智能與人類之間不是非此即彼的取代關系,而是可以成為人類的好幫手,增強人的智慧和創(chuàng)造力,實現(xiàn)和諧的人機關系。此外,可用性還意味著包容性,要求技術賦能于人,尤其是殘障人士等弱勢群體及少數(shù)族裔。

      確保公平正義,防止偏見和歧視,是可用性的一個基本要求。這意味著人工智能應公平、平等地對待每一個人,避免造成不公平歧視,加劇或者固化社會不公平。一方面,應踐行“經(jīng)由設計的倫理”(ethics by design)理念,即將隱私、公平、安全、非歧視、福祉等倫理價值的保障融入到AI產(chǎn)品、服務的設計當中,確保算法的合理性和數(shù)據(jù)的準確、時新、完整、相關、無偏見和代表性,并采取技術方式識別、解決和消除偏見。另一方面,應制定解決歧視與偏見的指南和原則,并可通過倫理審查委員會等方式發(fā)現(xiàn)、解決潛在不公平歧視。

      第二,可靠(reliable)。人工智能應當是安全可靠的,能夠防范網(wǎng)絡攻擊等惡意干擾和其他意外后果,實現(xiàn)安全、穩(wěn)定與可靠。在該原則之下,一方面人工智能系統(tǒng)應當經(jīng)過嚴格的測試和驗證,確保其性能達到合理預期;另一方面人工智能應確保數(shù)字網(wǎng)絡安全、人身財產(chǎn)安全以及社會安全。

      就數(shù)字網(wǎng)絡安全而言,可靠性意味著,人工智能應遵守隱私法律要求,加強隱私保護和數(shù)據(jù)安全,保障個人對數(shù)據(jù)的控制,防止數(shù)據(jù)濫用。在技術上,人工智能應遵循“經(jīng)由設計的隱私”(privacy by design)理念,采取加密、匿名化等技術措施加強隱私保護,探索隱私友好型的機器學習方法,如聯(lián)邦學習(federated learning)。

      第三,可知(comprehensible)。人工智能應當是透明的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。人們對技術的信任來源于對技術的理解。然而,現(xiàn)代人工智能系統(tǒng)越來越成為一個“黑盒”,甚至有時連研發(fā)人員都無法理解它們的造物?!犊茖W》雜志將破解這一“黑盒”視為人工智能領域的重大難題,為此,研發(fā)人員需要致力于解決人工智能“黑盒”問題,實現(xiàn)可理解、可解釋的人工智能算法模型。

      為了實現(xiàn)可知性,不同主體如消費者、政府等需要的透明度和信息是不一樣的,還需要考慮知識產(chǎn)權(quán)、技術特征、人們的技術素養(yǎng)等事項。一般而言,對于由人工智能系統(tǒng)做出的決策和行為,在適當?shù)臅r候應能提供說明或者解釋,包括背后的邏輯和數(shù)據(jù),這要求記錄設計選擇和相關數(shù)據(jù),而不是一味追求技術透明。技術透明或者說算法透明不是對算法的每一個步驟、算法的技術原理和實現(xiàn)細節(jié)進行解釋,簡單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術安全應用。更進一步,考慮到AI的技術特征,理解AI系統(tǒng)整體是異常困難的,對理解AI作出的某個特定決策也收效甚微。所以,對于現(xiàn)代AI系統(tǒng),通過解釋某個結(jié)果如何得出,而實現(xiàn)透明將面臨巨大的技術挑戰(zhàn),也會極大限制AI的應用;相反,在AI系統(tǒng)的行為和決策上實現(xiàn)有效透明將更可取,也能提供顯著的效益。

      此外,在發(fā)展和應用人工智能的過程中,應為社會公眾參與創(chuàng)造機會,并支持個人權(quán)利的行使。一方面,由于人工智能對個人和社會的潛在影響,確保社會公眾能夠參與到人工智能的研發(fā)和應用活動中是至關重要的。為此,社會各界應為公眾參與創(chuàng)造機會,諸如用戶反饋、用戶選擇、用戶控制等,也包括利用人工智能系統(tǒng)的能力促進公平賦能和公眾參與。另一方面,公眾參與也可以通過行使個人權(quán)利的方式來實現(xiàn)。為此,需要尊重數(shù)據(jù)保護和隱私權(quán)、表達和信息自由、非歧視等個人權(quán)利。同時,對于人工智能作出的決策,在適當?shù)臅r候提供異議和申訴機制以挑戰(zhàn)這些決策;對于人工智能造成的損害,提供救濟途徑并能追究各參與方的法律責任。

      最后,還需要保障個人的信息自決,比如,確保個人能夠合理知曉其在與人工智能系統(tǒng)直接互動、其為人工智能系統(tǒng)提供了個人信息等,并就人工智能系統(tǒng)的目的、功能、限制、影響等向用戶提供相關信息,以保障用戶對人工智能的預期和一般性控制。

      第四,可控(controllable)。人工智能的發(fā)展應置于人類的有效控制之下,避免危害人類個人或整體的利益。短期來看,發(fā)展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負面影響,確保這些風險和負面影響是可控的,并在風險發(fā)生之后積極采取措施緩解、消除風險及其影響。只有當效益和正面價值顯著超過可控的風險和消極影響時,人工智能的發(fā)展才符合可控性的要求。此外,“可控”還意味著,在人與機器關系中,對于機器所作的決定及其后果,需要考慮由人來承擔最終責任,以確保人機共生的社會不失范。

      長期來看,雖然人們現(xiàn)在還無法預料通用人工智能和超級人工智能能否實現(xiàn)以及如何實現(xiàn),也無法完全預料其影響,但應遵循預警原則(precautionary principle),防范未來的風險,使未來可能出現(xiàn)的通用人工智能和超級人工智能能夠服務于全人類的利益。此外,可控性要求人們必須考慮人工智能應用的邊界和底線問題,對人工智能技術的武器、監(jiān)控、人類增強等特殊用途進行限制和規(guī)制。

      當然,信任的建立,需要一套規(guī)則體系,倫理原則的確立只是起點(圖 1)。最左端是軟法性質(zhì)的規(guī)則,包括社會習俗、道德規(guī)范、行業(yè)自律等;往右是強制性規(guī)則,比如規(guī)制組織內(nèi)行為的法律(如公司法),適用于工業(yè)產(chǎn)品的標準,針對醫(yī)療、金融、貿(mào)易等細分領域的監(jiān)管規(guī)范,等等;再往右是刑法的威懾;最右端是國際法,比如禁止生化武器的國際公約。對于人工智能,人們需要一套類似的規(guī)則體系。在這些原則之下,人們可以探索制定標準、法律、國際公約等。在技術倫理的最新發(fā)展階段,未來將可能出現(xiàn)一系列圍繞數(shù)據(jù)和人工智能算法的法律規(guī)范。需要遵循以下幾個原則:

      第一,避免采取統(tǒng)一的專門監(jiān)管。企圖為所有的人工智能應用制定統(tǒng)一的監(jiān)管框架是不現(xiàn)實的,各個行業(yè)的專門監(jiān)管機構(gòu)最能評估人工智能對特定領域的影響并采取適宜的監(jiān)管措施。

      第二,采取包容審慎、敏捷靈活的規(guī)制方式。技術以及商業(yè)模式快速發(fā)展和迭代,草率的立法不可能期待會產(chǎn)生正面的效果,而且成文或?qū)iT的立法恐難跟上技術步伐,故應避免嚴格、細致的法律要求,而是可以采取事后監(jiān)管或者通過出臺標準、行業(yè)公約、倫理框架、最佳實踐、技術指南等調(diào)整人工智能等新技術的發(fā)展應用,支持行業(yè)自律。

      第三,遵循分階段的監(jiān)管思路。例如,在落實具體監(jiān)管措施時,應首先考慮人工智能給公共安全和消費者帶來的風險是否可以通過既有的監(jiān)管框架來調(diào)整;其次應當考慮這些既有的監(jiān)管框架是否可以充分且有效地規(guī)制這些風險;如果一項風險游離于既有監(jiān)管框架之外,最后才應當考慮是否需要對監(jiān)管框架作出修訂或增加,以便更好地應對人工智能帶來的獨特問題。

      猜你喜歡
      倫理人工智能人類
      《心之死》的趣味與倫理焦慮
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      共和县| 洪江市| 清水河县| 平湖市| 竹溪县| 咸丰县| 栾川县| 上虞市| 石渠县| 芒康县| 施甸县| 西贡区| 萍乡市| 乐平市| 句容市| 霍州市| 筠连县| 忻州市| 商水县| 长汀县| 含山县| 阿图什市| 阿鲁科尔沁旗| 乌兰察布市| 城市| 克拉玛依市| 鹤壁市| 蓝山县| 囊谦县| 浪卡子县| 项城市| 泊头市| 昭觉县| 子长县| 浠水县| 南陵县| 南投市| 黄大仙区| 天等县| 张家港市| 兰考县|