• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      科學史視域下人工智能的倫理反思及管控啟示

      2020-12-13 16:03:49安爍羽商光美
      關鍵詞:倫理人工智能人類

      安爍羽 商光美

      (1. 上海交通大學馬克思主義學院, 上海 200240;2. 福州大學馬克思主義學院, 福建福州 350108)

      21世紀的人工智能構建了全球性的變革,其迅速性和便捷性帶來包括倫理在內(nèi)的新挑戰(zhàn),在造福人類的同時,也帶來潛在的威脅,人們不僅關注科技創(chuàng)新帶來的文明智慧,更需要對其帶來的科技倫理和道德問題給予重視。

      一、人工智能倫理的重要緣起

      人工智能觸及人們傳統(tǒng)的的價值觀,它的濫用會不可避免地沖擊現(xiàn)有的倫理,作為維持人類發(fā)展的基石,科技價值固然很高,但是倫理觀念中離惡向善的共性也不可拋棄,人類的發(fā)展史就是在科技與倫理之間維持自己與他人的天性中不斷進化發(fā)展起來的。

      (一)人工智能威脅論

      隨著人工智能的發(fā)展,大批企業(yè)使用機器流程自動化技術,手工作業(yè)被自動化取代,此舉將會增大重復度高、取代性強的工作崗位對應的工作人員失業(yè)風險率。在此過程中可能遇到顯著的短期風險,如算法漏洞存在安全隱患、算法偏見導致歧視性政策的制定等,也可能面臨潛在的長期風險,如對產(chǎn)權、競爭、就業(yè)甚至社會結構的影響。對于許多技術奇點論者面言,“智能”是至關重要甚至唯一的標尺;人類智能被視作這個標尺上的一個里程碑式的節(jié)點,一旦人工智能跨越了這個節(jié)點,技術奇點就將到來,威脅也隨之降臨。[1]當科技的發(fā)展取代人類的勞動,人類可選擇的崗位逐漸減少,產(chǎn)業(yè)發(fā)展趨勢也漸漸從勞動密集型向智能集約型過渡,傳統(tǒng)意義上的勞動力也由個人逐步向機器轉變。人類對于科技成就生活之美的向往并沒有在現(xiàn)實中得到體現(xiàn),反而感受到人工智能技術對于自身的威脅。在這樣的狀態(tài)下,社會貧富差距將會進一步擴大,導致周期性貧困和收入不平等。若財富分化懸殊,小部分工作者所得財富遠大于多數(shù)失業(yè)者,必將導致失業(yè)群體的不滿,激化社會矛盾。[2]人類的思維不斷被人工智能技術奴役,依賴現(xiàn)有科技所能提供的服務和幫助,對其依賴程度上升,對新鮮事物的敏銳程度和學習能力減退,最終影響人類靈感的迸發(fā)以及對于世界的革命性改造,也從倫理角度對人們提出警示。

      (二)科技倫理的缺失

      人工智能為核心的新技術的應用,使遵循理性規(guī)則的機器在一次次贏取與人類的較量后,自主程度逐漸提高,但其永遠無法與人類具有相同的價值觀,當偏離人類預期,道德價值逐漸消失,傳統(tǒng)的倫理就會被綁架。人們不應僅贊嘆科技創(chuàng)新所蘊含的文明智慧,更多的是要重視其裹挾的科技倫理道德問題并進行思考。人類不是瞬息的單調(diào)的去生活,永恒才是人類繼續(xù)生存和繁衍的基礎,而這個基礎就是“善”。英國物理學家史蒂芬·霍金教授曾認為開發(fā)完全的人工智能,具備自我啟動與高速自我更新能力,而人類受到緩慢的生物進化限制,無法與之競爭,最終人可能將會被取代,導致人類滅亡。當人工智能作為獨立的個體可以做出自己的決定,便具有了“自主意識”,也就無法保證它的想法與人類一致。此時,它的能力將全面超越人類時,不再是被人類控制的“工具”。假想有一天,人工智能技術已經(jīng)成熟到能夠輕松掌控整個世界的脈絡,進而控制了人類的思想,這就導致倫理道德觀念發(fā)生徹底的轉變,因為原先人類主宰的社會所設定的道德倫理準則都是建立在人類具有獨立思想的基礎上,是為人類的認知和意識所主導的,而當人類被人工智能所控制,取代人類成為社會的主宰者,人類所具有的意識形態(tài)就不再尊崇內(nèi)心真實的想法,而是在人工智能的控制和擺布之下所產(chǎn)生,那先前形成的認知觀念將被顛覆,價值體系也將被推翻。

      二、人工智能倫理的主要挑戰(zhàn)

      隨著時間的推移,科技與人文的異化作用愈發(fā)顯著,造成其背后所隱藏的弊端逐步顯露,尤其是對于社會倫理的挑戰(zhàn),當這種技術延伸到個人隱私的侵犯、性別的偏見與歧視、公眾安全威脅等道德倫理方面,人類可能就會在統(tǒng)治了數(shù)億年的自然環(huán)境中失去主動權。

      (一)基于自身利益的挑戰(zhàn)

      除了算法在實際運行過程中所遇到的不可預見問題,自身利益是倫理利己主義這一道德理論的唯一基礎。[3]對于智能算法,基于自身的利益, 程序員的任務是解決如何使機器能夠很好地學習去完成任務,就利益本身而言,也可能成為引起安全問題的一大因素。無人駕駛傳感器尚未開發(fā)自我清潔功能,導致無法在雨天進行相應測試,真正實現(xiàn)全天候自動駕駛依舊存在諸多困難和挑戰(zhàn),需要一定的時間等待技術的完備,試想如果企業(yè)出于自身利益脫離道德標準的束縛,將尚未成熟的技術推向市場,勢必會觸發(fā)安全隱患。如果把人工智能看作是物質上的東西,那么它隨時可能成為危害人類的可怕工具。任其無約束地發(fā)展,它的潛在成果既有可能造福人類,更有可能摧毀人類生存環(huán)境和打破社會秩序。正如江曉原教授所說,科學只是工具,我們的目的是追求人的幸福,如果因為急于發(fā)展某項科學技術而危害了人們的幸福,那就是本末倒置。[4]

      (二)基于技術本身的挑戰(zhàn)

      人工智能的核心是大數(shù)據(jù)和算法,通過基于算法的大數(shù)據(jù)分析,實現(xiàn)數(shù)據(jù)驅動的人工智能決策。算法從設計、訓練到使用,算法的訓練數(shù)據(jù)不能完全覆蓋應用場景的所有情況、處理步驟無法保證完全按照原始步驟進行以及允許錯誤率存在一定的彈性等問題。目前的人工智能發(fā)展領域,最引人關注的是無人駕駛技術。作為優(yōu)先考慮的安全問題,無論在何種情境下,系統(tǒng)必須用最完備的方案保證他人的人身與財產(chǎn)避免因算法失誤導致危險情況的發(fā)生。盡管對危險源有大概認知, 但對其范圍難以清晰加以定義而產(chǎn)生的潛在額外風險。[5]很多時候算法也具有局限性和不可預見性,2018年3月18日,Uber發(fā)生一起無人駕駛汽車致死事故,起因是這輛車的傳感器在探測到一位行人正在橫穿馬路的情況下,自動駕駛系統(tǒng)沒有及時采取緊急避讓措施。這起事故從表面上看是由技術問題所引起,在出現(xiàn)上述緊急情況時,系統(tǒng)所執(zhí)行的算法依然無法脫離對人的依賴而做出相應調(diào)整,實現(xiàn)相對合理的應急處置,而這也正是其做出錯誤選擇的原因。事實上,安全隱患的背后所折射出的是道德倫理的問題。

      (三)基于隱私保障的挑戰(zhàn)

      人工智能的開發(fā)依托各種渠道收集海量數(shù)據(jù),在獲取數(shù)據(jù)過程中不可避免地會侵犯到人們的各種隱私。因為數(shù)據(jù)的采集與使用會無意間忽略人們對個人數(shù)據(jù)的控制權和個人的自主權,同時很多數(shù)據(jù)也并不是專門搜集并完全服務于原始目的?!皳Q臉”軟件ZAO一度引發(fā)人們對于人工智能換臉技術和用戶隱私保護話題的討論,用戶可以上傳自己的照片,通過人工智能換臉功能,讓自己變成熱門影視劇中的男女主角,隨后還可以將小視頻分享到社交平臺。隨著相關算法的深入,這種人臉圖像和視頻的偽造度更加真實,潛藏的用戶數(shù)據(jù)安全和隱私方面的風險也越來越大。就像潘多拉魔盒,一旦打開,有驚喜,也有風險。倫理是人和人,人和社會,人與其他物種相處遵守的規(guī)則,而目前,這原本稀缺的信任關系被一些新技術推向深淵,讓人與產(chǎn)品之間的信任關系降低,矛盾沖突顯現(xiàn)。無獨有偶,斯坦福大學計算機系的一名教授聲稱通過人工智能技術能夠實現(xiàn)“同性戀面部特征識別”,可以更加準確地判斷出同性戀信息,消息傳出,引發(fā)大量批評,因為這會對同性戀群體造成潛在的威脅。雖然這位教授使用的數(shù)據(jù)部分來自于在社會調(diào)查中主動公開出柜的人,但同樣還存在大量未公開自身性取向的同性戀群體,如果通過其他手段索取他們的數(shù)據(jù)用于研究,將會對該部分群體的隱私造成侵犯,而這本身就與人類社會固有的倫理和道德背道而馳。

      (四)基于平等公平的挑戰(zhàn)

      隨著人類文明水平的不斷進步,社會發(fā)展水平的不斷提高,公平成為文明社會的標志之一,也是社會體系構建過程中最基本的一條準則。公平的意義在于不同地區(qū)、不同人種以及不同身份的人在面對同一件事情時能夠被同等的態(tài)度對待,然而人工智能技術的引入讓不公平的一面再次顯現(xiàn)。通過一項關于家庭場景中人臉識別的實驗發(fā)現(xiàn),人工智能技術存在一定的思維定式,家庭場景元素的特殊性總是與性別直接相關。例如,在廚房中進行的面部識別測試顯示男性存在一定概率會被錯誤地辨認為女性,原因在于人工智能技術在前期的數(shù)據(jù)訓練過程中,所積累的數(shù)據(jù)具有一定的偏差,產(chǎn)生性別歧視。在訓練過程中所包含的信息可能本身并不具有“代表性”,從而變相導致人工智能技術成為性別歧視的元兇。另外一項科學研究表明,通過使用機器學習算法幫助銀行提供接受還是拒絕房貸的建議時,黑人申請的批準率大大低于白人申請的批準率,這就是人工智能工具存在的“黑箱”般的不透明性。因此,研發(fā)者不僅以高科技的手段和智能化的方式向善地幫助人類,實現(xiàn)原本難以企及的目標,更應該確保在開發(fā)、推廣或應用人工智能的過程中尊重基本權利、原則及價值,加強對女性、特殊群體的關注,為他們提供更具區(qū)別性和包容性的算法方案。

      三、人工智能倫理的風險防控

      當前,人工智能技術的發(fā)展能否擺脫單純對利益的追求,能否正確平衡道德觀念和先進科技的關系,成為未來科技發(fā)展方向的關鍵因素。而決定這一切的基礎就是要辨析人工智能技術背后所蘊含的倫理風險,共建規(guī)制,只有當人類深刻認識到倫理問題的存在,并有意識地從主觀上做出改變,才能從本質上實現(xiàn)科技向善的發(fā)展理念。

      (一)人工智能倫理觀的構建

      在科技迅猛發(fā)展的當下,世界各國都應攜起手來,平衡科技與人文的關系,洞悉人工智能與科技倫理關系,在爭議中尋求治理方案,有道德、負責任地共同應對新科技帶來的挑戰(zhàn)。早在1940年美國科幻作家阿西莫夫就明確提出“機器人三原則”保護人類安全,其中一條便是機器人不得傷害人類,不得看到人類受到傷害而袖手旁觀。[6]人工智能倫理不僅在公司發(fā)展層面受到重視,在學界也同樣掀起一股研究熱潮。2019年3月18日,斯坦福大學成立人工智能研究院,致力于社會影響方面的研究,促進科技與人文的協(xié)調(diào)發(fā)展。Facebook公司資助德國慕尼黑工業(yè)大學建立專門的人工智能倫理研究中心,開展研究工作。國內(nèi)企業(yè)在謀求科技進步的同時,也不斷將倫理觀念融入到發(fā)展進程中。馬化騰在2019年全國兩會上就科技倫理建設建言獻策,提出《關于加強科技倫理建設踐行科技向善理念的建議》。2019年5月《人工智能北京共識》發(fā)布,針對人工智能的研發(fā)、使用、治理三方面,提出了各參與方應該遵循的有益于人類命運共同體構建和社會發(fā)展的15條準則。

      (二)人工智能倫理管控舉措

      人工智能作為新興的科技革命,產(chǎn)生的倫理問題需要人類共同解決,在宗教、哲學、科學等文化現(xiàn)象之間尋求平衡,讓科技倫理達成國際共識。目前對于人工智能倫理研究只有把倫理研究與智能研究并舉,讓研究成果盡快應用到實際中,才能打通人工智能道德倫理最后一公里。一是企業(yè)層面:承擔社會責任,確立人工智能生態(tài)倫理,在開發(fā)技術時用技術與倫理交融的方式觀察、預測、熟悉數(shù)據(jù)權利、數(shù)據(jù)管理、隱私保密、平等自由等領域內(nèi)的倫理原則和道德規(guī)范,保障研究成果遵守安然原則、公正原則、尊重原則、文明原則和可持續(xù)發(fā)展原則。二是政府層面:人工智能技術對政府與公眾雙向賦予權利的同時要強化對他們的雙向約束,完善社會保障體系,保障數(shù)據(jù)安全, 努力防控人工智能導致的技術勢差和不平等風險,在立法和監(jiān)督層面管控日益復雜的算法,處理龐雜的數(shù)據(jù),從人文主義層面布局人工智能發(fā)展規(guī)劃,調(diào)節(jié)技術帶來的倫理道德問題,使機器思維符合人類倫理道德。三是社會層面:人人樹立科技向善理念,除了研究專家,法律、倫理和社會科學學者也應該參與到人工智能的每個步驟,思考所開發(fā)的智能機器技術將會被應用在哪些情境,有哪些違背倫理的可能性,有哪些沒有預計到的后果,提前預見可能出現(xiàn)的倫理道德問題。

      四、科學史對人工智能的啟思

      科學是由自然科學與人文科學組成的,沒有人文精神的世界是不完美的,樹立科學史是作為溝通科學與人文的橋梁這一思想,用智慧對智能技術的發(fā)展方向和負面影響及時預測和評估,將科技倫理風險降低到最小值,重新審視和定義人工智能核心價值觀,遵循科技倫理發(fā)展道路,建立更加持續(xù)性、更加公平性、更加透明性的科技倫理體系。

      (一)科學史與人工智能的聯(lián)系

      近年來,越來越多的認知科學技術的成果被運用于自由意志、倫理責任研究,面對人類與科技合體的趨勢,科技倫理規(guī)范著人工智能在實際應用上科技向善的原則,人文精神,能夠彌補科技理性之不足,保證機器的行為被倫理約束,使人工智能的未來發(fā)展方向與不斷變化、不斷發(fā)展的社會環(huán)境保持一致。美國著名物理學家理查德·費曼說:科學知識使人們能制造很多產(chǎn)品、做許多事情。當然,當人們動用科學做了善事的時候,功勞不僅歸功于科學本身,而且也歸于指導著我們的道德選擇??茖W知識給予人們能力去行善,也可以作惡。它本身并沒有附帶說明。[7]由此可以看出,科學的首要價值是由自然科學與人文科學共同決定,如何利用科技倫理約束它,而不是為了盲目追求利益最大化,觸及道德底線,打破道德倫理與科技發(fā)展的平衡。未來的人工智能技術與互聯(lián)網(wǎng)結合可以超越智能的物理極限如存儲和計算能力,并以難以想象的速度自我進化,從弱人工智能到強人工智能再到超級人工智能,最終失控。[8]

      (二)人工智能的人文要素融入

      關心人本身應當始終成為一切技術上奮斗的主要目標??茖W史家薩頓曾提出,僅僅依靠科學,人類并不能生活得更美好。我們需要清醒地認識到,人類是從文明發(fā)展起來的,沒有人文的科技是不完美的,人文是內(nèi)心的調(diào)和,重在治本,從內(nèi)心去,從原點解決問題,才能引領人類邁向更加美好的生活。把科學與文化結合起來,不能讓科學倫理道德無關的工具來發(fā)展??茖W人性化的最好方式,就是對科學歷史的考察,必須研究它的發(fā)生和進化,這是科學史的使命。隨著科學技術的進步,無論人工智能達到怎樣的大眾化程度,它的發(fā)展都不能離開初衷,科技倫理都應該成為其發(fā)展的最重要部分,促進自然科學與人文科學共同發(fā)展,相互融合與協(xié)調(diào)。

      (三)把握人工智能的向善特征

      在科技實力逐級累進的趨勢下,將人文科學中對人性的思考,道德倫理的觀念充分融入到自然科學中,形成獨特的歷史觀對科學的含義進行重新的定義和解讀。人工智能算法在許多場景的應用都與安全、人權和社會等各方面的問題息息相關,這些領域的算法應用一旦出現(xiàn)漏洞,將直接損害人類社會的根本利益,因而人工智能只有受到人文的指引和倫理的制約,才能最小化地迷失方向,步入正確的發(fā)展軌道。人工智能的未來可以按照人類所指揮的步驟操作進行,完成人類為其設定的目標,達到至善全能的地步,實現(xiàn)正向發(fā)展,這更需要從科學史的視域,審視倫理為技術開發(fā)與研究指明方向起到的關鍵作用,將科技發(fā)展與人類生存的意義緊密結合。

      注釋:

      [1] 李恒威、王吳晨:《人工智能威脅論溯因》,《江科學術研究》2019年第4期。

      [2] 江曉原:《人工智能:威脅人類文明的科技之火》,《探索與爭鳴》2017年第10期。

      [3] [美]雅克·蒂洛:《倫理學與生活》,北京:世界圖書出版公司,2015年。

      [4][8] 江曉原:《你不了解的真相——江曉原說科學》,北京:華文出版社,2019年。

      [5] 翁岳暄、多尼米克·希倫布蘭德:《汽車智能化的道路:智能汽車、自動駕駛汽車安全監(jiān)管研究》,《科技與法律》2014年第4期。

      [6] 梁洪亮:《科學史與方法論》,北京:清華大學出版社,2016年。

      [7] [英]霍金:《宇宙簡史》,北京:中國言實出版社,2008年。

      猜你喜歡
      倫理人工智能人類
      《心之死》的趣味與倫理焦慮
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      護生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      人類正在消滅自然
      奧秘(2015年2期)2015-09-10 07:22:44
      舒城县| 富阳市| 霸州市| 太湖县| 襄汾县| 东乡| 桐庐县| 连平县| 江孜县| 咸阳市| 修文县| 金阳县| 从江县| 星座| 荥经县| 晋宁县| 沈阳市| 嘉荫县| 平和县| 甘肃省| 长白| 鄂托克旗| 镶黄旗| 麻江县| 奈曼旗| 纳雍县| 禹州市| 大邑县| 会同县| 龙门县| 泸定县| 承德县| 上林县| 瓦房店市| 大埔区| 定襄县| 丰顺县| 东乡县| 维西| 赣榆县| 深泽县|