龍 嶺
(蘇州科技大學馬克思主義學院,江蘇蘇州 215009)
近年來,人工智能技術(shù)突飛猛進,機器人、圖像識別、語音識別、指紋識別和人臉識別等人工智能技術(shù)應用廣泛。機遇與挑戰(zhàn)并存,技術(shù)進步與應用發(fā)展的同時也引發(fā)了不少實際問題和矛盾風險,人類社會道德秩序甚至遭到前所未有的倫理挑戰(zhàn)。處理好人機關(guān)系實質(zhì)上就是處理好科技和社會協(xié)調(diào)發(fā)展之間的關(guān)系,如何劃定人工智能發(fā)展的道德邊界,倫理學應該在場。本文試圖在倫理學視域下探究人工智能技術(shù)發(fā)展中潛在的倫理問題,并提出相應的對策。
追溯人工智能的起源,1950 年英國“計算機科學之父”艾倫·圖靈提出了“圖靈測試”:假定一臺機器通過電傳設備的顯示方式,能在5 分鐘內(nèi)回答由人類測試者提出的一系列問題,并且有超過30%的測試者認為是人類在作答,那么這臺機器就通過了測試,這臺機器具有智能[1]。這一測試使得圖靈能夠說明一種可能性:能創(chuàng)造具有真正智能的“思考的機器”①1950年圖靈發(fā)表在論文《計算機器與智能》(Compu-ting Machinery and Intelligence)提及的“智能”概念僅為粗略描述,并無準確清晰的定義。。機器真的能思維嗎?一旦機器語言通過了“圖靈測試”,人們分不清正在交談的對象到底是機器還是人,這種真假難辨的情境令人產(chǎn)生恐慌和焦慮,不得不引發(fā)人類對人和機器關(guān)系的重新認識和思考。
1956 年,約翰·麥卡錫在達特茅斯會議上首次提出了“人工智能”(Artificial Intelligence,簡稱AI)這一術(shù)語。所謂人工智能技術(shù)就是人類制造模仿人類的機器,使其具有能讀懂語言、創(chuàng)建抽象概念等智能特征的科學技術(shù)[2]。
當前,人類對AI 領(lǐng)域一直持續(xù)關(guān)注,依托AI 技術(shù)高效推動技術(shù)創(chuàng)新和生產(chǎn)應用,“智慧+”生活正加速人類和世界的發(fā)展進程,并勾勒出未來生活的圖景和無限可能。然而,現(xiàn)實中“機器替代人類”的現(xiàn)象屢有發(fā)生,特別是在勞動服務方面。馬克思認為,勞動是人的本質(zhì),是凸顯人的社會性的活動。一旦制造、服務等行業(yè)使用智能機械、機器人實現(xiàn)某些工作自動化,如自動駕駛的汽車改變出租車和共享汽車雇傭模式等,“機器換人”的態(tài)勢必然會導致部分人陸續(xù)被迫喪失勞動機會,加劇社會就業(yè)難和失業(yè)問題。懷著樂觀主義精神的人們贊同“勞動是從制造工具開始的”[3]。隨著AI 高效運轉(zhuǎn)的生產(chǎn)模式對具體勞動的影響不斷增大,重復單調(diào)、繁重、危險性的體力勞動逐漸由自動化機器替代完成。計算機和數(shù)學的發(fā)展推動了AI 技術(shù)的完善,讓AI 變得比人類更快速、更智能地處理那些龐大復雜的信息。從長遠看來,這種替代效應能讓人們擁有更多的自由時間和精力從事腦力勞動、創(chuàng)造性的工作,從而追求個人自由而全面的發(fā)展。
而一些對AI 技術(shù)持悲觀態(tài)度的人則由此產(chǎn)生某些焦慮:假如AI 機器人像人類一樣擁有自己的智慧,或者未來超級智能完全達到并超越了人類智能,必將背叛和反抗人類,甚至會消滅人類;如果AI 機器能模仿人類的感知能力和情緒情感,具備與人類近似的思維和推理能力,就要賦予其同人相等的主體地位,那么“自主”“自由意志”“理性”等概念都或?qū)⒈恢匦露x??v觀人類歷史的技術(shù)革命發(fā)展進程,在每一次技術(shù)革新中,都讓人不得不重新思考人類的自我認知,并為新的物我關(guān)系而感到焦慮。人工智能的發(fā)展不可逆,而由此產(chǎn)生的倫理風險卻需要人們以合理方式研判減小或規(guī)避,以求人機共生、相得益彰,從而維護社會生活的良序發(fā)展。
AI 技術(shù)發(fā)展帶來的潛在倫理挑戰(zhàn)主要涉及智能機器可能造成威脅生命安全、個人信息泄露、挑戰(zhàn)人類智能等方面問題。
無人駕駛或自動駕駛技術(shù)是現(xiàn)代社會極為關(guān)注的AI 技術(shù)應用之一,也是未來駕駛的發(fā)展趨勢和時代新風尚。具有自主性和智能化的自動駕駛技術(shù)一旦得以應用和普遍推廣,必須要有完善的倫理規(guī)范和法律法規(guī)為其提供保障和道德指引。否則,人類終究會因無法有效應對倫理學上的“電車難題”①“電車難題”(Trolley Problem)最早由英國哲學家菲利帕·福特(Philippa Foot)于1967年提出。,而陷入道德兩難困境,甚至造成極為嚴重的人身危害。
倫理學著名的“電車難題”提出:假定一輛電車行駛途中失控,其原軌道有5人被綁在鐵軌上,如果司機繼續(xù)行駛則致使5 人全部喪命;如果司機變道至另一條也有1人被綁的軌道,就會讓這一人死亡。如此,無論行駛哪一條軌道,都會造成人身安全受損[4]。倫理學研究對此案例一般有兩種考量:以功利論為依據(jù)認為犧牲較少數(shù)人的利益維護多數(shù)人的利益;而以義務論為依據(jù)的人則認為生命安全人人平等,以犧牲少數(shù)人生命來救助他人生命違背了人道主義精神。此外,與自動駕駛關(guān)聯(lián)性更緊密的是“隧道難題”:乘客乘坐一輛自動駕駛汽車正駛?cè)雴涡械浪淼溃谒淼廊肟谔幫蝗挥幸粋€兒童跑到了路中央,此時自動駕駛汽車是選擇繼續(xù)駛向入口撞向兒童,還是應該選擇急速轉(zhuǎn)向撞到隧道兩旁的墻壁,造成汽車內(nèi)乘客的生命危險[5]。
自動駕駛技術(shù)或?qū)⒊蔀锳I 技術(shù)發(fā)展面臨的新“電車難題”,即在遇到無法預測或無法避免的傷害情形中,自動駕駛程序應首先保護車外路人還是車內(nèi)乘客。實質(zhì)上,新“電車難題”涉及的倫理問題最直接和最根本的是智能機器對生命安全的威脅。“特斯拉事件”②2019 年5 月特斯拉自動駕駛安全事故造成駕駛員不幸死亡,汽車在事故中啟動自動駕駛功能并在無任何規(guī)避措施的情形下,直接撞上了路邊的卡車。讓人們對自動駕駛汽車的安全性產(chǎn)生了進一步的懷疑。
新“電車難題”相比經(jīng)典難題又有所不同,經(jīng)典“電車難題”的道德判斷和道德選擇的主體是人,而無人駕駛情景下道德決策是由駕駛程序的人工智能系統(tǒng)決定。如果程序先前已被設定,現(xiàn)實情景中不論發(fā)生何種變故,都將按照既定倫理原則做出判斷和選擇,倫理責任也自然歸咎于無人駕駛?cè)斯ぶ悄艹绦虻脑O計者。這就要求設計者不僅技術(shù)過硬,倫理學知識儲備也必須扎實,才能嵌入合理恰當?shù)膫惱碓瓌t到算法系統(tǒng)中。此外,經(jīng)典“電車難題”的道德選擇直接影響的是軌道上的多數(shù)人或少數(shù)人的利益,不會影響決策者自身利益。而在無人駕駛情境下的購買者和使用者是道德選擇的決策者兼直接利益相關(guān)者,他會極大可能考慮到自身利益而選擇購買和使用有利于保護自身的無人駕駛汽車,畢竟沒有消費者會為一輛隨時會讓自我喪命的汽車買單。
伴隨云計算、大數(shù)據(jù)、5G 等網(wǎng)絡媒介技術(shù)的迅猛發(fā)展,當代人迎來了網(wǎng)絡刷屏新時代[6]。網(wǎng)絡時代的信息來源和傳播途徑多元而泛濫,大量信息被收集置于開放、共享的空間中。機器雖然能夠?qū)W習和處理龐大復雜的數(shù)據(jù)和信息,但終究難以有等同人類的思維和情感,容易將個人信息列為公共信息造成個人隱私泄露。尊重個人信息權(quán)和隱私是社會各界廣泛關(guān)注的問題,我國《民法總則》明確規(guī)定了隱私權(quán)是自然人享有的人格權(quán),且個人信息權(quán)亦受法律保護[7]。
如何在智能化、信息化的時代有效保護公眾的個人信息權(quán),技術(shù)倫理的探討從未停歇。人們普遍認為,在處理信息共享與個人權(quán)利的關(guān)系上,知情同意可以適當避免個人信息權(quán)被侵害。知情同意原則要求數(shù)據(jù)采集者在開始采集之前首先需要征得個人同意和授權(quán),告知數(shù)據(jù)后續(xù)的用途和價值。然而,一方面,數(shù)據(jù)的潛在價值未來可能遞增,征得同意時不可能當時就要求人們同意這些數(shù)據(jù)未來可能產(chǎn)生的價值[8]102。另一方面,在數(shù)據(jù)規(guī)模極為龐大的情況下,又不可能征得人人同意,比如某平臺利用大數(shù)據(jù)預測流感病毒情況時,很難無一遺漏地征得全球所有用戶同意;又比如某社交平臺運行時,應用授權(quán)在征得同意時條款不明晰而造成知情不完全等問題??偠灾?,AI 技術(shù)愈強大,個人信息權(quán)愈易受侵犯,不論是知情同意原則亦或利用技術(shù)上的模糊化和匿名化,都難以做到很好的保護[8]103。
“機器換人”現(xiàn)象讓我們見識了AI 超強的深度學習能力,具有自主意識的超級智能或許不再是“天方夜譚”。未來可能擁有與人類高度相似的具有自我意識的智能機器,不僅具有“類人腦”的內(nèi)在結(jié)構(gòu)仿造,還有深度學習模擬人類大腦信息過程的思維功能模擬。
從本質(zhì)來看,人工智能是對人腦思維過程的模擬。在人機交互實踐中,AI機器可通過自動認知、決策和行為完成任務,一定程度上顯示出某種“主體性”,成為一種介于人類主體與一般事物之間的實體[9]。
2017 年,機器人“索菲亞”在“未來投資倡議”大會①未來投資倡議峰,由沙特阿拉伯經(jīng)濟和發(fā)展事務委員會主席發(fā)起,旨在探索塑造未來全球經(jīng)濟并驅(qū)動沙特經(jīng)濟改革的投資領(lǐng)域和發(fā)展路徑。上被授予沙特國籍,成為史上首個擁有“公民”身份的機器人[10]。創(chuàng)新技術(shù)而制造的機器竟輕而易舉就獲得公民權(quán)利,引發(fā)社會對“機器人權(quán)利”的熱議。機器人被人類創(chuàng)造出來的那一刻就擁有了生命,是一種人工生命。而從某種角度看,“我們的身體就是機器。它是一個非常復雜的機器,比人工制造的機器要復雜許多倍,但它畢竟還是機器”[11]。身體內(nèi)部的各個器官、組織、細胞等構(gòu)成的“小零件”就像是一個機器,但問題不在表面的結(jié)構(gòu)形式,而在于這種機器沒有思維。智能機器的出現(xiàn),使一些學者開始反思思維是否只是屬于人的活動。
值得一提的是,對智能機器人主體性問題的討論必然涉及倫理學上道德主體責任問題,如果賦予智能機器以主體地位,一旦發(fā)生危害的道德行為,機器人能否承擔責任;設計者和應用者是否共同承擔責任,又如何分配他們之間相應的責任。AI 設計和應用中的責任主體不確定就難以追責,涉及的公平正義原則就會失去原有意義,將造成社會發(fā)展的不均衡,帶來更大的倫理風險與挑戰(zhàn)。
以何種倫理原則指引AI 技術(shù)設計和應用并有效應對潛在倫理問題,將直接影響人類未來命運。AI技術(shù)倫理研究是應用倫理學的研究領(lǐng)域,將倫理道德原則嵌入到技術(shù)領(lǐng)域的舉措勢在必行。
人與物之間的根本區(qū)別在于人作為實體是自在目的,是自身行動的目的及現(xiàn)實世界的必然存在[12],而非手段和工具;物是手段,機器只是處理事實的工具,是“為人”的,為人類所用,并不構(gòu)成創(chuàng)造性活動。機器是人類的智能或意識的模擬,本質(zhì)上只是人類智能或人類智慧的延伸,而非新的智能。人類不可能無條件地承認并賦予智能機器以權(quán)利,而要與社會核心價值體系保持一致,AI 不得故意傷害人,應以人為中心,以保護生命安全權(quán)為前提,以為人類造福為最終目的而滿足人類需要。
人類對待AI 的態(tài)度決定了未來技術(shù)發(fā)展的廣度和深度。在AI 倫理規(guī)制研究的道路上,尤德科斯基的“友好型人工智能”為我們提供了方向:“人類進化事實上就是信息體的進化,人實質(zhì)上就是與人工智能一樣的智能體存在”[13]。友好型AI 意味著我們對待發(fā)展迅速且無法預期未來極限的AI 技術(shù),要像對待人類自身那樣,將自身的價值和意義投射到對AI 的實際運用中,并非機械地給AI 植入人類倫理道德規(guī)則。工具具有兩面性,人類需要理性對待AI 技術(shù),根據(jù)自身意愿與人工智能相互合作共贏。如果極端而強勢地排斥技術(shù),則會陷入固步自封的境地,而極端依賴工具又會消解自身價值和意義。
人工智能是現(xiàn)代和未來社會發(fā)展的強大驅(qū)動,陸續(xù)成為各國國家發(fā)展戰(zhàn)略的新領(lǐng)域,“智能+”的標簽讓社會生產(chǎn)生活進入了新階段。AI 技術(shù)廣泛應用所涉及的網(wǎng)絡安全、個人信息、公平公正等社會風險必定要納入國家發(fā)展戰(zhàn)略計劃的相關(guān)倫理規(guī)范和法律體系中考量。
一方面,國家立法機構(gòu)和法律專家應在倫理和主體性哲學研究基礎上,適時出臺并完善《人工智能法》等相關(guān)法律法規(guī)、倫理規(guī)范和政策體系,以良法促進技術(shù)發(fā)展。如自動駕駛導致行人傷亡時,究竟應如何定罪,主體責任由誰承擔;立法原則是選擇保護技術(shù)創(chuàng)新為主還是保護公眾生命安全為主,都應該深入研判。另一方面,施行公開透明的AI 監(jiān)管,開放社會輿論監(jiān)督監(jiān)管平臺。面對信息共享時代紛繁復雜的數(shù)據(jù)泛濫問題,AI 技術(shù)要在個人信息收集、存儲、處理、使用等各環(huán)節(jié)設置道德邊界和底線,在數(shù)據(jù)挖掘中尋找有價值的見解;尊重和保護個人信息權(quán),完善個人同意授權(quán)和數(shù)據(jù)撤銷機制,充分保障個人的知情權(quán)和選擇權(quán),反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為,由此減輕公眾對人工智能安全的憂慮,最終形成人與人工智能良性互動的局面。
AI技術(shù)倫理建構(gòu)需要多方參與、協(xié)同合作建設和管理。人機融合發(fā)展就是要依托AI 技術(shù)發(fā)揮機器智能化作用,補齊人類智能在信息搜索、收集、處理、記憶等方面的短板,將人類智能與人工智能高效結(jié)合,解決因社會發(fā)展而產(chǎn)生的各種問題。
第一,改變舊式思維模式。我們無需抗拒AI 良性發(fā)展,而應意識到AI 給人類帶來福音還是災難,實則根本取決于人類自身,而不是機器本身[14]。人類要不斷優(yōu)化AI 技術(shù)層面的可持續(xù)性,借助技術(shù)逐步提高社會生產(chǎn)率,解放人類雙手,使勞動的表現(xiàn)形式不再簡單粗糙,推動人的解放。
第二,優(yōu)化人機合作關(guān)系。人類和AI 技術(shù)不應對立,應當建立相互適應與相互信任的機制。面對突發(fā)事件,人由情感支配喚起理性作出道德判斷和道德選擇,對比之下,人工智能則表現(xiàn)得相對機械,因而常常容易形成偏見。因此,讓AI 技術(shù)在學習、儲存、語言、計算、生產(chǎn)、模仿等方面發(fā)揮最大特長,思維、情感等方面只需交給人類。同時,人類自身的思維模式和大腦知識儲備也應當開拓進取,不斷追求人類知識界限,超越自己并全面發(fā)展。
第三,他律與自律相結(jié)合。在人工智能道德規(guī)范法律法規(guī)、倫理道德和標準規(guī)范制度框架下,企業(yè)應加強AI 管理和AI 倫理道德教育,增強企業(yè)社會責任感和企業(yè)個人自律意識;重視利益再分配,通過道德譴責和法律制裁相結(jié)合的方式合理謹慎地權(quán)衡利益,減少AI 技術(shù)給社會帶來的利益風險和沖擊,興利除弊地推進未來智能技術(shù)向增進人類福祉的方向前進。
人工智能技是把“雙刃劍”。人類在享受人工智能紅利的同時必須要認識到未來科技發(fā)展的不確定性,需要審視人工智能潛在的倫理問題。目前對人工智能技術(shù)的倫理探究僅僅作為社會人倫和道德規(guī)范指引,尚且處在具體制度設計和框架體系的基礎環(huán)節(jié)。未來超級智能想要實現(xiàn)更高層次的應用和飛躍式發(fā)展,還將涉及哲學、心理學、語言學等社會科學與計算機科學、數(shù)學等學科的交叉研究。正如人類從未停止對科技的探索一樣,對人工智能技術(shù)倫理的深入也亟待豐富和完善。