臧炎君
摘 ?要:人工智能是當前科技發(fā)展的一個重要成果,在移動通信、大數(shù)據(jù)技術(shù)基礎上構(gòu)建了“互聯(lián)網(wǎng)+”的生活理念,為人們工作、生活的展開提供了較大便利。然而隨著人工智能涉獵的領(lǐng)域越來越多,人類會否被其取代的爭論也越發(fā)激烈。馬克思曾說社會的發(fā)展必然會以人倫作為犧牲,本文就從馬克思主義哲學視角分析人工智能發(fā)展下所產(chǎn)生的倫理問題,并對如何看待、應對這些可能存在的倫理風險提出建議,以供相關(guān)研究學者汲取借鑒,以推動人工智能更好地造福人類。
關(guān)鍵詞:人工智能;倫理;馬克思主義哲學
中圖分類號:TP3-05 ? ?文獻標識碼:A ? ?文章編號:1673-7164(2022)10-0189-04
信息技術(shù)的發(fā)展讓人們邁進了“互聯(lián)網(wǎng)+”時代,在這個萬物互聯(lián)的時代,人工智能技術(shù)發(fā)揮了巨大作用。從逛街購物到酒店預約、租房找房、出游旅行,各式APP充斥著人們的生活,提高了人們工作生活的便捷性,也讓社會運轉(zhuǎn)模式悄然發(fā)生了改變。人工智能有著遠高于人的精準計算系統(tǒng),能更高效、精準地完成各種數(shù)據(jù)統(tǒng)計分析、機械、運輸、導航等工作,節(jié)約了企業(yè)用人成本的同時,也讓各領(lǐng)域的發(fā)展陷入了倫理上的困境[1]。早在人工智能發(fā)展之前,霍金、比爾·蓋茨等科學、科技領(lǐng)域翹楚就有過類似擔憂,他們認為人工智能有可能取代人類造成人類文明的滅亡。而隨著人工智能的出現(xiàn),許多行業(yè)的消失,如今看來這一推斷并非危言聳聽。相關(guān)人員應當重新審視人工智能的本質(zhì),并以馬克思主義哲學視角厘清其可能對人倫造成的威脅,圍繞具體的倫理風險探尋應對策略,以讓人工智能的發(fā)展限定在服務人類的這層作用中。
一、人工智能的本質(zhì)與技術(shù)緣起
(一)人工智能的產(chǎn)生
人工智能技術(shù)的緣起最早來自人們對于計算機功能的反思。美國數(shù)學家諾伯特·維納提出的控制論可以說為人工智能的產(chǎn)生和發(fā)展做出了最早的奠基。此后,美國數(shù)學家、邏輯學家圖靈在《心靈》雜志上發(fā)表論文《計算機器和智能》,首次提出了“機器能否思維”的問題,并對問題的解答給出了“模仿游戲”的思路,即假設一個人分別對一名男性和一名女性提出問題,提問者要在看不到對方的情況下根據(jù)被提問者的回答判斷二者的性別,過程中被提問者會做出干擾、誤導等行為,最終對提問者的判斷情況展開分析。圖靈認為,如果將被提問者之一換成機器,則其提供的回答是否能對提問者造成干擾且不被發(fā)覺,就是該機器是否具有智能性(思維)的憑據(jù)。而這一測試最終被命名為圖靈測試,現(xiàn)在被廣泛應用在智能機器的智能性測試當中。圖靈測試引發(fā)了計算機研究學者的熱烈討論,之后在1956年美國達特莫茅斯學院的一次學術(shù)會議上,“人工智能”這一術(shù)語正式確立[2]。
(二)人工智能的本質(zhì)
人工智能的本質(zhì)其實就是對人類力量的對象化。從歷史唯物主義的角度來看,實踐就是人存在的方式,是人區(qū)別于其他生物的主要特征——實踐的主體依靠自身的主觀能動性對世界進行對象性的改造,間接推動了社會歷史的前行與發(fā)展。但人工智能不會實踐,其活動缺少主觀性,即沒有目的性、缺乏創(chuàng)造性,也不具備自覺性,也沒有主體客體化的特征,不存在吃、喝的需求及理想、信念,只是人類本質(zhì)力量的對象化,是人通過實踐產(chǎn)生的結(jié)果[3]。換言之,人工智能就是人類主體認知能力轉(zhuǎn)化成認識客體,再對這一客體進行模擬的機器,人們可以用其認識世界并改造世界,它也可以替代部分的人類體力勞動與腦力勞動,但在原則上,其不具備超越甚至統(tǒng)治人類的條件。但當前人工智能的發(fā)展的確涉及了很多領(lǐng)域,對人類社會的維序產(chǎn)生了影響,相關(guān)人員應當引起重視,并予以改進。
二、以馬克思主義哲學角度解構(gòu)人工智能的倫理風險
(一)勞動就業(yè)層面
人的實踐是人存在的主要方式,而勞動又是人類實踐的重要形式,所以社會之所以能穩(wěn)定有序的發(fā)展,與人們安心勞動就業(yè)有著很大關(guān)系。然而人工智能的出現(xiàn)取代了一部分的人力,讓不少人因此面臨著勞動就業(yè)的問題[4]。以往制造工廠的裝配制造需要聘用較多的工人,但自從人工智能機械手進入了工廠解決了工廠生產(chǎn)效率的問題,工廠工人的數(shù)量也在逐漸變少,大批工人返鄉(xiāng),不得不另謀其他職業(yè);服務行業(yè)對人工智能的運用也較多,現(xiàn)在餐廳門口、銀行大廳都有人工智能為消費者/客戶帶去服務,能模仿人的表情、說話語氣,并能促進各種業(yè)務高效、準確的完成,而相比人工智能,人員聘用的成本就要高很多,且工作展開也不如人工智能高效。如朝著這個趨勢繼續(xù)發(fā)展,就會有大量崗位被淘汰,大量人員面臨失業(yè)、無法參與社會勞動的風險,一旦這一天到來,不僅社會的穩(wěn)定性會受到影響,人的社會實踐展開也會因此而放緩。
(二)人的發(fā)展層面
馬克思主義哲學思想認為,人的全面發(fā)展是人一生的最高追求,因此我國在最新的教育改革中反復強調(diào)著德、智、體、美、勞滲透教學的重要性。人工智能的快速發(fā)展方便了人們學習生活的同時,也讓人們免于各種促進素養(yǎng)提升的鍛煉,人們的個體能力隨著人工智能技術(shù)的不斷提高而漸漸退化,這讓人類個體的發(fā)展追求與現(xiàn)實情況進入了矛盾當中。最為突出的例子要數(shù)人們對手機的依賴,如今人們上班、走路、吃飯、上廁所都離不開智能手機,導致其生活中真正擁有學習與鍛煉提升的時間少之又少,大大限制了個體的持續(xù)發(fā)展。加之智能軟件提供的服務多種多樣,其中包含讓大人、學生沉迷的游戲軟件、能打賞的直播間,很多年輕學生在接觸過后就很難走出,讓很多人的發(fā)展只得在眼前止步,這相當于斷送了下一代的前途,很多人因沉迷于虛擬世界而終對現(xiàn)實世界變得麻木。
(三)公民隱私層面
馬克思主義哲學中良好的社會發(fā)展,人與人之間的機會與選擇應當是公平公正的,每個人也都應擁有并能自由支配自己的權(quán)利和義務。然而人工智能的發(fā)展為掌握相關(guān)技術(shù)的不良人員提供了可乘之機,很多人在使用人工智能的過程中都會被他人知曉隱私,人民的隱私受到侵犯,十分不利于社會的穩(wěn)定發(fā)展。而人工智能的發(fā)展要建立在大數(shù)據(jù)的基礎上,換言之,要想讓人工智能發(fā)揮作用,必須要讓其對公民信息進行大范圍的搜集,否則,人工智能服務于人的作用也無法發(fā)揮[5]。若只是聽之任之,公民的隱私就難以得到保障,現(xiàn)在經(jīng)常有人因為使用智能軟件在社交購物軟件上留下痕跡就被竊取個人信息的問題,大大危害了人們的財產(chǎn)安全、名譽,如不能對這一情況進行有力控制,則公民的權(quán)力和義務就會受到威脅,社會的穩(wěn)定也將因此難以保證。尤其如今網(wǎng)絡虛假廣告信息繁多,如不能確保人們的信息安全,人們對政府的信任度也會有所下降。
(四)社會結(jié)構(gòu)層面
馬克思主義哲學理論中,人民群眾是歷史的創(chuàng)造者與推動者,正因為不同個體的意志意向存在不同,其相互往來沖突才衍生出了社會的發(fā)展。然而人工智能的發(fā)展卻潛移默化地改變了原本的社會結(jié)構(gòu),即少數(shù)的科技巨頭掌握了絕大多數(shù)的數(shù)據(jù),他們甚至可以透過對網(wǎng)絡大數(shù)據(jù)的分析對人民的行為(如消費、選擇某一生活方式)進行“操控”,而這將令社會權(quán)力機構(gòu)的工作展開面臨較大挑戰(zhàn),在這一環(huán)境中,個體的行動及其對社會發(fā)展的影響也會產(chǎn)生偏差,進而擾亂社會有序發(fā)展的步伐。最細微的一個例子,當人們在搜索平臺上檢索關(guān)鍵詞時,平臺就可以此來判斷用戶的喜好,并在信息推薦時向該用戶推薦類似的信息,形成了信息繭房,限制了個體的認知發(fā)展,也影響了原有的社會權(quán)利結(jié)構(gòu),讓整個社會的行進節(jié)奏都在少數(shù)人的帶動中展開。
三、應對人工智能發(fā)展下倫理風險的思路與方法
(一)制定相應的倫理準則
盡管人工智能的本質(zhì)不是能夠取代人類的機器,充其量只是人類本質(zhì)力量的對象化產(chǎn)物,其發(fā)展宗旨也是為人類服務,但從其對當今社會不少領(lǐng)域的影響來看,對人工智能發(fā)展所帶來的倫理問題進行干預與應對也是十分有必要的。事實上,近幾年已有多個國家地區(qū)對人工智能進行了倫理準則的相關(guān)研究,并提出了研究報告40余項,可看出對于人工智能的倫理問題,全球基本上已經(jīng)達成了一定的共識。2019年,國內(nèi)發(fā)布了《人工智能北京共識》,就人工智能的研發(fā)與使用等幾個方面提出了15條原則,旨在促進人類命運共同體的構(gòu)建;同年6月,國家新一代人工智能治理專業(yè)委員會就人工智能的發(fā)展提出了8項原則,為人工智能的治理確立了基本的框架,到2021年的9月,國家新一代人工智能治理專業(yè)委員會在中關(guān)村論壇上發(fā)布了《新一代人工智能倫理規(guī)范》,在以人為本、保障安全、保護隱私、明確價值觀等方面與前面的準則取得了高度共識,也算是為人工智能在倫理問題的應對上奠定了良好的基礎[6]。
(二)完善相關(guān)的法律條款
應對人工智能的倫理問題,政府給出預防機制也是十分必要的,主要表現(xiàn)為法律政策的形式。事實上,對這一點,美國、韓國等國家已經(jīng)有了相關(guān)法律法規(guī)的推出,如2019年10月,美國國防創(chuàng)新委員會就推出了《人工智能原則:國防部人工智能應用倫理的若干建議》,就軍事布局中人工智能應用所產(chǎn)生的倫理問題進行了回應;次年,韓國政府制定了人工智能的倫理標準,主要圍繞人的尊嚴的維護和社會公益的保證提出了相關(guān)準則、規(guī)范[7]。我國在這方面應當多多借鑒以上發(fā)達國家所采取的措施,結(jié)合自身實際情況對國內(nèi)的人工智能研發(fā)展開規(guī)范和限制。如積極推動《個人信息保護法》《數(shù)據(jù)安全法》,對發(fā)展得如火如荼的智能汽車進行自動駕駛的立法工作,針對重點發(fā)展領(lǐng)域進行算法的監(jiān)督,避免人工智能在開展數(shù)據(jù)統(tǒng)計、分析、審計的過程中出現(xiàn)漏洞,或降低一些科技巨頭通過掌握大數(shù)據(jù)而對人們的行為活動帶來過多的影響、控制。
(三)加強國際間的合作
人工智能的發(fā)展開啟了工業(yè)4.0時代,全球經(jīng)濟也進入了全球化發(fā)展,人類命運的發(fā)展愈發(fā)息息相關(guān),因而要應對人工智能的倫理問題,加強國際間的合作也成了一條必然的渠道、途徑。當前,世界人工智能的規(guī)則秩序仍處于形成之初,歐盟在此方面上已經(jīng)有了許多研究的經(jīng)驗,其致力于通過立法方式將歐洲固有的人員傳統(tǒng)變?yōu)槿斯ぶ悄馨l(fā)展的新優(yōu)勢,美國也在“美國人工智能計劃”的行政令下積極推動白宮科技政策辦公室與國家標準與技術(shù)研究院等機構(gòu)對有關(guān)標準的制定,研究方向不僅僅是在立法方面,倫理準則方面也做了相當?shù)目紤][8]。我國人工智能科技發(fā)展也已進入到了世界前列,但在人工智能倫理問題的實踐研究上還存在較多的不足,除了要向歐美等發(fā)達國家尋求借鑒外,也要積極開展國際合作交流,圍繞當前問題探討國際政策標準的制定,盡可能地爭取到話語權(quán),意在強化國內(nèi)人工智能發(fā)展的同時,將國內(nèi)人工智能技術(shù)推向國際的制高點,為全球的人工智能倫理治理做出貢獻[9-11]。
(四)積極推進技術(shù)發(fā)展
從另一個角度來看,人工智能之所以存在這樣那樣的倫理問題,現(xiàn)有技術(shù)發(fā)展的不足也占據(jù)了一定因素,比如智能駕駛因為對障礙物的識別不足而造成乘車人員的安全問題,人工智能在算法上的不足導致算法黑箱而威脅到公民知情權(quán)的問題。因此便有了通過技術(shù)改進來降低人工智能倫理風險的思路。如今在市場、法律的多層驅(qū)動下,許多科研機構(gòu)開啟了聯(lián)邦學習、隱私計算等活動,旨在為保護用戶的個人隱私。與此同時,為讓人工智能的應用符合社會發(fā)展的公平性、保證人們使用的安全性,還應加強對有關(guān)算法的拓展研究、完善相關(guān)的專利制度,以激勵技術(shù)創(chuàng)新,對符合倫理要求的人工智能系統(tǒng)設計起到推動作用。當然,對于重點領(lǐng)域的推薦性標準制定工作也要加強展開,鼓勵企業(yè)推出自己的人工智能使用倫理標準,使其以自身的技術(shù)研發(fā)、標準制定積極參與到國家的標準建立當中去,為我國相關(guān)專利技術(shù)納入國際標準提供推動[12-13]。
(五)開展針對性教育改革
人工智能的發(fā)展剛剛開始,有關(guān)其倫理標準制定也是任重道遠,因而相關(guān)人員不應只將注意力放在當下的技術(shù)、標準研究與制定上,也要對人工智能相關(guān)教育的展開加強關(guān)注,將人工智能的倫理問題考慮納入下一代的有關(guān)教育內(nèi)容當中,通過讓學生明確應對人工智能倫理問題的重要性,激發(fā)其在此方面的創(chuàng)新,以令人工智能的倫理問題應對獲得長效的發(fā)展。目前國務院聯(lián)合教育部已經(jīng)針對人工智能的倫理問題推出了多項研究報告,包括《教育中的人工智能:可持續(xù)發(fā)展的機遇與挑戰(zhàn)》《人工智能與教育的北京共識》等。有關(guān)人員還需從四個方面對相關(guān)教育進行完善:一是向公眾普及人工智能有關(guān)知識,提高公眾認識;二是增強對科技工作者的倫理觀念培訓;三是針對勞動者提供終身教育支持,以幫助其更好地應對人工智能所引發(fā)的失業(yè)問題;四是創(chuàng)新對青少年的教育,打破現(xiàn)有的局限性,使其更好地應對將來人工智能的發(fā)展[14]。
四、結(jié)語
在馬克思主義哲學觀點中,人們的經(jīng)濟生活關(guān)系構(gòu)成了社會的倫理道德,以善惡作為評價標準,對人類社會穩(wěn)定發(fā)展提供了關(guān)鍵支撐。然而人類的發(fā)展與社會矛盾的轉(zhuǎn)變推動了科技的發(fā)展,科技在服務人類的同時也逐漸改變了人們的生活方式,潛移默化地轉(zhuǎn)變了傳統(tǒng)的思想、習慣,乃至于人倫觀點??嗖荒芴崆白龊梅婪逗蛻獙Γ胶夂蒙鐣惱砼c科技發(fā)展的關(guān)系,則人類社會或?qū)⒚媾R干擾或毀滅。如人工智能就是當前威脅到人類社會倫理的一個科技產(chǎn)物,相關(guān)人員必須引起重視,通過總結(jié)人工智能可能會對社會倫理造成的威脅,提出對應的解決思路、措施,以讓人類社會與人類文明得以在科技發(fā)展的同時取得更長遠的發(fā)展。
參考文獻:
[1] 袁偉. 人工智能:統(tǒng)治人類還是服務人類?——基于歷史唯物主義的思考[J]. 自然辯證法通訊,2021,43(02):1-9.
[2] 孫聞博. 從辯證唯物主義角度談人工智能[J]. 中國新通信,2021,23(11):120-122.
[3] 丁金濤. 人工智能時代下科技倫理問題研究——基于馬克思主義哲學觀點[J]. 文化創(chuàng)新比較研究,2019,3(25):46-47.
[4] 周樸真. 人工智能對人類倫理道德的影響問題分析[J]. 大眾標準化,2021(08):133-135.
[5] 鄭召利,楊建偉. 國內(nèi)馬克思主義哲學界關(guān)于人工智能問題的研究現(xiàn)狀[J]. 馬克思主義哲學論叢,2019(04):84-92.
[6] 楊曦. 人工智能對人類若干倫理道德的影響問題分析[J]. 漯河職業(yè)技術(shù)學院學報,2020,19(06):78-80.
[7] 李博方. 人工智能產(chǎn)業(yè)發(fā)展的風險分析及對策研究[J]. 智能計算機與應用,2017,7(03):106-108+113.
[8] 張兆翔,張吉豫,譚鐵牛. 人工智能倫理問題的現(xiàn)狀分析與對策[J]. 中國科學院院刊,2021,36(11):1270-1277.
[9] 陸書劍. 人工智能發(fā)展所面臨的倫理問題及其應對措施[J]. 知識經(jīng)濟,2020(17):3-4.
[10] 鄧國民,李云春,朱永海. “人工智能+教育”驅(qū)動下的教師知識結(jié)構(gòu)重構(gòu)——論融入倫理的AIPCEK框架及其發(fā)展模式[J]. 遠程教育雜志,2021(01):63-73.
[11] 張立新,張雨露,鄭秋輝. 國際人工智能應用倫理研究及對教育應用的啟示[J]. 浙江師范大學學報(社會科學版),2021(05):96-102.
[12] 沈苑,汪瓊. 人工智能在教育中應用的倫理考量——從教育視角解讀歐盟《可信賴的人工智能倫理準則》[J]. 北京大學教育評論,2019,17(04):18-34.
[13] 謝洪明,陳亮,楊英楠. 如何認識人工智能的倫理沖突?——研究回顧與展望[J]. 外國經(jīng)濟與管理,2019(10):109-124.
[14] 崔中良,王慧莉,郭聃,等. 人工智能研究中交互性機器倫理問題的透視及應對[J]. 西安交通大學學報(社會科學版),2020,40(01):123-132.
(薦稿人:宋榮,華中師范大學教授)
(責任編輯:莫唯然)