• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能社會(huì)公正風(fēng)險(xiǎn)的維度與測量〔*〕

      2023-12-08 08:36:12光,
      學(xué)術(shù)界 2023年11期
      關(guān)鍵詞:公正人工智能

      亓 光, 劉 鑫

      (中國礦業(yè)大學(xué) 馬克思主義學(xué)院, 江蘇 徐州 221116)

      2023年初,隨著ChatGPT的流行成為社會(huì)廣泛關(guān)注的“人工智能”大事件,圖靈測試已死〔1〕的觀點(diǎn)甚囂塵上。然而,“人之巧乃可與造化者同功乎”的千年之問依然未解。而在移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)等相關(guān)技術(shù)迭代升級與經(jīng)濟(jì)社會(huì)高質(zhì)量發(fā)展需求的雙重驅(qū)動(dòng)下,人工智能(Artificial Intelligence,AI)則不斷迎來新突破,引發(fā)人們固有生活方式和勞動(dòng)方式的遽變,將整個(gè)世界以一種前所未有的形式緊密聯(lián)系起來;同時(shí),隨著人工智能在生產(chǎn)生活中的應(yīng)用越發(fā)廣泛,與人工智能相關(guān)的社會(huì)公正風(fēng)險(xiǎn)問題也應(yīng)運(yùn)而生,造成了更大的不確定性。認(rèn)真對待人工智能時(shí)代的社會(huì)公正風(fēng)險(xiǎn),不僅要深思其挑戰(zhàn),闡明其基本理論,還應(yīng)對社會(huì)公正風(fēng)險(xiǎn)本身進(jìn)行測控,唯如此,才能真正做好迎接人工智能時(shí)代的準(zhǔn)備。

      一、文獻(xiàn)分析與問題的提出

      人工智能的社會(huì)公正風(fēng)險(xiǎn)具有不同的問題域。自約翰·麥卡錫首次提出“人工智能”概念以來,人工智能演進(jìn)近70年,人們從“圖靈測試”的技術(shù)事實(shí)判斷,已經(jīng)發(fā)展到“人工智能關(guān)系”等社會(huì)價(jià)值的問題域。在這里,人工智能被劃分為“弱人工智能”和“強(qiáng)人工智能”,〔2〕二者之間存在“奇點(diǎn)”,而人工智能甚至有發(fā)展為“超人工智能”〔3〕的可能?,F(xiàn)實(shí)性考量人工智能的社會(huì)公正風(fēng)險(xiǎn),需要在“弱—強(qiáng)—超”的標(biāo)準(zhǔn)中作出前提判斷。就現(xiàn)實(shí)問題分析而言,我們應(yīng)將社會(huì)公正風(fēng)險(xiǎn)的測量基本限定于“現(xiàn)實(shí)性問題”,以弱人工智能為本研究的問題域。

      在本問題域內(nèi),學(xué)術(shù)界已經(jīng)對人工智能的社會(huì)公正風(fēng)險(xiǎn)問題進(jìn)行了大量研究,相關(guān)成果涵蓋了哲學(xué)、政治學(xué)、倫理學(xué)、法學(xué)、社會(huì)學(xué)、經(jīng)濟(jì)學(xué)等學(xué)科,關(guān)涉生產(chǎn)、生活、社會(huì)分配等諸多維度,尤以人類的主體性危機(jī)為主。這里的核心問題是“人工智能產(chǎn)品是否應(yīng)該具有主體性地位”。以這個(gè)問題為中心,衍生出了“如何防范和解決人工智能產(chǎn)品所帶來的倫理行為異化風(fēng)險(xiǎn)”的倫理問題,涉及人的自我異化、人的主體異化、人的交往異化等不同維度,而關(guān)涉社會(huì)公正等倫理風(fēng)險(xiǎn)的研究成果呈現(xiàn)出五種代表性觀點(diǎn)(如表1所示)。

      表1 公正風(fēng)險(xiǎn)領(lǐng)域、產(chǎn)生途徑及代表性觀點(diǎn)

      由表1不難發(fā)現(xiàn),在與人類具有相近智能發(fā)展水平的主體性物種出現(xiàn)以前,社會(huì)公正風(fēng)險(xiǎn)產(chǎn)生的原因主要在于AI技術(shù)對生產(chǎn)方式和勞動(dòng)力結(jié)構(gòu)的改變,人工智能智能化的特性使得其在傳統(tǒng)的社會(huì)公正問題研究中形成了一個(gè)“真空地帶”,更是為社會(huì)公正風(fēng)險(xiǎn)的滋生提供了溫床,并且加劇了風(fēng)險(xiǎn)的不確定性和復(fù)雜性。當(dāng)前,學(xué)界廣泛關(guān)注基于傳統(tǒng)的社會(huì)公正測量標(biāo)準(zhǔn)圍繞“人工智能對社會(huì)公正有何風(fēng)險(xiǎn)”的現(xiàn)象觀察與預(yù)測展開,相關(guān)成果已為推動(dòng)各國政府和非政府組織在制定人工智能倫理原則與技術(shù)標(biāo)準(zhǔn)、健全法律法規(guī)、加強(qiáng)監(jiān)管等方面提供了學(xué)理支撐。與此同時(shí),關(guān)于人工智能所引起的社會(huì)公正問題邊界之“暗涌之變”的趨勢加速顯現(xiàn),因而亟待從理論上加以考量。然而,任何標(biāo)準(zhǔn)都有其適用范圍,人工智能介入引發(fā)了社會(huì)公正邊界條件的改變,公正測量的標(biāo)準(zhǔn)也會(huì)隨之發(fā)生改變,這就意味著既有標(biāo)準(zhǔn)下社會(huì)公正與不公正之間的界限被重新劃定。缺乏歷史條件的限定會(huì)讓公正標(biāo)準(zhǔn)變成外化于社會(huì)的、先驗(yàn)的存在,通過一種抽象的、永恒的、普遍的標(biāo)準(zhǔn)來衡量不同社會(huì)發(fā)展條件下的公正程度的這種企圖本身就是不公正的。如果沒有及時(shí)對弱人工智能問題域中社會(huì)公正的測量維度和邊界進(jìn)行更新,就會(huì)導(dǎo)致其測量效度隨之明顯降低,讓在弱人工智能問題域中的社會(huì)公正風(fēng)險(xiǎn)易于泛化為一般性社會(huì)公正風(fēng)險(xiǎn)問題,從而不可避免地陷入對人工智能所誘發(fā)的普羅透斯式的公正亂象的追逐中。在新問題域下重審社會(huì)公正測量的維度,在理論上有助于打破基于西方社會(huì)條件而生成的社會(huì)公正框架體系,推動(dòng)建立本土化的社會(huì)公正標(biāo)準(zhǔn);在現(xiàn)實(shí)中有利于更加準(zhǔn)確地把握公正風(fēng)險(xiǎn)的發(fā)生條件和防范化解途徑,繼而為解決社會(huì)深層矛盾與利益分歧提供前瞻性的理論探尋和實(shí)踐指引。

      二、從“應(yīng)然”到“現(xiàn)實(shí)”:測量社會(huì)公正的基本維度

      眾所周知,公正是一種理想價(jià)值,也是衡量社會(huì)文明的重要尺度。社會(huì)公正是伴隨社會(huì)發(fā)展而逐步形成的政治倫理概念,在這里,“公正”主要指“以正義為依據(jù),來進(jìn)行現(xiàn)實(shí)社會(huì)層面上的基本制度的設(shè)計(jì)和安排,試圖將‘應(yīng)然’和‘實(shí)然’兩者有機(jī)統(tǒng)一起來,因而帶有明顯的現(xiàn)實(shí)性”?!?〕

      (一)社會(huì)公正的“應(yīng)然”之維:哲學(xué)性與歷史性的統(tǒng)一

      “我們是當(dāng)代的哲學(xué)同時(shí)代人,而不是當(dāng)代的歷史同時(shí)代人”,〔10〕弱人工智能問題域中新的歷史發(fā)展同樣也呼喚著哲學(xué)層面對社會(huì)公正問題的重新闡釋,人工智能正在從自下而上的物質(zhì)生產(chǎn)條件和自上而下的思維認(rèn)知水平兩個(gè)方向重塑著社會(huì)公正新的“應(yīng)然”標(biāo)準(zhǔn)。

      我們認(rèn)為,規(guī)范性研究重視闡釋價(jià)值原則的正確性是其典型的思考方式,以此證明體現(xiàn)著這種價(jià)值原則的制度安排合理性,其最早可以追溯到柏拉圖的“理念”之辯,沿循著一代代哲人對“公正”的追求由德性向權(quán)利的轉(zhuǎn)變,政治與道德日益相分離,這種分離在19世紀(jì)中期受到科學(xué)主義沖擊后達(dá)到頂點(diǎn),又隨著20世紀(jì)70年代羅爾斯《正義論》的發(fā)表而復(fù)歸,也將“正義”議題推到了當(dāng)代政治哲學(xué)研究的中心。規(guī)范性研究至少從三個(gè)方面為弱人工智能問題域下社會(huì)公正風(fēng)險(xiǎn)考量提供了學(xué)理支撐:一是肯定了公正原則作為防范化解社會(huì)風(fēng)險(xiǎn)基本準(zhǔn)則的合理性和必要性;二是察覺并承認(rèn)了“存在”的不合理性,跳出了對“存在即合理”的消極順從;三是試圖從哲學(xué)“應(yīng)然”層面建立人工智能倫理規(guī)范的“最大公約數(shù)”。哲學(xué)性層面的“應(yīng)然”研究對于推動(dòng)各國達(dá)成“人工智能倫理”(Ethics of AI)共識(shí)發(fā)揮了基礎(chǔ)性的作用,但現(xiàn)有的“人工智能倫理”原則在實(shí)際執(zhí)行層面的蒼白無力證明了僅僅以哲學(xué)層面的倫理道德來規(guī)范AI倫理之“應(yīng)然”是不夠的,因?yàn)橐?guī)范性研究對于不公正現(xiàn)狀的批判還不夠徹底,甚至在一定程度上借由對現(xiàn)象的批判遮蔽了不公正亂象的本質(zhì)——資本主義私有制帶來的公正分配主體與分配對象的分離,必然導(dǎo)致社會(huì)公正不能惠及所有人——資本主義生產(chǎn)方式的私有性質(zhì)決定了只有以抽象人性論為前提條件才能推導(dǎo)出人與人之間自由與平等的原則。無論是追求社會(huì)整體幸福最大化的功利主義,還是強(qiáng)調(diào)個(gè)體優(yōu)先及權(quán)利保護(hù)的自由主義,抑或主張以共同體為基礎(chǔ)進(jìn)而實(shí)現(xiàn)道德再造的社群主義,都以人類理性作為道德原則推演的前提,所謂“無知之幕”的背后實(shí)則是狹義的“抽象的人”。由此可見,人工智能借助算法所形成的類人的“理性”似乎比復(fù)雜的人類理性更為“理性”。然而,哲學(xué)化的正義原則并不會(huì)以更加合理的形式在人工智能上得以體現(xiàn),正因?yàn)檎軐W(xué)化正義原則是抽象的且不以主體為改變的,那么弱人工智能體的理性同樣也是抽象的,人工智能體之“理性”賦予仍然受制于其創(chuàng)造者背后的人的邏輯,其核心是資本邏輯,只能服務(wù)于資本的生產(chǎn)與再生產(chǎn)。由于資本的價(jià)值增殖傾向固化在所謂的理性算法中,從而必然將滑向更為隱蔽的造成人類社會(huì)不平等的新方式。

      如果說哲學(xué)性上的“應(yīng)然”為社會(huì)公正的實(shí)現(xiàn)描繪了“彼岸”的圖景,那么歷史性的“應(yīng)然”則為社會(huì)公正的實(shí)現(xiàn)提供了“此岸”的依循。人類從未停止過對社會(huì)公正的追求,但“關(guān)于永恒公平的觀念不僅因時(shí)因地而變,甚至也因人而異”。〔11〕歷史唯物主義認(rèn)為,事物的內(nèi)在矛盾是支配一切事物的發(fā)展變化的根本原因,必須“始終站在現(xiàn)實(shí)歷史的基礎(chǔ)上,不是從觀念出發(fā)來解釋實(shí)踐,而是從物質(zhì)實(shí)踐出發(fā)來解釋各種觀念形態(tài)”?!?2〕一方面,在不同生產(chǎn)方式下,人們接受的社會(huì)公正觀念各不相同。弱人工智能問題域下社會(huì)公正的“應(yīng)然”受社會(huì)物質(zhì)生產(chǎn)實(shí)踐的支配,并從對由這種實(shí)踐所形成的不合理的社會(huì)關(guān)系的批判中產(chǎn)生。以這種標(biāo)準(zhǔn)指導(dǎo)實(shí)踐,形成了公正的規(guī)范關(guān)系、社會(huì)價(jià)值,不偏不倚地消解社會(huì)分歧、釋放社會(huì)活力。另一方面,隨著資本主義的全球擴(kuò)張,新自由主義的社會(huì)公正觀形成了話語霸權(quán),資本主義意識(shí)形態(tài)在社會(huì)公正話語形成、發(fā)展過程中的滲透、支配趨勢越發(fā)明顯,資本主義的全球擴(kuò)張與意識(shí)形態(tài)化的新自由主義公正話語相互支撐。不難發(fā)現(xiàn),當(dāng)今西方社會(huì)公正理論大多致力于將原本難以整合的共性利益還原為個(gè)性的利益訴求,以程序公正代替實(shí)質(zhì)公正。事實(shí)上,現(xiàn)代社會(huì)對實(shí)質(zhì)公正的追求并不拒斥基于哲學(xué)思辨和現(xiàn)實(shí)情境而設(shè)計(jì)的程序公正,相較于以絕對數(shù)量為依據(jù)來衡量社會(huì)公正情況的實(shí)質(zhì)公正,程序公正更傾向于考察過程設(shè)定中的公正性,強(qiáng)調(diào)個(gè)體應(yīng)該擁有對過程的控制權(quán)力,程序必須符合該個(gè)人所接受的基本道德和倫理價(jià)值?!?3〕程序公正為確保社會(huì)公正理念最大限度的實(shí)現(xiàn)提供了可行性的解決方案,對于實(shí)現(xiàn)社會(huì)的政治安全與經(jīng)濟(jì)發(fā)展目標(biāo)發(fā)揮著不可替代的作用,弱人工智能問題域下的社會(huì)公正是實(shí)質(zhì)公正價(jià)值與程序公正價(jià)值的辯證統(tǒng)一。

      (二)合理性追問:時(shí)代化的馬克思主義公正評判標(biāo)準(zhǔn)何以“現(xiàn)實(shí)操作”

      馬克思關(guān)于正義的意見是內(nèi)隱的、批判性的,在其著作中檢索“正義”(Gerechtigkeit)一詞所得到的“實(shí)際上幾乎比任何一個(gè)流行的新聞專欄作家能想到的類似的分析結(jié)果都要少”?!?4〕因此,相較于“文本性”剖析馬克思的公正觀,更應(yīng)該關(guān)注對馬克思的批判性觀點(diǎn)進(jìn)行類型化建構(gòu),以具體的歷史眼光來發(fā)現(xiàn)現(xiàn)實(shí)的公正風(fēng)險(xiǎn)。這體現(xiàn)在四重批判里。第一重批判:從抽象到現(xiàn)實(shí)。馬克思批判永恒公平觀,戳穿了西方近代各種正義原則形而上的超驗(yàn)本質(zhì),主張以歷史的、具體的社會(huì)公正標(biāo)準(zhǔn)將公正問題重新拉回到現(xiàn)實(shí)的社會(huì)經(jīng)濟(jì)關(guān)系中,并將觀念與社會(huì)現(xiàn)實(shí)經(jīng)濟(jì)運(yùn)動(dòng)的關(guān)系擺正,澄明了物質(zhì)生產(chǎn)之于公正觀念的決定性作用。馬克思反對抽象的道德說教,主張讓“從口頭說的、思考出來的、設(shè)想出來的”〔15〕人回歸到“真正的人”,這種對現(xiàn)實(shí)的觀照使弱人工智能問題域中“解釋世界”和“改變世界”的社會(huì)公正成為可能。第二重批判:從空談到實(shí)踐。馬克思指出“資本主義社會(huì)—社會(huì)主義社會(huì)—共產(chǎn)主義社會(huì)”的生產(chǎn)方式分別對應(yīng)“按資分配—按勞分配—按需分配”的分配方式。在這里,分配公正問題是三維的,即誰(主體)以何種方式(原則)將資源分配給誰(對象)。在弱人工智能問題域,按勞分配的弊病依然不可避免,必須認(rèn)識(shí)到改變分配方式的前提是改變生產(chǎn)方式。第三重批判:從唯心到唯物。恩格斯指出,人與人之間的平等程度受制于生產(chǎn)力發(fā)展水平,在馬克思和恩格斯那里,社會(huì)生產(chǎn)力的極大解放能夠?yàn)榇蠓秶纳鐣?huì)公正的實(shí)現(xiàn)提供現(xiàn)實(shí)的可能,同時(shí),社會(huì)公正的實(shí)現(xiàn)也是以承認(rèn)社會(huì)成員之間合理的差距為限定條件的,這種平等權(quán)利的實(shí)現(xiàn)也并非平均主義下粗暴的“一刀切”式的平等,社會(huì)與政治生活將始終建立在個(gè)體的差異性之上,關(guān)鍵在于如何將差別限定在社會(huì)所認(rèn)可的合理限度之內(nèi)。第四重批判:從剝削到解放。馬克思充分揭露了資產(chǎn)階級社會(huì)公正觀的虛偽與狹隘,而擺在無產(chǎn)階級面前的實(shí)現(xiàn)社會(huì)公正的道路有且僅有一條,那就是聯(lián)合起來“揚(yáng)棄”私有制繼而實(shí)現(xiàn)社會(huì)全體成員的全面自由發(fā)展。“只有當(dāng)人認(rèn)識(shí)到自身‘固有的力量’是社會(huì)力量,并把這種力量組織起來因而不再把社會(huì)力量以政治力量的形式同自身分離的時(shí)候,只有到了那個(gè)時(shí)候,人的解放才能完成?!薄?6〕

      在上述架構(gòu)內(nèi),馬克思的社會(huì)公正研判可以延伸出四個(gè)維度的標(biāo)準(zhǔn)。一是平等維度,即“一切人,或至少是一個(gè)國家的一切公民,或一個(gè)社會(huì)的一切成員,都應(yīng)當(dāng)有平等的政治地位和社會(huì)地位”。〔17〕對人與人之間平等程度的測量是馬克思恩格斯評判社會(huì)公正與否的核心依據(jù)。二是分配維度,即徹底改變“在道德上是公平的甚至在法律上是公平的,從社會(huì)上來看可能遠(yuǎn)不是公平的”〔18〕現(xiàn)實(shí),真正實(shí)現(xiàn)生產(chǎn)資料的公有制。三是機(jī)會(huì)維度,即重視機(jī)會(huì)公正自下而上的特點(diǎn),使人不論其家庭背景、先天稟賦、所處環(huán)境如何,都擁有平等的參與機(jī)會(huì)、被挑選機(jī)會(huì)、獲得的機(jī)會(huì)等,〔19〕將機(jī)會(huì)公正充分納入社會(huì)公正測量。四是人的解放維度,即現(xiàn)實(shí)的社會(huì)公正是“為一個(gè)更高級的、以每一個(gè)個(gè)人的全面而自由的發(fā)展為基本原則的社會(huì)形式建立現(xiàn)實(shí)基礎(chǔ)”,〔20〕每個(gè)人全面而自由的發(fā)展是人類獲得解放的根本價(jià)值目標(biāo),將“以人為本”作為衡量社會(huì)公正的關(guān)鍵指標(biāo)。

      (三)社會(huì)公正的“實(shí)然”之維:建構(gòu)性測量的客觀性與主觀性的統(tǒng)一

      社會(huì)公正應(yīng)是具體的,正是由于社會(huì)公正涉及的因素復(fù)雜多變,所以社會(huì)公正的測度與評價(jià)始終是個(gè)難題。多年來,國內(nèi)外在制定測量社會(huì)公正的標(biāo)準(zhǔn)上做了諸多努力,相關(guān)標(biāo)準(zhǔn)的最大公約數(shù)基本上都覆蓋對就業(yè)率、醫(yī)療水平、貧困人口比例、收入差距、基礎(chǔ)教育覆蓋率的考察,核心是對社會(huì)貧富差距的測量(基尼系數(shù)、洛倫茲曲線、魯賓霍德指數(shù)等)。提出社會(huì)公正問題的目的在于解決現(xiàn)實(shí)的社會(huì)矛盾,與人們對現(xiàn)狀的不滿密不可分,現(xiàn)實(shí)的社會(huì)公正在很大程度上是由現(xiàn)實(shí)的不公正所測量的,即所謂的“社會(huì)非正義是原生的,而社會(huì)正義則是派生的”?!?1〕在這里,社會(huì)不公正主要在橫向與縱向兩個(gè)方向形成,因此弱人工智能問題域下社會(huì)公正的客觀測量維度應(yīng)該兼顧分域的橫向維度與分層的縱向維度:橫向的不公正影響資源配置的均勻程度(如義務(wù)教育覆蓋率、基尼系數(shù)、高中階段畢業(yè)生性別比等),資源的相對匱乏是其產(chǎn)生的主要原因,人工智能可以通過增加資源總量、降低準(zhǔn)入門檻、優(yōu)化配置手段和培育公正意識(shí)來提升社會(huì)橫向公正水平,反之亦然;縱向的不公正是建立在經(jīng)濟(jì)水平、政治地位、社會(huì)影響力等不平等方面的結(jié)構(gòu)性壓迫(國內(nèi)相關(guān)測量指標(biāo)有司法公正指數(shù)、廉政指數(shù)、重大決策聽證率等)之上的,這種不平等被以制度和文化的形式固化,而不以個(gè)體差異為轉(zhuǎn)移,人工智能對于這種結(jié)構(gòu)性壓迫的紓解或加深同樣影響著社會(huì)總體公正水平。由此可見,弱人工智能問題域下社會(huì)公正風(fēng)險(xiǎn)的防控體系應(yīng)該是立體的,使橫向公正在最廣范圍內(nèi)由中心向邊緣輻射,使縱向公正在最大程度上由頂層向底層貫穿。

      社會(huì)公正與否的判斷標(biāo)準(zhǔn),不僅受到相對客觀的顯性標(biāo)準(zhǔn)對社會(huì)公正現(xiàn)狀評估的影響,還深受主觀的、社會(huì)成員價(jià)值觀的影響,甚至對個(gè)人和家庭狀況的認(rèn)知以及對自身生活環(huán)境質(zhì)量的感受比實(shí)際的社會(huì)經(jīng)濟(jì)地位特征更能影響人們面對分配不公時(shí)的態(tài)度?!?2〕因此,社會(huì)公正的評判標(biāo)準(zhǔn)有必要兼顧客觀的反映社會(huì)公正現(xiàn)狀的“硬指標(biāo)”與主觀的反映社會(huì)成員心理感知的“軟指標(biāo)”?!?3〕社會(huì)公正感與量化的貧富差距指標(biāo)相比,具有更多的主觀屬性,而通常的測量方式是問卷調(diào)查。比如,在2021年中國綜合社會(huì)調(diào)查(CGSS)問卷和2021年中國社會(huì)狀況綜合調(diào)查(CSS)問卷中均設(shè)置了與社會(huì)公正感知測量強(qiáng)相關(guān)的問題。與此同時(shí),可逆性檢驗(yàn)一致也對個(gè)體公正感知具有一定的檢驗(yàn)作用,但檢驗(yàn)結(jié)果受個(gè)體主觀影響較大,且當(dāng)檢驗(yàn)對象為群體乃至整個(gè)社會(huì)時(shí),可逆性檢驗(yàn)的加總便成了明顯的難題。一般而言,人們在觀念層面對公正與否的判斷原則包括應(yīng)得原則、平均原則和需求原則,但在一個(gè)利益分化和利益主體多元化的社會(huì)中,最終決定不同社會(huì)成員的社會(huì)公正評價(jià)的主導(dǎo)判斷原則是不盡相同的。相對剝奪(relative deprivation)理論認(rèn)為,人們在局部范圍內(nèi)與他人或自己過去狀況的比較影響著人們的分配公平感,預(yù)期需求滿足與實(shí)際需求滿足之間差距的增大,會(huì)導(dǎo)致社會(huì)成員相對剝奪感的積聚,影響其對于自身所處境況是否“公正”的判斷。而相對剝奪感很容易受到互聯(lián)網(wǎng)輿論、廣告、新聞的影響,進(jìn)而引發(fā)對政府的信任危機(jī),在弱人工智能問題域中,人們的公正感知在一定程度上被塑造、扭曲、替代、集合,但是其本質(zhì)仍然建立在現(xiàn)有的社會(huì)生產(chǎn)方式之上,生產(chǎn)方式起著基礎(chǔ)性和決定性的作用,社會(huì)公正觀是社會(huì)經(jīng)濟(jì)基礎(chǔ)的從屬與派生,是對生產(chǎn)方式相適應(yīng)或相矛盾的反映。在這里,人工智能內(nèi)嵌于互聯(lián)網(wǎng),更能賦予互聯(lián)網(wǎng)以無限的操作空間,而日常生產(chǎn)生活與互聯(lián)網(wǎng)的聯(lián)系越緊密,人類自然而然被這張網(wǎng)越發(fā)牢固地裹挾住。

      無論怎樣,確立較為科學(xué)合理的社會(huì)公正指標(biāo)體系有助于從紛繁復(fù)雜的“實(shí)然”中將現(xiàn)實(shí)社會(huì)公正問題簡化為量表和數(shù)據(jù)的組合,但指標(biāo)的選取、指數(shù)權(quán)重賦予、補(bǔ)償效應(yīng)的修正、調(diào)查樣本的抽取、數(shù)據(jù)的處理以及分析模型的選擇等,都會(huì)影響最后結(jié)果的有效性、穩(wěn)定性和適用性。當(dāng)人工智能處于不同生命周期時(shí),社會(huì)公正風(fēng)險(xiǎn)可能也會(huì)隨之呈現(xiàn)出不同的表征,風(fēng)險(xiǎn)的具體形式和等級也是隨著時(shí)間和技術(shù)的發(fā)展而動(dòng)態(tài)變化著的,人工智能各技術(shù)環(huán)節(jié)的參與者的風(fēng)險(xiǎn)視角不同,所關(guān)心的測量指標(biāo)也有不同的側(cè)重點(diǎn),以上這些都為具體的公正指標(biāo)制定帶來了困難。目前,基于簡單共識(shí)即平等、分配、機(jī)會(huì)、人的解放和公正感知的五種基本維度,我們就具備了初步型構(gòu)人工智能影響社會(huì)公正的“現(xiàn)象—本質(zhì)”結(jié)構(gòu)。

      三、人工智能的公正風(fēng)險(xiǎn):社會(huì)不公正的現(xiàn)實(shí)范型

      在弱人工智能問題域中,人工智能以“人工”屬性為先決條件,而人是社會(huì)公正評價(jià)的自變量和承載一切后果的因變量。在人與人的關(guān)系之間引入人工智能,便直接生成了“人—機(jī)”關(guān)系(人類對人工智能的作用)與“機(jī)—人”關(guān)系(人工智能對人類的反作用),而二者共同構(gòu)成了“人—機(jī)—人”的新的關(guān)系(如圖1所示)。人工智能之于社會(huì)公正的風(fēng)險(xiǎn)滋生于“機(jī)—人”關(guān)系所帶來的不確定性,解決的可能性在于“人—機(jī)”關(guān)系所帶來的確定性,測量人工智能的社會(huì)公正風(fēng)險(xiǎn)可以通過對“人—機(jī)”關(guān)系的回溯,來審視“機(jī)—人”關(guān)系中所寓的社會(huì)不公正現(xiàn)象的內(nèi)在誘因。

      圖1 “人—機(jī)—人”關(guān)系示意圖

      (一)“機(jī)—人”關(guān)系:人工智能如何“帶來”社會(huì)不公正

      在弱人工智能問題域中,人工智能可能造成五個(gè)典型的社會(huì)公正問題:不平等差距問題,即AI擴(kuò)大還是縮小了平等差距;分配公正問題,即AI使分配方式更為公正還是不公正;機(jī)會(huì)公正問題,即AI是否促進(jìn)了機(jī)會(huì)公正的實(shí)現(xiàn);人的解放問題,即AI是否使人的發(fā)展變得更加全面而自由;公正感知問題,即AI對個(gè)體社會(huì)公正感的影響是積極的還是消極的。

      第一,人工智能之于不平等差距?;诰喗Y(jié)社會(huì)的貢獻(xiàn)以及“人的種屬尊嚴(yán)”,社會(huì)成員因其為人而應(yīng)具有平等“資格”并享有平等的權(quán)利。誠然,人工智能的應(yīng)用促進(jìn)了一些領(lǐng)域不平等差距的縮小,在一定程度上彌合了不同地區(qū)之間教育水平差距所帶來的受教育權(quán)利不平等的等等鴻溝。與此同時(shí),人工智能也確實(shí)造成或加劇了某些領(lǐng)域的不公,如利用人工智能侵犯公民知情權(quán),數(shù)字民主威脅真正民主;高科技企業(yè)利用大數(shù)據(jù)“殺熟”,技術(shù)壟斷加劇不正當(dāng)競爭;人工智能“武器化”,成為威脅世界和平的新達(dá)摩克利斯之劍。在這些領(lǐng)域中,社會(huì)公正的測量將變得越發(fā)復(fù)雜和困難。

      第二,人工智能之于分配公正。資源配置結(jié)果的公平程度是分配公正的核心,而人工智能作為資本的價(jià)值規(guī)定,既是分配方式也是機(jī)制,貫穿于社會(huì)的權(quán)利分配、資源分配和勞動(dòng)分配中?!?4〕人工智能為分配公正提供了新解決方案,但它的研發(fā)、使用和創(chuàng)新依然是以營利為目的,這就必然造成核心技術(shù)被壟斷,弱化少數(shù)群體和弱勢群體的道德關(guān)懷等問題。事實(shí)上,數(shù)字資本是一種必須被配置的生產(chǎn)資源,但數(shù)字勞動(dòng)卻弱化了生產(chǎn)與生活、工作與娛樂之間的界限,數(shù)字勞工(digital labor)/玩工(playbour)的權(quán)益保護(hù)問題也將變得越發(fā)突出。

      第三,人工智能之于機(jī)會(huì)公正。在調(diào)整產(chǎn)業(yè)結(jié)構(gòu)和重構(gòu)社會(huì)分工模式的同時(shí),人工智能改變了勞動(dòng)市場格局,引發(fā)結(jié)構(gòu)性失業(yè)的社會(huì)風(fēng)險(xiǎn),使大批“無業(yè)階級”淪為“無用階級”,導(dǎo)致社會(huì)貧富差距進(jìn)一步拉大,有人甚至利用人工智能的技術(shù)不透明性,將性別、族裔或宗教等因素帶入算法偏見,加劇了社會(huì)歧視問題。這是一種新型社會(huì)歧視,而且會(huì)持續(xù)介入人們的日常生產(chǎn)生活,造成不同受教育水平、不同經(jīng)濟(jì)條件群體之間的機(jī)會(huì)不平等,進(jìn)而還會(huì)造成整個(gè)社會(huì)的犯罪率上升、人民幸福感下降、社會(huì)凝聚力降低、政府信任度下降甚至社會(huì)動(dòng)蕩等一系列嚴(yán)重的問題。

      第四,人工智能之于人的解放。強(qiáng)調(diào)人的解放,就要突出以人為本的理念。作為第四次工業(yè)革命中的代表性技術(shù),人工智能通過對生產(chǎn)要素重組廣泛賦能人類生產(chǎn)生活,極大地提高了生產(chǎn)效率,便利了人們的生活,智能化作業(yè)也將一些工人從艱苦危險(xiǎn)的工作環(huán)境中解放了出來,但AI技術(shù)也極有可能造成技術(shù)宰制人類的新風(fēng)險(xiǎn)?!叭绻斯ぶ悄鼙缓诳凸艉筒倏v,提供看似客觀但實(shí)際上是隱藏得很好的有偏見的信息或扭曲的觀點(diǎn),那么人工智能可能會(huì)成為危險(xiǎn)的宣傳機(jī)器”,〔25〕而未成年人過度依賴或者沉迷人工智能則可能造成“代際性”的巨大公正風(fēng)險(xiǎn)。

      第五,人工智能之于公正感知。人工智能對社會(huì)公正感存在屏蔽和放大兩種取向,其借助互聯(lián)網(wǎng)通過操縱輿論或利用“信息繭房”機(jī)制來弱化、強(qiáng)化甚至扭曲個(gè)體對社會(huì)不公情況的認(rèn)知,影響其安全感、認(rèn)同感、幸福感,進(jìn)而影響其行為模式、政治參與度等。當(dāng)人工智能與移動(dòng)互聯(lián)網(wǎng)、智能手機(jī)等深度結(jié)合,社會(huì)成員的公正感知就會(huì)被精準(zhǔn)、迅速、跨區(qū)域地?cái)U(kuò)散和傳播,忽視其引發(fā)的集群效應(yīng)則可能會(huì)使主流意識(shí)形態(tài)失去對輿論和突發(fā)事件的控制權(quán),元宇宙、VR技術(shù)則會(huì)強(qiáng)化“奶頭樂”風(fēng)險(xiǎn),“非正當(dāng)”的公正感則可能取代合理的公正感。

      (二)“人—機(jī)”關(guān)系:人工智能對社會(huì)公正風(fēng)險(xiǎn)的誘因分析

      借助伊壁鳩魯悖論(Epicurean Paradox)的本質(zhì)設(shè)問,我們確實(shí)要思考:人類已經(jīng)以主宰者的面貌存在于世上,那么人工智能所帶來的社會(huì)公正風(fēng)險(xiǎn)問題究竟是源于人們在技術(shù)面前的“無能”還是人性之“惡”呢?

      一方面,技術(shù)的“無能”何以通過人工智能誘發(fā)社會(huì)公正風(fēng)險(xiǎn)?現(xiàn)階段人工智能的技術(shù)研發(fā)主要集中在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、自然語言處理、計(jì)算機(jī)視覺、語音識(shí)別、機(jī)器人技術(shù)等六大熱門領(lǐng)域,致力于實(shí)現(xiàn)對人類軀體的全方位模仿。受限于腦神經(jīng)科學(xué)的發(fā)展水平,人工智能體的“思維”本質(zhì)仍是基于算法和數(shù)據(jù)投喂與反饋來進(jìn)行概率推理,繼而進(jìn)行思考結(jié)果的模仿,無法真正還原人類思維過程。就此而言,算法偏見與數(shù)據(jù)采集偏見是人工智能誘發(fā)社會(huì)公正風(fēng)險(xiǎn)的兩個(gè)主要來源。眾所周知,只有人會(huì)歧視,而算法不會(huì)。人工智能從被設(shè)計(jì)到投入使用再到重新調(diào)試的整個(gè)過程中,所涉及的生產(chǎn)者、運(yùn)營者、使用者都是具體的人,因此主觀偏見難以避免。事實(shí)上,偏見的形成與社會(huì)背景與知識(shí)的局限性、目標(biāo)用戶的偏好指向性、最大化市場利益的趨向性、特殊政治考慮的變化性等具有密切關(guān)系。弱人工智能問題域下,在設(shè)計(jì)環(huán)節(jié)中,算法工程師的偏見內(nèi)嵌、程序運(yùn)行中的偏見循環(huán)與累計(jì)效應(yīng)會(huì)導(dǎo)致算法偏見的引入;在運(yùn)營環(huán)節(jié)中,對目標(biāo)用戶針對性地選擇、對系統(tǒng)的人為干預(yù)也會(huì)引入算法偏見;在使用環(huán)節(jié)中,人機(jī)互動(dòng)中的偏見習(xí)得、機(jī)器學(xué)習(xí)中的數(shù)據(jù)篩選同樣會(huì)導(dǎo)致算法偏見的引入。

      同時(shí),算法的強(qiáng)專業(yè)性、不透明性、壟斷性和不確定性的特點(diǎn)也為隱性權(quán)力的存在起到了推波助瀾的作用。其一,算法的強(qiáng)專業(yè)性特點(diǎn)使得人工智能在投入使用的過程中,實(shí)際上通過算法關(guān)聯(lián)形成了一種基于為他人造成后果的能力不對稱分布的權(quán)力方法。〔26〕其二,科學(xué)的本質(zhì)是解蔽,但技術(shù)卻可以利用解蔽造成新的遮蔽。眾所周知,人工智能經(jīng)常采用算法“黑箱”(Black Box)來掩蓋其內(nèi)部運(yùn)行機(jī)制,這正是算法不透明性的主要來源,造成了人工智能的可解釋性差,加大了監(jiān)管和規(guī)范難度,為算法權(quán)力的隱性運(yùn)行提供了可操作的空間。其三,由于算法的開發(fā)往往涉及商業(yè)機(jī)密和知識(shí)產(chǎn)權(quán),核心技術(shù)被科技巨頭壟斷,無法開源共享,為算法權(quán)力的隱性運(yùn)行構(gòu)建了技術(shù)壁壘。其四,算法投入使用后就要依賴于海量且不斷更新的數(shù)據(jù),根據(jù)機(jī)器學(xué)習(xí)等進(jìn)行負(fù)反饋調(diào)節(jié)和交互式改進(jìn),不再完全遵循工程師的初始設(shè)定,最終結(jié)果越發(fā)難以預(yù)測,必然產(chǎn)生算法偏差。在運(yùn)用大數(shù)據(jù)技術(shù)和人工智能算法形成用戶精準(zhǔn)畫像的過程中,數(shù)據(jù)采集無法始終保證不偏不倚,這就增加了算法權(quán)力隱性運(yùn)行的不確定性,是典型的社會(huì)不公正。

      另一方面,人性之“惡”何以通過人工智能誘發(fā)社會(huì)公正風(fēng)險(xiǎn)?通過機(jī)器學(xué)習(xí),人工智能在一定程度上能夠勝任“建筑師”的角色,但生成式人工智能越來越“類人”的回答,也只是通過對用戶偏好數(shù)據(jù)的采集實(shí)現(xiàn)高效、充分但仍舊是機(jī)械的“投其所好”。眾所周知,人工智能的生命力在于技術(shù)創(chuàng)新。人工智能可以創(chuàng)造巨大生產(chǎn)潛能與活力,還可以刺激消費(fèi)、促進(jìn)制造業(yè)向發(fā)達(dá)國家回流等。人工智能創(chuàng)新背后的推動(dòng)力首先是資本對超額剩余價(jià)值的逐利性,人性之“惡”的具象化即為資本的邏輯,資本家增加勞動(dòng)生產(chǎn)力的首要辦法就在于分工的精細(xì)化以及“更全面地應(yīng)用和經(jīng)常地改進(jìn)機(jī)器”?!?7〕為了獲取生產(chǎn)的超額剩余價(jià)值,企業(yè)進(jìn)行技術(shù)革新,在努力“把自然科學(xué)發(fā)展到它的最高點(diǎn)”的同時(shí),〔28〕進(jìn)行技術(shù)壟斷。人工智能極大地遮蔽了勞動(dòng)力本質(zhì),它將“越來越多的‘人手’從工作崗位上排擠出去。而排擠的速度,比國內(nèi)的工廠吸收和雇用這些被排擠的‘人手’的速度要快得多”?!?9〕數(shù)字勞動(dòng)則將原本的生產(chǎn)與生活、工作與娛樂之間的界限模糊化,形成隱性的無償勞動(dòng),創(chuàng)造新的剩余價(jià)值來源,產(chǎn)生了新剝削形式。在這里,《資本論》的利潤率計(jì)算公式p=s/(c+v)依然能夠通過有效補(bǔ)充而應(yīng)用于數(shù)字勞動(dòng)的分析上,即可變資本v可被拆解為固定員工的工資與從事用戶生成內(nèi)容生產(chǎn)的用戶工資:

      在這里,s為剩余價(jià)值(surplus value),c為不變資本(constant capital),v1為支付給固定員工的工資,v2為支付給互聯(lián)網(wǎng)用戶(users)的工資,〔30〕對利潤率的追求,意味著工人將被無限剝削。資本主義借由人工智能轉(zhuǎn)嫁矛盾,將資本家與勞動(dòng)者的矛盾轉(zhuǎn)嫁給科技與人類,可以在一定程度上緩解階級矛盾。雖然部分西方馬克思主義論者看到了科技發(fā)展的負(fù)面影響,但沒有深入其資本邏輯本質(zhì),而僅僅是“用科技批判代替了政治經(jīng)濟(jì)學(xué)批判”。〔31〕在弱人工智能問題域中,資本對勞動(dòng)者剩余價(jià)值的壓榨仍然是科技創(chuàng)新發(fā)展的重要驅(qū)動(dòng)力。

      與此同時(shí),作為一種科學(xué)技術(shù),它不可避免具有資本的內(nèi)在規(guī)定,因此人工智能本身就是一種權(quán)力。它既能賦能人類生活,又強(qiáng)化權(quán)力約束效應(yīng)。在推動(dòng)“物的人格化”的同時(shí),人工智能也是人格的物化。效率工資理論認(rèn)為,高于市場均衡水平的工資可以提高工人的努力水平,也就降低了雇主為每一單位有效勞動(dòng)支付的成本,特別在互聯(lián)網(wǎng)、人工智能的行業(yè)中,“采用機(jī)器所造成的一定量資本推動(dòng)的工人人數(shù)的減少,即構(gòu)成剩余價(jià)值的一個(gè)因素的減少,在某種程度上產(chǎn)生了恰恰是機(jī)械工廠所特有的趨勢,即延長絕對勞動(dòng)時(shí)間的趨勢”,〔32〕機(jī)器的資本主義應(yīng)用“一方面創(chuàng)造了無限度地延長工作日的新的強(qiáng)大動(dòng)機(jī),并且使勞動(dòng)方式本身和社會(huì)勞動(dòng)體的性質(zhì)發(fā)生這樣的變革,以致打破對這種趨勢的抵抗,另一方面,部分地由于使資本過去無法染指的那些工人階層受資本的支配,部分地由于使那些被機(jī)器排擠的工人游離出來,制造了過剩的勞動(dòng)人口,這些人不得不聽命于資本強(qiáng)加給他們的規(guī)律”。〔33〕于是,公私領(lǐng)域的界限逐漸模糊,人工智能的廣泛運(yùn)用強(qiáng)化了對工人工作流程的監(jiān)視與對其工作節(jié)奏的控制,弱化了工人之間的交流以及對工人居家工作的勞動(dòng)保障,使工人階級逐漸原子化,〔34〕越來越難匯合到一起捍衛(wèi)自身利益,這就讓集中化的意識(shí)形態(tài)控制更加有效。

      四、化解風(fēng)險(xiǎn)的可能方向:社會(huì)公正指向下人工智能的規(guī)范再造

      2023年9月,《自然》(Nature)雜志刊發(fā)了一份對全球1600多名研究人員進(jìn)行調(diào)查的文章,結(jié)果顯示,半數(shù)以上的受訪者認(rèn)為未來十年人工智能對其研究領(lǐng)域“非常重要”或“必不可少”,他們普遍擔(dān)心AI技術(shù)對科學(xué)的影響,商業(yè)公司對人工智能的計(jì)算資源的主導(dǎo)和人工智能工具的所有權(quán)也是一些受訪者關(guān)心的問題?!?5〕當(dāng)前,我國正處于社會(huì)深度轉(zhuǎn)型期,經(jīng)濟(jì)增長速度放緩,社會(huì)成員的主體意識(shí)和權(quán)益意識(shí)逐漸增強(qiáng),對社會(huì)公正的需求也日益旺盛,以市場為核心的分配方式與利益分配調(diào)整之間的矛盾日益尖銳,由此帶來的貧富差距、東西部區(qū)域發(fā)展差距、城鄉(xiāng)差距等弊端也逐漸凸顯出來,因此必須面向社會(huì)公正“重構(gòu)”人工智能。

      (一)普適性批判:科學(xué)自主制定人工智能發(fā)展的基本規(guī)范

      21世紀(jì)以來,人工智能的發(fā)展以一種全新的形式,與互聯(lián)網(wǎng)、大數(shù)據(jù)等從不同側(cè)面,將人與人之間的“息息相關(guān)”朝著更深層次、更多面向、更高水平的方向推進(jìn),也使得人工智能的社會(huì)公正風(fēng)險(xiǎn)超越了國家邊界,具有全球?qū)傩?。國家間技術(shù)合作的背后是競爭性驅(qū)動(dòng)下普遍性規(guī)則對于各個(gè)國家在AI應(yīng)用與監(jiān)管領(lǐng)域的秩序重塑,如美國、歐盟都高度重視且爭取把控AI全球標(biāo)準(zhǔn)的制定權(quán),它們加速出臺(tái)一系列法案,并強(qiáng)調(diào)這些法案的普遍適用性,這就讓后發(fā)國家特別是處于AI應(yīng)用早期的國家成為被動(dòng)接受者甚至受害者。2013年,德國政府提出了以信息物理系統(tǒng)為技術(shù)核心的“工業(yè)4.0”計(jì)劃,而全世界至今大約有三分之二的國際機(jī)械制造標(biāo)準(zhǔn)來自“德國標(biāo)準(zhǔn)化學(xué)會(huì)標(biāo)準(zhǔn)”,德國已然占有相關(guān)領(lǐng)域的主動(dòng)權(quán)、話語權(quán)、統(tǒng)治權(quán);2016年,日本提出以超智能社會(huì)為核心愿景的“社會(huì)5.0”構(gòu)想,主張通過在世界上率先推進(jìn)知識(shí)產(chǎn)權(quán)化和國際標(biāo)準(zhǔn)化,以及廣泛引進(jìn)人才等手段來維持和強(qiáng)化日本在科技領(lǐng)域的競爭力。經(jīng)驗(yàn)表明,人工智能公正原則和技術(shù)規(guī)則的制定應(yīng)該堅(jiān)持普遍性和特殊性相結(jié)合,既要凝聚全球共識(shí),又要抵制單邊霸權(quán),堅(jiān)決捍衛(wèi)本國自主規(guī)則制定權(quán),制定符合自己國情的AI發(fā)展準(zhǔn)則,掌握規(guī)則制定的話語權(quán)與科技發(fā)展的主動(dòng)權(quán),防止少數(shù)掌握大量數(shù)據(jù)、巨大存儲(chǔ)空間和強(qiáng)大計(jì)算能力的公司與國家憑借其影響力壟斷AI市場。

      (二)工具性導(dǎo)向:積極回歸人工智能的工具本質(zhì)

      以效率為主導(dǎo)的市場邏輯下,自由競爭不僅不會(huì)促進(jìn)公正,在一定程度上還會(huì)抑制公正,甚至引起更大的危機(jī),需要通過對人工智能進(jìn)行規(guī)范來防范可能對人類主體性地位造成的威脅。2016年以來,人工智能倫理原則的制定過程迅速經(jīng)歷了制定倫理原則、達(dá)成共識(shí)、投入實(shí)踐三個(gè)階段,力圖將倫理原則與價(jià)值要求融入、嵌入人工智能研發(fā)與應(yīng)用的全生命周期。2023年1月,美國商務(wù)部國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架1.0》(Artificial Intelligence Risk Management Framework,AI RMF 1.0),該文概述了值得信賴的人工智能系統(tǒng)的七大特征:有效和可靠、安全、牢固和有彈性、負(fù)責(zé)任和透明、可解釋和可說明、加強(qiáng)隱私、公平且有害偏見得到控制?!?6〕進(jìn)入新發(fā)展階段以來,我國采取主動(dòng)應(yīng)對策略,人工智能的綜合治理進(jìn)入了新階段。2017年,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》就明確提出了我國人工智能治理的“三步走”戰(zhàn)略目標(biāo),該目標(biāo)要求從法律法規(guī)、倫理規(guī)范和政策體系等各層面各領(lǐng)域各角度全面推動(dòng)人工智能治理體系構(gòu)建,使人工智能回歸到工具的現(xiàn)實(shí)本質(zhì),更加符合高質(zhì)量發(fā)展的要求。

      (三)結(jié)構(gòu)性革新:深刻調(diào)整人工智能的需求側(cè)和供給側(cè)資源配置

      當(dāng)今世界,“資本主義固有的生產(chǎn)社會(huì)化和生產(chǎn)資料私人占有之間的矛盾依然存在”,〔37〕新生的數(shù)字化、虛擬化、智能化的經(jīng)濟(jì)發(fā)展又進(jìn)一步激化資本主義經(jīng)濟(jì)結(jié)構(gòu)的內(nèi)在矛盾,而人工智能的介入加劇了個(gè)別企業(yè)生產(chǎn)的有序性和整個(gè)社會(huì)生產(chǎn)的無序性之間的不協(xié)調(diào)。尤其是在“人工智能+互聯(lián)網(wǎng)”模式下,借助于互聯(lián)網(wǎng)思維的底層邏輯——流量為王,大量吸引用戶入場,創(chuàng)造了很多需求,但這些在一定程度上是被塑造的結(jié)果,存在巨大的泡沫。對于我國而言,維護(hù)社會(huì)公正,就必須將人工智能刺激下的供需差距維持在可控范圍,從需求側(cè)和供給側(cè)進(jìn)行雙向結(jié)構(gòu)革新:在需求側(cè),識(shí)別、挖掘、創(chuàng)造新的需求;在供給側(cè),優(yōu)化資源配置,打破發(fā)達(dá)國家對人工智能產(chǎn)業(yè)鏈上游技術(shù)的封鎖,增加中高端供給,以人工智能激發(fā)落后產(chǎn)能活力,增強(qiáng)供給側(cè)結(jié)構(gòu)對需求側(cè)結(jié)構(gòu)的適應(yīng)性。通過優(yōu)化人工智能布局以及結(jié)構(gòu)性增/減稅政策的引導(dǎo),智能紅利也許可以成為人口紅利的替代品。

      (四)解放性旨?xì)w:充分發(fā)揮人工智能的生產(chǎn)力水平提升作用

      人工智能的發(fā)展是科學(xué)技術(shù)發(fā)展的一個(gè)維度,而科學(xué)技術(shù)發(fā)展的最終目的是推動(dòng)人類社會(huì)的進(jìn)步?!叭魏谓夥哦际鞘谷说氖澜缂锤鞣N關(guān)系回歸于人自身?!薄?8〕在社會(huì)主義中國,堅(jiān)持科學(xué)技術(shù)是第一生產(chǎn)力,既要大力提升生產(chǎn)力水平,又要將內(nèi)部發(fā)展水平的差距維持在可控范圍內(nèi),既要避免社會(huì)撕裂的塔西佗陷阱,又要增強(qiáng)抵御風(fēng)險(xiǎn)的能力,防止社會(huì)公正風(fēng)險(xiǎn)轉(zhuǎn)化為政治風(fēng)險(xiǎn),進(jìn)而真正實(shí)現(xiàn)共同富裕與社會(huì)政治穩(wěn)定的共軛。在這里,堅(jiān)持創(chuàng)新驅(qū)動(dòng)發(fā)展必須突出以維護(hù)最廣大人民群眾的根本利益為技術(shù)創(chuàng)新價(jià)值的最高衡量標(biāo)準(zhǔn),不斷實(shí)現(xiàn)以人的全面發(fā)展為終極價(jià)值目標(biāo)的“革命性”科學(xué)技術(shù)變革。在馬克思主義技術(shù)創(chuàng)新觀與當(dāng)代中國的具體實(shí)踐相結(jié)合過程中,鍛造以人為本的技術(shù)創(chuàng)新觀,不斷提高勞動(dòng)者素質(zhì),完善分配結(jié)構(gòu),健全技術(shù)要素參與分配機(jī)制,有效實(shí)現(xiàn)資源配置和競爭環(huán)境的公平,修訂相關(guān)法律法規(guī),加強(qiáng)勞動(dòng)者權(quán)益保護(hù)。我們應(yīng)當(dāng)最大限度發(fā)揮我國的制度優(yōu)勢,將人工智能的發(fā)展置于社會(huì)主義現(xiàn)代化強(qiáng)國建設(shè)的“全過程”中,以不斷化解其社會(huì)公正風(fēng)險(xiǎn)實(shí)現(xiàn)人民共享的社會(huì)主義國家的技術(shù)倫理優(yōu)越性。

      注釋:

      〔1〕“圖靈測試”指,如果一臺(tái)機(jī)器能夠與人類展開對話(通過電傳設(shè)備)而不能被辨別出其機(jī)器身份,則認(rèn)為該機(jī)器具有智能。

      〔2〕約翰·希爾勒提出,以“是否具有意識(shí)”為區(qū)分標(biāo)準(zhǔn)將人工智能劃分為弱人工智能和強(qiáng)人工智能。弱人工智能指的是“受人支配的、不具有自我意識(shí)的機(jī)器”,只能解決特定領(lǐng)域的問題。強(qiáng)人工智能指的是“全方位模擬人類能力甚至超過人類而應(yīng)對各種挑戰(zhàn)的通用智能系統(tǒng)”,基本上能夠勝任人類所有工作。參見Searle,John R.,“Minds,Brains,and Programs”,Behavioral and Brain SciencesVol.3,No.3,1980,pp.417-424。

      〔3〕〔英〕尼克·波斯特洛姆:《超級智能——路線圖、危險(xiǎn)性與應(yīng)對策略》,張?bào)w偉等譯,北京:中信出版社,2015年。

      〔4〕Phil McNally,Sohail Inayatullah,“The Rights of Robots:Technology,Culture and Law in the 21st Century”,FuturesVol.20,No.2,1988,pp.119-136.

      〔5〕〔30〕Fuchs C.,“Labor in Informational Capitalism and on the Internet”,The Information SocietyVol.26,No.3,2010,pp.179-196.

      〔6〕高奇琦:《智能革命與國家治理現(xiàn)代化初探》,《中國社會(huì)科學(xué)》2020年第7期。

      〔7〕Cass R.Sunstein,Infotopia:How Many Minds Produce KnowledgeOxford:Oxford University Press,2006,p.9.

      〔8〕孫偉平:《人工智能與人的“新異化”》,《中國社會(huì)科學(xué)》2020年第12期。

      〔9〕吳忠民:《社會(huì)公正何以可能》,北京:人民出版社,2017年,第8頁。

      〔10〕〔12〕〔15〕〔16〕〔27〕〔38〕《馬克思恩格斯文集》第1卷,北京:人民出版社,2009年,第9、544、525、46、735-736、46頁。

      〔11〕《馬克思恩格斯文集》第3卷,北京:人民出版社,2009年,第323頁。

      〔13〕Colquitt,J.A.,Conlon,D.E.,et al.,“Justice at the Millennium:A Meta-analytic Review of 25 Years of Organizational Justice Research”,Journal of Applied PsychologyVol.86,No.3,2001,p.425.

      〔14〕〔美〕威廉·麥克布萊德、王貴賢:《馬克思、恩格斯與其他人論正義》,《馬克思主義與現(xiàn)實(shí)》2008年第5期。

      〔17〕《馬克思恩格斯全集》第26卷,北京:人民出版社,2014年,第109頁。

      〔18〕〔29〕《馬克思恩格斯全集》第25卷,北京:人民出版社,2001年,第488、490頁。

      〔19〕黃秀華:《機(jī)會(huì)公平的影響因素及實(shí)現(xiàn)途徑》,《廣西社會(huì)科學(xué)》2011年第4期。

      〔20〕〔33〕《馬克思恩格斯文集》第5卷,北京:人民出版社,2009年,第683、469頁。

      〔21〕〔愛爾蘭〕維托里奧·布法切:《社會(huì)非正義》,洪燕妮譯,南京:江蘇人民出版社,2020年,第4頁。

      〔22〕Martin Kreidl,“Perceptions of Poverty and Wealth in Western and Post-Communist Countries”,Social Justice ResearchVol.13,No.2,2000,pp.151-176.

      〔23〕T.R.Tyler,K.A.Rasinski,et al.,“The Influence of Perceived Injustice on the Endorsement of Political Leaders”,Journal of Applied Social PsychologyVol.15,No.8,1985,pp.700-725.

      〔24〕唐代興:《人工智能發(fā)展帶動(dòng)的社會(huì)公正危機(jī)》,《人文雜志》2020年第8期。

      〔25〕Jim Chilton,“The New Risks ChatGPT Poses to Cybersecurity”,Harvard Business Review Digital ArticlesApril 21,2023,https://hbr.org/2023/04/the-new-risks-chatgpt-poses-to-cybersecurity.

      〔26〕Neyland D.,M?llers N.,“Algorithmic IF…THEN Rules and the Conditions and Consequences of Power”,Information,Communication &SocietyVol.20,No.1,2017,pp.45-62.

      〔28〕《馬克思恩格斯文集》第8卷,北京:人民出版社,2009年,第90頁。

      〔31〕劉英杰:《作為意識(shí)形態(tài)的科學(xué)技術(shù)》,北京:商務(wù)印書館,2011年,第4頁。

      〔32〕《馬克思恩格斯全集》第37卷,北京:人民出版社,2019年,第192頁。

      〔34〕〔英〕烏蘇拉·胡斯:《高科技無產(chǎn)階級的形成——真實(shí)世界里的虛擬工作》,任海龍譯,北京:北京大學(xué)出版社,2011年,第111頁。

      〔35〕Van Noorden R.,Perkel J.M.,“AI and Science:What 1,600 Researchers Think”,NatureVol.621,No.7980,2023,pp.672-675.

      〔36〕National Institute of Standards and Technology,Artificial Intelligence Risk Management Framework(AI RMF 1.0)January 24,2023,https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf.

      〔37〕習(xí)近平:《在哲學(xué)社會(huì)科學(xué)工作座談會(huì)上的講話》,北京:人民出版社,2016年,第14頁。

      猜你喜歡
      公正人工智能
      我校新增“人工智能”本科專業(yè)
      遲到的公正
      公民與法治(2020年6期)2020-05-30 12:44:10
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      公正賠償
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      下一幕,人工智能!
      呂坤公正觀淺析
      弗雷澤的三維公正觀
      榕江县| 凉山| 蓝田县| 周宁县| 青州市| 云梦县| 华阴市| 酉阳| 宁城县| 洪江市| 广平县| 鸡泽县| 万荣县| 孝昌县| 吉安县| 阳朔县| 罗定市| 镇雄县| 宝山区| 孝义市| 客服| 阿瓦提县| 海门市| 如皋市| 新巴尔虎右旗| 南阳市| 共和县| 桓台县| 泰宁县| 八宿县| 隆安县| 桃园县| 射洪县| 海盐县| 淮滨县| 茂名市| 安丘市| 安西县| 松原市| 潜江市| 江津市|