• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      人工智能發(fā)展的社會(huì)風(fēng)險(xiǎn)問題研究

      2023-07-10 14:49:09宋陽李慧
      關(guān)鍵詞:社會(huì)風(fēng)險(xiǎn)高質(zhì)量發(fā)展人工智能

      宋陽 李慧

      [摘要] 隨著第四次工業(yè)革命浪潮的到來,云計(jì)算、深度學(xué)習(xí)、大數(shù)據(jù)等技術(shù)不斷普及,人工智能已嵌入人們生活的方方面面,不僅影響科技領(lǐng)域的發(fā)展,同時(shí)也給政治、經(jīng)濟(jì)、社會(huì)、道德倫理等領(lǐng)域帶來了風(fēng)險(xiǎn)與挑戰(zhàn)。由此,應(yīng)從社會(huì)、政府及人類自身三個(gè)層面積極探索應(yīng)對策略,以期形成多方共同參與、相互聯(lián)動(dòng)的有效合力機(jī)制,實(shí)現(xiàn)對人工智能的合理控制,更好地應(yīng)對人工智能可能帶來的社會(huì)風(fēng)險(xiǎn)。探索人工智能未來的發(fā)展方向,推進(jìn)“技術(shù)”與“社會(huì)”的良性互動(dòng)。

      [關(guān)鍵詞]人工智能;社會(huì)風(fēng)險(xiǎn);高質(zhì)量發(fā)展;技術(shù)風(fēng)險(xiǎn);倫理風(fēng)險(xiǎn)

      [中圖分類號(hào)]G641[文獻(xiàn)標(biāo)志碼] A[文章編號(hào)]1672-4917(2023)03-0109-07

      一、引言

      人工智能作為推動(dòng)人類文明不斷向智能化社會(huì)邁進(jìn)的“催化劑”,深刻影響了社會(huì)生產(chǎn)結(jié)構(gòu)和生活方式。作為第四次工業(yè)革命的最核心組成部分,人工智能正在成為全球科技競爭的制高點(diǎn)、經(jīng)濟(jì)發(fā)展的新引擎和產(chǎn)業(yè)變革的核心驅(qū)動(dòng)力[1]。為了快速尋找在第四次工業(yè)革命中的出路,我國十分重視人工智能的發(fā)展。國務(wù)院于2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》對人工智能的發(fā)展起著建設(shè)性的作用,強(qiáng)調(diào)“把新一代人工智能作為推動(dòng)科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級(jí)、生產(chǎn)力整體躍升的驅(qū)動(dòng)力量,努力實(shí)現(xiàn)高質(zhì)量發(fā)展”[2]。近年來,政府工作報(bào)告多次提到將加強(qiáng)人工智能的發(fā)展規(guī)劃作為新的工作重點(diǎn),從國家宏觀層面來治理引導(dǎo)人工智能的發(fā)展。當(dāng)前我國已成功進(jìn)入創(chuàng)新型國家行列,聚焦人工智能的創(chuàng)新性發(fā)展已成為時(shí)代命題。隨著國際國內(nèi)大環(huán)境的變化,人工智能等前沿問題更是充滿復(fù)雜性和不確定性,技術(shù)風(fēng)險(xiǎn)與社會(huì)風(fēng)險(xiǎn)事件時(shí)有發(fā)生,多方面因素觸發(fā)的倫理問題也引發(fā)人們的深刻反思,因此,我們應(yīng)當(dāng)客觀冷靜地分析人工智能的發(fā)展前景,審慎對待人工智能這一先進(jìn)的技術(shù)科學(xué)。

      黨的十九屆四中全會(huì)以來,國家高度重視社會(huì)治理工作并創(chuàng)新社會(huì)治理模式,提升社會(huì)治理智能化水平?!吨腥A人民共和國國民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》明確指出,“堅(jiān)持科技賦能,推進(jìn)社會(huì)治理現(xiàn)代化”[3]。習(xí)近平總書記指出,“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控”[4]。然而,人工智能是一種尚處于探索階段的革命性、顛覆性技術(shù),在推動(dòng)人類社會(huì)快速發(fā)展的同時(shí),又深刻地改變了人類生產(chǎn)生活方式與社會(huì)形態(tài)結(jié)構(gòu),進(jìn)而衍生出一系列的社會(huì)風(fēng)險(xiǎn)[5]。有學(xué)者指出,人工智能形成的“智能技術(shù)范式”容易侵蝕人的自主權(quán),人或?qū)S為技術(shù)的“附庸”[6]。也有學(xué)者認(rèn)為,人工智能在幫助重塑政府科層組織之間及政府與社會(huì)的關(guān)系的同時(shí),會(huì)對組織的地位和邊界帶來重大挑戰(zhàn)[7]。任劍濤提出人工智能技術(shù)失控容易造成社會(huì)沖突問題。人工智能時(shí)代背景下,探討人工智能應(yīng)用的社會(huì)風(fēng)險(xiǎn)成為亟須深入研究的現(xiàn)實(shí)問題[8]。何哲將人工智能給人類社會(huì)帶來的核心風(fēng)險(xiǎn)分為隱私泄露、勞動(dòng)競爭、主體多元、邊界模糊、能力溢出、懲罰無效、倫理沖突、暴力擴(kuò)張、種群替代和文明異化十個(gè)方面,并提出了相應(yīng)的應(yīng)對措施[9]。張成崗從技術(shù)自主性與人工智能的失控風(fēng)險(xiǎn)、新技術(shù)決定論形態(tài)中的算法及數(shù)據(jù)挑戰(zhàn)、人工智能發(fā)展中的倫理風(fēng)險(xiǎn)及其規(guī)約、人工智能對就業(yè)的沖擊及其社會(huì)風(fēng)險(xiǎn)、人工智能時(shí)代整體圖景缺失的挑戰(zhàn)這五個(gè)方面對人工智能社會(huì)風(fēng)險(xiǎn)進(jìn)行討論[10]。周利敏等認(rèn)為人工智能可能會(huì)促進(jìn)社會(huì)風(fēng)險(xiǎn)治理模式創(chuàng)新,但逃脫人類控制的人工智能會(huì)造成更大的社會(huì)風(fēng)險(xiǎn)[11]。楊凱結(jié)合人工智能與社會(huì)風(fēng)險(xiǎn)治理的新進(jìn)展,闡述了基于人工智能的社會(huì)風(fēng)險(xiǎn)的治理模型[12]。王泗通則通過對人工智能在垃圾分類領(lǐng)域的應(yīng)用分析,提出人工智能可能引發(fā)居民過度依賴智能化、基層自治空間不斷壓縮以及社會(huì)結(jié)構(gòu)可能解組的社會(huì)風(fēng)險(xiǎn)[13]。

      二、人工智能發(fā)展?jié)撛诘纳鐣?huì)風(fēng)險(xiǎn)

      隨著我們進(jìn)入人工智能時(shí)代,社會(huì)生產(chǎn)力大幅提高,人們的生活方式也變得更加便利,同時(shí)也導(dǎo)致了勞動(dòng)崗位受到?jīng)_擊、數(shù)據(jù)及隱私泄露及算法歧視等一系列的社會(huì)風(fēng)險(xiǎn)。

      (一)人工智能沖擊勞動(dòng)崗位的風(fēng)險(xiǎn)

      人工智能在極大地提高生產(chǎn)效率并改變傳統(tǒng)的勞動(dòng)形式的同時(shí),替代了大量的勞動(dòng)力,造成失業(yè)危機(jī),這不僅給勞動(dòng)就業(yè)市場帶來巨大沖擊,對一些弱勢群體來說更是帶來永久性的不可估量的危害。人工智能對勞動(dòng)崗位造成的沖擊主要表現(xiàn)在以下兩方面:一方面,人工智能對生產(chǎn)效率要求高的制造業(yè)造成了很大的影響;另一方面,人工智能對于重復(fù)性的、程序化強(qiáng)的服務(wù)性工作和體力勞動(dòng)沖擊較大。

      在制造業(yè)中,人工智能的主要作用是使機(jī)器能夠“匹配或超過人類技術(shù)人員”,提高生產(chǎn)操作的效率,降低成本。首先,在其他條件相同的情況下,高技能的機(jī)器在提高生產(chǎn)力方面顯然比傳統(tǒng)勞動(dòng)力更有優(yōu)勢;其次,在制造業(yè)中,工人的生理和心理存在潛在的威脅,例如,單線操作很容易導(dǎo)致心理疾病,富士康甚至出現(xiàn)了員工跳樓的惡性事件。這些因素導(dǎo)致企業(yè)傾向于用機(jī)器取代勞動(dòng)力,這增加了勞動(dòng)力失業(yè)的風(fēng)險(xiǎn)。另一方面,勞動(dòng)力成本的上升和人工智能的日益成熟,也增加了企業(yè)用機(jī)器替代勞動(dòng)力的意愿。

      在服務(wù)行業(yè),隨著越來越多的人工智能機(jī)器的引入,機(jī)器正在逐漸取代一系列重復(fù)的、程序化強(qiáng)的機(jī)械性服務(wù)任務(wù)。中國建設(shè)銀行在2017年引入了“智慧柜員機(jī)、外匯兌換機(jī)、理財(cái)服務(wù)機(jī)”,隨后裁減了1萬多名員工。據(jù)招商銀行工作人員介紹,未來可能只留下一名柜臺(tái)人員在銀行網(wǎng)點(diǎn)處理交易,這意味著超過50%的柜臺(tái)人員將離開目前的工作崗位[14]。隨著人工智能的發(fā)展,無人超市、無人酒店、無人健身房、無人銀行等基于人工智能的新行業(yè)逐漸普及,這對傳統(tǒng)行業(yè)的人力資本的影響也越來越大。

      在教育領(lǐng)域,人工智能的優(yōu)勢正在慢慢改變傳統(tǒng)的教學(xué)模式。與人工智能相比,人類教師有一定的缺陷;人類教師在時(shí)間和精力方面處于明顯的劣勢[15],其在知識(shí)存儲(chǔ)和分析處理能力方面也遠(yuǎn)不如人工智能。此外,人工智能比以往任何時(shí)候都更具顛覆性,因此,許多以前認(rèn)為不太可能被代替的職業(yè),如律師、法官等,也逐漸面臨被取代的風(fēng)險(xiǎn)。制造業(yè)和農(nóng)業(yè)的人力資本將不可避免地流向服務(wù)業(yè),服務(wù)業(yè)的工作崗位不足以及被替代行業(yè)人力資本的不斷涌入,將進(jìn)一步加劇就業(yè)問題。

      人工智能具有自我感知、自我模擬、自我調(diào)節(jié)等功能,能夠?qū)χ悄苄畔⑦M(jìn)行量化處理,可根據(jù)復(fù)雜多變的市場需求進(jìn)行靈活的調(diào)整和改進(jìn),一切社會(huì)生產(chǎn)活動(dòng)都由機(jī)器之間自行交流、自主完成,實(shí)現(xiàn)物質(zhì)生產(chǎn)過程的無人化。深度學(xué)習(xí)等技術(shù)的快速發(fā)展給人工智能自我更新升級(jí)帶來了新的契機(jī),構(gòu)建人工智能神經(jīng)組織,會(huì)使勞動(dòng)生產(chǎn)率出現(xiàn)“指數(shù)級(jí)”增長,與之相隨的未來社會(huì)經(jīng)濟(jì)發(fā)展趨勢也會(huì)發(fā)生巨大變化。深度學(xué)習(xí)技術(shù)的應(yīng)用使人工智能開始扮演人類的大腦,取代傳統(tǒng)的腦力勞動(dòng)的工作,甚至對以往并未受到技術(shù)影響的職業(yè)和崗位也帶來了影響。同時(shí),未來人工智能與人類的關(guān)系目前也不清楚,人工智能未來有可能和現(xiàn)在一樣對人類采取友好的態(tài)度,也有可能對人類產(chǎn)生敵意,而且超人工智能也有可能有自己的野心,從而反過來奴役人類成為社會(huì)的主宰[16]。庫茲韋爾在《奇點(diǎn)臨近》一書中預(yù)言,機(jī)器的智能將在2045年超過人類智能,而到21世紀(jì)末,人機(jī)智能將比人類智能強(qiáng)大數(shù)倍;并認(rèn)為如果人工智能繼續(xù)發(fā)展下去,非生物計(jì)算機(jī)將取代人類,人工智能主導(dǎo)的人機(jī)文明將取代人類文明[17]。

      (二)人工智能引發(fā)隱私泄露的風(fēng)險(xiǎn)

      現(xiàn)代社會(huì)是文明程度較高的人類社會(huì)形態(tài),人們更加重視和維護(hù)自身的尊嚴(yán)。然而,隨著信息技術(shù)的快速發(fā)展,所產(chǎn)生的一系列社會(huì)風(fēng)險(xiǎn)也隨之而來,特別是個(gè)人隱私與信息共享之間的內(nèi)在矛盾使人類自身的尊嚴(yán)與隱私遭到了時(shí)代性的挑戰(zhàn)。大數(shù)據(jù)的快速發(fā)展,在催生個(gè)人有效信息收集手段的同時(shí),也使人類個(gè)體的私人空間遭到侵犯,這就容易形成保護(hù)隱私和信息共享之間的二律背反,對人類個(gè)體的隱私造成嚴(yán)重的挑戰(zhàn)。

      近年來,各種帶有處理器和傳感器的人工智能產(chǎn)品不斷涌現(xiàn),使人們的學(xué)習(xí)和生活更加便利,同時(shí)也提高了對物理空間的監(jiān)控,進(jìn)一步增加了用戶隱私被侵犯的風(fēng)險(xiǎn)。例如,蘋果公司利用Siri軟件,在未經(jīng)用戶同意的情況下,將用戶與他人之間的對話通過其服務(wù)器傳輸給承包商進(jìn)行分析;陌生人可以利用無人機(jī)監(jiān)視普通公民[18]。在各種人工智能產(chǎn)品面前,普通公民就是一個(gè)“透明人”,沒有任何隱私。除了私人領(lǐng)域缺乏隱私外,公共領(lǐng)域的監(jiān)控?cái)z像機(jī),如街道上的監(jiān)控?cái)z像機(jī),也可以利用圖像識(shí)別技術(shù)在人群中自動(dòng)識(shí)別人臉、找到目標(biāo),實(shí)時(shí)監(jiān)控特定的對象。

      人工智能對個(gè)人隱私的侵犯越來越顯著。當(dāng)今時(shí)代,人們在互聯(lián)網(wǎng)上的行為完全被互聯(lián)網(wǎng)這個(gè)信息媒介所記錄?;ヂ?lián)網(wǎng)利用大數(shù)據(jù)技術(shù)收集、存儲(chǔ)和分析這些信息,預(yù)測和分析用戶的個(gè)人興趣、愛好、習(xí)慣和行為模式,以提取未在互聯(lián)網(wǎng)上“公開”的預(yù)測性信息,然后追求商業(yè)信息流。例如,劍橋分析公司不正當(dāng)使用收集到的八千多萬Facebook用戶數(shù)據(jù),并參與到美國總統(tǒng)大選的事件中,違反數(shù)據(jù)的收集和保存的原則使數(shù)據(jù)泄露,嚴(yán)重侵犯了公民的隱私權(quán)。

      自新冠病毒疫情暴發(fā)以來,大多數(shù)醫(yī)務(wù)人員在疫情防控領(lǐng)域開展醫(yī)學(xué)研究,科技人員正確地運(yùn)用人工智能技術(shù)開展疫情防控,取得了實(shí)實(shí)在在的效果,有效保障了我國人民的安全健康和社會(huì)的健康發(fā)展。然而,大數(shù)據(jù)在疫情防控中的廣泛運(yùn)用已經(jīng)并將繼續(xù)引發(fā)一些復(fù)雜的倫理問題,特別是隱私泄露問題。各級(jí)政府部門和地方組織擁有特定的合法權(quán)力,可以收集大量的個(gè)人隱私數(shù)據(jù)和信息,如姓名、身份證號(hào)碼、個(gè)人通信信息、交通和旅行信息、在線支付信息等。然而,這個(gè)過程在人工智能和大數(shù)據(jù)的加持下,很容易導(dǎo)致個(gè)人權(quán)利和公共利益之間的沖突,并導(dǎo)致個(gè)人權(quán)利受到侵犯[19]。

      同時(shí),人工智能的使用可能會(huì)增加醫(yī)療數(shù)據(jù)泄露的風(fēng)險(xiǎn)。一方面,這些數(shù)據(jù)被醫(yī)院或人工智能產(chǎn)品公司所掌握,如果這些信息被傳遞給欺詐者或其他醫(yī)療機(jī)構(gòu),那么數(shù)據(jù)主體就有可能被欺詐或被推銷醫(yī)療產(chǎn)品;另一方面,如果這些數(shù)據(jù)由于管理不善或系統(tǒng)漏洞而被泄露,可能對數(shù)據(jù)主體及其家人造成嚴(yán)重傷害[20]。

      大數(shù)據(jù)的發(fā)展使共享信息的范圍不斷擴(kuò)大、程度不斷加深,從而使個(gè)人信息的泄露更容易發(fā)生。互聯(lián)網(wǎng)技術(shù)的發(fā)展,使得社交媒體及各種APP非常容易獲取用戶的私人信息,進(jìn)而更全面地了解一個(gè)人的個(gè)人偏好、智力能力、心理狀況等隱私。這表明,在大數(shù)據(jù)時(shí)代,人類隱私已經(jīng)成為最脆弱的領(lǐng)域之一,迫切需要法律和倫理框架來保護(hù),以維護(hù)人類尊嚴(yán)[21]。

      (三)算法歧視引起的隱患

      1.信息繭房

      社交媒體平臺(tái)利用人工智能算法對用戶的偏好進(jìn)行精準(zhǔn)識(shí)別和計(jì)算,進(jìn)而提供差異化、個(gè)性化服務(wù),以迎合用戶需求從而吸引和維持用戶流量。這一過程必然會(huì)加劇其對消費(fèi)者選擇性的信息傳遞,導(dǎo)致“信息繭房”問題,即個(gè)人沉浸在自己選擇的以及令自己愉悅的信息中[22]。長此以往,將自身桎梏于所謂的“繭房”之中,進(jìn)而降低個(gè)人自主提煉優(yōu)質(zhì)信息以及自主判斷和決策的能力,不斷擾亂其價(jià)值體系,造成認(rèn)知固化甚至形成偏見。

      2.價(jià)格歧視

      企業(yè)利用人工智能算法來優(yōu)化產(chǎn)品定價(jià)方案以獲得更高的利潤,通過算法進(jìn)行用戶數(shù)據(jù)畫像以更精準(zhǔn)地了解其支付意愿,進(jìn)而對不同的消費(fèi)者實(shí)行差異化定價(jià)策略,產(chǎn)生了大眾熟知的“大數(shù)據(jù)殺熟”現(xiàn)象。同時(shí),機(jī)器學(xué)習(xí)算法可獨(dú)立于企業(yè)直接進(jìn)行動(dòng)態(tài)差別定價(jià),甚至規(guī)避《反壟斷法》的嚴(yán)格規(guī)制,實(shí)施隱蔽的價(jià)格合謀行為。這一過程嚴(yán)重侵害了消費(fèi)者的合法權(quán)益,引發(fā)了競爭扭曲的壟斷行為并極大地?cái)_亂了相關(guān)市場的公平競爭秩序。在數(shù)字政府建設(shè)過程中,人工智能算法也成為輔助行政決策智能化的重要技術(shù)支撐。受制于算法研發(fā)的能力,政府購買技術(shù)服務(wù)的過程也增強(qiáng)了自身對技術(shù)開發(fā)者和控制者的技術(shù)依賴,使其可以隱蔽地干預(yù)政治議程。政府也將因此陷入被算法支配、政治話語權(quán)缺失的重大權(quán)力危機(jī)之中。

      3.種族歧視

      解決有形的種族歧視很容易,但無形的種族歧視卻很難防范。種族歧視更易隱藏在算法黑匣子的幌子下。隨著面部識(shí)別系統(tǒng)的標(biāo)準(zhǔn)化,并逐漸在學(xué)校、體育館、機(jī)場、交通樞紐,特別是警察系統(tǒng)中使用,對有色人種造成的種族歧視的新的傷害形式也越來越明顯了。在谷歌上搜索“白人女孩”會(huì)得到相對正常的信息,而搜索“亞洲女孩”或“黑人女孩”往往會(huì)得到“約會(huì)”“色情”等信息[23]。同樣,人工智能算法在法醫(yī)實(shí)踐中也被廣泛使用。美國警察局在其“預(yù)測性警務(wù)”項(xiàng)目中實(shí)施智能算法分析。在目標(biāo)犯罪應(yīng)該平均分配的情況下,警察被派往黑人社區(qū)的比例大約是白人社區(qū)的兩倍。另一個(gè)值得警惕的例子是,在減少偏見的基礎(chǔ)上應(yīng)用的算法,反而加劇了種族歧視。2016年,當(dāng)人權(quán)數(shù)據(jù)分析小組將PredPol算法模擬應(yīng)用于加利福尼亞州奧克蘭市的毒品犯罪時(shí),它反復(fù)將警察派往少數(shù)族裔聚居區(qū),而不管這些聚居區(qū)的實(shí)際犯罪率如何。近年來,算法引起的種族歧視普遍存在,這表明在虛擬世界中打擊種族主義的緊迫性和重要性。

      4.性別歧視

      算法上的性別歧視本質(zhì)上是將長期存在于現(xiàn)實(shí)世界中的性別歧視觀念轉(zhuǎn)移到虛擬世界中。人類無意識(shí)的性別歧視會(huì)影響分析大數(shù)據(jù)的人工智能算法,在招聘和大學(xué)錄取等領(lǐng)域無意中強(qiáng)化了性別歧視?!熬推浜诵亩裕惴7铝巳祟惖臎Q策……換句話說,算法并不中立?!崩?,如果雇主在自動(dòng)簡歷選擇軟件中輸入“程序員”一詞,搜索結(jié)果會(huì)偏向于男性候選人,因?yàn)椤俺绦騿T”一詞與男性的聯(lián)系比與女性的聯(lián)系多。如果搜索目標(biāo)是“接待員”,女性候選人的簡歷就會(huì)首先顯示。盡管性別歧視人人喊打,但它仍不時(shí)癔癥般作祟[24]。

      三、人工智能面臨的風(fēng)險(xiǎn)的對策

      面對人工智能社會(huì)日益快速、持續(xù)發(fā)展的現(xiàn)實(shí),我們一方面要正視并深刻認(rèn)識(shí)到人工智能社會(huì)的各種潛在風(fēng)險(xiǎn),充分地估計(jì)到人工智能技術(shù)的現(xiàn)有存量,正確引導(dǎo)和運(yùn)用人工智能;另一方面,作為社會(huì)管理者和建設(shè)者的政府應(yīng)該積極應(yīng)對人工智能帶來的潛在社會(huì)風(fēng)險(xiǎn);最后,作為人工智能應(yīng)用主體的人類,應(yīng)加強(qiáng)對人工智能的控制,營造良好的人工智能應(yīng)用環(huán)境。因此,本文從社會(huì)、政府及人類自身三個(gè)層面提出相應(yīng)的對策建議,以期能更好地應(yīng)對人工智能帶來的各種社會(huì)風(fēng)險(xiǎn)問題。

      (一)社會(huì)層面的對策

      1.堅(jiān)持人工智能的權(quán)責(zé)一致原則

      人工智能設(shè)計(jì)最主要、最核心的原則是遵循人權(quán)主義原則,即權(quán)責(zé)一致的原則。人工智能產(chǎn)品制造商和服務(wù)供應(yīng)商必須使其符合社會(huì)主義核心價(jià)值觀。算法設(shè)置應(yīng)遵循基本倫理原則,在算法過程中要充分尊重和保護(hù)人的權(quán)利,特別是對于人類生命權(quán)、健康權(quán)、隱私權(quán)等基本權(quán)利的保護(hù)。人工智能技術(shù)的設(shè)計(jì)與應(yīng)用應(yīng)將是否有助于改善人類福祉作為重要的參考指標(biāo),避免出現(xiàn)算法歧視、算法偏見的情況,維護(hù)社會(huì)公平公正與健康有序發(fā)展;設(shè)計(jì)者和使用者要明確各自的責(zé)任,明確責(zé)任分配與追責(zé)機(jī)制,避免相關(guān)人員利用技術(shù)推卸責(zé)任;人工智能系統(tǒng)的運(yùn)行,特別是算法部分,必須以透明性和解釋性為基本要求,從而最大限度地降低人工智能技術(shù)被濫用的可能性。

      2.加強(qiáng)社會(huì)對人工智能技術(shù)的監(jiān)管

      人工智能技術(shù)的進(jìn)步對現(xiàn)代科學(xué)技術(shù)具有革命性的意義,人工智能技術(shù)制度設(shè)計(jì)的基礎(chǔ)始終要堅(jiān)持以人為本。技術(shù)設(shè)計(jì)應(yīng)遵循基本規(guī)范,不能超越對個(gè)人及個(gè)人合法權(quán)益的控制,人工智能設(shè)計(jì)制度與政策的制定應(yīng)以維護(hù)個(gè)人數(shù)據(jù)安全為基本原則。如果人工智能系統(tǒng)的開發(fā)利用給社會(huì)帶來一定的危害,應(yīng)當(dāng)有相應(yīng)的問責(zé)機(jī)制或者規(guī)章制度來有效解決。因此,負(fù)責(zé)人工智能的相關(guān)主管部門應(yīng)未雨綢繆,提前規(guī)劃制定好相應(yīng)的規(guī)則以及追究責(zé)任的標(biāo)準(zhǔn)。在社會(huì)監(jiān)管方面,在人工智能全面投入市場的初期階段,必須建立風(fēng)險(xiǎn)控制機(jī)制,及時(shí)更新與反饋,保證人工智能技術(shù)的使用合理、合規(guī)、合法;不管是政府的還是企業(yè)的人工智能監(jiān)管機(jī)構(gòu)和倫理審查委員會(huì),都應(yīng)給予一定的權(quán)力,即對智能系統(tǒng)數(shù)據(jù)和信息有一定的訪問權(quán)限,從宏觀層面把控人工智能的風(fēng)險(xiǎn)評(píng)估、測試和審計(jì),確保其安全性與可靠性;整合各領(lǐng)域的優(yōu)質(zhì)資源和精英人士,開展跨學(xué)科跨專業(yè)跨領(lǐng)域的合作研究,確保人工智能算法設(shè)計(jì)符合社會(huì)倫理要求。同時(shí),在智能機(jī)器與人類和諧共生的環(huán)境適應(yīng)性方面,在將人類的價(jià)值觀念、情感需求等嵌入到智能系統(tǒng)中時(shí),必須充分考慮到政治、經(jīng)濟(jì)、文化、社會(huì)等各方面的因素,平衡一切未知的不確定因素,使人工智能系統(tǒng)的設(shè)計(jì)更加符合人類社會(huì)價(jià)值標(biāo)準(zhǔn),更加符合社會(huì)發(fā)展要求。

      3.構(gòu)建人工智能產(chǎn)業(yè)的聯(lián)動(dòng)機(jī)制

      正確處理人工智能帶來的社會(huì)問題需要多方共同參與,構(gòu)建人工智能產(chǎn)業(yè)的橫向聯(lián)動(dòng)機(jī)制。第一,人工智能的設(shè)計(jì)者及生產(chǎn)商應(yīng)該充分發(fā)揮自身的主觀能動(dòng)性,發(fā)揮自己的專業(yè)特長,自覺保持對特定落地場景倫理問題的敏感度并提高自身道德倫理修養(yǎng),在一定程度上能夠確保智能系統(tǒng)的穩(wěn)定與安全,充分保護(hù)人的基本權(quán)利與尊嚴(yán);第二,負(fù)責(zé)人工智能相關(guān)的技術(shù)審查和評(píng)估機(jī)構(gòu)要自覺履行自己的職責(zé),認(rèn)真負(fù)責(zé)、嚴(yán)格行事,不斷提升人工智能系統(tǒng)與人類道德規(guī)范系統(tǒng)的兼容性,使人類與人工智能和平共處;第三,人工智能的使用者應(yīng)維護(hù)自己作為消費(fèi)者的權(quán)益,積極向技術(shù)工作者及相關(guān)機(jī)構(gòu)表達(dá)自身對于人工智能技術(shù)的訴求,參與技術(shù)層面的反饋。

      (二)政府層面的對策

      1.構(gòu)建人工智能治理體系

      政府要自覺承擔(dān)起人工智能治理框架建設(shè)的責(zé)任,建立健全開放的政府治理框架和數(shù)據(jù)共享、算法優(yōu)化的治理機(jī)制,提高政府社會(huì)治理的智能化能力和效率。隨著數(shù)字治理的不斷發(fā)展,數(shù)據(jù)已經(jīng)成為影響國家戰(zhàn)略和社會(huì)生產(chǎn)的關(guān)鍵因素。在人工智能時(shí)代,算法作為關(guān)鍵的政策規(guī)則,應(yīng)闡明由誰來制定、如何制定、由誰來監(jiān)管和如何監(jiān)管,并對其他相關(guān)問題進(jìn)行明確規(guī)劃。因此,政府應(yīng)遵循“人性化”的方法,建立一個(gè)新的基于數(shù)據(jù)和算法的治理框架,并規(guī)定一致的權(quán)力和責(zé)任。

      2.完善社會(huì)保障體系

      任何信息技術(shù)的更新都不可避免地會(huì)導(dǎo)致勞動(dòng)力市場結(jié)構(gòu)的變化。為了實(shí)現(xiàn)向人工智能時(shí)代的平穩(wěn)過渡,社會(huì)保障體系需要進(jìn)一步完善,以應(yīng)對人工智能帶來的技術(shù)差異和不平等的風(fēng)險(xiǎn)。與以往農(nóng)業(yè)革命和工業(yè)革命的影響一樣,智能革命將導(dǎo)致社會(huì)分化、利益分歧和社會(huì)分層。技術(shù)革命的社會(huì)成本和利益必須由承擔(dān)者公平分享,使所有社會(huì)成員的利益最大化,這不僅是實(shí)現(xiàn)社會(huì)公平和正義的正確途徑,也是加快智能社會(huì)治理模式轉(zhuǎn)型的重要保障。人工智能作為一種稀缺資源或公共產(chǎn)品,有可能造成分配上的不平等。特別是由人工智能的負(fù)面影響所造成的損失,需要政府來承擔(dān)、調(diào)節(jié)和再分配,以在一定程度上縮小不平等差距,降低被剝奪感,提高人們的參與感、體驗(yàn)感和獲得感。因此,政府在關(guān)注經(jīng)濟(jì)、文化、產(chǎn)業(yè)政策的同時(shí),也要關(guān)注與人工智能相關(guān)的社會(huì)政策,給予人工智能充分的發(fā)展空間,完善人工智能時(shí)代的社會(huì)保障體系。

      3.構(gòu)建多層次的政府責(zé)權(quán)體系

      中國特色社會(huì)主義進(jìn)入新時(shí)代,習(xí)近平總書記提出了人類命運(yùn)共同體的理念,建立面向世界的人工智能倫理話語體系,與人類命運(yùn)共同體理念相呼應(yīng)。一個(gè)有效的政府問責(zé)制度應(yīng)該遵循多層次的治理方式。作為國家和人民利益的保護(hù)者,政府應(yīng)根據(jù)以人為本的發(fā)展理念,在國家人工智能發(fā)展戰(zhàn)略的基礎(chǔ)上制定人工智能技術(shù)標(biāo)準(zhǔn)和法規(guī),引導(dǎo)技術(shù)發(fā)展用于滿足人類生產(chǎn)和生活的需要,避免不平衡、不充分的技術(shù)發(fā)展。

      (三)人類自身層面的對策

      1.提高技術(shù)研發(fā)者的道德責(zé)任感

      技術(shù)作為一種手段自身并沒有好壞之分,決定人工智能善惡的關(guān)鍵是使用技術(shù)的人??茖W(xué)家作為技術(shù)研發(fā)的重要人物,本身應(yīng)最大限度地履行自身的道德責(zé)任,在關(guān)注技術(shù)研發(fā)的同時(shí)還應(yīng)關(guān)注社會(huì)風(fēng)險(xiǎn)問題,在更新技術(shù)應(yīng)用的同時(shí)就應(yīng)對其系統(tǒng)進(jìn)行一定的權(quán)限設(shè)置,讓技術(shù)更多地在對社會(huì)有利的方面發(fā)揮作用。技術(shù)研發(fā)者在對人工智能進(jìn)行設(shè)計(jì)時(shí),首先要遵循“以人為本”的原則,把人的基本權(quán)利放在首位,要最大限度地保護(hù)人類的人身權(quán)、隱私權(quán)、財(cái)產(chǎn)權(quán)等各項(xiàng)基本權(quán)利,消除人工智能對特定群體的偏見;其次,對于人工智能社會(huì)問題的研究,要有前瞻性與遠(yuǎn)見性,在人工智能產(chǎn)品投入使用過程中要進(jìn)行全面客觀的社會(huì)倫理風(fēng)險(xiǎn)檢測與安全系數(shù)評(píng)估,從而預(yù)防人工智能技術(shù)的誤用、濫用;最后,技術(shù)研發(fā)者自身應(yīng)保持高度的道德責(zé)任感,要合理開發(fā)人工智能的功能作用,在倫理設(shè)計(jì)中要厘清人工智能的使用責(zé)任等問題,特別是面對重大決策時(shí),人類要保持高度的話語權(quán),與人工智保持清楚的界限,對人工智能技術(shù)的發(fā)展要達(dá)到理性控制。

      2.提升民眾技術(shù)文化素養(yǎng)

      隨著人工智能技術(shù)的不斷普及,智能化的生產(chǎn)方式給我們的日常生活帶來了諸多便利,在藝術(shù)創(chuàng)作方面衍生出的關(guān)于人工智能的優(yōu)秀影視作品也不計(jì)其數(shù),如《黑客帝國》《人工智能》等更是流傳甚廣,描繪出了人工智能主宰人類的時(shí)代的各種可能性。雖然這只是部分創(chuàng)作者的一種藝術(shù)表現(xiàn)形式,但其代表的是一部分人的共同認(rèn)知。這些影視作品使許多不了解人工智能技術(shù)的公眾對其感到恐懼及排斥,從而忽視人工智能對社會(huì)發(fā)展及人類生活的貢獻(xiàn),進(jìn)而盲目反對科技的發(fā)展進(jìn)步。應(yīng)通過各種途徑加強(qiáng)公眾對人工智能的認(rèn)知,減輕民眾對人工智能的恐懼之情,從而減少部分民眾因?yàn)榉磳萍及l(fā)展而做出的過激行為,激發(fā)公眾學(xué)習(xí)技術(shù)的興趣,倡導(dǎo)公眾利用技術(shù)去獲取更多信息、提升公眾的信息素養(yǎng),這有助于減少信息落差從而進(jìn)一步消除數(shù)字鴻溝。

      3.打造良好的社會(huì)倫理輿論氛圍

      “人機(jī)共存”的世界終將會(huì)到來,但當(dāng)下,除了人工智能技術(shù)帶來的倫理問題外,民眾社會(huì)倫理問題還被納米技術(shù)、轉(zhuǎn)基因技術(shù)等各種輿論所包裹。這種現(xiàn)象是由多種因素共同造成的后果,但總的來說,還是由社會(huì)倫理機(jī)制建設(shè)不健全、不完善導(dǎo)致的。深入思考會(huì)發(fā)現(xiàn),很多事情都有解決的辦法和預(yù)防的措施,這需要我們在與人工智能不斷融合發(fā)展的過程中,不能一味地反對技術(shù),而應(yīng)與人工智能構(gòu)建良性的社會(huì)關(guān)系。對人工智能,我們既不能輕視,也不能畏懼,更不能回避,要通過腳踏實(shí)地的努力、辛勤的勞動(dòng)、豐富的思想,發(fā)展扎實(shí)的技術(shù),構(gòu)建一個(gè)全新的二元世界。大眾應(yīng)該認(rèn)識(shí)到人類才是社會(huì)的主體,人工智能技術(shù)的走向取決于人類對人工智能的看法。人工智能與人類共存是未來社會(huì)的必然趨勢,這既是未來人工智能的發(fā)展方向,也是未來社會(huì)的發(fā)展藍(lán)圖。應(yīng)該營造良好的社會(huì)輿論氛圍,為科技的發(fā)展提供良好的社會(huì)環(huán)境。

      四、結(jié)語

      人工智能技術(shù)的快速發(fā)展給人類帶來便利的同時(shí),也給社會(huì)帶來風(fēng)險(xiǎn)。但目前人工智能的發(fā)展仍然掌控在人類手中,要充分認(rèn)識(shí)人工智能發(fā)展和發(fā)展中存在的潛在問題,并采取相應(yīng)的預(yù)防措施。政府和企業(yè)在內(nèi)的各種社會(huì)組織,應(yīng)充分自覺承擔(dān)自身的社會(huì)責(zé)任,團(tuán)結(jié)協(xié)作、合作共贏,共同構(gòu)建一個(gè)“共建共享”的人工智能治理體系,并在遵守人工智能設(shè)計(jì)原則的基礎(chǔ)上,依據(jù)相關(guān)政策和法規(guī)利用人工智能。公民要積極主動(dòng)地參與政府的相關(guān)法律和規(guī)則的制定工作,監(jiān)督政府和企業(yè)之間的權(quán)責(zé)落實(shí)情況,夯實(shí)自上而下和自下而上的雙向協(xié)同治理體系。同時(shí),我們也要正視人工智能的利弊,對人工智能應(yīng)該善用之,不能太過畏懼人工智能,應(yīng)該創(chuàng)造一個(gè)更好的社會(huì)環(huán)境,讓人工智能更好地服務(wù)于社會(huì)和人類。

      [參考文獻(xiàn)]

      [1]劉海軍:《人工智能的文明作用及其發(fā)展悖論——基于馬克思〈資本論〉及其手稿的闡釋》,《馬克思主義研究》2021年第8期,第87—100頁。

      [2]《習(xí)近平致第三屆世界智能大會(huì)的賀信》,光明網(wǎng),www.qstheory.cn/yaowen/2019-05/16/c_1124502531.htm。

      [3]《中華人民共和國國民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年計(jì)劃和2035年遠(yuǎn)景目標(biāo)綱要》,人民出版社2021年版。

      [4]《習(xí)近平在中共中央政治局第九次集體學(xué)習(xí)時(shí)強(qiáng)調(diào) 加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ) 推動(dòng)我國新一代人工智能健康發(fā)展》,《黨建》2018年第11期,第1頁。

      [5]蘇竣、魏鈺明、黃萃:《社會(huì)實(shí)驗(yàn):人工智能社會(huì)影響研究的新路徑》,《中國軟科學(xué)》2020年第9期,第132—140頁。

      [6]孫偉平:《人工智能與人的“新異化”》,《中國社會(huì)科學(xué)》2020年第12期,第119—137頁。

      [7]趙金旭、孟天廣:《技術(shù)賦能:區(qū)塊鏈如何重塑治理結(jié)構(gòu)與模式》,《當(dāng)代世界與社會(huì)主義》2019年第3期,第187—194頁。

      [8]任劍濤:《人工智能與“人的政治”重生》,《探索》2020年第5期,第52—65頁。

      [9]何哲:《人工智能技術(shù)的社會(huì)風(fēng)險(xiǎn)與治理》,《電子政務(wù)》2020年第9期,第2—14頁。

      [10]張成崗:《人工智能時(shí)代:技術(shù)發(fā)展、風(fēng)險(xiǎn)挑戰(zhàn)與秩序重構(gòu)》,《南京社會(huì)科學(xué)》2018年第5期,第42—52頁。

      [11]周利敏、谷玉萍:《人工智能時(shí)代的社會(huì)風(fēng)險(xiǎn)治理創(chuàng)新》,《河海大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2021年第3期,第38—45頁。

      [12]楊凱:《人工智能時(shí)代的社會(huì)風(fēng)險(xiǎn)治理創(chuàng)新思考分析》,《數(shù)字技術(shù)與應(yīng)用》2021年第9期,第162—164頁。

      [13]王泗通:《人工智能應(yīng)用的社會(huì)風(fēng)險(xiǎn)及其治理——基于垃圾分類智能化實(shí)踐的思考》,《江蘇社會(huì)科學(xué)》2022年第5期,第108—116頁。

      [14]高昕:《人工智能對社會(huì)就業(yè)崗位的影響研究》,《河南工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第6期,第70—74頁。

      [15]張務(wù)農(nóng)、賈保先、曾強(qiáng)等:《“代具”還是“代替”?人工智能究竟能否取代人類教師的哲學(xué)省思》,《教師教育研究》2021年第1期,第14—21頁。

      [16]李倫、孫保學(xué):《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個(gè)維度》,《教學(xué)與研究》2018年第8期,第72—79頁。

      [17][美]庫茲韋爾:《奇點(diǎn)臨近》,機(jī)械工業(yè)出版社2011年版。

      [18]黃瑩:《人工智能時(shí)代隱私權(quán)保護(hù)問題研究》,《文化創(chuàng)新比較研究》2020年第12期,第86—87頁。

      [19]吳玉潔、賀苗、吳一波:《疫情防控中的隱私困境及對策思考》,《中國醫(yī)學(xué)倫理學(xué)》2022年第8期,第843—848頁。

      [20]肖志敏、沈興蓉、劉榮等:《我國醫(yī)學(xué)人工智能的應(yīng)用現(xiàn)狀及倫理問題反思》,《衛(wèi)生軟科學(xué)》2021年第7期,第87—89頁。

      [21]宋建欣:《大數(shù)據(jù)時(shí)代人的尊嚴(yán)和價(jià)值——以個(gè)人隱私與信息共享之間的倫理抉擇為中心》,《道德與文明》2021年第6期,第107—114頁。

      [22]洪濤、陶思佳、盧思涵等:《人工智能算法“社會(huì)性嵌入”的衍生風(fēng)險(xiǎn)及其協(xié)同治理》,《復(fù)旦城市治理評(píng)論》2022年第1期,第144—172頁。

      [23]謝永江、楊永興:《人工智能時(shí)代下的算法歧視及其治理研究》,《北京郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2022年第5期,第18—25頁。

      [24]汪懷君、汝緒華:《人工智能算法歧視及其治理》,《科學(xué)技術(shù)哲學(xué)研究》2020年第2期,第101—106頁。

      Research on Social Risks in the Development of Artificial Intelligence

      SONG Yang, LI Hui

      (School of Marxism, Xian University of Architecture and Technology,Xian 710055, Shaanxi, China)

      Abstract:? With the advent of the fourth wave of the industrial revolution and the widespread adoption of cloud computing, deep learning, big data, and other technologies, artificial intelligence (AI) has become deeply integrated into all aspects of human life. This not only affects the development of science and technology but also poses challenges to social, economic, political, moral, and ethical fields, leading to social risks and hidden dangers. It is, therefore, necessary to actively explore coping strategies from technology, social management, and human aspects to form an effective concerted system with multiple parties participating. The system will enable rational control over AI, better deal with the social risks that AI may bring, explore the future development directions of AI, and promote positive interaction between “technology” and “society.”

      Key words:artificial intelligence; social risks; high quality development; technical risks; ethical risks

      (責(zé)任編輯劉永?。回?zé)任校對孫俊青編輯)

      猜你喜歡
      社會(huì)風(fēng)險(xiǎn)高質(zhì)量發(fā)展人工智能
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      中國經(jīng)濟(jì)改革“高質(zhì)量發(fā)展”是關(guān)鍵詞
      新民周刊(2018年11期)2018-04-02 04:29:06
      中央經(jīng)濟(jì)工作會(huì)議精神解讀
      開啟新時(shí)代民航強(qiáng)國建設(shè)新征程
      人民論壇(2018年5期)2018-03-12 00:16:18
      我國經(jīng)濟(jì)怎樣實(shí)現(xiàn)“高質(zhì)量發(fā)展”
      祖國(2018年1期)2018-02-02 18:01:45
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      網(wǎng)絡(luò)社會(huì)風(fēng)險(xiǎn)規(guī)律及其因應(yīng)策略
      下一幕,人工智能!
      低壓集抄改造項(xiàng)目的社會(huì)風(fēng)險(xiǎn)管理研究
      科技視界(2016年13期)2016-06-13 17:35:37
      始兴县| 武冈市| 易门县| 神农架林区| 米林县| 麦盖提县| 清水县| 宝清县| 株洲市| 旬阳县| 北宁市| 青阳县| 措勤县| 高要市| 政和县| 淮滨县| 东明县| 达日县| 育儿| 永福县| 来凤县| 霍林郭勒市| 灵台县| 八宿县| 广东省| 仙居县| 天祝| 黔江区| 普定县| 宜丰县| 广宁县| 佛坪县| 通辽市| 卢湾区| 巫溪县| 耿马| 河源市| 三原县| 策勒县| 金坛市| 乌鲁木齐县|