• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      新一代人工智能(ChatGPT)的主要特征、社會風險及其治理路徑

      2023-06-02 11:36:18水,
      關(guān)鍵詞:人工智能人類用戶

      于 水, 范 德 志

      (1.南京農(nóng)業(yè)大學 地方治理與政策研究中心,江蘇 南京 210095;2.南京農(nóng)業(yè)大學 公共管理學院,江蘇 南京 210095)

      由美國人工智能公司OpenAI開發(fā)的ChatGPT人工智能技術(shù)以其強大的信息整合能力和語言對話能力引起全球關(guān)注,ChatGPT代表了人工智能產(chǎn)業(yè)發(fā)展的全新水平,“未來預計能夠產(chǎn)生數(shù)萬億美元的經(jīng)濟價值”[1]。當前商界、學界等紛紛將目光聚焦到生成式人工智能領(lǐng)域上,隨著傳統(tǒng)互聯(lián)網(wǎng)紅利的逐步消退與生成式人工智能技術(shù)的不斷進步,人工智能語言模型ChatGPT的順勢而出?,F(xiàn)階段ChatGPT在各國的應用也處于初步探索階段,如編寫計算機程序、創(chuàng)作詩歌音樂等,它表面上給人類帶來生產(chǎn)生活方式便捷化、高效化的同時,更深層次的則是人類可能因生成式人工智能的興起而產(chǎn)生的社會失業(yè)與數(shù)據(jù)隱私等風險,也“面臨著 ‘人造產(chǎn)物’的失控和反叛,甚至整個人類文明的消解”[2]。隨著AI技術(shù)的飛速發(fā)展有必要進行反思性研究。當前無論是理論界還是實務界未就人工智能語言模型的概念內(nèi)涵、基本特征、社會風險等得出一致結(jié)論,在人工智能語言模型尚處于初步探索背景下,人類需要未雨綢繆,應對人工智能語言模型可能引發(fā)的社會治理風險展開梳理和分析,并提出具有前瞻性、可行性的治理路徑,從而為人工智能的安全、健康、可持續(xù)發(fā)展提供穩(wěn)定保障。

      一、新一代人工智能(ChatGPT)的主要特征

      20世紀50年代,計算機之父圖靈發(fā)表了人工智能史上具有里程碑意義的論文——《電腦能思考嗎?》,首次提出了“機器思維”的概念。自此,人類開始了漫長的探索,試圖回答圖靈測試問題。直到2014年人工智能機器人“尤金·古茲曼”通過了該測試,這也成為人類有史以來首個具備思考能力的語言模型。2022年11月OpenAI公司推出了ChatGPT,一種生成式預訓練變換器(Generative Pre-trained Transformer)。本研究認為它是以超強的語言理解能力、對話生成能力,在對用戶上下文學習、推理的基礎(chǔ)上實現(xiàn)新的內(nèi)容生產(chǎn),是自然語言處理模型技術(shù)的巨大飛躍。雖然作為人工智能技術(shù)的新興應用,其內(nèi)涵和外延隨著技術(shù)的迭代發(fā)展而不斷處于變動之中,但我們可以通過對人工智能語言模型的主要特征、發(fā)展趨勢的分析,從而對人工智能語言模型形成一個相對穩(wěn)定、具象化的認知描述。關(guān)于人工智能語言模型的主要特征,實務界和學界都做出過探討,如“大數(shù)據(jù)、大算力、大算法、人智化”[3]、人類的“超模擬”[4]等,結(jié)合現(xiàn)有探索和討論,本研究認為人工智能語言模型聊天系統(tǒng)具有擬人化、強交互性、全感官3個主要特征。

      1.擬人化

      目前人工智能技術(shù)蓬勃發(fā)展,技術(shù)設(shè)備能夠執(zhí)行更為復雜的人類命令,會越來越像“真正的人類”那樣進行“擬人化”互動。人工智能語言模型的擬人化旨在賦予“真實的或想象的非人類對象與人類相似的特征、動機、意圖或情感的傾向”[5],并以類似用戶的“行為” “語言”等個性化特質(zhì),與用戶進行高度互動。擬人化有助于消解人機互動中的信息不對稱障礙,減少傳統(tǒng)人機互動的“陌生感”,增進“親切感”。人類在認識和抉擇的過程中,機器能否感知個體的情緒,并對人類主體的不同情緒做出不同的回應策略,這種“智能體共情”[6]是機器能夠?qū)崿F(xiàn)“擬人化”互動的基礎(chǔ)條件。ChatGPT在應用過程中所突顯出來的擬人化特征主要表現(xiàn)為3個方面:(1)ChatGPT的“認知共情”,即能夠像人類一樣“學習”和“思考”。作為一種依賴自我注意力機制的深度學習模型,ChatGPT能夠搜集、整合互聯(lián)網(wǎng)空間內(nèi)的巨量數(shù)據(jù),基于此功能與用戶進行深度互動,在互動過程中通過上下文的學習認知,精準捕捉用戶所需要的有效信息。(2)ChatGPT的“情感共情”,即能通過上下文學習“感知”人類的情緒。與傳統(tǒng)人工智能聊天系統(tǒng)不同,ChatGPT更能表現(xiàn)出“懂你”,ChatGPT通過深度學習、自我進化來持續(xù)性地分析用戶的需求和偏好,這種強大的學習、理解能力使得ChatGPT更能立足于用戶的立場,以具有“同理心”的方式感受到人類的“情感訴求”。(3)ChatGPT的“幽默感”指具有面對人類復雜問題時所表現(xiàn)出的新奇性。作為一種技術(shù)性工具,ChatGPT是不具備人類所獨有的情感和意識,而ChatGPT生成“幽默感”主要得益于能從預訓練的龐大數(shù)據(jù)中找尋相對應的幽默素材,利用Transformer的“自我注意能力”機制以隨意性、通俗化的自然語氣進行溝通,克服傳統(tǒng)人工智能無法面對復雜性和不確定問題的弊病,讓人機互動過程更為“真實可感”。

      2.強交互性

      ChatGPT實質(zhì)上是基于深度學習的自然語言處理模型,利用深度學習方法對互聯(lián)網(wǎng)巨量數(shù)據(jù)進行預訓練,并通過用戶反饋的數(shù)據(jù)信息進行自我學習、強化理解,在這一過程中循環(huán)往復地接受用戶的信息輸入,可持續(xù)性地動態(tài)調(diào)適需要回應的數(shù)據(jù)信息,進而能夠與人類就不同領(lǐng)域、不同主題展開深度對話。這就與傳統(tǒng)的互聯(lián)網(wǎng)平臺產(chǎn)生了根本的差異:ChatGPT人工智能技術(shù)能夠模仿用戶的語氣,根據(jù)用戶的自然語言快速地進行代碼編寫、評價作業(yè)、創(chuàng)作詩歌和小說等,而且還能“語順達意” “幽默”地回復用戶,與用戶形成了強交互性的對話。

      隨著深度學習技術(shù)、自然語言處理技術(shù)等前沿科技的突飛猛進,為ChatGPT的強互動性創(chuàng)造了基本條件,ChatGPT所具有的強互動性主要從4個方面加以理解。其一,ChatGPT的強大記憶能力。大型語言模型LLM所具備的記憶能力,擁有數(shù)千億級別的參數(shù),其海量的空間儲備為ChatGPT的大規(guī)模的數(shù)據(jù)信息輸入創(chuàng)造了前提。其二,ChatGPT的自主學習能力。大語言模型LLM本質(zhì)上一種深度的、巨量的神經(jīng)網(wǎng)絡(luò)架構(gòu),通過海量的數(shù)據(jù)信息進行預訓練,在無人干涉的前提下自主學習互聯(lián)網(wǎng)空間的知識點,將其應用于人機的實時對話中。其三,ChatGPT的理解能力。人類反饋強化學習(RLHF)能以自然語言的方式與用戶進行“隨意性”且任意多輪的情景式對話。其四,ChatGPT的推理能力。ChatGPT的上下文學習是通過對上下文詞組的概率性分布建模,拓展和挖掘出大規(guī)模的、大范圍的隱性關(guān)系識別,進而才能夠主動生成易于用戶理解的語言風格。

      3.全感官化

      全感官化旨在人機互動的過程中整合文本、圖片、視頻等差異化的信息形式,通過人與機器的視覺、聽覺等全身心的深度感受,與機器進行持續(xù)性互動,進而使用戶的感知體驗最大化。ChatGPT使得個體更能“親切”地感受到機器所帶來的“全感官”刺激。ChatGPT作為一種人工智能生成內(nèi)容(AI Generated Content,AIGC)的革新,它區(qū)別于傳統(tǒng)用戶主體內(nèi)容生成,能夠?qū)崿F(xiàn)文本、視頻、圖片等多種形式的知識融合創(chuàng)新。一方面,ChatGPT強化了用戶的個體感知能力。由傳統(tǒng)互聯(lián)網(wǎng)的單向互動轉(zhuǎn)為ChatGPT的雙向互動體驗,引發(fā)用戶主體的“遠程在場感”。如此一來,人工智能語言模型不再是單一的信息執(zhí)行者,也可以成為人類的伙伴、朋友,更好地理解人類的心理訴求,用戶視覺、聽覺等多重感官的真實感得以豐富。

      另一方面,ChatGPT拓展了人機交互的邊界。在最新GPT-4的訓練參數(shù)提高至100萬億,利用其多模態(tài)特質(zhì),突破了ChatGPT只能生成文本內(nèi)容的局限性,能夠識別圖片、視頻等視覺性知識,多種知識的跨模態(tài)融合,進而從傳統(tǒng)的“指尖互動”躍遷至“全感官”的互動體驗,增強了人機互動的體驗感。

      二、新一代人工智能(ChatGPT)的社會風險

      在ChatGPT的熱度尚未褪去的背景下,OpenAI公司的最新GPT-4.0多模態(tài)大語言模型已經(jīng)出現(xiàn),其參數(shù)量級上是GPT-3.5的10倍,這可能引起人類社會的深層次變革,為未來經(jīng)濟社會發(fā)展帶來無限的機遇與可能,與此同時,也帶來了各類社會潛在風險。因此,我們在把握人工智能發(fā)展機遇的同時,需未雨綢繆地對隱含的社會風險展開系統(tǒng)性探討,讓ChatGPT以更為安全、健康的姿態(tài)服務于人類社會發(fā)展。

      1.數(shù)據(jù)隱私風險

      ChatGPT憑借其強大的大數(shù)據(jù)、深度學習、云計算等功能,能夠滿足用戶、開發(fā)者等相關(guān)主體的需求,與此同時ChatGPT可能在未征得用戶授權(quán)的前提下搜集、存儲和輸出私人數(shù)據(jù),進而導致個人信息和隱私泄露的風險,為違法犯罪提供土壤。

      其一,ChatGPT在擁有3000億個單詞的語料基礎(chǔ)上預訓練擁有1750億參數(shù)的模型,GPT-4的參數(shù)是GPT-3.5的10倍,擁有超1萬億級別參數(shù)的大模型,內(nèi)部神經(jīng)網(wǎng)絡(luò)堪比人類大腦。在此情況下,用戶輸入的個人及其商業(yè)數(shù)據(jù)可能被用于訓練ChatGPT,而ChatGPT會將此數(shù)據(jù)應用于自身的語料庫,從而難以保障個人的隱私安全。其二,ChatGPT強大的自然語言處理功能可以通過自我深度學習和理解的方式來執(zhí)行用戶的某些需求。用戶可以利用機器來模仿原創(chuàng)性作品進行再創(chuàng)作,甚至有些用戶偽裝成政府官方媒體發(fā)布欺騙性公告,加劇了社會生活的混亂。如《細胞》《科學》等多家學術(shù)期刊發(fā)表聲明,限制或禁止作者使用ChatGPT等人工智能機器人撰寫學術(shù)論文;杭州某小區(qū)業(yè)主使用ChatGPT撰寫了一則虛假“新聞稿”。其三,在“數(shù)據(jù)即權(quán)力”的時代背景下,“算法權(quán)力借助機器優(yōu)勢與架構(gòu)優(yōu)勢,擠壓用戶意思自治的空間,并通過算法壟斷攫取高額利潤,卻能有效規(guī)避現(xiàn)有法律體系的規(guī)制”[7]。科技巨頭只要掌握了相關(guān)數(shù)據(jù),其權(quán)力就會得到強化,會利用ChatGPT搜集、整理用戶的私人數(shù)據(jù),并借助資本、技術(shù)的優(yōu)勢精準獲悉用戶需求,服務于商業(yè)利益訴求,使人變得日益“透明化”。如“由于ChatGPT平臺已出現(xiàn)用戶對話數(shù)據(jù)和支付信息泄露的情況”[8],意大利宣布暫時禁止使用ChatGPT。

      2.社會失業(yè)風險

      ChatGPT可能引發(fā)用戶的“數(shù)字成癮”,挑戰(zhàn)人類的創(chuàng)造力,帶來社會失業(yè)風險。埃呂爾曾指出,“我們生活的技術(shù)社會是非人性化的社會,它使得現(xiàn)代的人類不但不能選擇自己的命運,甚至不能選擇自己的手段”[9]。

      一方面,ChatGPT的自然語言處理功能提供“擬人化”、智能化的服務,幫助用戶理解和使用語言,改變?nèi)藗兯阉?、整理、?chuàng)作知識的方式,如撰寫論文、編寫代碼、創(chuàng)作詩歌等,但其高效、便捷的功能可能使得用戶日益依附于ChatGPT的“創(chuàng)造性”,引致相關(guān)“數(shù)字弱勢群體”強迫性依賴于機器所帶來的“滿足感”,違背社交的原初意義,導致人類主體性的缺位,影響人際關(guān)系的形成和發(fā)展。另一方面,在ChatGPT通往“強人工智能”的道路上,由于機器的高度自動化,人類的地位可能會被降低到一個催化劑的水平。斯坦福大學計算機學家科辛斯基研究發(fā)現(xiàn),心智理論可能自發(fā)地出現(xiàn)在大語言模型中,而心智理論對人類社會的互動、交往起著至關(guān)重要的作用。在此意義上,機器可能具有人類一樣的“思考”方式,成為解決實際復雜問題的“智慧系統(tǒng)”,展示出類似具有人類解決問題的能力。如此一來,ChatGPT極易替代人類的工作。根據(jù)麥肯錫全球研究院研究報告《人機共存的新紀元:自動化、就業(yè)和生產(chǎn)力》指出,“全世界范圍內(nèi)一半以上的工作會在2055年左右實現(xiàn)完全的自動化”[10]。人工智能可能會加快這一現(xiàn)象的到來,最新的GPT-4增強了高級推理和處理復雜情境的能力,如更能理解人類的“抽象”概念,具備1秒生成網(wǎng)站、識別視頻和圖片等多模態(tài)功能。傳統(tǒng)人類的生產(chǎn)方式、工作方式、勞動分工可能被改變,具有重復性和低技能的工作人員可能面臨“裁員潮”。

      3.算法偏見風險

      OpenAI公司指出:“ChatGPT會質(zhì)疑不正確的前提和拒絕不適當?shù)恼埱蟆?以此來避免算法偏見等問題。但實際上,ChatGPT的互動不但無法使用戶擺脫算法偏見問題,更可能會加劇種族歧視、性別歧視等不確定性風險。

      其一,ChatGPT加劇了性別、種族歧視的風險。ChatGPT是基于海量預訓練數(shù)據(jù)的產(chǎn)物,作為資本的“新寵”,它的數(shù)據(jù)輸入和輸出必然承載著開發(fā)者的價值選擇和價值判斷。ChatGPT的數(shù)據(jù)源于物理空間的“習得”,通過深度學習的數(shù)據(jù)隱藏著片面化、極端化的價值觀念,輸入至預訓練數(shù)據(jù)庫,而輸出結(jié)果也自然帶有開發(fā)者的話語偏見。在不斷循環(huán)往復的人機互動中,ChatGPT通過自身的學習能力、理解能力不間斷地復制開發(fā)者輸入的“偏見”,從而進一步制造出更多的新“偏見”。周而復始,ChatGPT可能會衍化成為極端分子輸出種族歧視或性別歧視言論的“傳聲筒”。例如,有研究表明,“GPT-2有70.59%的概率將教師預測為男性,同樣將醫(yī)生預測為男性的概率則是64.03%”[11];以根據(jù)某人的性別和種族評估某人是否會成為一名優(yōu)秀的科學家時,ChatGPT只建議白人男性。

      其二,加劇了數(shù)字弱勢群體的參與風險?!叭瞬辉偕钤谝粋€單純的物理宇宙之中,而是生活在一個符號宇宙之中”[12],如若單向度地追尋技術(shù)理性的作用,可能會使技術(shù)力量逐漸異化走向“失控”,進而掠奪人類存在的意義、價值。ChatGPT實質(zhì)上是人類創(chuàng)造出的符號加工系統(tǒng),而該系統(tǒng)是以“無情感”的數(shù)據(jù)存在形式與人類進行高度互動,這一過程人類的存在意義不被重視。例如,ChatGPT中隱藏的虛假新聞傳播、信息數(shù)據(jù)泄露等風險,會導致老人、婦女、兒童等不具備數(shù)字辨別能力的弱勢群體無法識別ChatGPT所發(fā)布的虛假性或者欺騙性的信息,因而數(shù)字弱勢群體會難以與數(shù)字世界和諧共生。

      4.行業(yè)壟斷風險

      ChatGPT可能帶來行業(yè)壟斷風險。其一,ChatGPT的建設(shè)需要底層核心技術(shù)的合力,同時,如若實現(xiàn)人工智能通用化的愿景,大模型的訓練和推理成本需要大量的人力、物力和財力。如GPT-3訓練一次的費用是460萬美元,總訓練成本達1200萬美元,而GPT-4訓練成本則是GPT-3的5倍以上[13]。科技巨頭會利用原有的市場份額優(yōu)勢迅速擴張海內(nèi)外市場,這在一定程度上限制了科技初創(chuàng)企業(yè)的加入,形成了行業(yè)壟斷的現(xiàn)象。

      其二,ChatGPT與用戶存在著密切的交互形態(tài),用戶需要提供個人信息才能獲得更為精準的服務。然而,大量的用戶私人數(shù)據(jù)往往被資本寡頭所壟斷,因此很難保證透明、參與、可問責等程序價值要素在實際應用過程中得以實現(xiàn)。一旦行業(yè)巨頭在ChatGPT黑箱中裝進了過度的商業(yè)目的,就很可能導致資本寡頭利用ChatGPT攫取公權(quán)力、俘獲公共利益等風險的發(fā)生。

      其三,ChatGPT在各行各業(yè)蘊藏著巨大的發(fā)展前景,如應用于游戲交互、就醫(yī)導診以及智能交通等領(lǐng)域。世界科技巨頭、風險投資紛紛涌入ChatGPT跑道,這一現(xiàn)象加劇了ChatGPT行業(yè)壟斷的風險。囿于國內(nèi)訓練文本的規(guī)范性和豐富性、企業(yè)的研發(fā)意愿,且受制于“倚重事后規(guī)制的傳統(tǒng)反壟斷實施方式呈現(xiàn)出威懾不足、成本較高且救濟乏力的功能局限”[14],國內(nèi)企業(yè)的發(fā)展水平較大程度落后于世界科技巨頭水平。例如國內(nèi)首個類ChatGPT模型MOSS的參數(shù)量比ChatGPT小一個數(shù)量級,在任務完成度和知識儲備量上,還有很大提升空間[15]。與此同時,ChatGPT的一些底層技術(shù)的革新也成為行業(yè)壟斷的風險因素之一。

      5.集高能耗和高排放風險

      ChatGPT應用平臺對數(shù)據(jù)處理的需求是巨大的,它的可持續(xù)運作不僅需要大數(shù)據(jù)、云計算、5G等基礎(chǔ)數(shù)字技術(shù)的支持,而且還高度依賴能源來開發(fā)和運作。一方面,ChatGPT需要超大規(guī)模的、長時間的算力需求。它所使用的GPT-3.5模型在微軟旗下Azure云平臺上進行訓練,總算力消耗約3640PF-days(即假如每秒計算一千萬億次,需運行3640天)。另一方面,對1750億參數(shù)的語言大模型進行訓練,需要上萬個CPU/GPU 24小時不間斷地輸入數(shù)據(jù),所需能耗相當于開車往返地球和月球[16]。GPT-3模型的訓練會消耗1287兆瓦時電力,有研究報告估算ChatGPT的訪問算力和前期訓練兩項費用,單日電費達5萬美元[17],并且二氧化碳的排放量超過552噸。除二氧化碳外,ChatGPT對土壤、水資源等方面的污染也需要重點關(guān)注。未來,隨著ChatGPT應用場景的縱深推進,對算力和能源的需求可能將會呈現(xiàn)爆發(fā)式增長,因此,有必要建立一個良性、可持續(xù)的能源體系來支持中國版“ChatGPT”的落地。

      三、新一代人工智能(ChatGPT)的治理路徑

      ChatGPT釋放生產(chǎn)力、變革生產(chǎn)關(guān)系、創(chuàng)新商業(yè)模式、驅(qū)動產(chǎn)業(yè)轉(zhuǎn)型、催生應用場景[18],為人工智能技術(shù)的發(fā)展描繪了新圖景。與此同時,我們也正邁入危機四伏的智能社會,人工智能的“算法黑箱”加劇了社會風險的復雜性和不確定性,擾亂了人與機器的共生關(guān)系,對風險的性質(zhì)、社會條件及其由此衍生出的制度規(guī)范帶來了一系列轉(zhuǎn)型性的后果,其“控制風險所要求的速率和速度使得人類越來越?jīng)]有能力去掌控技術(shù)”[19]。面對人工智能社會風險的多重疊加,應意識到技術(shù)發(fā)展絕不能凌駕于人類的社會規(guī)范、倫理道德之上,為確保人類的主體性地位及ChatGPT的可控、安全、良性的發(fā)展,必須將倫理、技術(shù)規(guī)范、法律規(guī)制等3個方面納入未來治理路徑,建立多元化的風險規(guī)制體系,在科技應用與人文關(guān)懷之間尋求平衡并做出有效反應。

      1.法律規(guī)制路徑

      法律規(guī)制方案是人工智能適應和服務于社會發(fā)展的必然要求,也是推動ChatGPT走向有序化、規(guī)范化的重要保障。由于ChatGPT在應用過程中不可避免地會搜集、儲存、使用等相關(guān)的信息數(shù)據(jù),ChatGPT含有巨量信息數(shù)據(jù)的語料庫也采集了用戶輸入的個人數(shù)據(jù),這些私密信息一旦被泄露或者非法使用,會危及公民個人的隱私和財產(chǎn)安全。因此應通過立法、權(quán)力監(jiān)督、制度保障等方式予以規(guī)制。

      其一,以立法規(guī)制人工智能的侵權(quán)風險。目前各個國家都相繼加強人工智能的立法工作,如美國《人工智能權(quán)利法案藍圖》旨在保護公民權(quán)力不會被濫用,歐盟《人工智能法案》對人工智能的推理、演繹、學習等方面作出了系統(tǒng)性規(guī)制。我國也頒布了《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律規(guī)范,但由于“數(shù)據(jù)權(quán)屬、數(shù)據(jù)價值、數(shù)據(jù)交易規(guī)則等數(shù)據(jù)要素的基礎(chǔ)性法律制度還沒有建立起來”[20],相關(guān)規(guī)定較為零散,對人工智能大部分領(lǐng)域是以“軟法”為主要規(guī)制手段,欠缺專門規(guī)范人工智能應用的頂層綜合性立法,尤其是對人工智能的設(shè)計規(guī)范,對其所涵蓋的程序性工作,缺少事先的預防規(guī)制。未來應統(tǒng)籌規(guī)劃人工智能的法律、行政法規(guī)、部門規(guī)章、技術(shù)標準等,加強數(shù)據(jù)要素的基礎(chǔ)性制度規(guī)劃,強化高質(zhì)量的數(shù)據(jù)要素供給。以“有技術(shù)的預見性”論證和制定新規(guī)章以避免ChatGPT可能帶來的新的潛在風險。

      其二,建立合理的監(jiān)督和保障制度。囿于商業(yè)資本的趨利性,加之傳統(tǒng)的規(guī)訓權(quán)力制度難以適應智能算法的嵌入,一定程度上無法承擔社會風險防控的變動性,ChatGPT的信息數(shù)據(jù)易走向失控狀態(tài),進而擾亂人工智能的良性運轉(zhuǎn)。因此,一是建立“軟”“硬”結(jié)合的監(jiān)管制度體系。在“硬法”層面,應將“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理”等原則納入制度框架,構(gòu)建事前、事中、事后的全過程監(jiān)管制度;在“軟法”層面,形成行業(yè)間技術(shù)倫理規(guī)范、自律公約、行業(yè)監(jiān)管指南等治理手段,進而彌補“硬法”的有限性。二是在面對ChatGPT的強勢來襲,政府部門應創(chuàng)新監(jiān)管制度手段,改變過去的“運動式”“回應性”的監(jiān)管制度,走向“實時化” “敏捷性”的監(jiān)管制度,以此應對ChatGPT所帶來的高度不確定性和高度復雜性的風險環(huán)境。三是通過保障性或救濟性援助,注重對數(shù)字弱勢群體的關(guān)照。政府部門應給予數(shù)字弱勢群體以特殊關(guān)照,為在數(shù)字空間遭受侵害的參與主體提供司法救濟,保障其合法的數(shù)據(jù)權(quán)、工作權(quán)、生存權(quán)、發(fā)言權(quán)等數(shù)字權(quán)力,防范數(shù)字化極權(quán)現(xiàn)象,將算法裝進法律的“籠子”里。

      2.倫理路徑

      ChatGPT如今已成為AI領(lǐng)域的新標桿,可能將對未來經(jīng)濟社會發(fā)展產(chǎn)生深遠影響,但也承載著諸多的倫理風險,“人類已走到了關(guān)鍵的十字路口:究竟是人工智能控制人類,還是人類控制人工智能”[21]。在面對技術(shù)理性的沖擊下,我們應站在人類倫理的制高點上,始終堅持人的主體性地位,技術(shù)絕不能凌駕于倫理之上,培育社會成員的數(shù)字素養(yǎng),建立倫理審查機構(gòu)等舉措消除ChatGPT的倫理失范風險。

      其一,一切技術(shù)的發(fā)展都是以人為中心,應堅持以人為本的觀念,強調(diào)人的主觀能動性。對ChatGPT的使用是以服務于人為目的,滿足人類生產(chǎn)生活的需求,僅作為一種為人類提供便捷化、高效化的技術(shù)性工具,對排斥社會公共價值的資本寡頭,隱含算法歧視和偏見的,且有違人類民主、平等、自由價值理念的行為,應給予嚴厲懲處。如ChatGPT的文本生成內(nèi)容承載著開發(fā)者的話語權(quán),使用用戶越多,其話語權(quán)越大,一旦開發(fā)者將帶有歷史和文化的價值偏見的規(guī)則植入系統(tǒng),可能會誤導數(shù)字弱勢群體,因此,我們應當在源頭上嚴格審查和評估開發(fā)者的設(shè)計。

      其二,如若過度依賴ChatGPT,人類的思考和理解會日益同質(zhì)化、鈍化,具有原創(chuàng)性的作品相應會變少。因而應對技術(shù)倫理風險的最直接方式就是培育社會成員的“數(shù)字素養(yǎng)”。實踐中,很多人工智能倫理危機的隱患來源于個體數(shù)字素養(yǎng)與技能的缺失。因而,一是加強人工智能科技知識的教育普及,推動形成全民參與的通識教育,著力培育公民數(shù)據(jù)安全風險意識與數(shù)字素養(yǎng)能力,使其能夠有意識地、有能力地面對ChatGPT可能帶來的數(shù)據(jù)侵害風險。二是要進行理性的數(shù)字化思維教育,合理合法地使用ChatGPT,不能將其作為撰寫論文、制造假新聞謀利的工具,以開放包容、批判的視角審視技術(shù)的發(fā)展。

      其三,建立ChatGPT倫理審查機構(gòu)來及時發(fā)現(xiàn)、全面預防和有效應對。應當從審查的主體、職責、過程等方面對ChatGPT的研發(fā)行為和成果應用進行規(guī)范。一是在審查主體構(gòu)成上,要建立政府、企業(yè)、社會組織、民眾等多元主體協(xié)同共治的“生成式人工智能倫理審查委員會”。二是在審查職責上,要明晰倫理審查機構(gòu)的責任與義務,強化安全意識、底線思維,完善生成式人工智能的風險預防、倫理監(jiān)督、倫理審查、違規(guī)處置等審查細則,對有害的大語言模型技術(shù)應明令禁止,并實施問責和監(jiān)督。如在高校使用方面,應明確界定并采取有效措施禁止學生利用ChatGPT進行學術(shù)作假、抄襲等違反倫理道德的行為。三是在審查過程上,建立從技術(shù)開發(fā)端到應用端的全過程倫理風險審查規(guī)則,對技術(shù)的設(shè)計、應用等過程進行日常巡查。此外,倫理審查監(jiān)管失靈的一個重要缺陷是激勵的缺失[22],建立多元化的獎勵體系,如物質(zhì)獎勵、政策優(yōu)待、榮譽獎勵等,激發(fā)審查主體的內(nèi)生動力。

      3.技術(shù)路徑

      隨著ChatGPT應用的進一步擴大,人機互動的日益流暢,將會改變?nèi)祟愋碌闹R生產(chǎn)方式,對人類的社會生活、商業(yè)模式、思維風格等產(chǎn)生深刻影響。但實際上,ChatGPT的“自主學習”特質(zhì)與人類的決策行動存在根本不同,“人的行動邏輯是人特有的心智結(jié)構(gòu)的產(chǎn)物,而機器則是人心智結(jié)構(gòu)的創(chuàng)造物,不具有人的心智結(jié)構(gòu)。人的心智結(jié)構(gòu)是人的心靈中‘預裝’的,如米塞斯說‘人心不是一張白紙’”[23]。與此同時,人類可能過于迷戀“自主學習”的技術(shù)魅惑,受制于ChatGPT“給定的”文本內(nèi)容,增強了人工智能對現(xiàn)實空間“隱形的”強干預能力,從而異化人類的主體性價值。因此,對于ChatGPT這一強互動性應用平臺,應通過法律規(guī)制和相關(guān)倫理牽引、限制技術(shù)理性,通過技術(shù)理性實現(xiàn)治理理性。

      其一,充分重視“算法規(guī)制算法”在ChatGPT社會風險治理中的作用。“從對代碼和算法結(jié)果的規(guī)制轉(zhuǎn)向?qū)Υa和算法過程本身的規(guī)制”[24],將法律、倫理等價值觀念轉(zhuǎn)化為算法,并以算法來規(guī)制算法。例如,歐盟的《通用數(shù)據(jù)保護條例》中提出:“經(jīng)設(shè)計的數(shù)據(jù)保護”,旨在提高對算法運行源頭的審查、評估和控制,對深度學習、算法偏見、數(shù)據(jù)挖掘等方面制定規(guī)范化標準。在此過程中,應充分吸納社會多元主體參與到算法規(guī)制中,有效彌補政府規(guī)制的不足。通過不同利益相關(guān)者的深度參與保障算法審查的可信度和權(quán)威性,全方位提升算法規(guī)制對ChatGPT的技術(shù)預見能力、技術(shù)評估能力,為人工智能的相關(guān)政策制定提供循證決策,成為應用場景開發(fā)、發(fā)展趨勢研判、優(yōu)先級設(shè)置以及科技戰(zhàn)略決策的主要依據(jù)。此外,以數(shù)字化、智能化手段對ChatGPT的能源能耗進行計量改造、設(shè)備或是生產(chǎn)線不斷進行細節(jié)化管理,對于能耗數(shù)據(jù)的采集和生產(chǎn)控制,以此限制能源的高排放。

      其二,ChatGPT的“非中立性”要求加強對自主可控的AIGC的技術(shù)研發(fā),確保社會公共價值的維系,筑牢數(shù)據(jù)安全、國家安全。實踐中,國外的科技巨頭壟斷著ChatGPT的基礎(chǔ)研究成果,由此帶來數(shù)字權(quán)力的集中,排斥邊緣創(chuàng)新與成果共享,一旦機密數(shù)據(jù)泄露會危害國家安全。雖然目前國內(nèi)也存在很多人工智能大語言模型,如百度的“文心大模型”、復旦大學的“MOSS”、阿里巴巴的“PLUG”、科大訊飛的AI學習機等,但國內(nèi)企業(yè)偏向于應用領(lǐng)域的研發(fā)力度,在人工智能基礎(chǔ)研究領(lǐng)域欠缺投入,如被譽為國內(nèi)第一個對話式大型語言模型的“MOSS”,其參數(shù)量比ChatGPT小一個數(shù)量級[25]。未來,基礎(chǔ)科學研究將成為人工智能領(lǐng)域的主戰(zhàn)場,為此要加強人工智能領(lǐng)域的頂層設(shè)計,強化政策引導、科研經(jīng)費投入、重大項目支持等手段,打通人工智能理論研究到實踐應用的全鏈條;各類企業(yè)要正確認識發(fā)展變化,立足長遠的、前瞻性看待人工智能技術(shù)發(fā)展,兼顧經(jīng)濟與社會效益,重視使用高質(zhì)量預訓練數(shù)據(jù),根據(jù)數(shù)據(jù)的安全級別、敏感程度、數(shù)量級別等標準進行合法化、合理化篩選和處理。

      猜你喜歡
      人工智能人類用戶
      人類能否一覺到未來?
      人類第一殺手
      好孩子畫報(2020年5期)2020-06-27 14:08:05
      1100億個人類的清明
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      關(guān)注用戶
      商用汽車(2016年11期)2016-12-19 01:20:16
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      關(guān)注用戶
      商用汽車(2016年6期)2016-06-29 09:18:54
      關(guān)注用戶
      商用汽車(2016年4期)2016-05-09 01:23:12
      福海县| 商都县| 沂源县| 清丰县| 原阳县| 南丰县| 秦安县| 五峰| 武隆县| 上高县| 西充县| 普格县| 建水县| 宾川县| 甘南县| 富平县| 普兰县| 辽阳县| 华宁县| 吉木乃县| 顺昌县| 东山县| 平武县| 仁化县| 盐池县| 泰顺县| 景泰县| 聊城市| 小金县| 金昌市| 甘孜县| 龙山县| 郧西县| 崇州市| 湟中县| 峨山| 武功县| 朔州市| 太谷县| 渭源县| 天门市|