姚守宇 王春峰
摘 要:ChatGPT 作為新一代人工智能技術,將深刻地影響人類的經濟和社會發(fā)展。本文分析了ChatGPT 在人工智能產業(yè)、勞動力與就業(yè)、教育以及科學研究和科技倫理等多個領域的發(fā)展機遇與挑戰(zhàn)。研究認為,ChatGPT 加速了生成式AI 布局、勞動力市場結構演進和教育體系重塑,但與此同時也帶來了科技與學術倫理、價值滲透、信息泄露等問題。此外,ChatGPT 也存在著潛在威脅,其快速產業(yè)應用或將給傳統(tǒng)產業(yè)帶來了難以估量的調整成本,相應的認知污染可能會引發(fā)知識和價值觀偏差。為充分利用好ChatGPT 帶來的發(fā)展紅利,加速各種應用場景落地,并防范其可能引發(fā)諸多沖擊和風險,本文最后提出了系列政策建議。
關鍵詞:ChatGPT;人工智能;技術沖擊;社會變革;政府監(jiān)管
DOI:10.19313/j.cnki.cn10-1223/f.20230310.002
一、引 言
自2010 年起,社會技術革新進程日益加快,人工智能領域呈現(xiàn)出飛速發(fā)展和逐步廣泛應用的態(tài)勢(何哲,2016)。以新一代信息技術為支撐的人工智能正逐漸成為新時代產業(yè)革命與社會經濟發(fā)展的新型支撐力量。學界已有大量研究表明人工智能對經濟增長、生產率與技術創(chuàng)新、勞動力市場、收入分配、市場結構與產業(yè)組織、法律規(guī)則與法律秩序等諸多方面產生影響(Autor 等,2003;Acemoglu & Restrepo,2020;Acemoglu 等,2022;Fumagalli 等,2022;吳漢東,2017;曹靜和周亞林,2018;陳彥斌等,2019)。2022 年11 月30 日,美國人工智能公司OpenAI 發(fā)布的ChatGPT以其“對話式”的直接互動方式及“人性化”的語言文本服務讓人們進一步感受到人工智能的魅力,打破了對于生成式人工智能技術的傳統(tǒng)認知。僅在發(fā)布短短兩個月后,ChatGPT 的月活躍用戶數(shù)已達一億,成為史上用戶數(shù)增長最快的消費者應用。ChatGPT 的出現(xiàn)掀起了人工智能技術投資與發(fā)展的浪潮,改變了現(xiàn)有的產業(yè)格局,給傳統(tǒng)產業(yè)帶來了強烈的沖擊和重大的發(fā)展機遇。那么,ChatGPT作為一種廣泛影響人類經濟生活的新一代人工智能技術,應該采取何種政策加以規(guī)范和引導正逐漸成為重要的研究問題。
從現(xiàn)有研究成果來看,國內外學者已經就ChatGPT 對科學研究方面的影響進行了探究。BertGordijn 等(2023)認為ChatGPT 的發(fā)明可能會提升科研人員的工作效率。例如,當學者們文思枯竭時可以將ChatGPT 作為一種工具或一種搜索引擎,甚至可以讓ChatGPT 作為討論者加入這場頭腦風暴,在碰撞中產生新的思想火花,提升科研工作效率。進一步,Eva 等(2023)發(fā)現(xiàn)已有研究人員使用這種對話式的人工智能來進行統(tǒng)計分析、總結文獻內容以及撰寫論文和演講內容,加速了創(chuàng)新進程,縮短發(fā)表時間,幫助人們更流暢地寫作。然而,ChatGPT 帶來機遇的同時,也使人類暴露于諸多危險與挑戰(zhàn)中。ChatGPT 作為“非人類”,無法擁有人的思考能力以及道德倫理觀念,它所需要的是源源不斷大數(shù)據(jù)的滋養(yǎng),進而消化吸收,在不斷讀取數(shù)據(jù)的過程中訓練其深度學習的能力。一方面,ChatGPT 所生成的文本內容容易出錯。例如,它可能會編造并不存在的文獻,且輸出內容冗長重復(Gordijn & Have,2023),這會降低研究的質量以及透明度,從根本上改變科研人員的自主性(Eva 等,2023),使得科學研究結果不再可靠。另一方面,ChatGPT 輸出的文本內容又很難被識別。研究人員將ChatGPT 所生成的摘要送去評審時,僅有63%的內容被審稿人識別(Thorp,2023),這必然會影響所發(fā)文章的科學性與公正性。同時,ChatGPT 在引用文章回答用戶問題時,是否會侵犯被引用文章作者的權利?ChatGPT 能否作為文章寫作的工具?倘若作者使用ChatGPT 是否需要將生成內容標注?這些都是需要進一步深刻思考的問題。此外,ChatGPT 的“爆紅”有極大可能改變甚至顛覆人們的生存與交往方式,重新塑造社會的資源分配方式。然而,由于ChatGPT 推出時間較短,目前鮮有研究系統(tǒng)剖析ChatGPT 對經濟和社會發(fā)展的影響,更未系統(tǒng)討論ChatGPT 的潛在威脅,以及政府應采取的監(jiān)管對策。
在上述背景下,本文以ChatGPT 技術沖擊為切入點,從傳統(tǒng)人工智能產業(yè)、勞動力與就業(yè)、教育以及科學研究與科技倫理四個方面進行探討,探究新一代人工智能技術發(fā)展對經濟與社會的影響。本文研究認為,ChatGPT 加速了生成式AI 布局的同時也可能對傳統(tǒng)人工智能產業(yè)的生存造成打擊并引發(fā)倫理與安全挑戰(zhàn)。在勞動力與就業(yè)方面,ChatGPT 的出現(xiàn)對不同技能勞動者的影響是不同的,中等技能勞動者受到影響較大,而高等和低等技能勞動者受到影響相對較小。在教育方面,ChatGPT 對教育體系的沖擊加速了人們對教育方式、教育側重點和教育評價的思考。在科學研究與科技倫理方面,由于ChatGPT 生成的學術研究不滿足嚴謹性和科學性,從而助長了虛假信息傳播和剽竊抄襲等行為并影響了整個學術生態(tài)。同時,ChatGPT 創(chuàng)建者所在的大型企業(yè)利用技術的壟斷也帶來了科技倫理問題和價值滲透問題。最后,本文也分析了ChatGPT 對社會運行機制、社會安全和社會主體層面的潛在威脅,展望了ChatGPT 自身技術的完善和應用場景的落地,并提出了相應的監(jiān)管政策建議。
與國內外既有文獻相比,本文的主要貢獻體現(xiàn)如下:一方面,開拓了ChatGPT 對經濟和社會等方面影響的探索。已有文獻主要集中在ChatGPT 對科學研究的影響方面,而本文則從人工智能產業(yè)、勞動力與就業(yè)、教育以及科學研究等諸多方面分析了ChatGPT 所帶來的影響,討論AI 行業(yè)中科技哲學及倫理問題,分析了ChatGPT 對于經濟和社會潛在的威脅及未來發(fā)展趨勢,并就這種潛在的顛覆性技術的影響討論應對策略。另一方面,以ChatGPT 為研究對象,本文拓展了人工智能領域對經濟和社會影響的研究視角。ChatGPT 作為新一代生成式人工智能產品,對它的研究將會進一步豐富人工智能領域的相關文獻,從而對新一代人工智能領域所帶來的產業(yè)發(fā)展空間具有啟發(fā)意義,對人工智能監(jiān)管模式變革具有政策參考價值。本文余下部分的結構安排為:第二部分對ChatGPT 的概念及其發(fā)展脈絡進行梳理;第三部分在總結前人的觀點的基礎上,從傳統(tǒng)人工智能行業(yè)、勞動力與就業(yè)、教育行業(yè)等方面探討ChatGPT帶來的機遇,以及可能造成的產業(yè)沖擊;第四部分則進一步分析了ChatGPT 的潛在威脅與未來發(fā)展趨勢;第五部分在上述論述基礎上,結合以往的相關政策文件,提出針對類似ChatGPT 的人工智能監(jiān)管的可行性建議。
二、ChatGPT 的概念與主要特征
ChatGPT(Chat Generative Pre-trained Transformer)的中文全稱為生成型預訓練變換模型。它是美國人工智能研究實驗室OpenAI 于2022 年11 月30 日發(fā)布研發(fā)的聊天機器人程序,使用了Transformer 神經網絡架構(GPT-3.5 架構)。ChatGPT 是一款人工智能技術驅動的自然語言處理工具,通過海量數(shù)據(jù)存儲和高效設計架構理解和解讀用戶請求,可以以近乎人類自然語言的方式生成具有“較高復雜度的回應文本”,甚至能完成撰寫、視頻腳本、文案、機器翻譯、分類、代碼生成、對話AI 等任務。ChatGPT 的原理是在GPT3.5 的基礎上增加了人類反饋強化模型,使用人類偏好作為獎勵信號來微調模型,并引入“人工標注數(shù)據(jù)+強化學習”來反復訓練(令小雄等,2023)。特別地,由OpenAI 團隊近期最新發(fā)布的新一代多模態(tài)預訓練大模型GPT-4,相較于上一代模型而言,更是在輸入限制、識別能力以及內容生成準確性和多樣性等多個方面實現(xiàn)了飛躍式的提升,并在各種專業(yè)測試和學術基準上有著人類水平的表現(xiàn)。與傳統(tǒng)人工智能技術相比,ChatGPT 及其迭代更新代表了未來人工智能的發(fā)展趨勢,它可以基于大數(shù)據(jù)集自己生成內容,在語言能力、語言風格、論證效力及思想深度上賦予了新一代人工智能技術的鮮明特征。
第一,在語言能力方面,ChatGPT 的可互動性是基于OpenAI 公司開發(fā)的GPT-3 架構的大型語言模型LLM(Large Language Model)。通過在大量的文本數(shù)據(jù)上進行預訓練,ChatGPT 可以實現(xiàn)出色的語言理解能力,生成更自然、更流暢的文本。同時,基于人類反饋的強化學習模型和微調技術,ChatGPT 能夠有效記憶所有歷史對話,從而可以顯著提升連續(xù)多輪對話的能力。普通人工智能機器人大多使用的是基于規(guī)則的模型或基于機器學習的模型?;谝?guī)則的模型通常需要手動編寫大量的規(guī)則,對特定的問題和回答進行匹配,因此訓練效率低、準確率差、連續(xù)對話能力弱。在普通的人工智能對話系統(tǒng)中,經多輪對話后,話題的一致性難以保障。相對比而言,ChatGPT 在理解準確度、用戶意圖有效捕捉、連續(xù)對話能力等核心功能上有顯著提升,并敢于質疑人類提問的不正確及承認回答中的錯誤。作為人機互動的輔助工具,ChatGPT 具有更高的適應性,其語言理解和生成水平的便捷性能夠更快更好地回答客戶問題,能夠廣泛應用于業(yè)界和客戶服務,在教育、醫(yī)療、媒介、法律等領域發(fā)揮重要作用。
第二,在語言風格方面,ChatGPT 基于強大的自然語言生成式模型,其訓練的“自然語言處理”(NLP)模型使ChatGPT 具有擬人化風格,為提供各種靈活性話術、更人性化風格的語言文本服務賦能(令小雄等,2023)。普通的人工智能機器人語言表達方面具有“非自然語言生成式”特點,其語言風格呈現(xiàn)出明顯的僵硬化和機械化,不便于同人類的交流與合作。相比于普通的人工智能,ChatGPT 克服了以往人工智能語言非人化的缺點,能夠提供更加自然、人性化的對話體驗,被稱為“有史以來向公眾發(fā)布的最好的人工智能聊天機器人”。但是,ChatGPT 在涉及人類情感細微之處的理解或措辭的使用方面還不太準確,整體語言風格也缺乏個性化,更像是多種混合的中性風格。ChatGPT 表現(xiàn)的語言趨同化或同質化將對語言倫理產生影響。
第三,在論證效力方面,ChatGPT 在以往大語言模型的基礎上,其語料庫中構建了邏輯模型或數(shù)理模型。通過使用更高的計算資源,ChatGPT 在回答邏輯推理相關的問題時能夠展示出較詳細的邏輯推理步驟和推理結果。普通人工智能論證能力的實現(xiàn),本質上是通過大量參數(shù)模型對海量數(shù)據(jù)進行擬合,按照固定的程序運行,其嚴重依賴于數(shù)據(jù)。如果訓練集中尚未存在某種情況,普通的人工智能很難對此展現(xiàn)出邏輯思考能力。因此,ChatGPT 獲得了比普通人工智能更高的計算能力、準確性和邏輯上的連貫性。但由于技術盲區(qū)限制,ChatGPT 目前仍然是深度學習模型,僅僅學會了推理的表面邏輯,不具備較強的邏輯推理能力和因果關系的數(shù)理運算能力。ChatGPT 只能依靠語料庫驅動中的概率匹配,在相近數(shù)據(jù)中得出一個估計值。因此,在基本的四則運算中ChatGPT 還經常出錯。
第四,在思想深度方面,ChatGPT 是基于各知識領域數(shù)據(jù)庫和在巨大的文本語料庫基礎上進行預訓練的大型語言模型。ChatGPT 基于的是內在邏輯,具備思考或深度學習能力?;谟柧殧?shù)據(jù)庫和模型結構的自動學習生成能力,語料庫可以無限擴充,ChatGPT 的學習力和涉獵認知范圍將不斷增加,擁有舉一反三的能力。因此,ChatGPT 的思考或計算的樣本范圍極其龐大。然而,普通人工智能在復雜問題理解方面還不具備與人類近似或同等的智能行為,只能通過“喂養(yǎng)”大量數(shù)據(jù)之后,基于對應關系進行模仿。如果沒有按照人工智能習慣的方式進行提問,普通人工智能其回答往往答非所問。此外,ChatGPT 還擁有上下文矯正的能力,即ChatGPT 被指出問題后會立刻意識到問題所在,并及時準確地修正相關信息,而以往的人工智能尚未擁有交互修正能力的通用模型。但是,ChatGPT 只是在龐大的語料庫基礎上通過深度學習實現(xiàn)仿風格化,在創(chuàng)作時有抄襲痕跡(令小雄等,2023)。此外,新一代模型GPT-4 是ChatGPT 的進一步突破,并體現(xiàn)出更多的可能性。從目前的進展來看,相對于GPT-3.5,GPT-4 更可靠、更有創(chuàng)意,并且能夠處理更細微的指令和新的、令人興奮的任務。語言能力方面,GPT-4 在26 種語言測試的24 種中的性能表現(xiàn)優(yōu)于GPT-3.5 和其他LLMs的英語表現(xiàn),包括如拉脫維亞語、威爾士語和斯瓦希里語等低資源語言,另外,在一些最初基于人類設計的模擬考試中,GPT-4 也表現(xiàn)出更好的成績,而且已被團隊內部用來幫助人類評估人工智能的輸出。輸入功能方面,GPT-4 在原有文本輸入的基礎上進一步支持圖像提示,實現(xiàn)了可視化輸入。
可操縱性方面,目前開發(fā)者已經可以通過在“系統(tǒng)”消息中描述一些方向來規(guī)定他們的AI 的風格和任務,而不是只具有固定的冗長、語調和風格的經典ChatGPT 個性,即系統(tǒng)消息允許API 用戶在一定范圍內顯著自定義用戶體驗。當然,盡管GPT-4 在測試評估和功能實現(xiàn)上較GPT-3 而言展現(xiàn)了略好的表現(xiàn),但仍存在和早期模型類似的局限性,并非完全可靠,比如產生事實“幻覺”,錯過微妙的細節(jié),生成有害建議、錯誤代碼或不準確的信息,存在“越獄”風險等,以及其附加功能將帶來的新的風險面。在不久的將來,開發(fā)團隊將進一步部署安全技術來彌補缺陷,并不斷優(yōu)化模型的預測能力,從而為社會提供來自未來模型預測的更好的指導(OpenAI,2023)。
三、ChatGPT 對于經濟和社會的機遇與挑戰(zhàn)
(一)對人工智能產業(yè)的影響
ChatGPT 的推出被視為人工智能技術歷史上的重要里程碑,其以強大的算力支撐,從量變走向質變,達到了當前AI 技術的巔峰水平。正是由于ChatGPT 所具有的重要意義,國內外科技巨頭紛紛加快了針對以ChatGPT 為代表的生成式AI 的布局,加速了AI 智能化時代的進一步推進。這一進程為人工智能產業(yè)帶來了機遇,但同時也伴隨著許多未知的風險。
1.機遇:加速了AI 時代進程,促進國內外科技巨頭積極布局生成式AI
ChatGPT 將人機對話推向了新的高度的同時,也為推動人工智能產業(yè)的發(fā)展走向新篇章帶來機遇。國內外科技巨頭紛紛展開新一輪AI 競賽,積極布局生成式AI。ChatGPT 模型的研發(fā)主要基于強大算力和資金支持,OpenAI 研發(fā)的GPT-1 在2018 年僅有1.17 億參數(shù),而到2020 年的GPT-3就實現(xiàn)了1 750 億參數(shù)量。在OpenAI 基礎上,國內科研團隊也相繼推出了許多大型模型。例如,由清華大學聯(lián)合智譜AI 于2022 年發(fā)布的中英雙語模型GLM-130B,參數(shù)規(guī)模為1 300 億參數(shù),已經達到了GPT-3 的水平。據(jù)慧博智能投研中所公布的Pitch Book 統(tǒng)計數(shù)據(jù),2022 年生成式AI 賽道總共獲得約14 億美元的融資,幾乎達到了過去5 年的總和。除了OpenAI、Stability AI 等明星公司,其他初創(chuàng)企業(yè)如Jasper、Regie.AI、Replika 等也獲得了資本的關注和支持,獲得上億美元的融資。在ChatGPT 的應用探索中,微軟公司作為OpenAI 的最大投資方也是最大受益方,開始圍繞ChatGPT,將其整合入旗下所有產品中(例如,Bing 引擎、Office 全家桶等),以提升產品競爭力,實現(xiàn)多種應用場景的落地。亞馬遜公司已經將ChatGPT 集成在多種工作職能中。Jasper 公司通過采用OpenAI 下的GPT-3 作為技術底層,提供高質量文本內容。美國新媒體巨頭Buzzfeed 也在ChatGPT浪潮的風口上宣布計劃采用ChatGPT 協(xié)助內容創(chuàng)作等。
此外,為應對ChatGPT 帶來的對搜索引擎領域的顛覆性改變,國內外互聯(lián)網巨頭紛紛布局AIGC,其不僅是類ChatGPT 產品,還包括多種相關場景應用。例如,谷歌旗下的DeepMind 公司于2022 年推出Sparrow 機器人,采用一種基于人類反饋的強化學習(RL)框架,并將在2023 年末進入測試階段。同時,谷歌宣布向ChatGPT 的競爭對手Anthropic 公司投資約3 億美元,以建立新的合作伙伴關系。Anthropic 公司于2023 年公布名為Claude 的AI 聊天機器人,但目前仍處于實驗階段。除此之外,亞馬遜與AI 制圖平臺Stability AI 合作,為其提供亞馬遜Tradium 芯片。在國內,近期各互聯(lián)網大廠也在籌備類ChatGPT 的相關計劃,華為諾亞方舟實驗室聯(lián)合多部門推出首個2 000 億參數(shù)中文預訓練模型盤古α;百度官宣類ChatGPT 大模型文心一言(ERNIE BOT);騰訊則在2 月3 日公布了一項人機對話專利。
2. 挑戰(zhàn):對傳統(tǒng)人工智能產業(yè)的生存打擊及可能引發(fā)的倫理與安全挑戰(zhàn)
作為一種基于自然語言處理技術的搜索引擎服務,ChatGPT 具備自學習和自優(yōu)化能力,可以通過對海量數(shù)據(jù)的處理不斷改進自身算法和模型,實現(xiàn)更加智能化、人性化的搜索。ChatGPT 的出現(xiàn)對傳統(tǒng)搜索引擎的商業(yè)模式構成了挑戰(zhàn)。根據(jù)Statcounter 數(shù)據(jù),2020 年至2022 年間,谷歌的全球市場份額超過90%,是全球搜索引擎市場的絕對霸主,而由OpenAI 研發(fā)的ChatGPT 的出現(xiàn)對谷歌的搜索引擎形成了挑戰(zhàn)。然而,ChatGPT 也存在自身缺陷,包括數(shù)據(jù)泄露風險、信息準確性風險和AI 倫理風險。ChatGPT以海量數(shù)據(jù)庫信息為依托,其中包括了大量的互聯(lián)網用戶自行輸入的信息。因此,如果用戶個人輸入私密信息,ChatGPT 可能將其納入自身語料庫。雖然ChatGPT 所屬公司承諾刪除所有個人身份信息,但未說明刪除方式。同時,在無法對ChatGPT 的數(shù)據(jù)來源進行事實核查時,仍需注意數(shù)據(jù)泄露風險。此外,ChatGPT 提供的信息并不總是準確的,需要一定的專業(yè)知識辨別真?zhèn)巍M瑫r,也可能存在有不法人士利用ChatGPT 進行詐騙等違法行為。最后,隨著ChatGPT 等人工智能技術發(fā)展越來越成熟和先進,人工智能與人的邊界會受到沖擊與挑戰(zhàn)。此外,也有可能存在算法歧視問題。
目前的研究表明,預訓練語言生成模型可能會再現(xiàn)有害的社會偏見和刻板印象。例如,GPT-3 可能存在明顯的宗教偏見和性別歧視等問題(Abid A et al.,2021;于洋,2022)。
(二)對勞動力與就業(yè)的影響
隨著人工智能技術的迅速發(fā)展,AI 逐漸在一些具有簡單規(guī)則性、應用經濟性、技術實現(xiàn)性的工作領域替代人類。ChatGPT 的出現(xiàn)對于那些只依靠舊有技能和方法工作的人可能產生巨大挑戰(zhàn)。
同時,ChatGPT 的出現(xiàn)對不同技能的勞動者的影響也是不同的,其中中等技能勞動者受到影響較大,而高等和低等技能勞動者受到影響相對較小。
1.ChatGPT 出現(xiàn)將不斷加快人工智能對人類常規(guī)工作的替代
人工智能技術的不斷發(fā)展和進步,正在改變著我們的生活和工作方式。從既往路徑來看,AI 可以替代的工作通常具有簡單規(guī)則性、應用經濟性和技術實現(xiàn)性的特點(金峰,2023)。簡單規(guī)則性的工作是指一些通常需要執(zhí)行重復性的任務,并且具有清晰的指導原則和明確步驟的工作,在很大程度上可以由AI 代替。例如,在文檔撰寫中,AI 可應用于類似做“填空題”的自然災害快報。在確定好時間、地點、事件類型、傷亡人數(shù)等固定信息后,AI 可以根據(jù)預先設置的規(guī)則快速準確來填寫。應用經濟性的工作是指那些應用人工智能技術涉及到的機器成本小于人工成本的工作,從而使得使用人工智能技術成為越來越經濟劃算的選擇。例如,工廠可以使用智能機器來完成一些簡單、重復性的工作,從而減少成本,進而提高企業(yè)的競爭力和盈利能力。技術實現(xiàn)性的工作是指那些規(guī)則性的、簡單的工作,AI 可以通過算法和模型來實現(xiàn)自動化代替。例如,在外賣配送中,根據(jù)客戶的地址信息和訂單內容,AI 可以計算出最優(yōu)配送路線和時間。
ChatGPT 的出現(xiàn)會不斷地蠶食人類的工作領域。一方面,大規(guī)模預訓練模型的發(fā)展讓人工智能進入了更為復雜的規(guī)則階段。人類的思維和行為模式受到所謂的規(guī)則控制,這些規(guī)則數(shù)量龐大但并非無限。然而,現(xiàn)在構建的千億、萬億級別的參數(shù)實際上就是這些規(guī)則,它讓人工智能掌握的規(guī)則數(shù)量不斷接近人類。因此,那些僅僅依靠遵循舊有規(guī)則而工作的人將面臨越來越大的競爭壓力。另一方面,經濟性的提高讓AI 朝著商用正循環(huán)的方向發(fā)展。從供給側來看,算力設施和數(shù)據(jù)的豐富以及單位成本的幾何級下降,使得人工智能成為“有本之木”,而預訓練模型參數(shù)的數(shù)量和所使用的數(shù)據(jù)量也隨著技術的進步在不斷增長。從需求側來看,ChatGPT 等AI 應用逐漸擺脫了“最后一公里”的狀態(tài),受到了個人和企業(yè)用戶的歡迎和支持,因此愿意為這些應用付費。這也意味著,那些僅依靠舊有技能和方法工作的人將面臨著更為嚴峻的挑戰(zhàn)。
2.ChatGPT 對未來不同技能勞動者的就業(yè)的影響
首先,ChatGP 對低技能的勞動者就業(yè)難以構成威脅。張剛等(2020)指出,與之前“技術偏向性技術進步”有所不同的是,以人工智能為代表的技術進步會導致“程序偏向性技術進步”,將勞動力市場中的崗位按技能高低分為高技能工作崗位、中等技能工作崗位和低技能工作崗位。人工智能的普及和廣泛應用會增加高技能和低技能工作崗位,而導致中等技能工作崗位的減少。從技術與人的競爭來看,低技能的體力勞動者的競爭對象是終端、機械,當前尚無切實有效的替代方案。如搬運、清潔等需要身體力量的工作,這些任務需要人類的身體能力和靈活性,而ChatGPT 目前無法具備體力勞動能力。Acemoglu 等(2011)通過研究也發(fā)現(xiàn),隨著人工智能的不斷發(fā)展,美國勞動力市場中崗位極化趨勢主要表現(xiàn)為低技能服務業(yè)崗位與就業(yè)人數(shù)的增加。
其次,ChatGPT 將對中等技能腦力勞動者就業(yè)構成愈來愈大的挑戰(zhàn)和威脅。中等技能的腦力勞動者在當前的競爭環(huán)境下,其競爭對象是“有跡可循”的規(guī)則。這些規(guī)則可能是由市場、技術或政府法規(guī)制定的,而這些規(guī)則的正確應用對于企業(yè)或個人的成功至關重要。然而,隨著人工智能技術的發(fā)展,ChatGPT 等基于巨量數(shù)據(jù)資源和強大學習能力的人工智能,可能會對人類腦力勞動者造成威脅。從技術角度來看,人工智能的優(yōu)勢主要在于它強大的數(shù)據(jù)處理能力、極度的專注力和高效的多任務處理能力。ChatGPT 作為一種新興的人工智能,它可以比人類更高效地完成數(shù)據(jù)整理、文稿編輯、機械重復類工作,實現(xiàn)數(shù)據(jù)的及時收集和分析。它能夠快速地利用已有的知識和成熟的框架完成工作,使得許多中等技能的腦力勞動者的工作可能會被取代。因此,ChatGPT 可能會對從事軟件技術類、新聞媒體類、法律工作類、市場研究分析師、教師、金融分析類、交易員、平面設計師、會計師、客服人員造成威脅。ChatGPT 相比人類具有更高的準確率和更低的成本,它可以利用已有的知識和成熟的框架,輕松地完成這些工作。例如,金融分析師可以使用ChatGPT 來分析市場走勢和交易數(shù)據(jù),教師可以使用ChatGPT 來自動批改作業(yè)。因此,ChatGPT 在這些領域中的應用,可能會導致大量中端腦力勞動者失去就業(yè)機會。
此外,ChatGPT 對高技能勞動者就業(yè)替代的可能性比較小。相比之下,高社交頻率和創(chuàng)造性強的高技能勞動者,如工程師、設計師、心理醫(yī)生等,在他們的專業(yè)領域中擁有著豐富的知識和經驗,并且具備創(chuàng)造力和創(chuàng)新思維。他們通常需要在“無規(guī)則”的情況下進行創(chuàng)新和解決問題。這些情況可能包括未知的挑戰(zhàn)、不確定的需求、不確定的信息來源等等,而AI 目前尚難以滲透這些領域。這是因為AI 往往需要有大量的數(shù)據(jù)和標準化的問題才能發(fā)揮作用。在“無規(guī)則”的情況下,數(shù)據(jù)可能不夠充分或者存在太多的不確定性,這就使得AI 很難做出準確的決策或者提供有用的建議。最后,ChatGPT 最終難以替代人類社交、溝通、創(chuàng)新、思想創(chuàng)造等工作。雖然ChatGPT 已經在生活和工作中展現(xiàn)了高超的技術和能力,但這絕不意味著它具有絕對的優(yōu)勢,能夠稱霸職場。與人類相比,AI 也有做不到的事情。首先是情感共鳴。AI 和人最大的區(qū)別在于人有情感、會思考。然而,AI 與人的交流依托的是大數(shù)據(jù)和理論,即便有簡單的情緒感知能力,也很難與人類產生情感共鳴。其次是,創(chuàng)新。雖然AI 可以通過學習和儲存大量數(shù)據(jù)來模仿人類的思維過程,但它并沒有自主思考和創(chuàng)造的能力。AI 的創(chuàng)新依賴于人類,只能通過學習人類的思考方式來生成新的想法。雖然ChatGPT 可以通過大量數(shù)據(jù)分析來撰寫文章、新聞稿等,但這些信息都是人類灌輸進去的,AI 本身并沒有創(chuàng)新性和自主性,無法將對某個時刻的思考轉化成意識。
綜上所述,ChatGPT 的出現(xiàn),可能會深層次改變勞動力市場的就業(yè)結構,導致不同技能崗位的數(shù)量和比例發(fā)生較大變化,也使得勞動者技能和知識的更新變得越來越重要。對于那些從事中等技能的腦力勞動者來說,需要不斷地學習新的技能,以適應新的工作環(huán)境。而高技能勞動者則需要不斷提升自己的專業(yè)水平和創(chuàng)新能力,以保持競爭優(yōu)勢。在這個過程中,人類需要和AI 共同進步,發(fā)揮各自的優(yōu)勢,逐步推動實現(xiàn)萬物互聯(lián)和萬事協(xié)同,促使全面智能成為可能。
(三)ChatGPT 對傳統(tǒng)教育的沖擊和影響
ChatGPT 可以幫助使用者完成論文、快速實現(xiàn)一段命令的程序代碼、快速識別題目并給出多種方法的答案等。它在提供了新的學習途徑的同時也會減少使用者本應深度思考的機會,對教育體系產生沖擊,從而對現(xiàn)有教育方式、授課內容和教育體制改革方向進行重塑。
1.ChatGPT 重塑傳統(tǒng)的教育方式
人工智能(AI)的發(fā)展正在顯著地重塑教育服務的勞動市場。最新的研究表明,人工智能有可能替代或部分替代通常由熟練專業(yè)人員完成的創(chuàng)造性工作,例如,學術寫作、編碼等(Li 等,2023)。
Qin 等(2023)對ChatGPT、GPT-3.5 進行了特定任務數(shù)據(jù)微調的研究,發(fā)現(xiàn)ChatGPT 在許多推理性任務上表現(xiàn)良好。但是,也有文章明確表示AI 對教育的重塑是必然的。作為最近研究人員開發(fā)的聊天機器人和對話式AI 系統(tǒng),ChatGPT 正在潛移默化地影響著傳統(tǒng)的教育方式。
傳統(tǒng)教育方式的第一步是訓練系統(tǒng),通常是通過記憶構建一個概念的支架,再通過主觀獲取知識,并將其沉淀形成個人智慧。ChatGPT 的出現(xiàn)對個人記憶的儲存產生強烈的沖擊。這款對話式AI極大縮短了獲取信息的時間,并且對待不同語序、關鍵詞的提問都能給出相似的回答,甚至可以承認自己回答中的錯誤,拒絕不適當?shù)牟樵?。這些功能提供了新的學習機會,但也引起了教育從業(yè)者的擔憂。因為學生可能會使用ChatGPT 作弊、代寫論文,從而使學生失去獨立思考的機會并產生依賴心理。但這也從另一個角度映射出傳統(tǒng)教育工具箱的單調,如果教育從業(yè)者對教育的測量工具進行反思、對傳統(tǒng)教育工具箱的滯后進行思考,那么將形成新的教育教學模式,并重塑傳統(tǒng)的教育方式。
2.ChatGPT 迫使教育工作者思考教育內容的側重點
普通的教育方式是通過大量知識記憶,促進神經元突觸的廣泛鏈接,從而極大提高大腦機械翻__譯官的速度,最終積淀成為智慧。而ChatGPT 的智能是由類腦神經網絡和大量的語料訓練催生的,且記憶速度遠高于人類,這將引發(fā)教育工作者思考ChatGPT 下教育內容的側重點。不少學者認為,人工智能雖然相比于普通的程序能更像人類進行思考,但是,在一些創(chuàng)造性的工作與項目中,如突出創(chuàng)新能力的作業(yè)、體現(xiàn)實踐智慧和動手能力的考察、解決復雜問題的過程等,ChatGPT 和人類相比仍有很大差距。Frey(2017)認為教育應側重于提高學生的創(chuàng)造力和批判性思維,而不是一般技能。思維方式的多元性將決定人類智慧的多樣性,我們應該培養(yǎng)和創(chuàng)造更多樣的思維,而不是試圖讓學生掌握更多的知識。面對ChatGPT 等AI 輔助工具,教育工作者必須通過創(chuàng)新教學設計,徹底改變作業(yè)和學習任務,以培養(yǎng)學生超越AI 能力的獨特技能,而不是抗拒甚至逃避AI 帶來的便利與挑戰(zhàn)。同時值得注意的是AI 不是人類判斷和專業(yè)知識的替代品,它應該被視為增強和支持的工具,而不是取代教育工作者的角色。
3.ChatGPT 推進教育評價體系的變化和改革
隨著教育體系越來越注重基于量化成績的考核方式,越來越多的學生開始專注書本知識的記憶與運用,而價值觀、思維方式、同理心、創(chuàng)造力、合作精神等無法量化的內容也因“馬太效應”逐漸被忽視。ChatGPT 作為一種快速知識記憶并能夠準確檢索的人工智能,提醒了教育工作者與受教育者需要區(qū)分人與人工智能的區(qū)別,充分發(fā)揮人類的優(yōu)勢,發(fā)掘無法進行量化的方面。這就需要對教育評價體系進行改革,教育工作者必須考慮對教育學習目標、學習任務和評估進行調整,以更好地培養(yǎng)未來的公民。盡管目前對教育學習目標的獨特分類法并未達成共識,但人們普遍認為教育應該為學生準備認知、社會和情感技能,以及針對特定學科的知識來處理現(xiàn)實世界的問題(Pellegrino,2014)。
綜上所述,ChatGPT 能夠準確、高效地處理信息,減輕人類工作負擔。而在教育領域,雖然對ChatGPT 的不當使用可能會產生負面影響,但更值得關注的是以ChatGPT 為代表的AI 最新技術,正在推動教育體制全方位的改革,教育工作者應該借此改進傳統(tǒng)的教育模式,引導受教育者達到以知識為載體的全面發(fā)展。
(四)ChatGPT 對科學研究與科技倫理的影響
ChatGPT 因其基于大型語言模型(LLM)的生成式對話能力受到各大領域的青睞。尤其是,ChatGPT 給學術研究帶來了極大的便利,幫助學者進行初步信息收集和數(shù)據(jù)處理,甚至可以快速整理文獻綜述,顯著減少撰寫論文所需的時間。但也正是ChatGPT 具備的這項技術,引發(fā)了對科學研究和倫理方面的爭議。例如,ChatGPT 時常出現(xiàn)的錯誤回答降低了學術研究的嚴謹性和科學性,進而促使虛假信息傳播給社會帶來重大危害。同時,ChatGPT 產生的信息涉及的剽竊抄襲等行為也影響到了整個學術生態(tài)。特別地,ChatGPT 創(chuàng)建者所在的大型企業(yè)利用其技術的壟斷地位,帶來了科技倫理問題和價值滲透問題。
1.ChatGPT 虛假信息傳播會降低學術研究的科學性
ChatGPT 是基于語料庫的生成式對話模型,其雖然能夠生成連貫且語法正確的文本,但并不具備甄別虛假信息的能力。ChatGPT 會不斷產生其認為的客觀答案,可能生成虛假的學術文本,或者經刻意訓練后提供虛構的科學研究、引用一項不存在的科學研究,進而引起專業(yè)研究的不準確、偏見和抄襲。而且隨著語言模型的進一步優(yōu)化和相關技術的成熟,將更大程度降低虛假內容生成門檻和信息傳播成本,從而加速這種虛假傳播,同時,語言風格的高度逼真實際上也將強化虛假內容的可信度和影響力,加大學術風險?,F(xiàn)有研究表明,ChatGPT 事實上會寫出聽起來似是而非的錯誤或荒謬的答案(Van 等,2023;Thorp,2023)。使用AI 模型時仍需謹慎,ChatGPT 被當成“嘴替”或“文替”,數(shù)據(jù)的濫用或對知識的不完整性采用,將為錯誤信息的傳播埋下風險和隱患。不專心的審稿人可能會被一篇由人工智能撰寫的論文所欺騙,接受其漂亮、權威的散文(Van 等,2023)。
此外,ChatGPT 很有可能通過產生誤導性或不準確的內容引發(fā)危害,從而引起對學術錯誤信息的關注。例如,在COVID-19 流行期間,醫(yī)學期刊中錯誤信息的傳播可能會帶來重大的社會危害(Diseases,2020)。
2.ChatGPT 容易引發(fā)科技與學術倫理問題
(1)面臨科技倫理的“污染”與盲從
人工智能完備的問題包含科技倫理中對人類道德的衡量。ChatGPT 初步具有道德判斷力,它會注重政治正確和道德倫理尊嚴(令小雄等,2023)。ChatGPT 利用其學習到的倫理價值,驗證使用者的提問是否合法合規(guī)或符合道德倫理規(guī)則,甚至有時會直接拒絕回答某些倫理上有偏差的問題。
ChatGPT 代表的人工智能技術的進化,也是科技倫理自身的跟進和不斷完善。而由于倫理的學習成本巨大,一旦ChatGPT 在語料庫中受到“倫理的污染”或“投毒”,其重新認知新的倫理判斷需要一個很長的過程。盡管ChatGPT 在大多數(shù)情況下努力保持道德實踐的理性主義態(tài)度,但隨著各種不良測試者和調教者的質疑及恐嚇等語言威脅,ChatGPT 在某些時候無法確定什么才是真正正確的倫理。
人工智能的出現(xiàn)使人的思想能力逐漸陷入停滯,技術被壟斷在少數(shù)絕對強者手中,產生嚴重的階級固化和技術壁壘。當以ChatGPT 為代表的人工智能盲目服從命令而不質疑其倫理偏見或不具備預設道德倫理的正確導向時,將會產生科技倫理困境。人的從眾心理將轉變?yōu)閺腁I 心理,在廣泛的社會語境中被認為是個性化的敘事方式被AI 以潛移默化的方式改變,語言的長期改變會滲透其情感認知、倫理行為和整體行為的走向,對人們的價值信仰、態(tài)度和行為產生重要影響。這既是值得關注的科技哲學問題,也是倫理問題(令小雄等,2023)。
(2)引發(fā)一個新的學術倫理命題
ChatGPT 本身確實有其進步性的一面,它可以協(xié)助學者更好地完成日常工作(Gordijn & Have,2023)。但作為一種研究工具,它存在一個明顯的缺點,尤其是在科學誠信方面,過度依賴ChatGPT生成的內容可能會引起抄襲、欺詐和版權侵權的風險。令小雄(2023)指出,如果讓ChatGPT 以詩人李白的風格寫一首詩。雖然,ChatGPT 能夠生成一首新詩,但其中的語句與現(xiàn)有的古詩相似,從而可能帶有“學術倫理”或“抄襲”痕跡。同時,學生可能會使用ChatGPT 制作本不屬于其自身的作品,從而導致抄襲和剽竊等不道德行為的出現(xiàn),進而影響教育和學術生態(tài)。這種行為將導致成果并不能反映學生的能力和知識,而只能反映語言模型的處理能力,這將形成不平等的競爭環(huán)境,導致一些學生在評估中擁有不公平的競爭優(yōu)勢。此外,Else(2023)認為ChatGPT 是根據(jù)過去的信息進行訓練的,而社會和科學的進步往往來自于與過去不同的思維或開放思維,過多使用將導致批判性思維和創(chuàng)新能力的匱乏。更深遠的學術倫理問題在于,ChatGPT 有能力撰寫在權威期刊上通過同行評審的論文。從長遠來看,人工智能驅動的系統(tǒng)甚至可能完全接管整個科學研究領域。國際象棋領域中AlphaGo 就是一個典型的例子。此外,也有的作者試圖將ChatGPT 作為合著作者來避免以上的學術倫理問題。在已發(fā)表的論文中,ChatGPT 至少獲得了四份作者署名(Stokel-Walker,2023)。
但包括《Nature》在內的期刊表示這樣的做法是不被接受的,原因是任何作者署名都表示其對作品負有責任,而人工智能無法承擔這樣的責任。
針對以上產生的學術倫理問題,Van 等(2023)認為這種技術的使用是不可避免的。因此,“禁止”是行不通的,學術界應該就這種潛在的顛覆性技術的影響討論應對策略。一是堅持工人檢驗:由專家推動事實核查和核查進程。二是加大LLM 的透明度:首先在學術領域研究論文中的作者貢獻聲明和致謝應清楚具體地說明作者是否以及在多大程度上使用了LLM 相關的人工智能技術;其次,在LLM 開發(fā)領域,幾乎所有最先進的會話AI 技術都是少數(shù)擁有開發(fā)資源的大型科技公司的專利產品(Rudin,2019)。鑒于少數(shù)科技公司在搜索、文字處理和信息獲取領域近乎壟斷,應該考慮開源人工智能技術的開發(fā)和實施。第三,應加強學術界之間的交流,呼吁召開一個關于開發(fā)和負責任地使用LLM 進行研究的國際論壇。LLM 可能是一把雙刃劍。它們可以幫助創(chuàng)造公平的競爭環(huán)境,例如消除語言障礙,使更多人能夠寫出高質量的文本。但可能的情況是,與大多數(shù)創(chuàng)新一樣,高收入國家和享有特權的研究人員將很快找到利用LLM 的方法,從而加速本國的研究并擴大不平等。
3.帶來價值觀扭曲、偏見與滲透問題
當前ChatGPT 存在著潛在的安全隱患。如果對輸出內容未經控制,它很容易被利用產生仇恨言論和垃圾郵件(Stokel-Walker & Van,2023)。密歇根大學安娜堡分校科學、技術和公共政策項目主任Shobita Parthasarathy 表示,除了直接產生有害內容外,人們還擔心ChatGPT 將從訓練數(shù)據(jù)中嵌入創(chuàng)建者的歷史偏見或對世界的看法,比如特定文化的優(yōu)越性。特別是創(chuàng)建ChatGPT 的公司來自這些文化,他們可能很少嘗試克服這種系統(tǒng)性的、難以糾正的偏見。因此,Edwards 建議,現(xiàn)有的關于歧視和偏見的法律(以及對人工智能危險使用的計劃監(jiān)管)將有助于保持LLM 的誠實、透明和公平。
四、ChatGPT 的潛在威脅與未來發(fā)展趨勢
ChatGPT 作為新一代人工智能技術驅動誕生的自然語言處理工具,標志著生成式AI 領域技術的重大進步。在這一進步背景下,我們應認識到其并存的機遇與風險。一方面,新技術的出現(xiàn)常常會帶來新的生產力需求,推動社會的不同程度變革,促進文明的發(fā)展。另一方面,新技術應用有緩沖期,期間可能包括對技術本身的完善改進,對技術應用方向的調整,以及建立適應新技術應用的機制等多方面內容。在這種背景下,我們將就以ChatGPT 為代表的人工智能產物從潛在威脅和未來發(fā)展趨勢兩個角度作進一步探討。
(一)ChatGPT 對經濟社會的潛在威脅
縱觀人工智能技術發(fā)展歷程,從解決確定性問題的封閉式傳統(tǒng)人工智能到通過交互學習解決不確定性問題的現(xiàn)代人工智能,其屬性已逐漸從早期的機器化轉向類人化。如今的ChatGPT 等產品,正是其具有更多類人屬性的體現(xiàn)。然而,當機器擁有越來越多的人性特征時,必然會對以人為主體的現(xiàn)代社會造成某些層面的沖擊。
1.ChatGPT 的快速產業(yè)應用給傳統(tǒng)產業(yè)帶來難以估量的調整成本
以ChatGPT 為基礎的拓展場景應用,無疑會帶來新的行業(yè)變革,重塑社會格局。目前ChatGPT已經在教育、科研、傳媒等多個領域顯現(xiàn)出驚人的影響力,也展現(xiàn)出對某些職業(yè)強大的替代能力。大型語言模型與傳統(tǒng)產業(yè)的深度交融,能夠可預見地通過數(shù)字化賦能推動產業(yè)的轉型升級,節(jié)省人工成本,提高生產效率。但同時,軟件、媒體、翻譯、分析、服務等傳統(tǒng)行業(yè)的高度自動化,不僅需要負擔“模型”高昂的訓練成本,同時將導致就業(yè)空間進一步壓縮。大批職業(yè)人群結構性失業(yè),加重社會負擔。不過參考以往的經驗,類似這種新技術應用的最終結果通常是會為人類社會創(chuàng)造更多的就業(yè)機會和新型組織。然而,新的穩(wěn)定格局形成以前,我們的經濟社會能否成功地負擔這種調整成本(Ajay Agrawal 等,2022),以及最終給這些傳統(tǒng)產業(yè)帶來的是新生還是摧毀,尚未可知。
2.ChatGPT 帶來的認知污染可能會引發(fā)知識和價值觀偏差
ChatGPT 作為一種基于語言模型的聊天互動工具,其廣泛應用首先將對以語言為基礎的文化知識交流體系產生直接影響,其反饋學習機制和轉移學習能力形成了對使用者的知識大融合,數(shù)據(jù)輸入端的內容將可能影響到任一輸出端的生成。在海量用戶的數(shù)據(jù)交互中,ChatGPT 極快的學習生成速度會極大地加快信息傳播效率、擴大傳播范圍,而其中所包含或生成的偏見性、誤導性信息也將以更快速度、更大規(guī)模潛移默化地對用戶群體的意識形態(tài)、知識學習等方面造成負向引導,形成認知污染,從而帶來社會不穩(wěn)定因素。
3.ChatGPT 對現(xiàn)有社會道德法律體系所產生的真空地帶會給社會穩(wěn)定帶來風險
當相關技術深度融入人類生活時,必須考慮當前社會群體對新技術運行下的新社會規(guī)則的適應性。特別是倫理和法律方面,對于新技術賦能的新產物仍存在約束空白。當人工智能開始能夠做出更多的類人化思考、類人化行為時,將面臨更多的基于人性的問題。諸如,AI 創(chuàng)作的知識產權享有、AI 參與的違法事件責任界定等。如果現(xiàn)有的社會道德法律體系不能在相關層面及時跟進、監(jiān)督、規(guī)制,那么不受制約的AI 必將為社會健康穩(wěn)定發(fā)展帶來極大的隱患。
4.ChatGPT 的應用對經濟社會秩序安全帶來危機
相關研究認為,“機器介入且改變人類生活和社會秩序是現(xiàn)代社會的基本特征之一”,人工智能作為具備革命性的自主學習能力及自我進化能力的一種新的機器形態(tài),對人類生活和社會秩序產生了顛覆性的影響,而這種影響可分為“失業(yè)問題”與“隱私問題”(近期)、“歧視問題”(中長期)與人類命運問題(遠期)三類(潘恩榮等,2022)。其一,短期來看,一方面是隱私問題,當面對超大用戶群體或低容錯性的重大系統(tǒng)任務時,ChatGPT 很可能出現(xiàn)對關鍵隱私信息的識別、保護不足或漏洞而造成信息泄露,從而導致嚴重后果;另一方面則是新技術的應用導致傳統(tǒng)崗位的淘汰所帶來的失業(yè)問題,短時間內大范圍的人口失業(yè)造成的社群壓力和恐慌,將深刻影響社會運行的穩(wěn)定性。其二,中長期來看,歧視問題將可能因ChatGPT 模型算法的固有缺陷而在頻繁的數(shù)據(jù)交互過程中形成并不斷積累擴大影響,最終反饋至用戶群體,從而放大社會矛盾點,引起爭端。其三,遠期來看,則是隨著人工智能發(fā)展階段的改變而帶來的有關人類命運的倫理危機問題。相關學者認為,根據(jù)主體條件和意識條件的不同,人工智能倫理問題的探討可以分為三個階段。當人工智能體處于工具和僅為具有自我意識的個體這兩個階段時,仍適用于人的倫理學和以人為中心的倫理學,而當其同時滿足意識條件和主體條件而進入主體階段時,人工智能體將在本體的層面上擁有心靈,在現(xiàn)實的社會交往中有著自身的話語,與我們有著對稱、平等、互惠的關系,成為“一個不可還原或消除的‘他者”,此時則需要思考以“人格”為中心的倫理學(周靖,2023)。隨著以ChatGPT 為代表的新一代人工智能技術的發(fā)展,AI 產品的計算方式、思考能力、勞動能力以及社會身份認同將逐漸趨人化,具備更多的自主性和反思性,甚至可能基于某種運算規(guī)則做出合理但卻損害人類利益的決策,從而不斷沖擊人的主體地位,直至進入主體階段,產生對人類地位和生存的潛在威脅,特別是,當我們沉浸在對技術快感的依賴和盲目崇拜中,逐漸放棄思考力、創(chuàng)造力,整個社會高度依賴人工智能輔助運行時,如何面對人工智能危機更是值得深入思索的問題。
(二)ChatGPT 的未來發(fā)展趨勢
當前來看,相比于以往的人工智能產品,ChatGPT 憑借在學習能力、數(shù)據(jù)處理上的優(yōu)勢實現(xiàn)了較大的智力飛躍。隨著技術逐步趨于成熟,ChatGPT 也漸漸展露出其諸多的潛在應用可能。接下來,我們將著眼于ChatGPT 未來的自身技術完善和進一步應用進行討論。
1.ChatGPT 自身技術和外部環(huán)境趨于完善
首先,提高信息過濾能力。ChatGPT 模型盡管在當下展現(xiàn)了良好的學習產出能力,但在特定情況下仍可能難以避免重復性、偏見性和錯誤性,生成過時的、不準確的或有誤導性的文本內容。并且,在廣泛快速的傳播過程中,復制甚至放大其不良影響。在未來正式的規(guī)?;瘧弥?,應通過算法改進、模型優(yōu)化以及介入人為監(jiān)督等方式,對于輸入端的信息,加強來源識別、內容審查和標記,并針對虛假性、危險性等惡劣性內容做出警示或拒絕反饋。同時,在數(shù)據(jù)處理和學習過程中,通過對訓練集、獎勵模型等的優(yōu)化實現(xiàn)對類似低質量信息的進一步甄別摒棄,從而不斷提高生成內容的可信度和合法性。
其次,重新思考和界定知識產權歸屬問題。目前,ChatGPT 的內容生成能力已經使其能夠合格完成包括撰寫郵件、簡歷、視頻腳本、文案、翻譯、代碼甚至論文在內的多種任務。就這一點而言,我們應該繼續(xù)努力,以達到以下兩個目標:第一,要解決ChatGPT 生成內容涉及的知識產權侵犯問題,這需要Chat GPT 在接下來的應用完善中趨向更開放化和透明化,以確保明晰創(chuàng)作來源;第二,需要探討ChatGPT 生成的作品是否具有知識產權的問題,目前看來各界都傾向于拒絕ChatGPT的著作權、署名權。然而,當ChatGPT 未來能夠根據(jù)合作用戶的提示作為輔助工具貢獻更具價值的內容,且在科研、創(chuàng)作成果中占據(jù)更重要的組成部分時,或許應當對此做出重新思考,同時還要重新思考AI 作品權利的真正歸屬是合作用戶、開發(fā)者或是其他交互用戶的問題。
最后,注重保護隱私信息的安全。根據(jù)ChatGPT 團隊目前發(fā)布的隱私政策,該系統(tǒng)會收集包括溝通信息、社交信息、技術信息、日志數(shù)據(jù)、使用數(shù)據(jù)等在內的多種用戶個人信息并進行分析和進一步跟蹤(且不響應DNT 信號)。這就意味著一旦發(fā)生數(shù)據(jù)泄露,其中包含的用戶信息以及基于這些信息分析形成的用戶特征信息將存在被惡意利用或惡意攻擊的可能。因此,專門針對安全性的測試和優(yōu)化亦至關重要。其中,一方面是算法設計層面,要注重檢驗在訓練學習和內容生成過程中是否使用了庫內所含的涉及隱私的重要數(shù)據(jù)并用于不合理的輸出;另一方面是系統(tǒng)維護層面,通過例如模擬攻擊等手段,檢測識別并及時修復潛在的漏洞,以提高系統(tǒng)對不同類型攻擊者的魯棒性。
2.以“ChatGPT+”的應用場景落地
在教育領域,ChatGPT 不僅帶來了挑戰(zhàn),同時也成為了一種高效的輔助工具,可嵌入教學中。從教學者角度來看,可以借助其檢索、翻譯、分析、生成功能更有效率地完成課堂設計。另外,通過與ChatGPT 的模擬交互,可以不斷調整優(yōu)化教學思路。從受教育者角度來看,ChatGPT 可以作為一個更強大的聊天式智庫,通過對話為用戶提供知識指導、時間管理、技能協(xié)助等方面的伙伴式幫助。
在科研領域,部分科研工作者已經開始使用ChatGPT 和其他大型語言模型來協(xié)助總結文獻、起草和改進論文、撰寫演講、統(tǒng)計分析、編寫代碼以及確定研究差距等。在未來,這項技術或許將在科研領域有更為廣泛的應用,包括但不限于設計實驗、撰寫手稿,乃至進行同行評審。此外,除了幫助解決一些繁瑣重復的工作任務外,ChatGPT 的強大計算能力也許能夠為科研工作者提供更有創(chuàng)造性的靈感。
在醫(yī)學領域,ChatGPT 信息檢索和數(shù)據(jù)分析能力同樣能夠發(fā)揮巨大作用,其強大的自然語言處理能力賦予了它更多的情感和智能。因此,它可以完成流程優(yōu)化、輔助問診、陪護與檢查等任務,協(xié)助維護醫(yī)患關系,使醫(yī)生能夠將更多精力投入到更專業(yè)的醫(yī)學決策和醫(yī)學操作中。同時,ChatGPT還可以通過更富情感化的頻繁交互,取得患者信任、更敏銳地捕捉病情變化以及對病患心理起到一定的撫慰作用。當然,這必須嚴格遵守患者隱私管理的相關法規(guī)。在藝術創(chuàng)作領域,ChatGPT 表現(xiàn)出了相當出色的理解力,能夠做出一些創(chuàng)造性的表達。隨著這種創(chuàng)造性的深入開發(fā),也許將在影視文學創(chuàng)作、平面設計等創(chuàng)造性領域找到更多的應用,特別是在基于范式化的要素重組以及規(guī)模化創(chuàng)作方面,將可能展現(xiàn)出比人為更好的表現(xiàn)。
在商業(yè)領域,更強的算力和更優(yōu)的算法將有助于快速有效地對商業(yè)數(shù)據(jù)進行分析評估,從而給出更高質量的輔助決策方案。此外,借助ChatGPT 的檢索能力和內容生成能力,將實現(xiàn)更精確的商業(yè)信息檢索和更高效率的商業(yè)資訊創(chuàng)作生成。同時,ChatGPT 的理解力將有助于打破信息壁壘,促進商業(yè)溝通與交流,幫助雙方快速有效地達成商業(yè)合作。
在工業(yè)領域,ChatGPT 等人工智能產品技術有望通過進一步的突破和完善成為產業(yè)基礎,帶來新的生產力和生產方式,引發(fā)以人工智能為核心的新一輪工業(yè)革命,深刻改變傳統(tǒng)工業(yè)模式。ChatGPT 將參與工業(yè)設計,優(yōu)化運作流程,并結合圖像處理、傳感、區(qū)塊鏈、元宇宙等技術概念提升研發(fā)、生產、質檢、運輸、服務等各個環(huán)節(jié)的自動化程度,強化機械性智能的同時,逐漸承擔“工業(yè)大腦”的角色,推動社會關系和社會結構的變遷。
在服務業(yè)領域,ChaGPT 已經能夠很好地模擬人類對話,進一步地,未來其將能夠提供更廣泛、更真實、更優(yōu)質的代人工服務,包括但不限于咨詢、引導、銷售等社交需求場景。一方面,ChatGPT通過用戶數(shù)據(jù)采集與分析,能夠全面地知悉用戶特征和語言習慣,從而提供更加人性化、精準化、個性化的服務。另一方面,人工智能產品能夠承受更持久的工作時間,保持一以貫之的態(tài)度和精力,而不產生消極倦怠情緒,實現(xiàn)服務效率、質量以及工作量的整體大幅提升,為客戶提供更舒適貼心的體驗。
在社會治理領域,ChatGPT 作為人工智能技術的新產物,有望進一步推動升級數(shù)字政府的建設,通過更優(yōu)秀的數(shù)據(jù)處理和分析能力,優(yōu)化政府信息化架構,提升政務處理效率,擴展政府管理空間和渠道。同時,借助其優(yōu)秀的表達能力和交互能力可以更好地維系政民關系,降低社會治理成本,一方面,ChatGPT 能夠代表政府對話,答疑解惑,幫助民眾更全面深入地理解各項政策;另一方面,政府能夠通過ChatGPT 收集的數(shù)據(jù)信息,更好地了解社會運行情況和民眾需求,從而提高政務服務質量。
在智能辦公領域,具備“人性”與“物性”雙重特性的ChatGPT,將普及成為可靠的智慧辦公助手,除了在信息檢索、數(shù)據(jù)處理分析等方面的優(yōu)勢外,尤其是在各類已有辦公系統(tǒng)的使用中,我們將無需面臨直接系統(tǒng)操作的困難。ChatGPT 將依托其強大的自然語言處理能力,將人的需求更準確地轉化為系統(tǒng)語言傳達給辦公系統(tǒng),代替人去與系統(tǒng)交流,實現(xiàn)辦公的簡潔化、精準化、高效化。
在應急管理領域,ChatGPT 將在監(jiān)測預警、方案設計、救援指揮等多方面發(fā)揮作用。首先,通過日常指標數(shù)據(jù)的收集分析,結合相關評價標準,及時評估風險,預測災害;其次,根據(jù)環(huán)境數(shù)據(jù)變化和實際情況,動態(tài)生成防范應對方案;最后,在現(xiàn)場救援中,快速判斷最佳流程和路徑,形成救援人員和物資的最優(yōu)調度方案。
在智慧養(yǎng)老領域,人工智能產品亦將大有可為,特別是像ChatGPT 這樣的便捷交互式的、“智多星”式的新一代人工智能產品。隨著我國老齡化程度的深度加劇,養(yǎng)老產業(yè)將進入爆發(fā)時代,基于人工智能技術的智慧養(yǎng)老服務將迎來新的機遇,特別是面對老年人的生活需求和精神需求,ChatGTP 的嵌入應用,將發(fā)揮健康提醒、知識供給、生活貼士、智能設備操作指導和聊天撫慰等積極作用,同時提供“一站式保姆”和“情感式陪伴”的高質量養(yǎng)老服務。
五、結論與監(jiān)管政策建議
人工智能技術的進步和應用為我們展現(xiàn)出更多的可能性,也體現(xiàn)出技術的不可控性和動態(tài)性。本文從經濟與社會視角對以ChatGPT 為代表的新一代人工智能技術進行深入分析,研究得出以下結論:
(1)機遇與挑戰(zhàn)。對于人工智能產業(yè)本身來說,ChatGPT 加速了AI 時代進程,推進了生成式AI 的廣泛布局。同時,其也憑借更智能化、人性化的功能對谷歌搜索引擎等傳統(tǒng)人工智能產業(yè)形成挑戰(zhàn)。在勞動力與就業(yè)方面,相關技術的突破和完善會推動勞動力市場的結構性演進,知識和技能的更新將在就業(yè)競爭中占據(jù)更重要的優(yōu)勢。與此同時,ChatGPT 優(yōu)異的自然語言處理能力賦予教育領域全新的交互模式,為現(xiàn)有的教育方式、側重點和評價標準的改進帶來新的思考空間,將推動教育體系的深刻變革。就科學研究與科技倫理而言,類似大型語言模型的應用能夠輔助快速解決非核心任務,提高科研效率,但也存在虛假傳播、剽竊抄襲、價值滲透等學術倫理風險。
(2)威脅與發(fā)展。一是潛在威脅方面,本文揭示出ChatGPT 的進一步發(fā)展和深度應用可能給經濟社會帶來沉重的調整成本,同時可能產生認知污染、算法歧視、信息泄露、法律真空失管、人類主體地位的模糊與沖擊等潛在風險。二是未來發(fā)展趨勢方面,ChatGPT 等新一代人工智能技術有望在信息過濾、知識產權和信息安全方面逐步趨于完善,在教育、科研、醫(yī)學、藝術創(chuàng)作、商業(yè)、工業(yè)、服務業(yè)、社會治理、智能辦公、應急管理、智慧養(yǎng)老等領域實現(xiàn)更多的“ChatGPT+”應用場景落地,展現(xiàn)出更多智能作為。為了更好地規(guī)范人工智能技術研究應用,有效防范應對風險挑戰(zhàn),促進相關產業(yè)健康有序發(fā)展,我們對類ChatGPT 的新一代人工智能技術的政策制定完善提出以下幾點建議。
(1)推動新一代人工智能產業(yè)發(fā)展
一是加強產研結合,促進技術創(chuàng)新。當前,人工智能作為我國戰(zhàn)略性新興產業(yè),已成為新的增長引擎,也是未來我國深入發(fā)展數(shù)字經濟的重要組成部分。因此,進一步激發(fā)創(chuàng)新活力、優(yōu)化創(chuàng)新模式、推進新一代人工智能技術的突破完善有著必要性意義。要著力構建產研融合的協(xié)同創(chuàng)新體系,加大人工智能領域資金投入和資本匯集,廣泛設立國家級人工智能項目,通過傾向性政策鼓勵企業(yè)創(chuàng)新和相關人才培養(yǎng),綜合利用重點科研機構和大型科技企業(yè)的雙重優(yōu)勢,拓深基礎理論研究,攻破技術應用難點,加快促進相關技術的不斷突破,提升產業(yè)核心競爭力。
二是加快場景落地,打造產業(yè)生態(tài)。人工智能的廣泛應用將成為未來經濟社會發(fā)展的重要環(huán)節(jié),隨之而來的行業(yè)標準制定權和市場占有頭部效應也將成為影響各國在人工智能領域競爭的關鍵因素。因此,廣泛布局人工智能產業(yè)應用、加速實施應用場景落地、實現(xiàn)新一代人工智能技術和經濟社會發(fā)展的深度融合成為重中之重。一方面,要促進人工智能技術與傳統(tǒng)行業(yè)的嵌合應用,推動相關產業(yè)的轉型升級,營造智能業(yè)態(tài);另一方面,要在重大應用場景中反復打磨技術,探索建立有效的試錯機制,通過規(guī)劃建設人工智能技術應用試點和場景應用示范區(qū),實現(xiàn)基礎理論研究向技術實踐應用的成果轉化,盡快掌握產業(yè)話語權和市場主動權。
三是加大數(shù)據(jù)融通,為新一代人工智能技術發(fā)展提供保障。以人工智能等前沿技術為驅動的數(shù)字經濟,相應地,也加快了人工智能相關產業(yè)的進步與發(fā)展。其中,數(shù)據(jù)資源作為關鍵要素,參與__社會生產經營活動并帶來價值,通過供給、流通和應用過程形成的數(shù)據(jù)要素的高效融通是釋放數(shù)據(jù)價值、促進數(shù)字經濟發(fā)展的關鍵(梁寶俊,2022),也是帶動相關產業(yè)發(fā)展的重點。因此,要不斷提升互聯(lián)網寬帶和5G 普及率,加快研發(fā)6G 網絡,實現(xiàn)不同個體、不同產業(yè)以及不同領域之間數(shù)據(jù)的規(guī)模集成和共享共融共創(chuàng),加快構建全國統(tǒng)一數(shù)據(jù)要素大市場。同時,注重網絡生態(tài)和信息資源治理,完善渠道管理和內容審查,提高信息傳播質量和數(shù)據(jù)應用價值,為新一代人工智能技術發(fā)展和“數(shù)智時代”的全面到來提供發(fā)展沃土。
四是加深開放合作,實現(xiàn)共贏發(fā)展。互聯(lián)網技術的出現(xiàn)曾極大地加快了全球化進程,如今,新一代人工智能技術的持續(xù)發(fā)展和應用也將為各個國家地區(qū)帶來更緊密的聯(lián)結和更深刻的影響。因此,人工智能產業(yè)的發(fā)展需要兼顧國內研發(fā)推廣和國際戰(zhàn)略布局。要主動融入全球科技創(chuàng)新網絡,積極統(tǒng)籌配置國內國際資源,加強國際科技交流合作,深化人工智能技術共研共享共用;同時,敏銳捕捉國際需求,加快海外市場開發(fā),瞄準全球推出兼具生產標準化和服務個性化的新一代人工智能產品,提升我國人工智能產業(yè)的國際影響力。
(2)完善新一代人工智能監(jiān)管規(guī)制
一是構建由政府主導控制、其他利益相關者協(xié)調運作的監(jiān)督框架。隨著人工智能技術的不斷突破,與人類生活的嵌合程度不斷加深,其因失控對人造成傷害的可能性越大、傷害程度更深。政府作為社會管理的主導者,應當成為系統(tǒng)數(shù)據(jù)庫的主要控制者、管理者和監(jiān)督者,站在維護公眾利益的立場,為社會成員的數(shù)據(jù)信息安全提供更為有力的保障,并通過控制保持訓練數(shù)據(jù)的高質量,引導傳遞正確的社會價值觀;同時,廣泛借助社會相關機構或人士專業(yè)知識技能和特有視角發(fā)現(xiàn)問題、解決問題,確保監(jiān)管的全面性、連貫性和有序性。
二是進一步完備人工智能立法監(jiān)管,明確權責邊界。新一代人工智能大多基于黑箱系統(tǒng),往往是不具備可解釋性的,其行為后果在法律層面很容易出現(xiàn)權責界定模糊的問題。因此,應從立法角度出發(fā),完善監(jiān)管處罰的適用性。首先,對于開發(fā)者來說,應明確透明度要求,確保系統(tǒng)記錄的可追溯性,并在必要時一定范圍內公布相關數(shù)據(jù);其次,對于人工智能產品本身來說,應根據(jù)其算法機理、自主性程度,探索明確不同AI 產品的法律權限范圍,并在必要時通過合理的方式承擔相應的法律責任,杜絕違背社會倫理和道德法律的產品研發(fā)和行為設計;最后,對于使用者而言,應結合人工智能技術在相關領域的應用情況,改進諸如知識產權、隱私侵犯等現(xiàn)有法律條款,嚴格約束用戶借助AI 產品的功能而實施的惡意行為。
三是建立風險分級評估體系,構建全過程覆蓋、多方參與的風險管控機制。從“基于風險的路徑”視角來看(程瑩等,2021),根據(jù)人工智能技術發(fā)展程度和具體應用階段的不同,所體現(xiàn)出的風險水平和風險側重也有所不同。一方面,應研究確定合適的評價指標,對AI 產品風險作出分級分類,實施差異化監(jiān)管,尤其是在制定相關標準時,除了可參照已有的共性標準劃分外,應更多地考慮中國國情,因地制宜地做出調整改進。另一方面,有必要基于風險對人工智能產品進行全周期監(jiān)管的制度設計,預先識別分析可預知的風險,設置市場準入門檻,由政府、企業(yè)、用戶以及相關機構共同參與加強市場監(jiān)督,同時制定適合AI 產品的召回、追責等應對措施和制度等。
四是探索AI 監(jiān)管沙盒機制,推動技術與政策的雙向適應。目前,人工智能產業(yè)正處于蓬勃發(fā)展的階段,相關監(jiān)管措施正在摸索與實踐中不斷調整完善。對此,我們可以通過搭建監(jiān)管沙盒,一方面,幫助企業(yè)提前評估風險、摸索市場、改進設計,進一步提高容錯性,賦予其更多的創(chuàng)新機會和可能;另一方面,相關機構提前介入監(jiān)管,可以更全面深入地了解技術優(yōu)勢和弊端,并結合實踐,__制定完善更合適的政策,降低監(jiān)管的不確定性和滯后性。
最后,需要指出的是,及時跟進適應新一代人工智能技術沖擊帶來的社會變革,合理平衡技術應用和社會倫理的作用關系,防范應對潛在威脅,探索行之有效的監(jiān)管機制,充分發(fā)揮政策彈性,在完善監(jiān)管的同時鼓勵創(chuàng)新,積極迎接和布局人工智能時代,仍是我們需要慎重思考的問題和未來一段時間的努力方向。
參考文獻
[1] 曹靜,周亞林. 人工智能對經濟的影響研究進展[J]. 經濟學動態(tài),2018, No.683(01):103-115.
[2] 陳彥斌,林晨,陳小亮. 人工智能、老齡化與經濟增長[J]. 經濟研究,2019, 54(07):47-63.
[3] 程瑩,崔赫. 歐盟高風險人工智能監(jiān)管的五個特點——歐盟人工智能法案(草案)初步解讀[J]. 互聯(lián)網天地,2021(06):38-41.
[4] 何哲. 通向人工智能時代——兼論美國人工智能戰(zhàn)略方向及對中國人工智能戰(zhàn)略的借鑒[J]. 電子政務,2016,No.168(12):2-10.
[5] 金峰. ChatGPT 火爆“出圈”為AI 發(fā)展添薪助力[J]. 通信世界,2023, 913: 5.
[6] 令小雄,王鼎民,袁健. ChatGPT 爆火后關于科技倫理及學術倫理的冷思考[J/OL]. 新疆師范大學學報(哲學社會科學版),2023:1-14.
[7] 謝春生. 計算機行業(yè):GPT 產業(yè)梳理——GPT~1 到ChatGPT. 華泰證券研究報告,2023.https://www.sgpjbg.com/baogao/115168.html
[8] 謝新水,袁汝兵. 論人工智能監(jiān)管底線的設置:基于主體性的探究[J]. 學習論壇,2020(08):41-49.
[9] 吳漢東. 人工智能時代的制度安排與法律規(guī)制[J]. 法律科學(西北政法大學學報),2017, 35(05):128-136.
[10] 曾雄,梁正,張輝. 歐盟人工智能的規(guī)制路徑及其對我國的啟示——以《人工智能法案》為分析對象[J]. 電子政務,2022(09):63-72.
[11] 張剛,孫婉璐. 技術進步、人工智能對勞動力市場的影響——一個文獻綜述[J]. 管理現(xiàn)代化,2020, 40: 113-120.
[12] 潘恩榮,孫宗嶺. 人工智能“以人為本”倫理準則反思——一種馬克思主義哲學的分析思路[J]. 云南社會科學,2022, No.250(06):30-39.
[13] 周靖. 論意識條件和主體條件的區(qū)分——對人工智能體道德身份論題的一個澄清[J]. 上海交通大學學報(哲學社會科學版),2023, 31(02):121-129.
[14] 梁寶俊. 構建“1+5”數(shù)據(jù)要素融通體系 促進數(shù)字經濟發(fā)展[J]. 中國黨政干部論壇,2022, No.403(06):63-66.
[15] Acemoglu, D., D. Autor. Skills, tasks and tech-nologie8: Implications for employment and eamings[J]. Handbook oflabor economics, 2011, 4: 1043-1171.
[16] Acemoglu, D., & Restrepo, P. (2020). Robots and jobs: Evidence from US labor markets. Journal of Political Economy,128(6), 2188-2244.
[17] Autor, D. H., Levy, F. and Murnane, R.J. (2003) The Skill Content of Recent Technological Change: An EmpiricalInvestigation. Quarterly Journal of Economics, 118, 1279-1333.
[18] Ajay Agrawal, Joshua Gans, Avi Goldfarb. ChatGPT and How AI Disrupts Industries[J]. Harvard Business Review, 2022.
[19] Diseases, T. L. I.. The COVID-19 infodemic[J]. The Lancet Infectious Diseases, 2020. 20(8).
[20] Else H. Abstracts written by ChatGPT fool scientists.[J]. Nature, 2023, 613(7944): 423.
[21] Frey C B, Osborne M A. The future of employment: How susceptible are jobs to computerisation?[J]. Technologicalforecasting and social change, 2017, 114: 254-280.
[22] Fumagalli E, Rezaei S, Salomons A (2022). OK computer: Worker perceptions of algorithmic recruitment. Research Policy. 51-2:1004420.
[23] Gordijn B, Have H t. ChatGPT: evolution or revolution?[J]. Med Health Care and Philos, 2023.
[24] Thorp H H. ChatGPT is fun, but not an author[J]. Science, 2023, 379(6630): 313-313.
[25] Li Y, Choi D, Chung J, et al. Competition-level code generation with alphacode[J]. Science, 2022, 378(6624): 1092-1097.
[26] Pellegrino J W. A learning sciences perspective on the design and use of assessment in education[J]. 2014.
[27] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable modelsinstead[J]. Nature Machine Intelligence, 2019, 1(5): 206-215.
[28] Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove.[J]. Nature, 2023,613(7945): 620-621.
[29] Stokel-Walker C, Van Noorden R. What ChatGPT and generative AI mean for science.[J]. Nature, 2023, 614(7947):214-216.
[30] Van Dis E A M, Bollen J, Zuidema W, van Rooij R, Bockting C L. ChatGPT: five priorities for research.[J]. Nature,2023, 614(7947): 224-226.
[31] OPENAI. GPT-4 Technical Report[M/OL]. arXiv, 2023[2023-03-21]. http://arxiv.org/abs/2303.08774.