• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      通用人工智能(AGI)的技術(shù)、應用及安全問題:以ChatGPT為例

      2023-06-25 16:05:33郝國強,李星瑩,楊琴
      傳承 2023年1期
      關(guān)鍵詞:安全問題

      郝國強,李星瑩,楊琴

      [摘要]隨著人工智能(AI)技術(shù)的快速發(fā)展,通用人工智能(AGI)技術(shù)正在快速崛起。文章以ChatGPT為例,描述通用人工智能技術(shù)與ChatGPT崛起的內(nèi)在邏輯,認為它有助于消除“技術(shù)鴻溝”,推動計算平權(quán),具有劃時代意義。通用人工智能技術(shù)將打破“摩爾定律”的禁錮,以“季度定律”為主導,或以數(shù)倍于半導體行業(yè)速度快速發(fā)展。ChatGPT首創(chuàng)的半營利模式暫時取得了商業(yè)運營和技術(shù)創(chuàng)新之間的平衡。AGI技術(shù)的核心方法包括監(jiān)督學習、增強學習、多任務學習等,已廣泛應用于教育、醫(yī)學、學術(shù)研究和人工智能生成內(nèi)容(AIGC)等領域。但是,AGI技術(shù)存在數(shù)據(jù)安全問題、倫理問題和社會問題等。該文針對構(gòu)建可信AI提出保護用戶隱私、建立可信AI認證體系和加強消費者教育三條建議。

      [關(guān)鍵詞]ChatGPT;通用人工智能(AGI);安全問題

      [基金項目]廣西高等學校千名中青年骨干教師培育計劃(2020QGRW013);廣西民族大學相思湖青年學者創(chuàng)新團隊“鄉(xiāng)村振興背景下廣西民族文化傳承創(chuàng)新的‘互聯(lián)網(wǎng)+方略研究”(2019RSCXSHQN01)

      [作者簡介]郝國強(1981—),安徽東至人,廣西民族大學民族學與社會學學院教授、博士生導師,廣西智庫“鄉(xiāng)村振興與文化產(chǎn)業(yè)發(fā)展研究院”研究員,研究方向:非遺傳承與鄉(xiāng)村振興、互聯(lián)網(wǎng)人類學等;李星瑩(1998—),廣西田東人,廣西民族大學民族學與社會學碩士研究生,研究方向:互聯(lián)網(wǎng)人類學;楊琴(1988—),湖南邵陽人,廣東省農(nóng)業(yè)科學院農(nóng)業(yè)經(jīng)濟與信息研究所助理研究員,民族學博士,研究方向:中國—東南亞農(nóng)業(yè)合作、互聯(lián)網(wǎng)人類學。

      DOI:10.16743/j.cnki.cn45-1357/d.2023.01.015

      近年來,隨著互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,人工智能在全球技術(shù)領域扮演著越來越重要的角色。而ChatGPT 作為一個通用人工智能(AGI)系統(tǒng)和應用,一舉打破了此前TikTok 9個月用戶過億的紀錄,在短短2個月內(nèi)用戶突破1億。ChatGPT成功引爆了科技圈,并引發(fā)社會對人工智能的廣泛關(guān)注和討論。黨的二十大報告指出:“推動戰(zhàn)略性新興產(chǎn)業(yè)融合集群發(fā)展,構(gòu)建新一代信息技術(shù)、人工智能、生物技術(shù)、新能源、新材料、高端裝備、綠色環(huán)保等一批新的增長引擎?!盵1]要以科技強國引領現(xiàn)代化強國建設,中國應在人工智能領域搶占科技制高點。

      一、通用人工智能(AGI)技術(shù)與ChatGPT的崛起

      人工智能的概念可以追溯到公元前一世紀的古希臘,當時的古典哲學家試圖將人類思維過程描述為對符號的機械操作,并率先發(fā)明了安提基特拉機械(Antikythera Mechanism),用來預測天文現(xiàn)象。隨著計算機的發(fā)明,人工智能技術(shù)在20世紀50年代蓬勃發(fā)展。1956年,科學家們在達特茅斯學院召開了歷史上第一次人工智能會議,約翰·麥卡錫(John McCarthy)創(chuàng)造了人工智能(Artificial intelligence)一詞,這標志著人工智能正式成為一門學科[2]。在接下來的幾十年中,人工智能研究取得長足進展,如專家系統(tǒng)、神經(jīng)網(wǎng)絡、機器學習等技術(shù)的誕生。然而,受到算法、算力和數(shù)據(jù)量等諸多因素的限制,人工智能的發(fā)展在相當長一段時間內(nèi)進展緩慢[3]。直到近年來計算能力和數(shù)據(jù)量的大幅提升,以及深度學習等新技術(shù)的出現(xiàn),人工智能才迎來了新的發(fā)展機遇。目前,人工智能已廣泛應用于自然語言處理、圖像識別、自動駕駛、智能家居等領域,正不斷改變著我們的生活和工作方式。

      (一)通用人工智能算法的出現(xiàn)

      目前,傳統(tǒng)人工智能算法逐漸顯示出其在特定領域內(nèi)的優(yōu)勢,但是在跨領域任務上的表現(xiàn)不盡如人意。這就迫使人們開始研究一種能夠進行跨領域決策和多任務執(zhí)行的算法,也就是通用人工智能算法。通用人工智能算法的出現(xiàn)加快了人工智能行業(yè)的發(fā)展,不同于過去只關(guān)注解決單項特定任務的人工智能,通用人工智能的最終目標是像人類一樣具有認知能力,能夠進行智能決策和解決各種問題,被業(yè)內(nèi)稱為強人工智能。因此,通用人工智能算法的大規(guī)模應用成為人工智能技術(shù)發(fā)展史上的里程碑,是實現(xiàn)普適性的關(guān)鍵所在。

      1950年,學者們就已經(jīng)開始探索如何實現(xiàn)通用人工智能算法。然而,由于當時計算能力和數(shù)據(jù)量的限制,這項研究陷入長期停滯。直到近年來,隨著深度學習、自然語言處理等人工智能技術(shù)的不斷發(fā)展,通用人工智能算法的研究逐漸受到重視。目前,通用人工智能算法的研究方向主要包括增強學習、遷移學習、多任務學習等。其中,增強學習通過不斷地與環(huán)境交互,使通用人工智能算法不斷提升自身能力;遷移學習是將已學習的知識和經(jīng)驗應用到新的任務中;而多任務學習則是通過同時學習多個任務,提高算法的泛化能力和適應性。

      近年來,通用人工智能取得了幾項重大突破,如谷歌在2021年2月率先發(fā)布了5400億參數(shù)的自然語言處理模型(PaLM),該模型能夠基于數(shù)百種語言進行深度學習。這些突破顯示出通用人工智能算法在解決復雜任務上的潛力,同時也凸顯出發(fā)展通用人工智能算法的重要性。隨著技術(shù)的不斷進步,通用人工智能算法將會成為人工智能技術(shù)未來重點的發(fā)展方向。

      (二)“數(shù)據(jù)翻倍定律”(Data Doubling Law)

      與算法的突破相對應,數(shù)據(jù)量方面的研究也取得重大進展。2018年6月,OpenAI團隊在提出的“數(shù)據(jù)翻倍定律”(Data Doubling Law)描述了人工智能行業(yè)發(fā)展的一條基本規(guī)律,極大地提振了行業(yè)的信心。該研究發(fā)現(xiàn),人工智能行業(yè)受限于算力和算法等因素,用于訓練自然語言處理模型的數(shù)據(jù)量每隔18~24個月就會翻倍一次。但自2012年開始,這個翻倍周期突然縮短到了3~4個月,人工智能行業(yè)以約5倍于半導體行業(yè)的發(fā)展速度向前推進。出現(xiàn)這個現(xiàn)象的原因在于算力的迅速增長、海量數(shù)據(jù)的生成、類似谷歌和微軟等持續(xù)大量的資金投入。數(shù)據(jù)是一個至關(guān)重要的資源,大數(shù)據(jù)時代的到來加快了數(shù)據(jù)訓練和數(shù)據(jù)喂養(yǎng)人工智能的速度。這是因為大數(shù)據(jù)能夠提供海量、多樣化、高質(zhì)量的數(shù)據(jù)樣本,可以幫助機器學習算法更好地識別模式和規(guī)律,從而提高模型的準確度和泛化能力。此外,大數(shù)據(jù)也能夠為機器學習算法提供更好的訓練和驗證數(shù)據(jù)集,以此幫助算法更好地理解和處理各種復雜的任務和情境。

      數(shù)據(jù)翻倍定律的意義在于,它展示了在自然語言處理領域中大規(guī)模數(shù)據(jù)對于訓練準確、流暢和具有創(chuàng)造性的語言生成模型的重要性。表明了數(shù)據(jù)量和算法的質(zhì)量之間的緊密聯(lián)系,它還為自然語言處理領域的進一步發(fā)展提供了重要的指導和方向。

      由此可見,盡管此前主導半導體行業(yè)發(fā)展的“摩爾定律”(Moores Law)同樣制約著人工智能行業(yè)的發(fā)展,但借助算法的突破、算力的快速發(fā)展以及大數(shù)據(jù)時代的到來,人工智能行業(yè)還是突破了“摩爾定律”(也被稱為“兩年定律”)的限制,并于2012年開始進入“數(shù)據(jù)翻倍定律”主導的時代。

      (三)ChatGPT的誕生及其半營利模式的重要意義

      目前,通用人工智能的發(fā)展速度突飛猛進。人工智能專家正在探索將通用人工智能技術(shù)應用于自然語言理解和圖像識別等方面的應用。隨后,OpenAI團隊推出基于通用人工智能算法的GPT模型(Generative Pre-trained Transformer),采用這種“生成式預訓練變換模型”的聊天機器人ChatGPT,基于大參數(shù)語言算法模型、海量的高質(zhì)量真實數(shù)據(jù),能夠通過學習和理解人類的語言來進行對話,還能根據(jù)聊天的上下文進行互動,并協(xié)助人類完成一系列復雜任務:撰寫郵件、論文、腳本,制定商業(yè)提案,創(chuàng)作詩歌、故事,甚至敲代碼、檢查程序錯誤等。

      然而,盡管ChatGPT在自然語言處理領域中已經(jīng)取得了重要的突破,仍需要面對諸多挑戰(zhàn)和難點,如理解不同的語言表達方式、情境和背景,以及識別和理解語言中的隱含意義、情感和語義信息。

      總的來說,ChatGPT的誕生標志著自然語言處理領域的重要進展,同時它還開創(chuàng)了一種新的半營利模式。ChatGPT母公司OpenAI原本是一家非營利組織,其資金主要依賴于捐贈和政府撥款。但隨著研究和開發(fā)成本的不斷增加,非營利模式難以滿足發(fā)展的需求,漸漸落后于DeepMind等同類公司。為了可持續(xù)發(fā)展并獲得更多的資金和資源,OpenAI于2019年改組為半營利公司,并在商業(yè)市場上推廣其研究成果,從而吸引更多的投資。這樣的轉(zhuǎn)型能夠讓OpenAI更加獨立自主,提高其資金來源的多樣性和可持續(xù)性,并有利于其長期發(fā)展。

      OpenAI成立的初衷是推動人工智能的研究和發(fā)展,同時確保人工智能的發(fā)展不會對人類造成危害。創(chuàng)始人認為,人工智能的發(fā)展應該是開放和透明的,不應受到商業(yè)利益和特定國家的控制,因此最初將其定為非營利組織。但人工智能行業(yè)是一個資金密集型的賽道,需要大量資金招募全球頂尖的科學家、程序員,購買設備和專業(yè)數(shù)據(jù)等。因此,為了更好地實現(xiàn)自己的使命和愿景,OpenAI開始向商業(yè)領域拓展,并成立了子公司OpenAI LP,旨在將研究成果轉(zhuǎn)化為商業(yè)產(chǎn)品,并帶來收益以支持OpenAI的研究。與此同時,OpenAI仍然保持著其非營利組織的身份,其創(chuàng)始人兼CEO山姆·阿爾特曼(Sam Altman)自己并不持股,而且承諾在任何時候都不會為了商業(yè)利益而放棄其使命和價值觀,還規(guī)定了公司盈利上限,超出的部分將用于推動行業(yè)發(fā)展和公益事業(yè)等。具體來講,OpenAI盈利后的利潤分配將分為四個階段:首先,讓馬斯克為首的首批投資者10億美元的捐贈收回初始資本。其次,微軟將獲得OpenAI利潤的75%,直到收回其130億美元的投資。再次,在OpenAI的利潤達到920億美元之后,微軟的持股比例將下降到49%。剩余的部分利潤將由其他風險投資者和OpenAI的員工分享。最后,當利潤達到1500億美元之后,微軟和其他風險投資者的股份將無償轉(zhuǎn)讓給OpenAI的非營利基金。簡單說,就有點像OpenAI把公司租給了微軟,賺到1500億美元之后,再還回來。這樣的利潤分配方式,不僅能夠保障初始投資人的回報,還能激勵員工和其他合作伙伴的積極性,同時也保證了OpenAI的獨立性和長期發(fā)展的可持續(xù)性。這種基于共贏和長期合作的戰(zhàn)略,為人工智能行業(yè)的可持續(xù)發(fā)展提供了一個很好的樣本,也向全球展示了OpenAI作為一個社會責任企業(yè)的良好形象和商業(yè)模式。

      ChatGPT的誕生和OpenAI的轉(zhuǎn)型不僅是自然語言處理領域的重要進展,也代表了一種在安全可控、技術(shù)創(chuàng)新與商業(yè)運營之間把握平衡的新型商業(yè)模式,這種模式將有助于OpenAI獲得更多的投資和資源,提高其研究和開發(fā)水平,從而更好地服務于社會。

      二、ChatGPT的關(guān)鍵技術(shù)

      近年來,隨著深度學習、自然語言處理、機器人和機器學習等技術(shù)的進步,通用人工智能開始在科技圈嶄露頭角。它可應用于各種任務,包括模仿人類的思想和行為,并實現(xiàn)人類水平的智能。在通用人工智能的研究中,ChatGPT是當前最先進的自然語言處理技術(shù)之一,因其出色的生成能力和廣泛的應用而備受關(guān)注。

      ChatGPT是OpenAI基于Transformer架構(gòu)開發(fā)的預訓練語言模型,并在大型人類生成文本數(shù)據(jù)集上進行了預訓練[4]。在訓練過程中,模型預測輸入序列的下一個詞,以此來學習上下文和語言的統(tǒng)計規(guī)律。首先,在預訓練階段,ChatGPT使用無監(jiān)督學習算法對大規(guī)模的文本數(shù)據(jù)集進行訓練,以理解單詞和短語之間的關(guān)聯(lián)性,并學會在生成和回復對話時進行上下文理解和語義推理,這個階段不涉及任何人類反饋。其次,OpenAI使用了一種基于強化學習的技術(shù),即基于人類反饋的強化學習(Reinforcement Learning from Human Feedback,RLHF)來微調(diào)(Instruction Fine-Tuning,IFT)ChatGPT以生成更好的對話。在這個階段,OpenAI會與人類用戶進行交互,收集用戶的反饋,并將其用作獎勵信號來調(diào)整ChatGPT的生成行為。具體來說,OpenAI設置了一個獎勵模型(Reward Model,RM)[5]1881,并使用近端策略優(yōu)化(Proximal Policy Optimization, PPO)算法來優(yōu)化ChatGPT以最大化獎勵[6]。最后,OpenAI使用了人類生成的對話數(shù)據(jù)集來評估ChatGPT的生成質(zhì)量,并將其與其他NLP模型進行比較。

      其中,基于人類反饋的強化學習(RLHF)是一種強化學習算法,它結(jié)合了人類智慧和機器學習的能力,以在復雜的任務中獲得更好的表現(xiàn)。通過引入人類反饋來指導智能系統(tǒng)的決策和行為,RLHF算法可以更好地解決復雜的問題,提高系統(tǒng)的性能和智能水平。這項技術(shù)主要包括生成對話和人類反饋。在生成對話階段,ChatGPT會根據(jù)歷史對話和上下文生成一句話作為回應,然后將該回應呈現(xiàn)給使用者。在人類反饋階段,使用者可以選擇對這句話進行打分,給出正面或負面的反饋。如果給出了正面反饋,ChatGPT會根據(jù)這個反饋來調(diào)整它所生成的回復,以便更好地滿足用戶的需求和偏好。如果給出了負面反饋,ChatGPT則會嘗試生成一個新的回答,以改進對話質(zhì)量。此外,在RLHF算法中,還會對整個對話過程進行調(diào)整和優(yōu)化,以提高對話的流暢性和自然度。這些調(diào)整和優(yōu)化過程是基于獎勵模型(RM)來完成的,RM會根據(jù)用戶反饋和對話質(zhì)量指標來計算出適當?shù)莫剟钪?,并將其應用于更新ChatGPT的生成策略,從而優(yōu)化對話過程和結(jié)果。

      其次,指令微調(diào)(IFT)是指在預訓練模型的基礎上,使用特定的任務數(shù)據(jù)集對模型進行進一步訓練以適應該特定任務的過程[7]。這個過程通常需要對預訓練模型的參數(shù)進行微調(diào),使之可以更好地理解和處理特定任務中的語言信息,增強模型的表現(xiàn)力。例如,可以將ChatGPT的指令微調(diào)想象成一名學生在做一份考試試卷的過程,將預訓練模型想象成學生平時學習的知識,指令微調(diào)就相當于針對這份試卷對這些知識進行進一步的復習和強化,以適應這個特定的考試任務。

      最后,與傳統(tǒng)的企業(yè)聊天機器人相比,ChatGPT的發(fā)布是通用人工智能發(fā)展史上一個重要的里程碑,它能更好地理解自然的人類語言并生成詳細的回復[8],具有更廣泛的應用前景。但是,目前ChatGPT模型仍然存在許多問題需要解決,例如帶有人工智能技術(shù)的偏見、數(shù)據(jù)私密性難保證、數(shù)量和技術(shù)方面缺乏常識和邏輯等問題。因此,ChatGPT技術(shù)的發(fā)展還需要不斷地研究和探索。

      三、ChatGPT的應用

      ChatGPT是一個基于人工智能技術(shù)的大型語言模型,它的作用體現(xiàn)在自然語言處理、機器學習和數(shù)據(jù)分析三個方面。在自然語言處理方面,它可以幫助研究人員實現(xiàn)自動化的文本處理,包括文本分類、命名實體識別等任務。在機器學習方面,它可以生成各種類型的數(shù)據(jù),并可應用于模擬語言交互等。在數(shù)據(jù)分析方面,它可用于處理結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù),進行文獻分析、知識挖掘和知識圖譜構(gòu)建等任務。在以上多種技術(shù)作用下,ChatGPT被廣泛應用于教育、醫(yī)學、學術(shù)研究、人工智能生成內(nèi)容等領域。

      (一)在教育領域的應用

      首先,將ChatGPT融入自然語言教學。自然語言教學是一種第二語言學習方法,在規(guī)則和語法之前側(cè)重于溝通技巧和語言接觸[9]。在教學過程中,教師可以用ChatGPT來設計語言材料和練習[10]。并為學生提供翻譯、新詞定義和布置多樣化的練習,或者讓學生與之進行對話。在過去,學生聽課常以教材、筆記等較為傳統(tǒng)的方式進行知識積累,這種以單向輸入或輸出的方式難以真正地幫助學生掌握語言表達能力?,F(xiàn)在,ChatGPT可以幫助教師設計教學內(nèi)容,例如語言模板、語法規(guī)則等,讓學生通過練習語法技巧掌握語言表達。

      其次,ChatGPT可以應用于個性化教學,可作為學生的智能老師[11]。每個學生都有自己不同的學習風格、興趣愛好和認知能力。因此,ChatGPT有助于為學生提供不同的學習方法,以滿足學生在課堂以外的個性化學習需求。目前,ChatGPT已在miniF2F基準上達到較為先進水平,能夠解決高中奧林匹克競賽中一組具有挑戰(zhàn)性的問題[12]。ChatGPT可以幫助學生進行智力提升和邏輯訓練,從而提高他們的學習能力和競賽水平。

      最后,以ChatGPT輔助自動化評估,為教師在學生的日常評估工作上節(jié)省時間和提供更準確的反饋[13]。在部分學校,教師日常評估學生知識掌握程度、壓力承受程度以及心理健康程度等多方面的狀態(tài)時,往往采用的是問卷調(diào)查、計算機習題測試以及面對面咨詢等方式,存在耗時長、程序煩瑣等問題,而ChatGPT的自動化評估功能可以通過人機交互狀態(tài)下的語言溝通,進一步對學生的語言進行分析和評估,給出客觀準確的評價,使學生能夠更好地了解自己的學習、身體、心理等狀況,再進一步改善。然而,ChatGPT在應用時經(jīng)常面臨一些挑戰(zhàn)。ChatGPT自然語言處理技術(shù)本身還存在著不確定性和歧義性,并且需要大量的高質(zhì)量數(shù)據(jù)來訓練模型,提升交流過程中語言的準確性。

      (二)在醫(yī)學領域的應用

      隨著互聯(lián)網(wǎng)和物聯(lián)網(wǎng)技術(shù)的高速發(fā)展,各大醫(yī)院也逐漸開放了“智慧醫(yī)療”“線上醫(yī)療”等板塊,在2021年全球智能醫(yī)院市場研究報告中提到:“智能醫(yī)院的全球市場在2020年達到301億美元,預計2026年達到1112億美元?!盵14]因此,ChatGPT借助自然語言處理模型在醫(yī)學領域逐漸展現(xiàn)價值。其中,ChatGPT在病理分析、醫(yī)學研究、健康管理等方面的應用,為醫(yī)學領域帶來了許多創(chuàng)新和改進。

      一方面,ChatGPT的自然語言處理技術(shù)和語義理解技術(shù),可以加快識別和理解醫(yī)學文本中的關(guān)鍵信息,并對病歷進行分析和數(shù)據(jù)挖掘。數(shù)據(jù)挖掘的技術(shù)包括分類、聚類、回歸、關(guān)聯(lián)規(guī)則等,它通過決策樹、遺傳算法、最近鄰法等算法來分析大量的原始或多數(shù)據(jù)[15]。例如,使用數(shù)據(jù)挖掘技術(shù)對乳腺癌患者進行診斷和治療[16]。首先,ChatGPT通過對大量病例的分析和相似病例進行分類,使醫(yī)生可以更加準確地診斷病情、制訂治療方案,從而提高醫(yī)療服務的效率和質(zhì)量;其次,用于分析大規(guī)模的癌癥數(shù)據(jù)集,以幫助研究人員發(fā)現(xiàn)病體癌癥的獨特特征、診斷方法和治療方案等。

      另一方面,醫(yī)學研究需要處理大量的文獻、數(shù)據(jù)和實驗結(jié)果,需要耗費大量的時間和精力進行分析和整理。首先,ChatGPT可以通過文獻檢索、數(shù)據(jù)挖掘和知識圖譜構(gòu)建等技術(shù),幫助醫(yī)學研究人員更快地獲取、整理和分析醫(yī)學相關(guān)信息。例如,ChatGPT可以應用于醫(yī)學文獻的自動摘要和分類,幫助醫(yī)學研究人員更快地找到自己需要的信息,從而提高研究的效率和質(zhì)量。其次,ChatGPT還可以通過評估其在USMLE上的AI輔助醫(yī)療決策性能[17],幫助醫(yī)生更好地做出診斷和治療決策,從而提高醫(yī)療服務的質(zhì)量和效率。最后,ChatGPT有助于研究人員更好地理解疾病的發(fā)生和治療機理,例如,將機器學習模型建立在乳腺癌數(shù)據(jù)集上,以便更好地理解和預測乳腺癌的發(fā)生和治療[18]。

      此外,隨著智能醫(yī)療技術(shù)的不斷發(fā)展,人們對健康管理的需求也越來越高。ChatGPT可以通過自然語言交互的方式,與用戶進行對話,了解用戶的健康狀況和需求,并提供相應的健康管理建議和指導[19],進而幫助用戶更好地掌握自己的健康狀況,制訂自身的健康計劃和管理方案,及時預防和治療疾病,從而提高他們的健康水平和生活質(zhì)量。

      (三)在學術(shù)研究領域的應用

      在哲學社會科學領域,ChatGPT通過自動化分析和分類大量文獻,為研究人員提供快速了解前沿研究進展和發(fā)現(xiàn)新研究方向的途徑。同時,ChatGPT也能夠從海量文獻中提取有用的參考文獻、內(nèi)容、人物和事件,從而提高數(shù)據(jù)挖掘的效率和質(zhì)量。不僅如此,它還能夠通過命名實體識別和關(guān)系抽取等技術(shù),從文獻中提取出關(guān)鍵的實體和關(guān)系,幫助研究人員更好地了解社會現(xiàn)象和人類行為的本質(zhì)。

      在天文研究領域,ChatGPT也具有一定的應用價值。例如,一家名為JetBrains的捷克軟件開發(fā)公司利用ChatGPT分析了The Astronomers Telegram和NASA的GCN Circulars等數(shù)據(jù),這些報告包含傳統(tǒng)算法無法解析的天文事件。其中,在OpenAI將天文事件嵌入這些天文報告后,研究人員可以在多個數(shù)據(jù)庫和出版物中搜索到諸如“crab pulsar bursts”之類的事件。ChatGPT的嵌入在數(shù)據(jù)源分類上實現(xiàn)了99.85%的準確率,在天文研究領域的應用具有較高的精度和效率[20]。

      此外,在美術(shù)、設計領域,ChatGPT也具有一定的創(chuàng)新。例如,DALL·E2是一個新的人工智能系統(tǒng),可以根據(jù)文字描述創(chuàng)造原型逼真的圖像和藝術(shù)作品。它通過組合概念、屬性和樣式,擴展原始畫布中的圖像,創(chuàng)建大量的新作品。DALL·E2還可以根據(jù)自然語言字幕對現(xiàn)有圖像進行逼真的編輯,能夠考慮圖片中陰影、反射和紋理等多種因素,并且根據(jù)喜好進行元素的添加和刪減。甚至可以通過拍攝的照片創(chuàng)建不同的變體,在保持原有創(chuàng)作靈感的同時做到圖文并茂,這說明ChatGPT具備多樣性和靈活性[21]。

      (四)在人工智能生成內(nèi)容(AIGC)領域的應用

      AIGC全稱AI-Generated Content,是基于生成對抗網(wǎng)絡GAN、大型預訓練模型等人工智能技術(shù),通過已有數(shù)據(jù)尋找規(guī)律,并通過適當?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù),如AI繪圖、AI文章等均屬于AIGC技術(shù)場景中的分支。隨著ChatGPT的爆火,帶動了互聯(lián)網(wǎng)內(nèi)容生產(chǎn)方式的快速迭代,從傳統(tǒng)的PGC(專家生成內(nèi)容)到UGC(用戶生成內(nèi)容),再到如今的AIGC(AI生成內(nèi)容)模式。以ChatGPT為代表的AIGC作為一種全新的內(nèi)容生成方式,在效率、迭代和自動化傳播等方面相對傳統(tǒng)社會具有明顯的技術(shù)優(yōu)勢,因而可以應用在諸多行業(yè)。

      在服務行業(yè),ChatGPT可以應用于不同的場景中,以提高企業(yè)的效率和客戶服務體驗。在改進酒店服務機器人上,ChatGPT可以讓機器人更智能化,進一步提高酒店行業(yè)機器人的工作效率,使其更接近于人類服務員的水平,可以識別和理解客戶的真實需求,為客戶提供更好的服務體驗[22]。在電子郵件回復和聊天機器人方面,ChatGPT可以自動回應常見問題、處理客戶查詢和投訴,從而幫助客戶更快地獲取所需信息,減少等待時間和提高滿意度[23]。在互聯(lián)網(wǎng)廣告應約和銷售洽談中,ChatGPT可以自動響應客戶的查詢,通過在聊天中上下文的梳理,生成客戶所偏向的答案,不斷對客戶的需求和偏好進行追蹤和深入了解,并向客戶推薦符合其需求的產(chǎn)品和服務,從而提高客戶體驗和增加銷售量[24]。

      四、以ChatGPT為代表的通用人工智能(AGI)技術(shù)的安全問題省思

      人工智能(AI)可能帶來的潛在文化、經(jīng)濟和社會變革一直受到社會各界的激烈辯論。計算機行業(yè)的快速發(fā)展和程序員群體的迭代帶來了他們與普通人之間的“技術(shù)鴻溝”。這種鴻溝在現(xiàn)代市場經(jīng)濟、資本市場等因素的作用下,進一步形成了“經(jīng)濟鴻溝”“社會鴻溝”,導致貧富差距的加劇。隨著ChatGPT等大型語言模型的出現(xiàn),有助于彌合程序員與普通人之間的技術(shù)鴻溝(Technology divide),加快實現(xiàn)計算平權(quán)(Computational equity),進而在一定程度上消除技術(shù)霸權(quán),具有劃時代的意義。但也有較多學者呼吁加強ChatGPT監(jiān)管,警惕“人工智能成為人類文明史的終結(jié)”。

      作為一種自然語言處理技術(shù),ChatGPT本身不會直接引起安全問題。然而,在其基礎技術(shù)、通用人工智能的開發(fā)過程中,圍繞數(shù)據(jù)隱私和信息安全問題,以及在其應用過程中可能出現(xiàn)的倫理問題和社會問題,都應該得到足夠的關(guān)注和重視。中國信息通信研究院《人工智能白皮書(2022)》指出,人工智能行業(yè)除重視技術(shù)創(chuàng)新外,還將聚焦工程實踐和可信安全,這種“三維”發(fā)展思路將推動人工智能行業(yè)進入一個新的階段[25]。

      (一)數(shù)據(jù)安全是人工智能時代的首要問題

      在應用深度學習等通用人工智能技術(shù)進行訓練時,需要大量的數(shù)據(jù)來支持。然而,這些數(shù)據(jù)往往包含大量的個人信息,因此,對于個人隱私的保護顯得尤為重要。同時,在人工智能技術(shù)的應用過程中,數(shù)據(jù)的安全性也需要被高度關(guān)注,以避免黑客攻擊和數(shù)據(jù)泄露等安全問題的出現(xiàn)。

      從個人層面來看,用戶每天在使用ChatGPT時都可能會留下大量的數(shù)據(jù),這些數(shù)據(jù)能夠讓AI為我們提供更加智能化、個性化的服務。然而,如果這些數(shù)據(jù)被濫用或泄露,將會給我們帶來巨大的安全隱患。因此,企業(yè)和國家需要確保對這些數(shù)據(jù)的合理收集、使用和保護,以確保數(shù)據(jù)的安全性。

      從企業(yè)的角度來看,企業(yè)需要建立完善的數(shù)據(jù)安全管理制度,加強對數(shù)據(jù)的保護和使用,同時確保在數(shù)據(jù)收集、存儲和傳輸過程中符合相關(guān)法規(guī)和規(guī)定。政府需要建立相應的監(jiān)管體系和法規(guī),加強對數(shù)據(jù)的管理和監(jiān)督,同時確保在數(shù)據(jù)的跨境流動和傳輸過程中符合國際規(guī)定和標準。只有企業(yè)和政府共同努力,才能夠更好地保障數(shù)據(jù)的安全,推動人工智能技術(shù)的健康發(fā)展。

      從國家層面來看,數(shù)據(jù)安全問題同樣重要。特別是在一些涉及國家安全和公共安全的領域,比如政府、金融、能源等,數(shù)據(jù)泄露和黑客攻擊的風險可能會影響國家安全。因此,政府需要制定相應的法律法規(guī)來保障數(shù)據(jù)的安全,防范數(shù)據(jù)泄露和黑客攻擊等。

      (二)人工智能引發(fā)的倫理問題和社會問題

      人工智能技術(shù)的偏見問題可能會帶來一些潛在的倫理問題和社會問題。例如,斯坦福大學2022年發(fā)布的AI指數(shù)報告指出,許多人工智能的大型語言模型帶有偏見和歧視,這種偏見來自AI模型的基礎數(shù)據(jù)訓練,它可能反映了人類社會中的系統(tǒng)性偏見或篩選數(shù)據(jù)的科研管理人員[26]。同樣,ChatGPT開發(fā)人員也總結(jié)了GPT-3模型是一個有偏見的系統(tǒng),其常見的偏見包括性別歧視、種族和宗教偏見[5]1895-1898等。

      由于機器學習算法的黑盒性質(zhì),人們可能難以理解和解釋其決策過程。這可能導致人們對算法的信任度降低,甚至引發(fā)一些不公平和歧視的現(xiàn)象。這些偏見的產(chǎn)生可能來自科研人員經(jīng)過篩選的“帶有偏見”的數(shù)據(jù)訓練,反映的是人類社會可能存在的偏見和階級地位的歧視。反之,既然可以操控人工智能模型,科學家也可以通過技術(shù)和算法去糾正人工智能模型的偏見,甚至糾正人類本身的偏見問題。例如,舊金山宣布推出一種名為“偏見緩解工具”的應用程序,該應用程序使用人工智能技術(shù)自動編輯警方報告中與嫌疑人種族有關(guān)的信息,目的是減少種族偏見對檢察官在決定某人被指控犯罪時的影響。通過自動過濾可能引起偏見的信息,該工具有望幫助警方和司法系統(tǒng)更公平地對待被調(diào)查者。

      (三)人工智能對消費者的影響

      人工智能的可信問題也會長期困擾廣大消費者,ChatGPT與大多數(shù)人工智能模型一樣,它也會存在撰寫假新聞、編造知識等可能性。這和ChatGPT的算法邏輯有關(guān),該模型的知識來自訓練數(shù)據(jù)中的統(tǒng)計規(guī)律,而不是任何類似人類對世界復雜和抽象系統(tǒng)的理解,因此可能會產(chǎn)生不正確或誤導性的信息,并產(chǎn)生攻擊性或有偏見的內(nèi)容。有學者在使用ChatGPT的過程中發(fā)現(xiàn),它常常會“一本正經(jīng)地胡說八道”。例如在得到指令“推薦中世紀英格蘭經(jīng)濟史的十本書”,它快速給出了答案,但是其中有8本是偽造的[27]。根據(jù)高德納(Gartner)公司的預測,在2023年產(chǎn)出的內(nèi)容產(chǎn)品中,將有20%來自AI。而到2025年,AIGC產(chǎn)生的數(shù)據(jù),將占到整個互聯(lián)網(wǎng)的10%。比如新聞行業(yè),到2030年,九成以上的新聞稿件將由AI輔助完成[28]。如果這些預測成真,那么類似ChatGPT這樣的人工智能模型的偏見和造假問題將會給人類社會帶來巨大的困擾。因此,在技術(shù)條件允許的情況下,應該構(gòu)建一個值得信賴的可信AI,這樣才可以放心讓其幫助我們執(zhí)行各種重要的任務。

      綜上所述,人工智能技術(shù)的發(fā)展需要綜合考慮安全、隱私、倫理和社會等多個方面的問題,需要采取多種措施來應對和解決這些問題。

      五、構(gòu)建可信AI的建議

      世界各主要國家對人工智能的發(fā)展高度重視。2016年,美國白宮發(fā)布了三份政府工作報告[29],將人工智能發(fā)展上升到國家戰(zhàn)略層面的國家。人工智能的戰(zhàn)略規(guī)劃被視為“美國新的阿波羅登月計劃”,旨在人工智能領域取得領先地位,類似于其在互聯(lián)網(wǎng)時代的霸主地位。習近平總書記在中共中央政治局第九次集體學習時強調(diào):“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控?!盵30]中國信息通信研究院與京東探索研究院于2021年聯(lián)合發(fā)布了《可信人工智能白皮書》,強調(diào)要把增強用戶信任、發(fā)展可信人工智能放在人工智能倫理和治理的核心位置[31]。當前國際競爭的實質(zhì)是以經(jīng)濟和科技實力為基礎的綜合國力的較量,中國有必要在當前的人工智能浪潮中搶占制高點,從而引領新一輪科技革命?;诖?,筆者針對構(gòu)建可信AI提出以下三條建議:

      (一)加強數(shù)據(jù)安全,保護用戶隱私

      數(shù)據(jù)是人工智能和大數(shù)據(jù)時代最重要的資源,隨之而來的數(shù)據(jù)安全問題日益凸顯,并在一定程度上制約著行業(yè)的發(fā)展。2018年5月,歐盟通過了《通用數(shù)據(jù)保護條例》,其中包括“被遺忘權(quán)”的規(guī)定。該規(guī)定賦予了用戶選擇不向互聯(lián)網(wǎng)公司共享個人數(shù)據(jù)的權(quán)利。用戶只需選擇“被遺忘”,這樣公司將不會保留與該用戶相關(guān)的核心和敏感信息。這一措施旨在保護個人隱私,為用戶提供更多的數(shù)據(jù)控制權(quán)。中國政府可以借鑒國外經(jīng)驗通過立法的方式加強數(shù)據(jù)的安全管理和保護,防止數(shù)據(jù)泄露和濫用,采用密碼學、加密算法等安全技術(shù)保護數(shù)據(jù)的機密性、完整性和可用性。

      此外,可以通過最新的區(qū)塊鏈技術(shù)實現(xiàn)數(shù)據(jù)的確權(quán)、交易和共享,確保數(shù)據(jù)安全。區(qū)塊鏈技術(shù)正是這樣一個在“去信任”的環(huán)境中構(gòu)造一種新信任機制和交易規(guī)則[32]??梢越柚钚碌膮^(qū)塊鏈技術(shù)來實現(xiàn)數(shù)據(jù)確權(quán)、共享和交易等,從而在人工智能時代保護用戶的隱私,確保用戶數(shù)據(jù)的安全。區(qū)塊鏈技術(shù)的分布式、去中心化、不可篡改等特點使其成為一個可信的數(shù)據(jù)交換和管理平臺,可以應用于人工智能的多個應用場景。

      (二)打造偏見評估系統(tǒng),建立可信AI認證體系

      隨著人工智能技術(shù)的快速發(fā)展,性別、種族、宗教等偏見問題越來越受到關(guān)注。政府在加強監(jiān)管的同時,應當采取有效的對策,以確保公眾對人工智能技術(shù)的信任。首先,政府應當指導第三方專業(yè)評估機構(gòu)對人工智能企業(yè)的偏見和數(shù)據(jù)安全、網(wǎng)絡安全等方面進行全面、客觀地評估。這些評估機構(gòu)應當具備嚴格的資質(zhì)認證和專業(yè)能力,確保評估結(jié)果的準確性和可靠性。評估報告應當包含企業(yè)在偏見問題和安全問題上的具體表現(xiàn)和改進建議。其次,政府應當建立可信AI認證體系,對符合標準的人工智能產(chǎn)品進行認證,并提供給公眾,以便公眾購買和使用更可信的人工智能產(chǎn)品。認證標準應當包括對偏見和數(shù)據(jù)安全、網(wǎng)絡安全等方面的要求,以確保人工智能產(chǎn)品的質(zhì)量和可信度。最后,政府應當加強對人工智能企業(yè)的監(jiān)管,對于那些違反規(guī)定的企業(yè),應當采取相應的法律措施。同時,政府應當建立完善的數(shù)據(jù)保護和隱私保護法律體系,保護公民的合法權(quán)益和隱私安全。通過這些對策,政府可以促進可信AI的發(fā)展,建立更加安全、可靠的人工智能生態(tài)系統(tǒng)。同時,政府也可以促進人工智能技術(shù)的創(chuàng)新和發(fā)展,為社會的可持續(xù)發(fā)展作出貢獻。

      (三)加強消費者教育,正確使用通用人工智能技術(shù)

      通用人工智能技術(shù)的發(fā)展是全球科技發(fā)展的必然趨勢,我們無法阻擋人工智能時代的到來,只能積極應對和適應。然而,在正確使用人工智能的過程中,消費者需要保護自己的隱私和數(shù)據(jù)安全,避免將自己置于安全風險之中。在使用通用人工智能技術(shù)過程中需要注意一些基本的準則。例如,不要將個人信息泄露給未知的第三方,也不要使用人工智能技術(shù)來傷害他人等。此外,人們需要認識到,制造帶有偏見的數(shù)據(jù)來訓練人工智能模型將導致人工智能算法的偏差,從而產(chǎn)生不準確的結(jié)果,可能帶來不良后果。

      為了應對這些挑戰(zhàn),加強消費者教育、提高人們的科技素養(yǎng)是十分必要的。技術(shù)本身不具有價值判斷,只是一種工具或手段,其所帶來的影響和價值取決于人類使用的方式和目的。因此,我們應該將技術(shù)的中性作為一個前提條件,同時在技術(shù)應用的過程中注重對其潛在影響的審慎評估和規(guī)范,以確保技術(shù)的應用符合社會公共利益和道德倫理要求。

      [參考文獻]

      [1]習近平.高舉中國特色社會主義偉大旗幟為全面建設社會主義現(xiàn)代化國家而團結(jié)奮斗:在中國共產(chǎn)黨第二十次全國代表大會上的報告[N].人民日報,2022-10-26(1).

      [2]HAENLEIN M, KAPLAN A. A brief history of artificial intelligence: on the past, present, and future of artificial intelligence[J].California Management Review, 2019(4):5-14.

      [3]Code-Dependent: Pros and Cons of the Algorithm Age[EB/OL].(2017-02-08)[2023-02-13].https://www.pewresearch.org/internet/2017/02/08/code-dependent-pros-and-cons-of-the-algorithm-age/.

      [4]Understanding ChatGPT as explained by ChatGPT![EB/OL].(2020-10-20)[2023-02-15].https://www.advancinganalytics.co.uk/blog/2023/1/18/language-models-what-is-chatgpt.

      [5]BROWN T, MANN B, RYDER N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020,33.

      [6]CHRISTIANO P F, LEIKE J, BROWN T, et al. Deep reinforcement learning from human preferences[C]. Advances in Neural Information Processing Systems ,2017:30.

      [7]Bert: Pre-training of deep bidirectional transformers for language understanding[EB/OL].(2019-05-24)[2023-02-14].https://arxiv.org/pdf/1810.04805.pdf.

      [8]What is AI chatbot phenomenon ChatGPT and could it replace humans?[EB/OL].(2022-12-05)[2023-02-14].https://www.theguardian.com/technology/2022/dec/05/what-is-ai-chatbot-phenomenon-chatgpt-and-could-it-replace-humans.

      [9]HALL G.Exploring English language teaching:Language in action[M].Routledge,2011:198.

      [10]ZHAI X. ChatGPT user experience: Implications for education[J/OL].SSRN,2022(4312418).https://www.researchgate.net/profile/Xiaoming-Zhai/publication/366463233_ChatGPT_User_Experience_Implications_for_Education/links/63a2817aca6a9d254f8de010/ChatGPT-User-Experience-Implications-for-Education.pdf.

      [11]19 Ways to use ChatGPT in your classroom[EB/OL].(2023-01-18)[2023-02-13].https://www.edweek.org/teaching-learning/opinion-19-ways-to-use-chatgpt-in-your-classroom/2023/01.

      [12]POLU S, HAN J M, ZHENG K, et al. Formal mathematics statement curriculum learning[J/OL].arXiv.2022(01344).https://arxiv.org/pdf/2202.01344.pdf.

      [13]Creatingyour own ChatGPT: a guide to Fine-Tuning LLMs with LoRA[EB/OL].(2023-02-03)[2023-02-14].https://ai.plainenglish.io/how-chatgpt-can-improve-education-not-disrupt-it-c6fe7910d1e1.

      [14]Global Smart Hospitals Market Research Report 2021-ResearchAndMarkets.com[EB/OL].(2021-11-23)[2023-02-16].https://www.businesswire.com/news/home/20211123006014/en/Global-Smart-Hospitals-Market-Research-Report-2021-ResearchAndMarkets.com.

      [15]OSKOUEI R J, KOR N M, MALEKI S A. Data mining and medical world: breast cancers diagnosis, treatment, prognosis and challenges[J]. American Journal of Cancer Research, 2017(3):610.

      [16]KHARYA S. Using data mining techniques for diagnosis and prognosis of cancer disease[J/OL].arXiv.2012(1923).https://arxiv.org/ftp/arxiv/papers/1205/1205.1923.pdf.

      [17]KUNG T H, Cheatham M, Medenilla A, et al. Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models[J]. PLOS Digital Health, 2023(2):198.

      [18]GOEL V. Building a simple machine learning model on breast cancer data[J]. Towards Data Science, 2018:1-6.

      [19]KING M R. The future of AI in medicine: a perspective from a chatbot[J]. Annals Biomedical Engineering, 2023(51):291-295.

      [20]NEELAKANTAN A, XU T, PURI R, et al. Text and code embeddings by contrastive pre-training[J/OL].arXiv.2022(10005).https://arxiv.org/pdf/2201.10005.pdf.

      [21]RAMESH A, DHARIWAL P, NICHOL A, et al. Hierarchical text-conditional image generation with clip latents[J/OL].arXiv.2022(06125).https://arxiv.org/pdf/2204.06125.pdf.

      [22]What does ChatGPT really mean for businesses?[EB/OL].(2022-12-28)[2023-02-15].https://www.forbes.com/sites/bernardmarr/2022/12/28/what-does-chatgpt-really-mean-for-businesses/?sh=a7ecaac7d1e3.

      [23]AGRAWAL A, GANS J, GOLDFARB A. ChatGPT and how AI disrupts industries[EB/OL].(2022-12-12)[2023-02-23].https://hbr.org/2022/12/chatgpt-and-how-ai-disrupts-industries.

      [24]How can you use ChatGPT in business?[EB/OL].(2021-01-16)[2023-02-15].https://addepto.com/blog/how-can-you-use-chatgpt-in-business/.

      [25]中國信息通信研究院.人工智能白皮書(2022年)[M].北京:中國信息通信研究院,2022:前言.

      [26]Introduction to the AI index report 2022[EB/OL].(2022-03)[2023-02-15].https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf.

      [27]歷史學家的技藝.當ChatGPT學會編造多本中世紀經(jīng)濟史參考書目(一名世界史學生的反思和致歉)[EB/OL].(2023-02-11)[2023-02-16].https://mpweixinqqcom/s/nCTBoffzS3fh5wHTcDkamg.

      [28]SINGH A, JHA S, SRIVASTAVA D K, et al. Future of work: a systematic literature review and ev-olution of themes[J]. Foresight, 2022(1):99-125.

      [29]BUNDY A. Preparing for the future of artificial intelligence[J]. AI & Society, 2017(32):285-287.

      [30]習近平.加強領導做好規(guī)劃明確任務夯實基礎推動我國新一代人工智能健康發(fā)展[N].人民日報,2018-11-01(1).

      [31]中國信息通信研究院,京東探索研究院.可信人工智能白皮書[M].北京:中國信息通信研究院,2021:前言.

      [32]任仲文.區(qū)塊鏈領導干部讀本[M].北京:人民日報出版社, 2018:75.

      [責任編輯:楊軍]

      猜你喜歡
      安全問題
      水利工程施工過程中的安全問題及管理措施研究
      高校計算機安全防范措施研究
      有關(guān)計算機網(wǎng)絡安全問題的分析與探討
      輸變電設備運行及安全防范措施
      中國市場(2016年36期)2016-10-19 04:01:46
      淺談煤礦瓦斯的安全管理
      延庆县| 昭平县| 东丽区| 洛川县| 公主岭市| 乐昌市| 正宁县| 延边| 乌审旗| 柘荣县| 申扎县| 西乌珠穆沁旗| 连平县| 奎屯市| 成安县| 额尔古纳市| 蕲春县| 双峰县| 理塘县| 贵阳市| 丽江市| 马尔康县| 防城港市| 崇阳县| 长葛市| 通许县| 闸北区| 泊头市| 山西省| 裕民县| 肃北| 秦安县| 都江堰市| 太湖县| 镇沅| 德化县| 策勒县| 京山县| 桓仁| 岳阳县| 扎赉特旗|