周青
摘 要:以ChatGPT為代表的對話式人工智能的出現(xiàn)給科研生產帶來了新的機遇,為科研創(chuàng)新提供了新的空間與可能。對話式人工智能賦能科研創(chuàng)新的可能性在于,一是擁有海量訓練數(shù)據(jù)助力知識的整合與創(chuàng)新,二是多種人工智能技術助力復雜知識性任務的完成。未來人類會將更多注意力轉向如何以人工智能賦能科研創(chuàng)新,并在保證人類安全與促進科技發(fā)展之間尋求平衡。
關鍵詞:ChatGPT 對話式人工智能 科研創(chuàng)新
2022年11月美國人工智能實驗室OpenAI公司推出對話式人工智能工具ChatGPT,這一大型語言模型很快引爆了全球人工智能市場,引發(fā)一場人工智能新競賽。對話式人工智能的浪潮迅速席卷全球,對科技、教育、設計、編程等眾多行業(yè)產生了巨大沖擊,引發(fā)了強烈震動。受此影響,國內外科技公司紛紛加碼相關研發(fā),相繼推出自研的對話式人工智能工具,并加快與其他軟件和應用的集成整合。可以想見,在不久的將來,對話式人工智能將在社會各個垂直領域加快應用。人工智能對科研行業(yè)也將產生巨大影響,將極大改變以往的科研模式、優(yōu)化科研流程,給加速科研創(chuàng)新帶來新的空間與可能。
一、對話式人工智能賦能科研創(chuàng)新的可能性
以ChatGPT為主要代表的對話式人工智能已經可以通過自然語言理解人類意圖,完成人類指令,輸出具有一定準確性和邏輯性的結果,其輔助優(yōu)化科研流程、提升科研效率的功能已經得到了大量驗證。那么,這類人工智能工具是否也有助于激發(fā)科研創(chuàng)新?下文從三個角度來探討對話式人工智能賦能科研創(chuàng)新的可能性。
1.海量訓練數(shù)據(jù)助力知識的整合與創(chuàng)新
對話式人工智能是一種在預訓練階段需要使用海量知識數(shù)據(jù)進行訓練的大型語言模型,其訓練語料中包含的全部知識遠遠超過人類個體在有限的生命時間內所能掌握的廣度和深度。此外,海量訓練數(shù)據(jù)集中包含多個學科眾多領域的知識,使得人工智能在知識學習的過程中能完成知識的整合與重構,在解決專業(yè)性和知識性問題,特別是需要跨學科研究以及涉及交叉學科知識的問題時,會有令人意想不到的知識連接,從而表現(xiàn)出一定的創(chuàng)新性。
對科研人員來說,對話式人工智能工具在多學科多領域知識整合重構基礎上呈現(xiàn)出的知識連接能夠引發(fā)使用者的“頭腦風暴”,刺激其從不同視角進行思考,在其借助人工智能進行科學研究的各個環(huán)節(jié),如確定研究方向、選擇研究概念、考證研究邏輯、設計研究框架、收集實驗數(shù)據(jù)、驗證實驗結果等,都有可能激發(fā)研究者的創(chuàng)意與靈感火花。
OpenAI已證實,GPT-4能基于學科知識的整合完成具有一定知識性和復雜程度的任務,表現(xiàn)出良好的遷移能力和泛化能力,其在專業(yè)性和學術性上的表現(xiàn)已接近人類水平。我國也已關注到對話式人工智能在推進科研創(chuàng)新方面的空間與可能。如科技部已在近期啟動“人工智能驅動的科學研究”(AI for Science)專項部署工作,結合數(shù)學、物理、化學、天文等基礎學科關鍵問題,圍繞藥物研發(fā)、基因研究、生物育種、新材料研發(fā)等重點領域科研需求,布局“人工智能驅動的科學研究”研發(fā)體系。[1]
2.多種人工智能技術助力復雜知識性任務的完成
對話式人工智能在技術上的跨越式發(fā)展來源于人工智能兩大分支領域即機器學習與自然語言處理領域的持續(xù)技術積累,以及多項底層技術的不斷創(chuàng)新。例如,采用Transformer模型來進行文本內容的特征抽取;通過深度學習(Deep Learning)來研究如何有效增加模型層深及模型參數(shù)容量以提升模型復雜度;采用生成式預訓練(GPT,Generative Pre-trained)+微調(Fine-tuning)的模式解決下游任務的遷移問題;采用自回歸模型(Auto-Regressive Model)+零樣本/少量樣本(Zero/Few Shot)模式解決自然語言生成問題,等等。
正是這些底層技術的不斷創(chuàng)新,以ChatGPT為代表的對話式人工智能工具得以不斷完善語言模型、修正算法策略、進行多樣化語料訓練,實現(xiàn)學習機制的自我迭代更新,從而在自然語言理解與生成任務中表現(xiàn)出良好的邏輯推理能力。這種邏輯推理能力表現(xiàn)在:理解語義之間的關聯(lián)、保證輸出結果的一致性和連貫性;基于人類的反饋調整輸出結果;對復雜問題的拆解與分層次分步驟處理;能力的遷移與泛化等。
因而,科研人員可以利用人工智能的邏輯推理能力,輔助完成復雜的知識性任務。在這個過程中,使用者需要通過投喂背景語料、提高提問與指令的精確性與指向性、調整嘗試不同提示語以及提供相似案例,不斷引導人工智能對回答進行修正。這種“提問—反饋—進一步提問—更深入反饋”的進階式人機對話過程,同時也刺激使用者思考積累的疑問、梳理思路與想法、分層次分步驟拆解復雜問題,進行歸納、演繹、類比、推理等思維活動。
由于大型語言模型復雜的模型結構與巨量參數(shù)規(guī)模,人類尚無法理解人工智能模型內部的一系列具體決策過程,以及它是如何產生邏輯推理能力的。但可以肯定的是,ChatGPT這樣的對話式人工智能在面對具有一定復雜程度的知識性任務時,能夠模擬人類思考與解決問題的心理過程,呈現(xiàn)令人驚艷的表現(xiàn),從而為激發(fā)科研創(chuàng)新提供可能。
3.強大算力助力對未知領域的科研探索
某些未知領域的科研探索比較復雜,有時需要處理大量數(shù)據(jù)、進行大量計算、針對復雜結構建模,或是設計不同方案、理清復雜關系、應對多重任務,這類研究人類通過手工操作往往難以實現(xiàn)。而對話式人工智能的強大算力可以大大加快科研進程,保證在較短時間內完成海量運算,規(guī)避人工操作的大量人力和時間成本,保證研究的持續(xù)推進,從而激發(fā)對于未知領域的探索。
一個例子是藥物的研發(fā),新藥物研發(fā)的關鍵性任務是識別具有特定生物活性的化學物質。通過構建化學結構式生成、確定打分函數(shù),人工智能可以加快化學物質生物活性的驗證過程。[2]另一個例子是針對物種共存模式的研究,由于物種共存模式的復雜性,傳統(tǒng)實驗方法難以對植物群落的物種共存模式進行預測,但是人工智能工具卻可以通過復制和模擬物種構成及其在不同類型土壤中的相互關系,發(fā)現(xiàn)有更大可能在物種構成方面帶來高度多樣性的先鋒物種。[3]
可見,越是那些需要為復雜系統(tǒng)建模、進行高階結構設計,或是設計規(guī)劃實驗、分解流程步驟的領域,如生物科學、材料科學領域或是藥物研發(fā)領域,人工智能越是有可能提供研究的新方法和新途徑。
總之,“借助機器學習對高維問題的表達能力,人類可以更加真實細致地刻畫復雜系統(tǒng)的機理”[4],隨著人工智能技術的飛速發(fā)展,未來我國將“逐步構建以人工智能支撐基礎和前沿科學研究的新模式,加速我國科學研究范式變革和能力提升”[5]。
二、對話式人工智能賦能科研創(chuàng)新的局限性
1.受限于數(shù)據(jù)和算力的制約
一方面,可獲取的預訓練數(shù)據(jù)集的數(shù)量和質量決定了人工智能工具的表現(xiàn)。大量開源和開放英文高質量語料資源為國外對話式人工智能工具的開發(fā)提供了便利。GPT-3的英文訓練數(shù)據(jù)中有大量數(shù)據(jù)來自維基百科、開放圖書館網站、論文期刊網站(如arXiv.org)、技術問答社區(qū)(如Stack Exchange)、新聞存檔網站(如The Real News Network)、醫(yī)療數(shù)據(jù)網站(如Pub Med)、代碼社區(qū)(如GitHub)、網頁爬蟲數(shù)據(jù)網站(Common Crawl)?!跋噍^于英文數(shù)據(jù),中文數(shù)據(jù)的開源程度較低,導致中文數(shù)據(jù)集的規(guī)模相對較小。[6]MOSS團隊曾表示,“中文網頁上的干擾信息較多”[7],這制約了處理中文語料的對話式人工智能的發(fā)展。隨著大型語言模型的快速發(fā)展,也有計算機科學家預測,“到2026年,大型語言模型的訓練將耗盡互聯(lián)網上的可用文本數(shù)據(jù),屆時將沒有新的訓練數(shù)據(jù)可供使用”[8],大型語言模型的進一步發(fā)展將面臨困難。
另一方面,大型語言模型的訓練與應用有賴于大量算力的支持。語言模型要達到一定的規(guī)模,一定時長和頻次的訓練,才能產生邏輯推理,展現(xiàn)處理復雜問題的能力。而模型的規(guī)模越大,需要的算力也就越多。類似ChatGPT這樣的大型語言模型的每次回應指令,都需要數(shù)十億次的計算。因此,新訓練一個類似的大模型,需要上萬塊高性能GPU芯片的支持??梢哉f,當前誰能獲得更多的高性能GPU芯片,誰就能在對話式人工智能的訓練與應用上占得先機。
此外,在算力有限的背景下,如何分享和分配對話式人工智能工具的訪問權也將成為越來越引發(fā)關注的問題。此前,由于訪問需求量過大造成的算力緊張,OpenAI公司曾短暫暫停付費用戶注冊,并大規(guī)模清理亞洲等區(qū)域批量注冊的賬號。未來隨著人工智能在科研行業(yè)滲透率的不斷提升,算力緊張造成的人工智能訪問權的差異將成為拉大彼此之間科研差距的潛在風險。
2.有賴于使用者的人工審核與全流程把控
一方面,使用者需要對人工智能的輸出結果進行人工審核與把關。這是因為對話式人工智能是一種語言生成模型,其生成原理不同于搜索引擎的“匹配制”,即并非在已有數(shù)據(jù)庫中搜索與關鍵詞最匹配或最相近的結果,而是采用自回歸模型的“預測式”生成辦法,即根據(jù)使用者輸入文本的前一部分內容依次預測下一個詞,以此確定輸出內容。這種“預測式”生成模式決定了其輸出結果的真實性和可靠性受到了限制,即使采用了過濾和篩選機制,也難以完全避免生成虛假信息、帶有偏向性或是誤導性的信息。因此,需要使用者通過人工審核對輸出結果進行把關,考察其真實性、準確性、邏輯性、有效性、可操作性等??傊?,人工智能賦能科研創(chuàng)新要求使用者了解人工智能工具的生成原理、局限性與使用邊界,對其輸出結果進行人工審核與把關。
另一方面,對話式人工智能作為一種大型語言模型,其擁有的海量訓練數(shù)據(jù)意味著人機對話的演進方向有無數(shù)種可能。要讓人工智能了解哪一個對話方向符合使用者的需要,有賴于使用者給予人工智能恰當而精確的持續(xù)反饋,即對人機對話進行全流程把控和引導。這種把控與引導包括:投喂合適的科研語料以幫助人工智能學習背景知識,準確描述需求與意圖,嘗試不同的交互方式,如提問—回答、輸入指令、設定目標、界定情境、設定角色、提出個性化要求,等等。總之,只有給予人工智能持續(xù)的精確反饋與引導,對人機對話的演進方向進行全流程把控,才能更好地干預、調整、改進人工智能的輸出結果,不斷推進研究的深入。
三、未來發(fā)展方向:在保證人類安全與促進科技發(fā)展之間尋求平衡
隨著ChatGPT的快速風靡,通過對話式人工智能進行的科研造假與由此引發(fā)的版權風險等問題已得到學界的廣泛討論,然而,技術的不當使用根源在于人,未來隨著抄襲檢測工具的開發(fā)與完善、科研評價標準的調整與改進,人類正確科研價值觀的逐漸確立,人工智能工具的負面影響終將慢慢消解??蒲泄ぷ髡邥⒆⒁饬Ω噢D向探索人工智能工具的使用邊界,發(fā)掘其在不同場景不同任務下可能實現(xiàn)的最大功能,將其打造成為具有多樣化集成性功能的科研輔助工具,以優(yōu)化科研流程,賦能科研創(chuàng)新。
總之,以ChatGPT為代表的對話式人工智能在技術上的跨越式發(fā)展預示著邁向通用人工智能的歷史洪流已然開啟。從歷史發(fā)展的進程來看,未來社會各個行業(yè)與人工智能工具的深度綁定將加速實現(xiàn),人工智能工具將最終成為人類社會智能基礎設施中必不可少的一部分。同時,面對數(shù)據(jù)泄露、隱私侵犯、虛假信息、人機競爭等各種潛在風險,人類將持續(xù)推進人工智能技術的迭代升級,針對如何建設“可信賴”的人工智能進行更廣泛的討論,爭取對人工智能模型和算法的透明度、可解釋性等的監(jiān)管在更大范圍達成一致,以在保證人類安全與促進科技發(fā)展之間尋求平衡。
(作者單位系《中國特色社會主義研究》雜志社)