[摘 要]在當(dāng)前人工智能大模型的新時代背景下,自然語言處理領(lǐng)域展示出了完全不同于以往的問題解決路徑。在新時代的需求導(dǎo)向下,自然語言處理領(lǐng)域的人才不能局限于傳統(tǒng)方法的理論實踐,需要具有靈活使用前沿知識和技術(shù)來解決問題的實踐能力。在這種背景下,本科自然語言處理課程出現(xiàn)了理論課知識過時且復(fù)雜、實驗課實踐內(nèi)容門檻過高、課程內(nèi)容與工程實踐脫節(jié)等問題。針對這些問題,文章提出了本科自然語言處理課程的教學(xué)改革方案,通過簡化理論課知識結(jié)構(gòu)、重構(gòu)實驗課實踐內(nèi)容、加強理論與實踐融合等方法,使課程內(nèi)容符合當(dāng)前大模型時代的要求,培養(yǎng)學(xué)生對前沿技術(shù)的實踐能力。
[關(guān)鍵詞]實踐能力;自然語言處理;大模型;課程改革
[中圖分類號]G642.0 [文獻標(biāo)識碼]A [文章編號]2095-3437(2024)20-0052-06
近年來,我國人工智能產(chǎn)業(yè)發(fā)展迅速,政府陸續(xù)出臺多項政策,如《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021—2023年)》《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進經(jīng)濟高質(zhì)量發(fā)展的指導(dǎo)意見》等,鼓勵人工智能行業(yè)發(fā)展與創(chuàng)新,積極推動人工智能產(chǎn)業(yè)的持續(xù)發(fā)展。同時,人工智能產(chǎn)業(yè)已成為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動力,積極推動傳統(tǒng)產(chǎn)業(yè)轉(zhuǎn)型升級,并且催生了很多新興產(chǎn)業(yè),對國民經(jīng)濟、國防和社會的發(fā)展至關(guān)重要。持續(xù)高速發(fā)展中的人工智能產(chǎn)業(yè)需要大量專業(yè)人才隊伍的支撐,高校作為人工智能人才輸出的重要陣地,承擔(dān)著培養(yǎng)人工智能人才的重要使命。教育部積極推進新工科建設(shè),發(fā)布了《教育部高等教育司關(guān)于開展新工科研究與實踐的通知》《教育部辦公廳關(guān)于推薦新工科研究與實踐項目的通知》等,全力探索形成領(lǐng)跑全球工程教育的中國模式、中國經(jīng)驗,助力高等教育強國建設(shè)。
自然語言處理(Natural Language Processing,簡稱NLP)作為人工智能領(lǐng)域的重要分支,在推動現(xiàn)代科技進步方面發(fā)揮著不可替代的作用,是整個人工智能產(chǎn)業(yè)的重要組成部分[1]。因此,高校在本科階段開設(shè)高質(zhì)量的、注重實踐能力培養(yǎng)的自然語言處理課程尤為重要。然而,自然語言處理課程通常是作為專業(yè)課程面向計算機相關(guān)專業(yè)的碩士研究生開設(shè),課程內(nèi)容多為偏向算法理論基礎(chǔ),相對應(yīng)的實驗課內(nèi)容也偏向機器學(xué)習(xí)相關(guān)算法的復(fù)現(xiàn)和優(yōu)化。此外,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展和進步,在NLP領(lǐng)域中傳統(tǒng)的機器學(xué)習(xí)模型逐步被基于深度神經(jīng)網(wǎng)絡(luò)的模型取代,而大語言模型的出現(xiàn)則進一步改變了NLP領(lǐng)域一直以來的問題解決路徑[2]。新時代對NLP領(lǐng)域的應(yīng)用型人才提出了不同需求,不再強調(diào)對NLP基礎(chǔ)處理以及傳統(tǒng)方法的細致理解,而是需要應(yīng)用型人才能夠深入掌握預(yù)訓(xùn)練語言模型的深度模型結(jié)構(gòu)和預(yù)訓(xùn)練技術(shù),并具有針對具體任務(wù)進行提示工程和微調(diào)訓(xùn)練的能力。
本科自然語言處理課程在具體教授過程中面臨著如下三個問題:一是理論基礎(chǔ)知識學(xué)習(xí)需要較多前置知識,本科生難以學(xué)習(xí)和理解;二是復(fù)現(xiàn)算法的實驗需要較強的代碼能力,本科生難以完成;三是以輔助學(xué)生研究為教學(xué)目的的課程內(nèi)容設(shè)計與工程實踐要求脫節(jié),難以滿足本科生對課程的期望。本科自然語ID1GMCrqMfwhjrez1oTj0Q==言處理課程應(yīng)該更加注重對學(xué)生實踐能力的培養(yǎng),側(cè)重讓學(xué)生在應(yīng)用實踐中深入理解理論知識和鍛煉工程能力。針對上述問題,本文提出從如下三個路徑對本科自然語言處理課程進行教學(xué)改革:一是簡化并分解理論課中的核心內(nèi)容,以成體系的結(jié)構(gòu)教授相關(guān)知識;二是整理并重構(gòu)實驗課內(nèi)容,以循序漸進的方式調(diào)整實驗課內(nèi)容;三是以優(yōu)化和改良的方式開展實驗課內(nèi)容教學(xué),建立實驗課與實踐過程的聯(lián)系。本文將基于教學(xué)改革結(jié)果進行深入分析,探討改革過程中遇到的挑戰(zhàn)和取得的成效,相關(guān)經(jīng)驗和教訓(xùn)可為其他高校的教學(xué)改革提供有益的借鑒和啟示,推動人工智能教育的進步和發(fā)展,以使人工智能教育的成果跟上時代且滿足業(yè)界的應(yīng)用需求[3]。
一、本科自然語言處理課程面臨的主要挑戰(zhàn)
自然語言處理通常是計算機科學(xué)及相關(guān)專業(yè)的專業(yè)選修課,屬于人工智能方向的核心應(yīng)用類課程。課程教學(xué)目標(biāo)是使學(xué)生掌握NLP領(lǐng)域的基礎(chǔ)知識并且能夠應(yīng)用一些核心技術(shù)解決NLP常見任務(wù)。以深圳技術(shù)大學(xué)為例,本科自然語言處理課程總學(xué)時為72學(xué)時,包括課內(nèi)實踐18學(xué)時以及課外實踐18學(xué)時。以應(yīng)用能力培養(yǎng)為核心導(dǎo)向,課程內(nèi)容通常涵蓋三個部分:第一部分為NLP基礎(chǔ)技術(shù),例如分詞、序列標(biāo)注、命名實體識別、文本分類、文本聚類等;第二部分為NLP深度學(xué)習(xí)技術(shù),包括基于深度學(xué)習(xí)的文本分類與文本生成技術(shù)、機器翻譯、QA(問答)系統(tǒng)等;第三部分為NLP領(lǐng)域的預(yù)訓(xùn)練語言模型及相關(guān)技術(shù)。課程教學(xué)形式包括理論課講述與實驗課實踐,通過指導(dǎo)學(xué)生完成一些實踐項目,讓學(xué)生在應(yīng)用實踐中深入理解理論知識并鍛煉工程應(yīng)用能力,最終使學(xué)生能夠運用NLP相關(guān)技術(shù)來解決實際問題。
通過調(diào)研、分析和反饋,教學(xué)團隊對目前自然語言處理課程的教學(xué)內(nèi)容和教授方式進行了分析和總結(jié)。以培養(yǎng)學(xué)生實踐能力和工程能力為目標(biāo),新工科背景下的新時代本科自然語言處理課程面臨著如下三個問題和挑戰(zhàn)。
(一)理論基礎(chǔ)知識學(xué)習(xí)需要較多前置知識,本科生難以學(xué)習(xí)和理解
在自然語言處理課程的理論課教學(xué)中,教師通常會先介紹語料數(shù)據(jù)的基礎(chǔ)處理,如分詞、命名實體識別、詞性標(biāo)注、句法分析等分粒度的階段工作;然后講授一些自然語言處理的基本任務(wù)的傳統(tǒng)算法基礎(chǔ)和知識,如文本分析、機器翻譯、信息檢索、問答系統(tǒng)等具體任務(wù)的機器學(xué)習(xí)方法;最后逐步介紹自然語言處理的一些高級應(yīng)用方法,如預(yù)訓(xùn)練語言模型與微調(diào)訓(xùn)練、多模態(tài)信息處理等[4-5]。然而,對于上述內(nèi)容,學(xué)生需要掌握一定的前置知識才能理解。例如,在講授通過序列標(biāo)注方法進行命名實體識別時,就會涉及隱式馬爾科夫模型、條件隨機場等復(fù)雜的前置知識。因此,在自然語言處理課程的理論課教學(xué)中,由于學(xué)生前置知識的缺乏和課時的限制,教師通常需要在有限的時間之內(nèi)講授大量理論復(fù)雜且關(guān)聯(lián)緊密的知識,容易出現(xiàn)教師難以講明白、學(xué)生難以聽懂的問題。針對這一問題,教師應(yīng)該根據(jù)本科學(xué)生的特點,對課程內(nèi)容進行簡化和整理,以更加系統(tǒng)和易懂的方式組織理論內(nèi)容來進行講授。
(二)實驗課門檻較高,需要學(xué)生擁有較強的代碼能力,本科生難以獨立完成
自然語言處理的實驗課通常要求學(xué)生復(fù)現(xiàn)理論課上所學(xué)的算法或機器學(xué)習(xí)模型并處理給定的數(shù)據(jù)集,最后通過觀察處理結(jié)果并進行算法優(yōu)化來促進學(xué)生對基礎(chǔ)知識的理解和運用。然而,自然語言處理中,部分常用技術(shù)的復(fù)現(xiàn)門檻較高,要求學(xué)生具有較強的代碼能力,且難以在有限的實驗課時中完成。例如,序列標(biāo)注主流的深度模型多為Bi?LSTM(雙向長短期記憶)+CRF(條件隨機場)[6]的復(fù)雜結(jié)構(gòu),本科學(xué)生難以獨立地在有限時間內(nèi)復(fù)現(xiàn)這種模型。因此,教師會提供參考代碼,僅要求學(xué)生完成模型的訓(xùn)練和驗證,或直接舍棄部分模型不要求學(xué)生進行實驗。毫無疑問,這兩種實驗內(nèi)容的設(shè)計方式都難以實現(xiàn)預(yù)設(shè)的培養(yǎng)學(xué)生動手能力的目標(biāo)。針對這一問題,教師應(yīng)該根據(jù)本科生的能力對實驗課內(nèi)容進行調(diào)整和重構(gòu),以循序漸進的思路設(shè)計更有效的自然語言處理實驗課方案。
(三)課程內(nèi)容設(shè)計與工程實踐要求脫節(jié),難以滿足本科生對課程的期望
目前的自然語言處理課程中,理論課主要介紹諸如機器學(xué)習(xí)、模型結(jié)構(gòu)等自然語言處理技術(shù),而實驗課的內(nèi)容組織方式多為命題式,即給學(xué)生布置針對理論課的具體問題,協(xié)助學(xué)生針對具體的理論知識點進行練習(xí)和實踐。然而,這種以理解知識為目的的課程內(nèi)容組織方式與目前以解決問題為目的的項目實踐過程之間存在一定的差距,導(dǎo)致本科生難以將所學(xué)習(xí)到的知識與實際項目的實踐過程有效地對應(yīng),難以將理論知識運用到項目實踐過程。例如,學(xué)生通過實驗,能夠運用序列標(biāo)注技術(shù)進行命名實體識別的處理,但在面對從文本中挖掘特定種類的詞匯的實際需求時卻沒有想到可以同樣通過序列標(biāo)注技術(shù)來實現(xiàn)。可見,學(xué)生面對具體問題時的實踐能力和靈活創(chuàng)新能力不足。針對人工智能產(chǎn)業(yè)對傳統(tǒng)產(chǎn)業(yè)的優(yōu)化以及對新產(chǎn)業(yè)的催生,課程內(nèi)容應(yīng)該側(cè)重培養(yǎng)學(xué)生使用自然語言處理的知識對產(chǎn)業(yè)轉(zhuǎn)型過程中遇到的問題進行分析的能力,以及運用自然語言處理技術(shù)進行解決方案的探索和靈活創(chuàng)新的能力。
二、教改思路與方案
針對上述問題,教學(xué)團隊嘗試對自然語言處理課程所涉及的理論課知識結(jié)構(gòu)、實驗課實踐內(nèi)容,以及理論與實踐相互融合等方面進行課程設(shè)計和改革。為了適應(yīng)當(dāng)前新時代人工智能大模型技術(shù)的特點和要求,教學(xué)團隊將本科自然語言處理課程分為“NLP概述與基礎(chǔ)處理”“NLP深度學(xué)習(xí)應(yīng)用”“NLP預(yù)訓(xùn)練技術(shù)”三個部分,其中,“NLP概述與基礎(chǔ)處理”部分相較于以往的課程將會進行簡化,留更多的課時用來教授“NLP預(yù)訓(xùn)練技術(shù)”,同時調(diào)整“NLP深度學(xué)習(xí)應(yīng)用”部分的課程內(nèi)容,讓深度學(xué)習(xí)部分的知識能夠更好地幫助學(xué)生銜接預(yù)訓(xùn)練相關(guān)的知識內(nèi)容。
教學(xué)團隊所設(shè)計的自然語言處理課程具體細節(jié)如表1所示。下面具體說明課程中各個具體細節(jié)的設(shè)計思路和設(shè)計目的。
(一)簡化理論課知識結(jié)構(gòu)
簡化NLP基礎(chǔ)處理的知識內(nèi)容,側(cè)重對深度學(xué)習(xí)與大語言模型相關(guān)技術(shù)的講解,著重從實用工具角度引導(dǎo)學(xué)生掌握NLP相關(guān)技術(shù)的使用思路與調(diào)優(yōu)方法。在此之前,在自然語言處理的理論課教學(xué)中,教師通常會花費大量學(xué)時向?qū)W生講授NLP領(lǐng)域的基礎(chǔ)處理和一些基本任務(wù)。但在當(dāng)前的新時代,深度學(xué)習(xí)和大語言模型已經(jīng)成為幾乎所有NLP任務(wù)的首選方案。因此,從實際應(yīng)用與項目實踐的角度來看,已經(jīng)不適合再在課程中花費大量學(xué)時來講授NLP基礎(chǔ)處理和基礎(chǔ)任務(wù)等內(nèi)容了。如表1所示,教學(xué)團隊嘗試對自然語言處理課程的理論課內(nèi)容進行調(diào)整和設(shè)計,減少NLP基礎(chǔ)處理和基本任務(wù)等內(nèi)容的課時數(shù),回避NLP基礎(chǔ)處理中較為復(fù)雜的算法理論知識,將課程的重心放在深度學(xué)習(xí)與大語言模型相關(guān)技術(shù)方面。同時,在教授過程中著重引導(dǎo)學(xué)生以工具選型的方式挑選符合項目場景的NLP技術(shù)和相關(guān)工具。例如,在教學(xué)分詞處理時,減少關(guān)于詞典分詞、序列標(biāo)注分詞等分詞方法的理論講授,通過對比jieba、PKUSeg、Stanford Segment等常用分詞工具及方法的優(yōu)缺點,引導(dǎo)學(xué)生根據(jù)任務(wù)需求有取舍地選型。在教授序列標(biāo)注時,簡化關(guān)于隱馬爾可夫模型[7]及LSTM(長短期記憶)+CRF深度模型等序列標(biāo)注方法的原理講授,更多側(cè)重于對比傳統(tǒng)方法和深度學(xué)習(xí)方法的優(yōu)缺點。教學(xué)團隊認為可以通過這種工具視角來教授學(xué)生根據(jù)實際項目選擇合適的方法,并對技術(shù)進行有效的優(yōu)化,以此來培養(yǎng)學(xué)生的實踐能力和問題解決能力。
(二)重構(gòu)實驗課實踐內(nèi)容
從模型視角設(shè)計從文本分類到文本生成的深度模型的實現(xiàn)路徑,引導(dǎo)學(xué)生循序漸進地實現(xiàn)前文預(yù)測后文的文本生成模型。NLP課程的實驗課通常會要求學(xué)生通過動手編寫經(jīng)典常用的深度模型來完成NLP任務(wù),但這有較高的代碼能力門檻,因此在實際授課過程中,教師通常提供相關(guān)代碼給學(xué)生,讓學(xué)生進行簡單的數(shù)據(jù)復(fù)現(xiàn)實驗,而這明顯不符合鍛煉學(xué)生實踐能力的目的。針對這一問題,教學(xué)團隊通過對實驗課內(nèi)容進行細致的整理分析,最終考慮從模型視角設(shè)計從文本分類到文本生成的深度模型的實現(xiàn)路徑,讓學(xué)生能夠循序漸進并完整地編寫出文本生成模型。具體而言,如表1所示,教學(xué)團隊按照模型逐步復(fù)雜化并最終導(dǎo)向文本生成模型的課程設(shè)計思路,設(shè)置了“文本分類實踐”“序列標(biāo)注實踐”“文本生成實踐”3個實驗內(nèi)容。其中,“文本分類實踐”通過簡單的分類任務(wù)引導(dǎo)學(xué)生實現(xiàn)諸如輸入序列數(shù)據(jù)序號化處理、輸出唯一分類結(jié)果等基本框架;“序列標(biāo)注實踐”引導(dǎo)學(xué)生將序列標(biāo)注過程看成不同時刻上的多次文本分類過程,從而可以在復(fù)用文本分類模型的輸入處理的基礎(chǔ)上,通過引入按時序輸出分類結(jié)果等內(nèi)容的方式快速實現(xiàn)模型;“文本生成實踐”則進一步引導(dǎo)學(xué)生將文本生成模型也理解為分類模型,通過在序列標(biāo)注模型基礎(chǔ)上調(diào)整標(biāo)簽集的方式快速實現(xiàn)文本生成邏輯。圖1展示了上述循序漸進引導(dǎo)學(xué)生完成困難的文本生成深度模型的過程,即根據(jù)自然語言處理領(lǐng)域各任務(wù)常用深度模型的特點,通過復(fù)用之前的實踐結(jié)果的方式來盡可能減少各個實踐任務(wù)之間的跨度和代碼工作量,讓學(xué)生可以在有限時間內(nèi)得到充分的實踐鍛煉,并最終獨立編寫出完整的文本生成深度模型,為后續(xù)大模型與預(yù)訓(xùn)練相關(guān)內(nèi)容提供教學(xué)基礎(chǔ)。
(三)設(shè)計相互對應(yīng)的理論課內(nèi)容與實驗課內(nèi)容
通過案例驅(qū)動的方式鼓勵學(xué)生運用理論課知識提升實驗課上相關(guān)任務(wù)的完成效果,引導(dǎo)學(xué)生將理論課知識與相關(guān)實踐方法融會貫通。教學(xué)團隊以貫穿整個課程的幾個項目案例作為驅(qū)動,鼓勵學(xué)生靈活運用理論課上學(xué)習(xí)的技術(shù)和知識來不斷提升實踐效果,以此來促使學(xué)生更好地理解和融合理論課內(nèi)容和實驗課內(nèi)容。例如,如圖2所示,教學(xué)團隊以“新聞文本分類”作為驅(qū)動案例,在“NLP概述與基礎(chǔ)處理”的理論課上教授學(xué)生分詞方法、詞袋模型特征化等知識,實驗課則對應(yīng)讓學(xué)生運用理論課知識對新聞文本進行分類。在“NLP深度學(xué)習(xí)應(yīng)用”的理論課中講授文本分類的深度模型,在實驗課中則安排針對與之前一樣的新聞文本通過深度模型來執(zhí)行分類處理,引導(dǎo)學(xué)生分析前后兩次處理的區(qū)別并對比兩次分類結(jié)果的優(yōu)劣。在“NLP預(yù)訓(xùn)練技術(shù)”的理論課中講授BERT[8]模型及其微調(diào)技術(shù),實驗課則對應(yīng)安排學(xué)生使用預(yù)訓(xùn)練模型繼續(xù)對同樣的新聞文本進行分類處理并再次對比分析分類結(jié)果。在講授了大語言模型及其相關(guān)提示手法技術(shù)的理論課之后,讓學(xué)生設(shè)計提示文本[9]來使用大語言模型完成同樣的新聞文本分類任務(wù)。教學(xué)團隊認為可以通過這種方法,讓學(xué)生充分理解對同一個NLP任務(wù)可以采用多種不同的解決方案,并通過對比分析實踐結(jié)果,充分理解理論課所教授知識的優(yōu)劣和選型邏輯,在動手實踐應(yīng)用的過程中充分地鍛煉實踐能力。
三、結(jié)語
本文總結(jié)了教學(xué)團隊在對注重實踐能力培養(yǎng)的新時代本科自然語言處理課程進行教學(xué)改革時的思路和經(jīng)驗:一是調(diào)整理論課知識結(jié)構(gòu),簡化NLP基礎(chǔ)處理的知識內(nèi)容,側(cè)重對深度學(xué)習(xí)與大語言模型相關(guān)技術(shù)的講解,著重從實用工具角度引導(dǎo)學(xué)生掌握NLP相關(guān)技術(shù)的使用思路與調(diào)優(yōu)方法;二是優(yōu)化實驗課實踐內(nèi)容,從模型視角設(shè)計從文本分類到文本生成的深度模型的實現(xiàn)路徑,引導(dǎo)學(xué)生由淺至深地逐步實現(xiàn)前文預(yù)測后文的文本生成模型;三是設(shè)計相互對應(yīng)的理論課內(nèi)容與實驗課內(nèi)容,通過案例驅(qū)動的方式鼓勵學(xué)生通過理論課知識來提升實驗課上相關(guān)任務(wù)的完成效果,引導(dǎo)學(xué)生將理論課知識與相關(guān)實踐方法融會貫通。
目前上述課程改革舉措已經(jīng)得到了實施和驗證。通過調(diào)整課程內(nèi)容,自然語言處理課程主要包括三個部分,其中理論課部分包括如表1所示34學(xué)時的理論課授課部分與2學(xué)時的學(xué)生展示實踐成果部分,實驗課部分包括18學(xué)時的課內(nèi)實踐部分,以及18學(xué)時的課外實踐部分。此外,教學(xué)團隊利用百度在線網(wǎng)絡(luò)技術(shù)(北京)有限公司所提供的飛槳AI Studio人工智能學(xué)習(xí)實訓(xùn)社區(qū)平臺,首度讓學(xué)生能夠在線上平臺上完成人工智能課程的實驗內(nèi)容,大幅減少了實驗過程中協(xié)調(diào)算力資源與環(huán)境部署的困難,讓學(xué)生能夠?qū)W⒂趯嶒瀮?nèi)容本身。教學(xué)團隊后續(xù)將嘗試將課程改革創(chuàng)新舉措有選擇地推廣到其他應(yīng)用型人工智能專業(yè)課程,為其在大語言模型時代的課程建設(shè)提供思路與經(jīng)驗。
[ 參 考 文 獻 ]
[1] 車萬翔, 竇志成, 馮巖松, 等.大模型時代的自然語言處理: 挑戰(zhàn)、機遇與發(fā)展[J]. 中國科學(xué):信息科學(xué),2023, 53(9):1645-1687.
[2] 張宜浩, 劉小洋.新工科背景下自然語言處理課程教學(xué)改革[J].計算機教育,2023(1):96-99.
[3] 高岳,楊小康.前沿導(dǎo)向的人工智能課程內(nèi)容重構(gòu):以上海交通大學(xué)“人工智能理論及應(yīng)用”課程為例[J].高等工程教育研究, 2022(6):52-55.
[4] 鄔昌興,羅國亮.深度學(xué)習(xí)背景下的“自然語言處理”課程教學(xué)研究[J].教育教學(xué)論壇,2021(29):137-140.
[5] 吾買爾,買買提,汪烈軍.基于人工智能技術(shù)的“自然語言處理”課程教學(xué)模式改革與探索[J].無線互聯(lián)科技,2020,17(10):92-94.
[6] HUANG Z H,XU W, YU K. Bidirectional LSTM?CRF models for sequence tagging [DB/OL].(2017-11-16)[2024-02-26].https://www.doc88.com/p?9929655991647.html.
[7] EDDY S R. Hidden Markov models[J].Current opinion in structural biology, 1996,6(3):361-365.
[8] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre?training of deep bidirectional transformers for language understanding[DB/OL].[2024-02-26].https://arxiv.org/pdf/1810.04805.
[9] BROWN T B, MANN B, RYDER N, et al. Language models are few?shot learners[DB/OL].[2024-02-26].https://www.researchgate.net/publication/341724146_Language_Models_are_Few?Shot_Learners.
[責(zé)任編輯:周侯辰]