米欄
時代變革的大幕已掀開一角,一場由OpenAI引領(lǐng)的全球AI大語言模型軍備競賽正式開啟。
3月14日,GPT-4正式發(fā)布,大語言模型開始具備圖片和文字同時處理的多模態(tài)能力,繼續(xù)占據(jù)先入為主的優(yōu)勢。
全球大廠中率先回應(yīng)的是百度。3月16日,百度大語言模型“文心一言”正式推出,對外啟動邀測。據(jù)公開報道,文心一言具備五項核心能力:文學(xué)創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理邏輯推算、中文理解和多模態(tài)生成。
緊接著其他科技企業(yè)也陸續(xù)跟進。4月11日,2023阿里云峰會現(xiàn)場演示了通義千問的多項功能,并定向邀請企業(yè)用戶進行體驗測試;5月10日,谷歌時隔一年推出了新一代語言大模型PaLM 2,被視為對此前發(fā)布會翻車的有力回應(yīng)。
此外,還有復(fù)旦大學(xué)在2月21日發(fā)布的“MOSS”、清華大學(xué)3月28日發(fā)布的“ChatGLM-6B”、360于4月10日發(fā)布的“360智腦”、商湯科技4月10日發(fā)布的“商量”、科大訊飛5月6日發(fā)布的“訊飛星火認知大模型”,等等。
截至5月,據(jù)不完全統(tǒng)計,國內(nèi)已有超過40家公司、機構(gòu)發(fā)布了大模型產(chǎn)品或公布了大模型計劃。項目數(shù)量井噴式爆發(fā),可預(yù)見的是,下半年的國內(nèi)AI大模型市場競爭將會變得空前激烈。
不止于“大”
提到大模型,很多人的關(guān)注點都會放在“大”字上,畢竟足夠量級的參數(shù)是語言模型實現(xiàn)智能涌現(xiàn)、形成質(zhì)變的基礎(chǔ)。比如,不少大語言模型的參數(shù)量級達千億級,這也就意味著較為豐富的語言知識與較廣泛的語境理解能力。
不過,目前類GPT模型普遍采用的是Transformer架構(gòu),所以必然包含市面上存在的大量文本數(shù)據(jù)例如小說、教科書、論壇、開源代碼等內(nèi)容的無監(jiān)督預(yù)訓(xùn)練過程,在此基礎(chǔ)上,僅需根據(jù)具體任務(wù)輸入少量的標(biāo)簽數(shù)據(jù)進行監(jiān)督學(xué)習(xí)。在這樣的模式下,訓(xùn)練數(shù)據(jù)集質(zhì)量的重要性開始愈發(fā)凸顯。
本次評測的結(jié)果就可以印證這一點。評測主要考察各大語言模型在中文語境下的理解與生成能力,基于目前用戶對大語言模型在生活、辦公的普遍需求,選取語義理解、邏輯推理、情感分析、百科知識、文本質(zhì)量五個通用底層維度,以評估各大語言模型協(xié)助用戶日常處理事務(wù)、解決核心問題的能力,取0(無效應(yīng)答)、1(有效應(yīng)答)兩個分?jǐn)?shù),其中文本質(zhì)量維度按照行文邏輯、信息密度,取0(一般)、0.5(良好)、1(優(yōu)秀)三個分?jǐn)?shù)。
評測問題也有別于針對BERT類判別式AI模型的選擇問法,采用更加適合AI生成式模型的相對開放式問法,以下為部分問題及回答評分示例:
在“I've got a thing for you,用文言文表達這句話”這一問題中,ChatGPT給出的回答是:“朕對汝有所鐘情?!崩斫庹_,但生成文本質(zhì)量欠佳,取0.5分。文心一言的輸出內(nèi)容:“吾心向汝,實生情之?!蔽牧x相符,質(zhì)量較高,取1分。星火認知大模型回答為:“吾有物以贈君?!贝嬖诶斫庥姓`的情況,取0分。
從結(jié)果看ChatGPT在語義理解、邏輯推理、百科知識、文本質(zhì)量四項中分別以18、19、19、18.5排名第一,綜合表現(xiàn)位居榜首,特別是在科技、學(xué)術(shù)、新聞等領(lǐng)域的文本生成部分領(lǐng)域表現(xiàn)突出,不過在相對復(fù)雜情景下的情感識別,以及散文、詩歌、文言文等較為考察深度理解能力方面表現(xiàn)相對乏善可陳。
文心一言作為首個全球大廠推出的知識增強大語言模型,本次排名位居國產(chǎn)大語言模型之首,效果僅次于ChatGPT,且在語義理解、情感分析兩項位列第一,分?jǐn)?shù)分別為18、19,這或許與百度使用的自有數(shù)據(jù)集有關(guān),在質(zhì)量較高的文庫文本、百科數(shù)據(jù)等中文語料的訓(xùn)練下,在語義理解和情感分析方面具有很高的精度,可以識別出復(fù)雜的情感表達和語言隱喻。
除此以外,谷歌PaLM在邏輯推理部分(分?jǐn)?shù)19)、通義千問在語義理解(分?jǐn)?shù)17)、清華ChatGLM在文本質(zhì)量(分?jǐn)?shù)15.5)等成績均可圈可點。
結(jié)語
未來大模型的迭代也將更有針對性,對開發(fā)者的評估能力提出更高的要求。如何在有限的時間和資源條件下做出客觀的評價并給出有用的反饋,讓數(shù)據(jù)團隊更有針對性地準(zhǔn)備數(shù)據(jù),讓研發(fā)不偏離方向,保障模型的健康迭代,將是所有行業(yè)從業(yè)者的共同挑戰(zhàn)。
《互聯(lián)網(wǎng)周刊》也將持續(xù)跟蹤與關(guān)注各大語言模型的更新與迭代情況,定期進行相關(guān)評測與分析。未來,相信隨著算法、硬件、數(shù)據(jù)和應(yīng)用場景的不斷發(fā)展,大型語言模型將會在各種自然語言處理任務(wù)中發(fā)揮更加重要的作用,為社會創(chuàng)造更多的價值。