徐乃帥
當(dāng)前,國產(chǎn)AI大模型的競爭,似乎已進(jìn)入了白熱化階段。
2023年,繼文心一言、天工AI、通義千問等最早推出的大模型引領(lǐng)潮流之后,各大互聯(lián)網(wǎng)科技公司、科研團(tuán)隊迅速跟進(jìn)。截至今年5月,國內(nèi)已完成備案的人工智能大模型總數(shù)達(dá)到了136個,已發(fā)布的大模型更是達(dá)到了300多個。
在這一年多時間里,國產(chǎn)大模型產(chǎn)品你追我趕,在技術(shù)層面形成了激烈的競爭態(tài)勢。而正當(dāng)大多數(shù)人還在橫向?qū)Ρ雀鱾€大模型的孰優(yōu)孰劣時,“百模大戰(zhàn)”的畫風(fēng)卻陡然一變,轉(zhuǎn)向了“價格戰(zhàn)”。
如此景象,不禁讓人產(chǎn)生了疑問:現(xiàn)在的國產(chǎn)AI大模型領(lǐng)域,已先進(jìn)到可以跨越技術(shù)積累階段,直接進(jìn)入商業(yè)競爭階段了?
5月6日,幻方量化宣布,旗下深度求索(DeepSeek)開源第二代MoE模型DeepSeek-V2,定價為每百萬tokens輸入1元、輸出2元,價格為GPT-4-Turbo的近百分之一,并且登錄就送500萬tokens,由此打響了大模型價格戰(zhàn)的第一槍。
5月11日,智譜AI調(diào)整了旗下入門級大模型GLM-3-Turbo的價格,從0.005元/千tokens降低到0.001元/千tokens,新注冊用戶獲贈從500萬tokens提升至2500萬tokens。而GLM-3 Turbo Batch批處理API還將進(jìn)一步便宜50%—為0.0005元/千tokens,也就是1元200萬tokens。
這一“優(yōu)惠”力度,已基本向DeepSeek看齊。
8塊錢可以買到約1600萬個漢字,相當(dāng)于25本《三國演義》的字?jǐn)?shù)。
豆包大模型頁面
到了5月15日,字節(jié)跳動成為第一個拋出“重磅炸彈”的互聯(lián)網(wǎng)大廠,將“價格戰(zhàn)”帶入高潮。在火山引擎原動力發(fā)布會上,豆包大模型“全家桶”正式發(fā)布,豆包主力模型的推理輸入定價僅為0.0008元/千tokens,這意味著8塊錢可以買到約1600萬個漢字,相當(dāng)于25本《三國演義》的字?jǐn)?shù)。
這種狀況下,多次被當(dāng)作比價“靶子”的阿里和百度,不得不作出回應(yīng)。5月21日上午,阿里云官方宣布,通義千問9款主力AI大模型全面降價,其中,Qwen-Long API輸入價格由0.02元/千tokens降至0.0005元/千tokens,降幅達(dá)到97%。同日下午,百度在毫無預(yù)兆的情況下,宣布文心大模型兩大主力模型全面免費(fèi),立即生效。
有意思的是,此前,面對來勢洶洶的字節(jié)跳動,百度曾回應(yīng)過“使用大模型不應(yīng)只看價格,更要看綜合效果”,如今卻也加入了這場“內(nèi)卷”,并且一舉達(dá)到了“掀桌子”的效果。
緊接著,5月22日,科大訊飛宣布,訊飛星火Lite API永久免費(fèi)開放,訊飛星火Pro/Max API價格降低至0.21元/萬tokens。而后,就連騰訊也加入了降價陣營,將混元-lite模型的價格調(diào)整為全面免費(fèi)。
如此景象,自然喚醒了人們對互聯(lián)網(wǎng)價格戰(zhàn)的記憶。
彼時,網(wǎng)購平臺、外賣、打車、共享單車……幾乎每一個新的競爭賽道都經(jīng)歷了激烈價格戰(zhàn)的洗禮。但在技術(shù)主導(dǎo)的人工智能領(lǐng)域,卻不禁讓人有幾分疑慮,國產(chǎn)AI大模型的發(fā)展,真的已經(jīng)足夠成熟了嗎?企業(yè)是否會陷入“虧錢換增長”的惡性循環(huán)?
此前,DeepSeek發(fā)布時,幻方員工表示,之所以可以給出如此低的定價,重要原因是通過模型結(jié)構(gòu)創(chuàng)新,大幅度降低了運(yùn)算成本,其利潤依然可以超過50%。
另一方面,硬件和計算資源的提升,也是成本降低的關(guān)鍵因素。字節(jié)跳動火山引擎的總裁譚待也在一次談話中表示,降價源于技術(shù)自信,未來還有很多手段持續(xù)降低成本。
關(guān)于眼下這場“價格戰(zhàn)”,譚待直言:“現(xiàn)在還不是談競爭的時候?!?/p>
在許多業(yè)內(nèi)人士看來,這場“價格戰(zhàn)”是大模型同質(zhì)化的表現(xiàn),但另一方面,也在為加速AI應(yīng)用的爆發(fā)做鋪墊。更低的成本,讓更多的企業(yè)和開發(fā)者能夠負(fù)擔(dān)得起這項技術(shù),也有更多的試錯空間,將有效推動AI應(yīng)用的創(chuàng)新和廣泛普及。
沒有人會否認(rèn),生成式人工智能(AIGC)將會陪伴人類走向未來,但現(xiàn)階段大多數(shù)人還很難想象,它究竟會以何種形式去作用于我們這個世界。
2022年11月30日,OpenAI發(fā)布了ChatGPT,其用戶在短期內(nèi)迎來了爆炸式的增長,僅在5天內(nèi)就收獲了100萬用戶,但是直到現(xiàn)在,尋找商業(yè)化的場景仍然是OpenAI所面臨的難題—其中最直觀的原因是,像ChatGPT這樣中心化的聊天對話產(chǎn)品,很難成為大眾的高頻剛需。
螞蟻集團(tuán)副總裁、金融大模型負(fù)責(zé)人王曉航在一次接受采訪時表示,大模型要融入千行百業(yè),讓產(chǎn)業(yè)在“AI化”中收獲價值,才能成為廣泛的剛需,“每個行業(yè)都在等待自己的AI超級應(yīng)用”。他預(yù)計,未來一年,一定會出現(xiàn)現(xiàn)象級的生成式AI應(yīng)用。
當(dāng)前,國內(nèi)許多大模型產(chǎn)品已經(jīng)對落地場景進(jìn)行了一定探索,打造屬于自己的特色。
情感陪伴類AI大模型星野App宣傳圖
3月18日,初創(chuàng)企業(yè)月之暗面宣布,其產(chǎn)品Kimi智能助手在大模型長上下文窗口技術(shù)上取得新的突破,目前可支持200萬字超長無損上下文。
去年,由AI寫作的小說獲科幻獎的事件曾引發(fā)熱議,但當(dāng)時受限于AI記憶文本長度的限制,生成小說時還是采用了從“提綱”到“段落”,逐段提示生成文本的形式,進(jìn)行了數(shù)十次操作。
如今,擁有200萬字記憶的大模型,也就意味著AI可以一次性閱讀理解和生成超長文本,用AI寫小說有了真正的可能性。
此外,“情感陪伴”也是頗具潛力的賽道。目前該領(lǐng)域的產(chǎn)品有星野App、冒泡鴨等,通過定制不同人設(shè)、性格的AI智能體,主要面向年輕的“重度”用戶,滿足玩家的個性化互動需求。
今年4月23日,商湯科技正式推出“日日新SenseNova 5.0”大模型體系,與海通證券聯(lián)合發(fā)布業(yè)內(nèi)首個面向金融行業(yè)的多模態(tài)全棧式大模型。
據(jù)悉,該大模型疊加了金融行業(yè)相關(guān)知識、法規(guī)條例及搜索引擎,能夠準(zhǔn)確理解行業(yè)相關(guān)問題,為內(nèi)部員工提供即時、高質(zhì)量的問答服務(wù),提升工作效率。
相較于剛需感性思維的文娛領(lǐng)域,未來教育、醫(yī)療、金融等專業(yè)性較強(qiáng)的領(lǐng)域,AI大模型更有可能占據(jù)重要的地位。
5月29日,商湯科技還面向粵語區(qū)用戶推出了“商量語言大模型粵語版”。該版本對粵文化和粵語有著深入的理解,可以聽懂粵語中的各種俗語、俚語,并能通過語音交互功能實(shí)現(xiàn)無障礙交流,融入粵語用戶的日常生活。
站在企業(yè)的角度上,打造個性化的垂直領(lǐng)域產(chǎn)品,是實(shí)現(xiàn)商業(yè)化變現(xiàn)的有效途徑。但仍需注意的是,通用大模型技術(shù)才是AIGC領(lǐng)域的核心競爭力—一個顯而易見的事實(shí)是,一個基于ChatGPT-4開發(fā)的產(chǎn)品,馬上就會被基于ChatGPT-5開發(fā)的產(chǎn)品淘汰。
今年2月,在中國數(shù)字經(jīng)濟(jì)發(fā)展和治理學(xué)術(shù)年會(2024)上,清華大學(xué)蘇世民書院院長薛瀾表示,在AI大模型方面,單從量上講,中國進(jìn)步很大,但實(shí)際上有不少模型是在國外開源模型的基礎(chǔ)上,進(jìn)行套殼和拼裝做出來的,缺乏原創(chuàng)性。
據(jù)了解,目前大多數(shù)國產(chǎn)模型都是基于LLaMA訓(xùn)練的。LLaMA是一個基于Transformer架構(gòu)的大語言模型,而Transformer架構(gòu)本身,就存在計算復(fù)雜度高、算力需求大、算法效率低等問題。
相較之下,幻方的DeepSeek是基于性能表現(xiàn)更優(yōu)異的開源模型MoE訓(xùn)練出來的,這也是上述幻方打響價格戰(zhàn)第一槍的底氣。
國產(chǎn)大模型的另一個困境在于,語料數(shù)據(jù)的質(zhì)量偏低。中文的數(shù)據(jù)量很大,但數(shù)據(jù)清洗是一項耗時耗力的工程,當(dāng)前國內(nèi)尚未構(gòu)建起成熟的數(shù)據(jù)市場,定制化服務(wù)收費(fèi)較高,往往只有少數(shù)大廠商才能負(fù)擔(dān)得起。
此外,數(shù)十種國產(chǎn)芯片體系/生態(tài)不同,目前還做不到高效適配大模型訓(xùn)練。這個問題得不到解決,國產(chǎn)大模型就有因為芯片被“卡脖子”的風(fēng)險。
像ChatGPT這樣中心化的聊天對話產(chǎn)品,很難成為大眾的高頻剛需。
盡管受制于各種因素,國產(chǎn)大模型仍然取得了一些值得一提的成就。
近期,在業(yè)界公認(rèn)最好的第三方盲測競技場LMSYS中,零一萬物旗下的Yi-Large大模型躍升為總榜第七;在中文類別中,Yi-Large和GPT-4o并列全球第一。相比排在前面的公司,零一萬物的團(tuán)隊規(guī)模、參數(shù)規(guī)模、GPU算力都要更“小”。
稍早一些時間,另一位重磅選手商湯科技使用MoE架構(gòu)、參數(shù)高達(dá)6000億的產(chǎn)品“日日新SenseNova 5.0”,在中文大模型測評基準(zhǔn)SuperCLUE中,成為首個超越GPT-4 Turbo的國產(chǎn)大模型;在OpenCompass的基準(zhǔn)表現(xiàn)中,客觀評測超過GPT-4 Turbo,主觀評測已超過GPT-4o,并位列第一。
據(jù)介紹,在過去一年時間里,商湯科技花了大量時間完成語料質(zhì)量的優(yōu)化,搭建了完善的數(shù)據(jù)清洗鏈條,并重點(diǎn)關(guān)注了具有高信息密度、邏輯性強(qiáng)的語料,從而實(shí)現(xiàn)了性能提升;在知識層面上,采用了超10TB的token,保證了模型對客觀知識和世界的初級認(rèn)知。
據(jù)業(yè)內(nèi)人士分析,不久后,生成式人工智能可能會進(jìn)入收斂期,大浪淘沙過后,國內(nèi)只會剩下10到20個大模型。而此次降價潮,一方面是互聯(lián)網(wǎng)企業(yè)慣性的“圈地運(yùn)動”,更多是一次面向全社會的“開放測試”,增加的訪問量將有助于企業(yè)找到產(chǎn)品的不足,進(jìn)一步提升模型性能,探索商業(yè)落地的方向。
短期的風(fēng)光,難以決定長期的勝負(fù)。國產(chǎn)大模型的競爭,才剛剛開始。
責(zé)任編輯吳陽煜 wyy@nfcmag.com