每次你使用人工智能生成圖像、寫電子郵件或向聊天機(jī)器人提問,都會(huì)消耗一定的資源(能量)。
事實(shí)上,根據(jù)人工智能初創(chuàng)公司Hugging Face和卡內(nèi)基梅隆大學(xué)的研究人員的一項(xiàng)最新研究發(fā)現(xiàn),使用人工智能模型生成的圖像,所消耗的能量與給一部智能手機(jī)充滿電所需的能量差不多。
然而,他們發(fā)現(xiàn)使用人工智能模型生成文本的能耗要低得多。創(chuàng)建1000次文本所消耗的能量僅能給手機(jī)充電16%左右。
他們的研究成果尚待同行評審。這項(xiàng)研究表明,盡管訓(xùn)練大規(guī)模人工智能模型是一項(xiàng)令人難以置信的能源密集型工作,但這只是挑戰(zhàn)的一部分。它們的大部分碳足跡來自于實(shí)際使用。
領(lǐng)導(dǎo)這項(xiàng)工作的Hugging Face人工智能研究員薩莎·盧喬尼表示,這項(xiàng)研究是學(xué)界首次計(jì)算出使用人工智能模型執(zhí)行不同任務(wù)所造成的碳排放量。
她希望了解這些排放可以幫助我們做出明智的決定,決定如何以更環(huán)保的方式使用人工智能。
盧喬尼和她的團(tuán)隊(duì)研究了Hugging Face平臺上10項(xiàng)最火的人工智能任務(wù)的排放量,如問答、文本生成、圖像分類、字幕和圖像生成。他們在88個(gè)不同的模型上進(jìn)行了實(shí)驗(yàn)。
對于每一項(xiàng)任務(wù),比如文本生成,盧喬尼都會(huì)運(yùn)行1000個(gè)提示,并使用她開發(fā)的名為Code Carbon的工具測量所用的能量。Code Carbon通過查看計(jì)算機(jī)在運(yùn)行模型時(shí)消耗的能量來進(jìn)行碳排放計(jì)算。
該團(tuán)隊(duì)還使用8個(gè)生成式模型計(jì)算了完成這些任務(wù)所產(chǎn)生的排放量,這些模型原本是被訓(xùn)練完成不同的任務(wù)的。
圖像生成,是能源消耗和碳密集度最高的人工智能任務(wù)。使用強(qiáng)大的人工智能模型(如Stable Diffusion XL)生成1000張圖像,所產(chǎn)生的二氧化碳大約相當(dāng)于一輛燃油汽車中行駛4.1英里(約6.6公里)。
相比之下,他們發(fā)現(xiàn)碳密集度最低的文本生成模型,其所產(chǎn)生的二氧化碳相當(dāng)于汽車行駛1米。關(guān)于此事,Stable Diffusion XL背后的公司Stability Ai沒有回應(yīng)置評請求。
德國赫蒂學(xué)院計(jì)算機(jī)科學(xué)和公共政策助理教授林恩·卡克沒有參與這項(xiàng)研究,但她表示這項(xiàng)研究通過給出具體數(shù)字,對人工智能的碳足跡提供了有價(jià)值的見解,并揭示了一些令人擔(dān)憂的上升趨勢。
這些碳排放累積起來不是一個(gè)小數(shù)目。生成式人工智能的繁榮促使大型科技公司將強(qiáng)大的人工智能模型集成到許多不同的產(chǎn)品中,從電子郵件到文字處理。如今,這些生成式人工智能模型每天被使用數(shù)百萬次,甚至數(shù)十億次。
本次研究發(fā)現(xiàn)使用大型生成式模型來創(chuàng)建輸出,遠(yuǎn)比使用為特定任務(wù)量身定制的小型人工智能模型更耗能。
例如,在評估影評是正面還是負(fù)面并分類的任務(wù)中,大模型消耗的能量約是專門為該任務(wù)創(chuàng)建的微調(diào)模型的30倍。
生成式人工智能模型消耗更多能量的原因是,它們試圖同時(shí)做很多事情,比如生成、分類和總結(jié)文本,而不是只做其中一項(xiàng)任務(wù)。
盧喬尼說,她希望這項(xiàng)研究能鼓勵(lì)人們在使用生成式人工智能時(shí)更加謹(jǐn)慎,并盡可能選擇更專業(yè)、碳密集度更低的模型。
她說:“如果你正在做一個(gè)特定的應(yīng)用程序,比如在電子郵件中搜索……你真的需要這些能夠做任何事情的大模型嗎?我覺得不需要。”
艾倫人工智能研究所的研究科學(xué)家杰西·道奇表示,研究與使用人工智能工具相關(guān)的能源消耗,是了解其真實(shí)碳足跡的重要部分,但現(xiàn)在缺失了。他沒有參與這項(xiàng)研究。
他補(bǔ)充道,比較更新、更大的生成式模型和舊的人工智能模型的碳排放也很重要。他說:“這凸顯了一個(gè)觀點(diǎn),即新一波人工智能系統(tǒng)比我們兩三年前看到的碳密集度高得多?!?/p>
谷歌曾估計(jì),平均每次在線搜索會(huì)消耗0.0003度電,相當(dāng)于車輛行駛0.5米。
麻省理工學(xué)院林肯實(shí)驗(yàn)室的研究科學(xué)家維賈伊·蓋德帕利沒有參與這項(xiàng)研究,他說這個(gè)數(shù)字今天可能要高得多,因?yàn)楣雀枰呀?jīng)將生成式人工智能模型集成到了搜索中。
研究人員不僅發(fā)現(xiàn)每項(xiàng)任務(wù)的排放量都遠(yuǎn)高于他們的預(yù)期,還發(fā)現(xiàn)與使用人工智能相關(guān)的日常排放量遠(yuǎn)遠(yuǎn)超過訓(xùn)練這些模型的排放量。
盧喬尼測試了Hugging Face多語言人工智能模型BLOOM的不同版本,以了解需要使用多少次才能超過訓(xùn)練成本。
結(jié)果顯示,超過5.9億次的使用量就可以達(dá)到訓(xùn)練其最大模型所消耗的碳成本。盧喬尼說,對于ChatGPT等非常流行的模型,它們的使用排放量只需要幾周時(shí)間就可以超過其訓(xùn)練排放量。
這是因?yàn)榇笮腿斯ぶ悄苣P椭挥?xùn)練一次,但之后可以使用數(shù)十億次。根據(jù)一些估計(jì),像ChatGPT這樣的流行模型每天有多達(dá)1000萬用戶,其中許多人會(huì)不止一次地向模型發(fā)送提示。
蓋德帕利說,這樣的研究使與人工智能相關(guān)的能源消耗和排放更加具體,并有助于提高人們對使用人工智能會(huì)產(chǎn)生碳足跡的認(rèn)識。他補(bǔ)充說:“如果這成為消費(fèi)者開始詢問的問題,我會(huì)很高興的。”
道奇說,他希望這樣的研究能幫助我們讓公司對其能源使用和排放承擔(dān)更多責(zé)任。他說:“需要對此負(fù)責(zé)的是那些正在創(chuàng)建模型并從中獲利的公司?!保ňC合整理報(bào)道)(策劃/多洛米)