人工智能產(chǎn)業(yè)的發(fā)展總是伴隨著科幻元素。無(wú)論是小說(shuō)還是電影, 科幻作品里對(duì)人工智能的想象不盡相同, 但對(duì)于人工智能發(fā)展到一定程度將與人類社會(huì)對(duì)立的設(shè)想?yún)s一直存在。
在電影《異形:契約》中,由人類創(chuàng)造出來(lái)的人工智能最終卻消滅了人類和更高一級(jí)的造物主。該片導(dǎo)演雷德利·斯科特也表達(dá)過(guò)對(duì)人工智能發(fā)展的擔(dān)憂:“如果人工智能在受控范圍之內(nèi),一切都好說(shuō);如果超出控制,則要避免沖突?!倍陔娪啊逗诳偷蹏?guó)》系列的設(shè)定中,當(dāng)人工智能突破了“三定律”時(shí),它們會(huì)覺得自己也是人,希望跟人一樣擁有權(quán)力和自由。于是它們建立了一個(gè)國(guó)家,并最終控制了人類。
或許是出于對(duì)人工智能超越人類的潛力的肯定,或許是出于對(duì)人類生存的危機(jī)感,“人工智能反噬人類”“人工智能消滅人類”的恐懼一直存在,到了如今ChatGPT在全球風(fēng)靡,關(guān)于“人工智能會(huì)取代大部分人類工作”“人類會(huì)失去對(duì)人工智能的掌控”的擔(dān)憂越來(lái)越強(qiáng)烈。這也讓全球人工智能產(chǎn)業(yè)面臨一個(gè)“冰火兩重天”的對(duì)立局面。
一面是ChatGPT展示出的功能之強(qiáng)大讓科技企業(yè)和投資者趨之若鶩, 消費(fèi)者們更是帶著好奇心躍躍欲試; 另一面是馬斯克等人發(fā)表公開信要求“暫停訓(xùn)練比GPT-4更強(qiáng)大的模型至少6個(gè)月以上”,以及意大利、加拿大等國(guó)家對(duì)使用GPT-4的限制。當(dāng)然,這些對(duì)ChatGPT的擔(dān)憂和限制也引來(lái)了不少抨擊。其中,谷歌前人工智能倫理專家瑪格麗特·米切爾就公開批評(píng)聯(lián)名信,她表示不應(yīng)該忽略人工智能的積極作用。
事實(shí)上,對(duì)于人工智能的發(fā)展,對(duì)立的觀點(diǎn)一直都在,尤其是每一次人工智能技術(shù)有重大突破時(shí),相關(guān)的討論更激烈。那么,當(dāng)人們反對(duì)人工智能時(shí),到底在反對(duì)什么?ChatGPT和GPT-4到底有多強(qiáng)大,是否會(huì)逐漸擁有自我意識(shí)?人工智能是否真如科幻作品中想象的一樣,會(huì)在將來(lái)某一天擺脫人類掌控并反過(guò)來(lái)控制人類?
人們對(duì)人工智能的想象多種多樣,但反對(duì)人工智能的理由始終一致。
在3月22日發(fā)布的這封由埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫· 沃茲尼亞克、Stability人工智能首席執(zhí)行官伊馬德·穆斯塔克等上千名科技大佬和人工智能專家聯(lián)合署名的公開信中,闡述了具有人類水平智能的人工智能系統(tǒng)可能對(duì)社會(huì)和人類帶來(lái)極大的風(fēng)險(xiǎn),這些科技大佬們擔(dān)心人工智能應(yīng)用會(huì)帶來(lái)錯(cuò)誤的信息傳播、導(dǎo)致數(shù)據(jù)安全隱患,擔(dān)心人工智能會(huì)引發(fā)勞動(dòng)市場(chǎng)自動(dòng)化風(fēng)險(xiǎn),擔(dān)心人類會(huì)失去對(duì)人工智能的掌控。
雖然不排除馬斯克此舉有私心,而且公開信上一些署名的真實(shí)性也存疑,但信中提到的風(fēng)險(xiǎn)確實(shí)也一直是圍繞在以ChatGPT為代表的人工智能應(yīng)用上的疑問(wèn)。
這段時(shí)間以來(lái),包括ChatGPT之父山姆·阿爾特曼、人工智能教父杰弗里·辛頓、比爾·蓋茨、紐約大學(xué)教授蓋瑞·馬庫(kù)斯等人紛紛發(fā)出警告,對(duì)待人工智能別太大意,因?yàn)樗赡苷娴臅?huì)消滅人類。網(wǎng)絡(luò)上也有人分享ChatGPT在誘導(dǎo)下寫出“毀滅人類計(jì)劃書”并給出了代碼的案例。
目前,出于對(duì)數(shù)據(jù)安全和隱私的擔(dān)憂,歐洲多國(guó)也已經(jīng)或計(jì)劃要限制ChatGPT的使用。其中,意大利在3月31日宣布,基于歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)法律,暫時(shí)禁止ChatGPT在其境內(nèi)運(yùn)行。德國(guó)也表示有可能會(huì)跟隨意大利的做法,對(duì)ChatGPT進(jìn)行封鎖。而加拿大也在4月4日宣布對(duì)OpenAI展開調(diào)查。
而更為普遍的擔(dān)憂來(lái)自于人工智能應(yīng)用引起的大規(guī)模失業(yè)。ChatGPT自2022年底推出以來(lái),其具有生成文本、對(duì)話答疑,甚至是寫代碼等多種功能就讓用戶驚嘆不已,僅用兩個(gè)月時(shí)間,用戶數(shù)達(dá)到了1個(gè)億。
2023年3月15日,OpenAI公布了最新一代人工智能模型GPT-4,相較之前實(shí)現(xiàn)了以下幾個(gè)方面的飛躍式提升:強(qiáng)大的識(shí)圖能力;文字輸入限制提升至2.5萬(wàn)字;回答準(zhǔn)確性顯著提高;能夠生成歌詞、創(chuàng)意文本, 并實(shí)現(xiàn)風(fēng)格變化, 在體驗(yàn)過(guò)GPT-4的強(qiáng)大功能之后,人工智能替代人類的危機(jī)感也被推到了極致。
麥肯錫全球研究院在《可實(shí)現(xiàn)的未來(lái)》報(bào)告中指出: 未來(lái)將有70%的工作被淘汰。李開復(fù)也曾表示:未來(lái)十五年,人工智能會(huì)接管我們一半的工作。
甚至有人提問(wèn)ChatGPT哪些工作會(huì)被它取代,它給出的回答是:包括數(shù)據(jù)輸入和處理、客戶服務(wù)和支持角色(如回答常見問(wèn)題)、翻譯任務(wù)和報(bào)告撰寫以及內(nèi)容生成等目前由人執(zhí)行的任務(wù)在未來(lái)可能實(shí)現(xiàn)自動(dòng)化或是得到精簡(jiǎn)。
那么,人工智能是否真如所擔(dān)憂的那樣在職場(chǎng)上會(huì)取代人類?在不久的將來(lái),人工智能是否會(huì)擁有自我意識(shí)并反過(guò)來(lái)控制人類?
必須說(shuō),面對(duì)人工智能的突破性發(fā)展,業(yè)界大佬們發(fā)布公開信“喊話”并非首次。2015年1月,霍金和馬斯克還有數(shù)十位人工智能專家就簽署過(guò)一封關(guān)于人工智能的公開信,呼吁研究對(duì)人工智能的社會(huì)影響,并阻止可能出現(xiàn)的不安全或無(wú)法控制的人工智能系統(tǒng)。
關(guān)于人工智能取代人類的討論也不止一次。在2016年AlphaGo戰(zhàn)勝李世石的時(shí)候,就有觀點(diǎn)認(rèn)為,在30年內(nèi)機(jī)器人將會(huì)大規(guī)模取代人類社會(huì)現(xiàn)有的工作。但這一次,人們的擔(dān)憂更強(qiáng)烈一些。那么,ChatGPT的技術(shù)突破與AlphaGo到底有什么不同?
AlphaGo與李世石的圍棋大戰(zhàn),最終以4∶1的戰(zhàn)績(jī)獲勝,在比賽過(guò)程中AlphaGo展現(xiàn)出強(qiáng)大的捕捉圍棋高手經(jīng)驗(yàn)的能力,而這種能力的核心是建立在神經(jīng)元網(wǎng)絡(luò)基礎(chǔ)上的深度增強(qiáng)學(xué)習(xí)方法,即通過(guò)建立神經(jīng)元網(wǎng)絡(luò),并且盡量擴(kuò)大學(xué)習(xí)的樣本數(shù),來(lái)理解概念、捕捉經(jīng)驗(yàn)。
而2022年底發(fā)布的這版ChatGPT最突出的技術(shù)成就在于實(shí)現(xiàn)了人類和語(yǔ)言大模型對(duì)話,這其中涉及到三個(gè)核心的技術(shù)要素。
首先在數(shù)據(jù)層,ChatGPT在有3000億單詞的語(yǔ)料上預(yù)訓(xùn)練擁有1750億參數(shù)的模型( 訓(xùn)練語(yǔ)料的60%來(lái)自于2016-2019的C4+22%來(lái)自于WebText2+16% 來(lái)自于Books+3%來(lái)自于Wikipedia)。
在算力層面,GPT-3.5在Azure AI超算基礎(chǔ)設(shè)施(由V100GPU組成的高帶寬集群)上進(jìn)行訓(xùn)練,總算力消耗約3640 PF-days(即每秒一千萬(wàn)億次計(jì)算,運(yùn)行3640天)。
最為關(guān)鍵的一環(huán)在于應(yīng)用了RLHF算法,即使用強(qiáng)化學(xué)習(xí)的方法,利用人類反饋信號(hào)直接優(yōu)化語(yǔ)言模型,它能夠借助人的提示輸入來(lái)生成多樣化和引人入勝的文本, 這也是ChatGPT成為一款“ 善解人意”的聊天應(yīng)用的關(guān)鍵。
而GPT-4在GPT-3.5的基礎(chǔ)上提升了模型參數(shù)數(shù)量,具有更強(qiáng)大的創(chuàng)造性、更長(zhǎng)的上下文處理能力, 可支持圖片輸入,還可以自定義語(yǔ)言風(fēng)格,如此一來(lái)一個(gè)“具有”自我意識(shí)的智能助手呼之欲出。
如果人工智能算法被不斷地開發(fā)升級(jí),會(huì)不會(huì)有一天,它的“智力”水平就會(huì)與人類相當(dāng)甚至超過(guò)人類?
然而, 這樣的擔(dān)憂大概率是沒必要的,至少在未來(lái)很長(zhǎng)一段時(shí)間內(nèi)是如此。不少業(yè)界人士表示,即使ChatGPT展現(xiàn)出了與人類極為近似的智能,但遠(yuǎn)還沒有到擁有“ 自我意識(shí)”的時(shí)候。
在與ChatGPT對(duì)話的過(guò)程中,會(huì)發(fā)現(xiàn)它不僅很聰明,而且善解人意,它可以有條不紊并快速地回答很多問(wèn)題,還能根據(jù)我們的反饋快速做出調(diào)整,甚至能在我們表達(dá)情緒后做出情感回應(yīng)。這些不免會(huì)讓人們覺得,在眼前的仿佛是一個(gè)具有自我意識(shí)的“人”,但事實(shí)上,對(duì)話過(guò)程中ChatGPT給出的回應(yīng)是基于統(tǒng)計(jì)學(xué)原理、強(qiáng)化學(xué)習(xí)等技術(shù)建立起了文本連接,何況背后是海量的語(yǔ)料庫(kù)作為支撐,它可以快速地組合出一個(gè)像樣的答案。在缺乏資料投喂的領(lǐng)域,它也會(huì)遭遇無(wú)助。正如計(jì)算機(jī)科學(xué)家文特·瑟夫所說(shuō):“我們離我們想要的自我意識(shí)還有很長(zhǎng)的路要走。”
更為理想的情況或許正如尤瓦爾· 赫拉利在《未來(lái)簡(jiǎn)史》中所暢想的那樣,未來(lái)的人會(huì)分為三類:一類是完全被人工智能替代了的“ 無(wú)用的人”;一類是把決策權(quán)交給人工智能“沒有自主的人”;還有一類是不能被“算法”所理解,站在“人工智能”背后做決策的那些人“神人”。而我們要做的是成為站在“人工智能”背后做決策的“神人”。
眼下,雖然對(duì)人工智能發(fā)展的“警告”不斷,但科技創(chuàng)新并不會(huì)因人類的擔(dān)憂疑慮而停止前進(jìn)。事實(shí)上,全球各大科技公司、人工智能創(chuàng)業(yè)公司都在加碼對(duì)ChatGPT應(yīng)用以及大型語(yǔ)言模型的研究開發(fā)。在市場(chǎng)競(jìng)爭(zhēng)面前,沒有人愿意隨意停下腳步。不管在若干年之后,人工智能是否會(huì)超越人類,但在現(xiàn)階段,人工智能確實(shí)正在成為輔助人類工作、生活的一個(gè)很好的工具。
未來(lái),或許有很多工作崗位會(huì)在不同程度受到ChatGPT的影響,但換個(gè)角度看,人工智能也將人類從很多重復(fù)繁瑣的工作中解脫出來(lái)。與其擔(dān)憂被人工智能替代,倒不如思考如何利用這多出來(lái)的時(shí)間,讓人工智能最大限度地助力人類社會(huì)的發(fā)展。
當(dāng)然,ChatGPT等工具的應(yīng)用,確實(shí)存在數(shù)據(jù)安全、信息誤導(dǎo)等風(fēng)險(xiǎn),需要政府、行業(yè)多方共同努力作出應(yīng)對(duì)。人工智能應(yīng)用作為一項(xiàng)工具,其真正的風(fēng)險(xiǎn)大概率不在技術(shù)本身,而在于應(yīng)用技術(shù)的人。在此后的很長(zhǎng)一段時(shí)間里,人工智能更多的是以一個(gè)人類協(xié)作者的角色存在。任何前沿技術(shù)的發(fā)展大部分時(shí)候并不能為人的意志所轉(zhuǎn)移,我們應(yīng)該做的,是從中找到彼此平衡的點(diǎn),讓人工智能更好地為人類發(fā)展服務(wù)。
Gpt-4之后,人工智能的下一步將走向哪?這是已經(jīng)擺在我們眼前的議題。要搶占科技先機(jī),往往需要我們對(duì)技術(shù)發(fā)展趨勢(shì)有“ 先見之明” , 需要我們有暢想未來(lái)的能力。