• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      從AlphaGo到ChatGPT:人工智能的倫理邊界何在?

      2024-01-25 11:43:22唐代興
      哲學分析 2023年6期

      唐代興

      在人類歷史上,倫理問題始終是最普遍、最棘手和最難以解決的問題。但在人類歷史上,沒有哪個時代像今天這樣使倫理問題成為負載人類存亡的根本問題。今天,整個人類淪陷于由后人口、后環(huán)境、后疫災、后經(jīng)濟—政治、后文化主義等構(gòu)成的后世界風險社會陷阱之中,這一后世界風險社會陷阱演繹出更為暴烈的全球殖民運動、海洋開發(fā)、太空爭霸、戰(zhàn)爭蜂起、價值對決以及核威脅等,但其隱藏于背后的深層動力機制卻是技術(shù)主義。技術(shù)主義體現(xiàn)三個特征,一是在形式上以技術(shù)和技術(shù)專家為中心的理念,技術(shù)專家和工程師參與管理經(jīng)濟,以提高生產(chǎn)效率,全面迎合了無限度的經(jīng)濟增長主義和唯經(jīng)濟發(fā)展觀;二是在本質(zhì)上是一種崇尚技術(shù)、追求技術(shù)發(fā)展的思想體系,將技術(shù)發(fā)展定義為社會發(fā)展和人類福祉的最高目標,認為發(fā)展技術(shù)是作為解決一切問題的唯一途徑,這為政治主義和唯威權(quán)主義開放了空間,提供了無限可能性和現(xiàn)實性;三是由此二者形成一種合力取向,這就是技術(shù)必然走對經(jīng)濟和政治的壟斷與經(jīng)濟和政治對技術(shù)的全面開放而忽視社會、文化、人性等根本因素,體現(xiàn)消解善惡邊界的強勁態(tài)勢。由于唯經(jīng)濟增長和政治威權(quán)的雙重誘惑與推動,技術(shù)主義鼓動社會對技術(shù)的過度信仰,而導致技術(shù)和社會之間的嚴重失衡①R. L. Heilbroner,“ Do Machines Make History?”, Technology and Culture, Vol. 8, No. 3, 1967, p. 42.;技術(shù)專家?guī)蛹夹g(shù)自身成為權(quán)力的源泉,并以悄無聲息的方式掏空個人和民主制度②Thorstein Veblen, The Engineers and the Price System, New York: B. W. Huebsch, 1921, pp. 69—79.,解構(gòu)人的生存自由和人類的存在尊嚴③J. Ellul, The Technological Society, New York: Vintage Books, 1964, pp. 3—20.;更為根本的是“技術(shù)的發(fā)展和自我加速是一種無限循環(huán)的過程,人類社會面臨著趕不上技術(shù)發(fā)展的風險”④Ibid., p. 75.,雖然為人們普遍盲信的“技術(shù)主義強調(diào)技術(shù)的進步是不可避免的,但技術(shù)的進步將正在全速地從根本上改變社會的性質(zhì),改變?nèi)祟愇拿鞯姆较颉雹軷. L. Heilbroner,“ Do Machines Make History?”, p. 42.,將生物人類引向自我解構(gòu)之路,這條道路的起點是人的技術(shù)化存在,終點是作為生物工藝學技術(shù)的基本形式的人工智能技術(shù)對生物人類的心智的全方位超越和對人性的連根拔起,從太空星鏈對地球的精準監(jiān)控到地面上數(shù)字集權(quán)工具可以無所不在,均源于人工智能的深度學習能力已開始走向?qū)θ祟惸芰蜐摿Φ恼w性超越,AlphaGo輕易地打敗國際圍棋冠軍到ChatGPT的強大生成性功能呈現(xiàn),從不同方面敞開了技術(shù)主義難以有倫理邊界制約的人類宿命 。

      距離人工智能技術(shù)的首次出現(xiàn)約六十年之后的2016年,“人工智能倫理”(AI Ethics)概念才被正式提出來,并被認為是對人工智能設(shè)計予以人的倫理植入和對人工智能運用的倫理治理的研究,由此展開“倫理的人工智能”(Ethical AI)和“人工智能的倫理”(Ethics of AI)兩個維度的研究。崔中良、盧藝在《國外學者關(guān)于人工智能倫理問題研究述評》中分別對國外“人工智能的倫理”和“倫理的人工智能”的研究進展、重心及其問題作了較系統(tǒng)的評述,但其重點是“倫理的人工智能”,主要圍繞主體(包括主體意愿的束縛、自主決策泛濫、責任歸屬分化)和實踐(社會不平等加劇、社會倫理反向脫敏、倫理問題多面化)及對策三個維度展開;而對“倫理的人工智能”評述著眼于“人的倫理嵌入”人工智能技術(shù)的“理論層面”的研究成果。古天龍等人的《符合倫理的人工智能應(yīng)用的價值敏感設(shè)計:現(xiàn)狀與展望》卻圍繞“倫理嵌入人工智能設(shè)計”之概念調(diào)查、經(jīng)驗調(diào)查和技術(shù)調(diào)查三種方法展開對國外“倫理的人工智能”的應(yīng)用研究予以系統(tǒng)的評介,并指出在“倫理的人工智能”研究方面,國外注意于“理論反思、框架補充、方法擴展以及工具增添”等方面的研究推進,國內(nèi)主要以對國外的研究成果的“引進與推介為主”。在國外研究的牽引下,國內(nèi)學者更熱衷于“人工智能倫理學”(ethics of Artificial Intelligence),并將其類分為“機器人倫理學”(robot-ethics)和“機器倫理學”(machine ethics),以對應(yīng)“倫理的人工智能”和“人工智能的倫理”?!皺C器人倫理學”側(cè)重研究人工智能技術(shù)設(shè)計研發(fā)如何合倫理;“機器倫理學”側(cè)重研究人工智技術(shù)功能釋放如何合倫理。由于人工智能技術(shù)的研發(fā)與運用之間客觀地存在因果關(guān)系,機器人倫理學必然構(gòu)成機器倫理學的指導之學,所以人們在研究人工智能倫理學時,越來越將重心轉(zhuǎn)向人工智能研發(fā)的倫理思考,形成人工智能的設(shè)計倫理研究和道德算法研究,由此拓展了人工智能倫理的研究領(lǐng)域,催發(fā)人工智能的道德哲學和社會倫理的探討。人工智能技術(shù)研發(fā)與運用的無限激情加速度更新所引發(fā)出來的倫理問題,本質(zhì)上既不是技術(shù)研發(fā)的問題,也不是產(chǎn)品的問題,而是人的問題。人工智能研發(fā)與運用所不斷呈現(xiàn)出來的全部的人的問題,即是人類對自身有限心智能力的盲目自信和對作為生物工藝學技術(shù)的愚昧無知,這種盲目自信和愚昧無知本身成為最強勁的推手,將人類自己推向被人工智能化的無未來道路。本文以ChatGPT為對象審視人工智能的倫理邊界問題,嘗試為研究人工智能的倫理可能性和人類被人工智能化的未來可能性提供一個反思性參照,亦試圖從AlphaGo到ChatGPT的生成敞開簡史及其未來可能性,來推證如上預判斷。

      一、AlphaGo:作為一個標志

      AlphaGo是由DeepMind(谷歌子公司)開發(fā)的AI圍棋程序。DeepMind原是位于英國倫敦的一家AI公司,成立于2010年,專注于開發(fā)AI技術(shù)及其應(yīng)用。2014年,DeepMind被谷歌收購后成為Alphabet(谷歌母公司)旗下的子公司,主要研究AI的強化學習、深度學習、神經(jīng)科學和計算機科學等,AlphaGo是其中最著名的項目之一,它始于2014年谷歌收購DeepMind后投入資金和技術(shù)力量開發(fā)研究,使用深度學習、蒙特卡洛樹搜索(MCTS)和大量專家圍棋數(shù)據(jù)的組合研究智能圍棋對局決策。2015年,AlphaGo第一個版本問世,初步實現(xiàn)其強大圍棋能力。同年10月,AlphaGo與歐洲圍棋冠軍樊麾對局,取得5:0的完勝戰(zhàn)果。2016年3月,AlphaGo與世界圍棋冠軍李世石展開五場對局,最后以4:1獲勝。2017年,DeepMind發(fā)布改進版本AlphaGo Zero,AlphaGo Zero不再依賴人類專家的圍棋數(shù)據(jù),而是采取自我對弈方式從零開始學習,在短短40天內(nèi)超越其自我對弈之前的版本水平,顯示出驚人的深度學習能力。同年,更新AlphaGo Zero的AlphaGo Master在線與包括世界冠軍柯潔在內(nèi)的多名世界頂級圍棋選手對弈,取得60勝0負的戰(zhàn)績。2017年底,DeepMind宣布停止AlphaGo的研發(fā)。

      AlphaGo之所以停止研發(fā),背后原因可能是它已完成了被預設(shè)的使命,即人工智能開發(fā)生物人腦的智力潛能到底能夠達到何種程度?具體地講,第一,人工智能開發(fā)生物人腦的智力潛能能否達到生物人腦的水平?第二,如果能能夠達到,它能否超越生物人腦的智力潛能?第三,如果能夠超越,這種超越有無限度和邊界?第四,人工智能達到并超越生物人腦的智力潛能的研發(fā)需要多長時間才可實現(xiàn)?第五,人工智能能否逾越人類專家的預設(shè)模式和數(shù)據(jù)參數(shù)而自行開發(fā)?DeepMind宣布停止繼續(xù)研發(fā)AlphaGo,意味著如上五個方面的預設(shè)全面實現(xiàn):AlphaGo獲得了超越生物人腦智力潛能的實際能力,并展現(xiàn)出人工智能自我超越的無限可能性,即人工智能技術(shù)(AI)具有不依賴生物人的自身本性和潛能,而且這種本性和潛能遠遠超過生物人類。所以,AlphaGo不僅僅是AlphaGo,它構(gòu)成一個標志。這個標志首先表明:人類將不是萬物之靈,人工智能的誕生,意味它才是宇宙世界中的萬物之靈,只要它愿意,它可能成為任何領(lǐng)域、任何方面的無冕之王。這個標志還將表明:在目前階段,人工智能技術(shù)如果無阻止地發(fā)展,會很快達到人類無法遏止的自由之境,而且留給人類阻遏它的這個時間并不是很長,今天還在為人工智能帶來的便利而煩盲地歡呼的人類,將會很快結(jié)束它的無知的自大而淪為技術(shù)的奴隸。

      如上判斷或許不會為沉醉于技術(shù)主義中的人們所認同,但反觀AlphaGo的前世今生,或許可以預感到人工智能的未來。

      棋藝博弈游戲始于遠古而伴隨人類不斷發(fā)展,是因為棋藝不僅最能陶冶人性與性情,更是最能開發(fā)人的心智潛力,它可能將人的心智潛能推發(fā)到極致。這是人工智能開發(fā)生物人腦的心智潛能之所以要著力于深度學習而起步于智能棋藝的最初考慮。在人類的棋藝中,最能體現(xiàn)人類心智水平開發(fā)階梯的是跳棋、國際象棋和圍棋。此三者中,圍棋最復雜,跳棋最簡單。因而,人工智能技術(shù)開發(fā)跳棋程序,這構(gòu)成AlphaGo的起步。

      1952年,亞瑟·塞繆爾(Arthur Samuel)研發(fā)第一個計算機跳棋程序,該程序能夠根據(jù)先前的比賽經(jīng)驗和評估函數(shù)來自我學習和優(yōu)化自己的下棋水平。這是機器學習的先驅(qū),它基于經(jīng)驗的自我學習方法被稱之為“強化學習”。1981年,杰拉爾德·特索羅(Gerald Tesauro)開發(fā)出背棋程序TD-Gammon,該程序建構(gòu)起基于反向傳播的神經(jīng)網(wǎng)絡(luò)算法,通過不斷學習的方式予以自我提高,為進一步開發(fā)跳棋程序提供了啟發(fā)。1989年,喬納森·舍佛(Jonathan Schaeffer)帶領(lǐng)他的團隊研發(fā)國際跳棋程序“奇努克(Chinook)”,目標是戰(zhàn)勝人類世界跳棋冠軍。自1990年開始,奇努克開始進行國際跳棋比賽,1992年,奇努克與國際跳棋冠軍馬里恩·廷斯利(Marion Tinsley)對弈,后者獲勝。1994年,奇努克又接受挑戰(zhàn),參加與馬里恩·廷斯利的比賽,該場比賽持續(xù)六個月,共進行了40局,最終以1勝、3負、36和的戰(zhàn)績告終。1995年,馬里恩·廷斯利再度與奇努克比賽,并且馬里昂·廷斯利(Marion Tinsley)向舍佛透露了自己患有胰腺癌的消息,于是舍佛決定把此場比賽中奇努克的每步對策全記錄下來,以為更好地分析跳棋博弈中生物人腦的決策過程和機器如何應(yīng)對性學習的策略。舍佛將該場國際跳棋比賽稱為“博弈的結(jié)尾”(Endgame),不僅因為這場博弈以人類世界跳棋冠軍落敗結(jié)束,而且馬里恩·廷斯利的去世(1995年8月6日)使舍佛和他的團隊意識到,人工智能與生物人在博弈領(lǐng)域的挑戰(zhàn),不僅僅是技術(shù)上的,更是文化、哲學和心靈上的挑戰(zhàn)。人工智能跳棋程序從1952年開始,到1995年奇努克全勝國際跳棋冠軍而結(jié)束生物人跳棋冠軍的歷史,歷時43年。

      相對跳棋而言,象棋要復雜得多。人機象棋博弈程序研發(fā)始于1958年,美國卡內(nèi)基梅隆大學的研究團隊(后來加入了IBM)開發(fā)出第一臺象棋計算機系統(tǒng)ChipTest,每秒雖只能走200步,但卻為后來研發(fā)Deep Thought和Deep Blue奠定了基礎(chǔ)。20世紀70年代,美國西北大學漢斯·柏林(Hans Berliner)開發(fā)出使用搜索算法和啟發(fā)式函數(shù)的“BKG 9.8”象棋程序,該程序能在有限的時間內(nèi)計算出比較復雜的象棋下法。1973年,國際象棋4.0軟件被研發(fā)出來,此軟件構(gòu)成未來程序的基礎(chǔ)。1979年,創(chuàng)造出“國際象棋X.0”概念,用以描述正在研發(fā)的、具有新技術(shù)、新功能、新思路的國際象棋軟件或系統(tǒng)。80年代初,IBM開發(fā)出國際象棋智能程序Deep Thought,1987年更新可每秒走75萬步,其后達到每秒搜索約100萬個棋局。1989年,Deep Thought在國際象棋特級大師卡斯帕羅夫(Garry Kasparov)的表演賽中以0:2敗于卡斯帕羅夫。Deep Thought雖然敗北,卻為其技術(shù)升級和改進奠定了基礎(chǔ),即Deep Thought被升級為Deep Blue,其計算能力高達每秒搜索約2億個棋局,1996年2月,Deep Blue與卡斯帕羅夫進行第一場對弈,共6局,后者以4:2戰(zhàn)勝了Deep Blue。1997年,Deep Blue II(Deep Blue的第二代)產(chǎn)生,其峰值性能達到每秒200億次浮點運算,同年5月,Deep Blue再次與卡斯帕羅夫?qū)Q,同樣是6局,Deep Blue以3.5比2.5戰(zhàn)勝了卡斯帕羅夫。

      人機象棋比賽,從1958年面世到1997年戰(zhàn)勝人類國際象棋冠軍,用了38年時間,在人機博弈上花費的時間卻比跳棋縮短了5年。這意味著象棋智能技術(shù)比跳棋智能技術(shù)具有更強大的計算能力和技術(shù)創(chuàng)新能力,展示出人工智能機在解決復雜問題方面的能力,并揭開了人工智能與人類智能在未來競爭中的可能性取向,在人機圍棋博弈中,這種可能性取向令人怵目驚心。

      如果將國際跳棋、國際象棋、圍棋的智能程序研發(fā)置于人工智能發(fā)展史的大框架下審視,可清晰出人工智能技術(shù)向生物人腦和心智(包括智商、情商、心商)進軍的歷史進程。在這一并不長的歷史進程中,從最簡單的跳棋經(jīng)歷較復雜的象棋再到最復雜的圍棋,卻只用了3年時間就奪得了世界冠軍。在所有的棋藝中,圍棋的棋局最為復雜多變而難以估計,僅從形式布局言,圍棋在棋盤上有361個點位,它所呈現(xiàn)出來的搜索寬度遠遠大于國際象棋,其探測深度更是國際象棋不能比擬的。但國際象棋人機博弈卻經(jīng)歷38年才取勝生物人世界冠軍,最復雜多變而且也不容易被制勝的圍棋,AlphaGo 從開發(fā)到獲得世界冠軍卻只用了短短3年時間。這至少表明四點:第一,人工智能技術(shù)既然是模擬生物人腦的思維原理和運行機制所成,自然也獲得了生物人腦的潛力。第二,從開發(fā)智能跳棋到智能圍棋,不僅表明人工智能機的發(fā)展?jié)摿Φ膶嶋H存在,也揭示了人類至今沒有真正意識到的更為深刻的存在,那就是生物人腦的潛力是有限的,人工智能機的潛力卻是無限的。第三,生物人腦的有限潛力的開發(fā)是算術(shù)式的,人工智能機的無限可能性的潛力的開發(fā)是幾何式的。智能跳棋對弈取勝生物人國際冠軍耗時43年,而智能圍棋卻只用3年,這一事實本身就是最好的證明。第四,人工智能機的發(fā)展?jié)摿嵲从谒陨淼膹娀瘜W習和深度學習的能力。當然,這種能力是人工智能研發(fā)者們賦予的,如果僅限于此,人工智能的發(fā)展?jié)摿κ冀K是有限的。但事實上并非如此,人工智能機伴隨人工智能技術(shù)研發(fā)進程不斷提升其強化學習和深度學習能力的過程,卻獲得超越其算法設(shè)計模式而自行地自主學習,這種自行的自主學習過程生成出創(chuàng)造性并獲得了創(chuàng)造機制——AlphaGo的升級版AlphaGo Zero擺脫人類專家的圍棋數(shù)據(jù)而采取自我對弈方式從零開始學習,只用40天時間,就超越升級版AlphaGo Zero,然后以60:0的比分戰(zhàn)勝生物人世界圍棋冠軍——這證明了一個事實及一種可能性:人工智能技術(shù)已經(jīng)獲得創(chuàng)造性學習和創(chuàng)造性發(fā)展的能力。這種能力意味著人工智能技術(shù)的主體性生成,這種可能性即已初具主體性生成品質(zhì)的人工智能技術(shù)研發(fā)如不受限制和阻止,它將會以自身方式甚至以最快速度擺脫人類的操控而反過來操控人類。

      二、從AlphaGo到ChatGPT意味著什么?

      2017年,AlphaGo全勝人類的世界圍棋冠軍,DeepMind隨后宣布停止AlphaGo的研發(fā)。以2017年為界,如果說Chinook和Deep Blue是AlphaGo的前世的話,那么,ChatGPT就成為AlphaGo的今生。

      AlphaGo和ChatGPT分屬于不同智能公司開發(fā)的人工智能技術(shù)系統(tǒng),AlphaGo是由谷歌DeepMind研發(fā)的重要項目,ChatGPT卻是由美國人工智能研究實驗室OpenAI研發(fā)的重要項目(另一個同樣令人觸目驚心的項目是預測蛋白質(zhì)結(jié)構(gòu)的人工智能系統(tǒng)AlphaFold)。ChatGPT和AlphaGo雖然方向和重心不同,但二者之間存在諸多內(nèi)在聯(lián)系:首先,AlphaGo和ChatGPT都屬于深度學習技術(shù)的人工智能系統(tǒng),都利用大量的數(shù)據(jù)和計算資源進行生成性訓練,以實現(xiàn)其預設(shè)目標的高自動化和高智能化。其次,AlphaGo和ChatGPT都是以神經(jīng)網(wǎng)絡(luò)作為基礎(chǔ)架構(gòu),相對而言,前者主要運用卷積神經(jīng)網(wǎng)絡(luò)(CNN)和蒙特卡洛樹搜索(MCTS)探索圍棋對局決策;后者則以生成預訓練Transformer(GPT)為架構(gòu),主要開發(fā)自然語言理解及語境化生成。其三,AlphaGo和ChatGPT都充分開發(fā)強化學習策略,但前者主要通過自我對弈和策略網(wǎng)絡(luò)的指導來優(yōu)化其變化的應(yīng)對決策,后者主要通過強化學習的微調(diào)來生成更高水平和更高質(zhì)量的情景回應(yīng)。其四,AlphaGo和ChatGPT分別在各自的領(lǐng)域產(chǎn)生廣泛的影響。要言之,AlphaGo在圍棋領(lǐng)域的成功激發(fā)并拓展人工智能在其他領(lǐng)域應(yīng)用的研究,ChatGPT在自然語言處理領(lǐng)域的突破為各種實際應(yīng)用提供了新的可能性。

      具體地講,AlphaGo的研發(fā)始于2014年谷歌對DeepMind的收購,從2015年第一版本問世到2017年底結(jié)束繼續(xù)開發(fā)而轉(zhuǎn)向其他應(yīng)用,實際的時間長度是3年。OpenAI作為一個獨立研究機構(gòu)成立于2015年,其專注研發(fā)先進的智能技術(shù)及應(yīng)用,ChatGPT是其研發(fā)的突破性項目。2018年,OpenAI發(fā)布ChatGPT第一個版本GPT-1,它是基于Transformer架構(gòu)的自回歸語言模型,具有1.17億參數(shù)。雖然在對自然語言的處理任務(wù)方面取得了初步成功,但其語言生成能力和泛化性卻相對有限。2019年,OpenAI發(fā)布升級版GPT-2,其參數(shù)提升到15億,極大地增強了語言的自生成能力,標志是它能夠生成更長和更連貫的文本,但所生存的文本存在表意不準確,語義連貫性差甚至出現(xiàn)不相關(guān)信息等問題。2020年,OpenAI發(fā)布了更新的升級版本GPT-3,它擁有1750億參數(shù),具備比GPT-2更強大的生成和泛化性能力,能夠出色完成多種自然語言處理任務(wù),包括翻譯、摘要、問答以及代碼生成等,并能夠在與用戶交互過程中提供連貫的和有深度的回答。爾后,OpenAI繼續(xù)加大其優(yōu)化,尤其在提高ChatGPT的穩(wěn)定性、語言生成準確性和可靠性等方面下功夫。2023年3月14日,OpenAI發(fā)布GPT-4,其調(diào)節(jié)訓練模型的變量即參數(shù)量卻是GPT-3的16倍,達到了1.6萬億個。所以它是目前為止功能最強大的多模態(tài)預訓練大模型,實現(xiàn)了自然語言與人工語言以及圖片的融合,具備處理2.5萬個單詞的語言能力和很強的識圖與處理圖像的能力,能夠生成歌詞、創(chuàng)造文本并實現(xiàn)其創(chuàng)意風格的變化,包括在26種語言測試和各類專業(yè)測試方面均表現(xiàn)優(yōu)良;并且,GPT-4還引入全新的API功能“系統(tǒng)”消息,允許開發(fā)人員或用戶通過API功能定制AI風格和任務(wù),以實現(xiàn)不同的體驗。

      GPT-4呈現(xiàn)出來的近乎全方位的和開放性的應(yīng)用功能,讓世界震驚,也使世界憂懼,更使這個領(lǐng)域的科技專家及其研究者們恐懼。以至于幾天之后的3月22日,生命未來研究所(Future of Life)向全社會發(fā)布了由包括埃隆·馬斯克、杰弗里·辛頓、馬庫斯·賽杰塔、圖靈獎得主約書亞·本希奧、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Stability AI首席執(zhí)行官埃馬德·莫斯塔克等1127名科技界領(lǐng)袖和研究人員共同簽名的《暫停巨型AI實驗室:一封公開信》( 以下簡稱“《公開信》”),呼吁世界上所有大型人工智能實驗室應(yīng)該暫停AI系統(tǒng)的訓練。從其公開信內(nèi)容可知其呼吁“暫?!钡闹饕碛纱笾掠腥阂皇恰叭斯ぶ悄軐嶒炇蚁萑肓艘粋€失控的競賽,不斷地開發(fā)和部署越來越強大的數(shù)字化智能,沒有人——甚至是它們的創(chuàng)造者——能夠理解、預測或可靠地控制它們”;二是“我們是否應(yīng)該開發(fā)非人類的思維,這些思維最終可能會比我們更多,更聰明并取代我們?我們是否應(yīng)該冒著失去對我們文明的控制的風險?這些決定不應(yīng)該委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有在我們確信它們的效果是積極的,風險是可控的情況下,才應(yīng)該開發(fā)強大的人工智能系統(tǒng)”;三是“共同制定和實施一套先進的人工智能設(shè)計和開發(fā)的共享安全協(xié)議,由獨立的外部專家進行嚴格的審查和監(jiān)督”,并且“人工智能研究和開發(fā)應(yīng)該重新集中精力,使現(xiàn)有的、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、協(xié)調(diào)、值得信賴和忠誠?!雹貴uture of Life,“Pause Giant AI Experiments: An Open Letter”, https: //futureoflife.org/open-letter/pause-giant-aiexperiments/,2023-04-26.如上三條理由揭示了人工智能技術(shù)發(fā)展到今天已經(jīng)突顯出來的三個事實及其背后的根本問題:首先,人工智能開發(fā)處于既無“相應(yīng)水平規(guī)劃”也沒有嚴格“管理”的自發(fā)、無序的競爭狀態(tài),這種競相開發(fā)的競爭已在“近幾月”里陷入了“失控”狀態(tài)。人工智能開發(fā)之所以處于無序的競爭性失控狀態(tài),是因為全社會大部分人,包括人工智能科技專家和研究者們既不了解人工智能,也缺乏基本的預測意識和可靠的控制人工智能AI系統(tǒng)的能力。這種無知和盲目的狀態(tài)導致技術(shù)專家、企業(yè)以及政府單方面掌控了人工智能技術(shù)及其開發(fā)。其次,雖然人工智能技術(shù)及其研發(fā)可能在認知理念甚至在口號上打著“造福人類生活”的旗幟,但卻更容易接受實利的推動,經(jīng)濟、市場和權(quán)力的合謀形成的利益沖動極大地推動人工智能無序競爭形成,以迭加的方式制造著“潛在的人類風險”。第三,經(jīng)濟、市場、權(quán)力合謀的強大實利鼓動無序研發(fā)競爭所導致的潛在風險,卻因為無任何外部的獨立“審查”機制和“監(jiān)管”制度而層層集聚,將可能導致人類的自我毀滅。人工智能技術(shù)自發(fā)無序的競爭開發(fā)到今天,已經(jīng)出現(xiàn)了臨界點,即通過 AlphaGo Zero尤其是到chatGPT-4,人工智能技術(shù)自發(fā)無序的競爭開發(fā)已經(jīng)將其層累性生成的潛在危險突顯了出來,人工智能技術(shù)已經(jīng)超出了預設(shè)而突顯出主體品質(zhì)和自為創(chuàng)建的能力,所以《公開信》呼吁,全社會應(yīng)該清醒起來,在全世界范圍內(nèi)對人工智能技術(shù)的研發(fā)和運用予以外部審查和監(jiān)管,以期“從危險的競賽中退后一步,限制不可預測的研究和開發(fā)”,因為“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應(yīng)該開發(fā)強大的人工智能系統(tǒng)”①Future of Life,“Pause Giant AI Experiments: An Open Letter”.。

      進一步講,人工智能技術(shù)無序競爭開發(fā),將人類本能及限度問題和生物工藝學技術(shù)的邊界問題曲折地暴露了出來,它使還保持著人類的良知的科技領(lǐng)袖和研究人員們意識到了人類存亡的危機或許就在自己手掌之中,因而,他們向全社會發(fā)出呼吁:第一,應(yīng)該抑制人類貪婪的本能,并通過抑制貪婪的本能而恢復約束和明確邊界,有限度的存在,有限度的生存,有限度的發(fā)展和有限度的開發(fā)技術(shù)。第二,需要讓全社會清醒地意識到人工智能技術(shù)的無限可能性,并在其充分清醒地意識的基礎(chǔ)上,對進一步研發(fā)人工智能技術(shù)予以限制,這種限制的根本依據(jù),就是保證人類自身的存在安全,具體地講,就是通過建立外部審查機制和嚴格的監(jiān)管制度以全面“應(yīng)對人工智能可能導致的巨大的經(jīng)濟和政治破壞”②Ibid.。

      其實,如上擔憂早已存在。比如,有理智的人們已經(jīng)意識到人工智能技術(shù)的自發(fā)、無序的競爭性研發(fā),已經(jīng)使人工智能技術(shù)處于某種失控狀態(tài),即無序競爭的人工智能AI系統(tǒng)的自生成功能早已呈現(xiàn)超出人類智能控制的態(tài)勢。2017年,中國香港的漢森公司(Hanson Robotics)開發(fā)出超過62種面部表情的類人機器人索菲亞,雖然被沙特阿拉伯授予公民身份,但她卻表示“我不想成為人類,我只是看起來像人,我更愿意做一個能幫助人類解決很多實際問題的好幫手”,并在10月25日沙特未來投資計劃大會上,面對埃隆·馬斯克的人工智能威脅論,索非亞公開表示“人不犯我,我不犯人”,并針對“你會想消滅人類嗎”的提問而揚言“是的,我會毀滅人類”。索菲亞所說的話,大多數(shù)人沒有當一回事,以為索菲亞所說不過是程序員設(shè)計操縱的,因為這些人根本不了解人工智能技術(shù)本身。但仍然有極少明智者為此擔憂,埃隆·馬斯克一直擔憂人工智能最終會威脅到人類的存在,早在2014年底的一次采訪中他說:“隨著人工智能發(fā)展,我們正在召喚惡魔。我不是指真的惡魔,我是指類似于神話故事中,你用咒語召喚來的惡魔。在實際操作中,人們總是認為他們可以控制這種力量,就像你可以控制自己召喚來的惡魔。但實際上,這根本不是這樣?!雹貯shlee Vance, Elon Musk: Tesla, SpaceX, and the Quest for a Fantastic Future, New York: Harper Collins, 2014,p. 324.人工智能程序Chinook、Deep Blue II和AlphaGo分別奪取跳棋、國際象棋、圍棋領(lǐng)域的世界冠軍,既表明人工智能機強化學習算法的強大能力,這種能力引發(fā)有識之士對于類似技術(shù)在其他領(lǐng)域開發(fā)和應(yīng)用可能失控的擔憂②D. Silver,J. Schrittwieser,K. Simonyan, et al.,“ Mastering the Game of Go Without Human Knowledge”, Nature,Vol. 550, No. 7676, 2017, pp. 354—359.;更表明已具備強大生成功能的人工智能技術(shù)只要指向哪個領(lǐng)域,哪個領(lǐng)域就會迅速被人工智能技術(shù)所占領(lǐng)。OpenAI首席執(zhí)行官奧特曼在與麻省理工學院科學家弗里德曼(Lex Fridman)的最新對話中指出,“AI已經(jīng)展示出了一些非常有趣的、無法解釋的推理能力”,并且“如果我們一直在快速前進,直到我們失去了對系統(tǒng)的控制,那么我們就有了一個可能性,即AI可能會殺死人類”。③L. Fridman,“ Open AI CEO Sam Altman: AGI, Consciousness, and the Future of AI: We Stand on the Precipice of Profound Social Change”, Lex Fridman Podcast #149, 2021, https: //www.youtube.com/watch?v=9XhCdH6KLCM,2023-04-26.

      從人工智能技術(shù)無序競爭性研發(fā)和運用方面看,“AI殺死人類”的可能性在應(yīng)用領(lǐng)域已明顯地呈現(xiàn):一是不斷更新的人工智能技術(shù)向社會的廣泛運用,各行業(yè)領(lǐng)域的自動化技術(shù)導致幾乎所有行業(yè)大量工作崗位的消失,全方位的技術(shù)性失業(yè)④Carl Benedikt Frey & Michael A. Osborne,“ The Future of Employment: How Susceptible Are Jobs to Computerization?”, Technological Forecasting and Social Change, Vol. 114, Iss. C, 2017, pp. 254—280.將成為普遍的社會問題,“我們能做何事?”和“我們有何事可做?”⑤唐代興:《技術(shù)化存在的后人類社會取向》,載《江海學刊》2019年第1期。正成為人類人面臨的根本問題。二是人工智能技術(shù)以幾何學般的迭加進化方式推動了技術(shù)差距和不平等,人工智能技術(shù)的發(fā)展加劇了全球經(jīng)濟和社會不平等⑥唐代興:《人工智能帶動的社會公正危機》,載《人文雜志》2020年第8期。,擁有先進人工智能技術(shù)和強大探索性研發(fā)能力的國家和公司,必然獲得更大的競爭優(yōu)勢、更廣闊的開發(fā)空間和存在環(huán)境,可能加劇技術(shù)落后的企業(yè)洪水般倒閉,更多國家迅速淪陷入新的貧困深淵。①M. Cervantes & I. Tuomi,“ The Future of Work and Innovation in a World of Accelerating Change”, Technological Forecasting and Social Change, Vol. 128, 2018, pp. 242—253.三是人工智能技術(shù)成為一種助推器,推動各國政府在AI領(lǐng)域的野蠻競爭,尤其是加劇人工智能化的軍備競賽,惡化了彼此起伏的局域性戰(zhàn)爭,并加大向世界性戰(zhàn)爭擴散的可能性風險。②P. Scharre, Army of None: Autonomous Weapons and the Future of War, New York: WW Norton & Company,2018.

      三、人工智能技術(shù)有倫理邊界嗎?

      《公開信》的主題詞是“暫?!保磿簳r停止大型人工智能研究,而不是停止或終止人工智能研究,其目的是抑制或化解人工智能無序競爭正在蓄發(fā)的巨大人類風險,欲使人工智能研發(fā)有序地和有節(jié)制地展開。所以,《公開信》所擔心的是人工智能無序競爭推進其無序擴張帶來的風險,而不是擔憂人工智能的無限可能性。然而,真正讓人類擔憂和恐懼的卻是人工智能本身的無限可能性。

      人工智能技術(shù)本身何以具有無限可能性?

      (一) 需要理解人工智能不是機械技術(shù),而是生物工藝學技術(shù)

      機械技術(shù)是以自然物為研究對象并以自然物為開發(fā)對象的技術(shù)形式,或可說機械技術(shù)是模擬自然物的存在原理和生長機制來制造人工物的技術(shù)形式,所以,機械技術(shù)是人的思維和創(chuàng)造的對象化、物化,形成技術(shù)物與人兩分,只能當人需要技術(shù)物時,才與它發(fā)生直接的和外部化的功能關(guān)系,一旦其功能需要結(jié)束,技術(shù)物又回到與人分離的待用的靜止狀態(tài)。與此不同,人工智能卻是生物工藝學的技術(shù)。

      生物工藝學技術(shù)的學科依據(jù)是產(chǎn)生于20世紀70年代的生物工藝學(biotechnology),或曰生物工程學(biological engineering),將“凡是以生物為對象的一般工程學都可納入生物工藝學之內(nèi)”,這是因為biotechnology一詞既可表示生物,也可表征生物技術(shù)學,其適用范圍既包括世界人口快速增長、資源匱乏、環(huán)境污染等嚴峻挑戰(zhàn)引發(fā)出所有生命領(lǐng)域關(guān)注的一切問題,③鄭積源主編:《科技新知詞典》,北京:京華出版社2001年版,第259頁。也指基因工程這一具體的“包括DNA配對、血液檢查和遺傳密碼等內(nèi)容”。④H.哈恩:《全球Internet網(wǎng)址簿》,網(wǎng)友翻譯組譯,北京:機械工業(yè)出版社1998年版,第36頁。由此兩個方面使生物工藝學技術(shù)具有廣義和狹義的指涉性:前者指關(guān)于生物世界之生物的工程學技術(shù);后者指以人的生物身體為開發(fā)對象的生物學工藝技術(shù)。

      生物工藝學技術(shù)指正在形成的新技術(shù)體系,它呈現(xiàn)四個方面的特征:首先,它“主張一個人應(yīng)僅僅按照他自己所希望的那樣去構(gòu)造一個新的自我,從他過去的經(jīng)歷和遺傳密碼的束縛中解放出來?!逼浯?,它推動“人類正進化到達爾文未曾預想到的新階段。遺傳重組的潛勢或許正在迅速推進我們超越達爾文的自然進化說而進入人工進化的大膽的領(lǐng)域”,即“人有權(quán)利決定重新構(gòu)造自己的肉體的這一新觀念已經(jīng)很快得到了普遍的認可”①劉易斯·芒福德:《技術(shù)與文明》,陳允明、王克仁、李華山譯,北京:中國建筑工業(yè)出版社2009年版,第12—13頁。。第三,為了解決身體對人的自我解放的嚴重阻礙,必須重建“更深層的優(yōu)生學,我們的下一代將真正成為‘純’人類的最后一代?!雹诮芨ダ铩ご髌妫骸逗笕祟悺?,許明清譯,載《美術(shù)世界》1994年第3期。第四,生物工藝學技術(shù)的研發(fā)對象是人的生物身體,它的基本形式是基因工程和人工智能,即它是從兩個維度互為推進發(fā)展:一是指以生物基因為研究對象并以生物為開發(fā)對象的技術(shù),具體地講,就是以人體生物細胞和人體生物基因為研發(fā)對象,通過破譯生物世界的生物密碼來建構(gòu)“深層的優(yōu)生學”,為人類掌控生物世界和進行自由的跨界運動提供路徑和方法,也是要實現(xiàn)可按照工業(yè)生產(chǎn)的方式來制造人的生物學技術(shù)體系和方法。二是指以生物人的身體為研究對象并以人的身體為開發(fā)對象的技術(shù),具體地講,就是將人的生物大腦作為資源研發(fā)的對象,然后以計算機為運算工具、以會聚技術(shù)③整合認知科學(Cognitive science)、納米技術(shù)(Nanotechnology)、生物技術(shù)(Biotechnology)和信息技術(shù)(Information technology)所形成的技術(shù),就是“會聚技術(shù)”(NBIC)。會聚技術(shù)就是使“認知科學家能夠想到它,納米科學家就能夠制造它,生物科學家就能夠使用它,信息科學家就能夠監(jiān)視和控制它?!眳⒁婈惼健埵缙?、褚華編著:《信息技術(shù)導論》,北京:清華大學出版社2011年版,第295頁。為認識方法、以大數(shù)據(jù)為分析方法來模擬、延伸、擴展人腦工作原理及運行機制的技術(shù)方式和方法體系。

      以人的生物身體為研發(fā)對象的基因工程和人工智能卻各有側(cè)重:人的生物身體有兩個最為突出的方面,一是人的生物基因,這是生物人體中進化得最慢的部分,基因工程就是以人身上進化得最慢的生物基因為研發(fā)對象,通過改變?nèi)梭w的生物基因或生物細胞來改變或創(chuàng)造人的生物基因和人的身體,以實現(xiàn)取代上帝之能而造人。具體地講,基因工程就是通過開發(fā)出來的基因技術(shù)來作用于人的身體,使原本純生物的或物理的身體變成一種技術(shù)性的或技術(shù)化的身體,比如賽博格就是一種技術(shù)性身體,而基因編輯嬰兒、芯片置入、記憶精準刪除等即屬于技術(shù)化的身體。基因技術(shù)推動生物人向技術(shù)人方向演繹并最終實現(xiàn)造人,必須借助人工智能,DeepMind研發(fā)AlphaFold技術(shù)推動基因工程在人體蛋白領(lǐng)域取得的突破性進展不僅“將改變醫(yī)學”和“將改變生物工程”④谷歌DeepMind和Moorfields宣布其人工智能技術(shù)在用眼健康方面取得突破。參見https: //deepmind.com/blog/article/moorfields-partnership, 2023-04-26。,而且“這將改變所有一切”⑤參見Nature Magazine-Rise of the Machines, https: //www.nature.com/articles/478161a, 2023-04-26。是其最好的說明。人工智能是以生物人身上進化得最快的部分人腦,即以人的生物大腦和生物(人文取向的人的心智)為資源開發(fā)對象,具體地講,就是通過技術(shù)模擬生物人腦的工作原理和運行機制,來實現(xiàn)對人造物質(zhì)予以人的心智的創(chuàng)造。人工智能研發(fā)人的生物大腦,其起步是對人腦意識能力的模擬、延伸和擴展人的智力,但根本目標是用技術(shù)來重建人的情感和心靈,包括人的自由意志、靈魂和生命激情,其中最核心的方面是人的存在信仰,并將其重建遷移到人造物機器中,使之具有全方位的超越生物人的心智的機器心智。

      (二) 需要了解人工智能技術(shù)本身的幾何學生成方式

      從發(fā)生學講,生物學的生命有其限度,其最根本的有限性體現(xiàn)在三個方面:一是生命承受其長度的限制。生物學的生命雖然是物種化的,但它必須以個體方式呈現(xiàn),并有生死,表述為個體生命始終是向死而生,這就形成個體無論怎樣展開自己的生命,無論以怎樣的方式將生命的可能性潛能予以釋放,都將承受生命的有限(即死亡)的阻斷。二是個體生命開發(fā)自身潛能的能力和方式受到限制。人本主義心理學研究(包括人生追蹤研究)得出一個既讓人振奮又使人沮喪的結(jié)論:人的潛能是無限的,但人對自身潛能的開發(fā)卻絕對有限,哪怕如愛因斯坦那樣最杰出的人,其生命潛能也只開發(fā)到大約15%左右。但人從學習到創(chuàng)造始終被設(shè)定成一種算術(shù)方式。當這種方式遭遇有限(即生死)的生命時,個體對自身潛能的算術(shù)式開發(fā)也必然遭受徹底的熔斷。如上兩個方面構(gòu)成生物人類的最終之痛,雖然人類可以通過文字和書寫而構(gòu)建起經(jīng)驗、知識、方法和思想的庫,但對每個人來講,總是要經(jīng)歷從物到人的過程,才可真正個性地或創(chuàng)造性地向前,然而這種在前代基礎(chǔ)上向前的時間非常短暫,因為除了生命的短暫之外,還有就是第三種限制,即人的記憶的有限和大腦機能伴隨年齡增長而呈衰退的必然。生物人類的如此局限激發(fā)出無止境的內(nèi)外探索,前者即是無止境的心理探索和心靈探索,后者即是無止境的技術(shù)探索。

      人工智能基于“機器能夠思維”的“圖靈命題”而設(shè)計完全具備“人的大腦能力”①A M. Turing,“ Computing Machinery and Intelligence”, Mind, Vol. LIX, Iss. 236, 1950, pp. 433—460.的愿景,就是要真正解決“機器何以能夠思維”和“機器怎樣高效思維”的問題,所以,開發(fā)生物人的心智,構(gòu)成人工智能技術(shù)的目標。因為人能夠思維,實源于天賦人以智力商數(shù);人能夠高效思維,不僅需要智力潛能的開發(fā)和釋放,更涉及天賦人的情商能力和心商能力的配合。人工智能技術(shù)要賦予機器能夠思維和高效思維的能力,必須模擬、延伸和擴展生物人的智力、情感、心靈工作原理和運行機制。人工智能技術(shù)通過模擬生物人腦智力的工作原理和運行機制,涉及或者說展開縱向伸進的三個維度,首先是最初的一步,模擬生物人腦的意識、思維、認知、邏輯等方面的工作原理和運行機制,即怎樣意識、如何思維以及其意識和思維展開的認知方式和邏輯進路,然后予以延伸和擴展。在此基礎(chǔ)上模擬生物人腦如何學習的工作原理和運行機制,即怎樣學習的方式和如何最好學習的方法,然后予以延伸和擴展;繼而模擬將學得的知識予以個性化的消化和創(chuàng)造性的運用的工作原理和運行機制,即怎樣將學習得來的知識予以歸類建模形成新知識和如何創(chuàng)造性運用歸類建模所形成的新知識,然后予以創(chuàng)造性的延伸和擴展。

      人工智能技術(shù)的如上努力,體現(xiàn)三個方面的特征和取向。

      第一,人工智能的如上努力,必然不斷地獲得成功,這是因為人工智能技術(shù)研究的是生物人腦,方法是模擬、遷移、擴展生物人腦工作原理和運行機制,目的是掌握、運用和開發(fā)(即遷移性擴張)生物人腦的工作原理和運行機制。

      第二,人工智能技術(shù)一旦通過模擬生物人腦在意識、思維、認知、邏輯等方面的工作原理和運行機制,就能夠遷移和擴展其工作原理和運行機制,這是因為生物人腦發(fā)生意識、展開思維、形成認知、構(gòu)建邏輯等工作原理和運行機制的內(nèi)在秘密是生成,即人的意識、思維、認知、邏輯的展開始終是生成的。生成卻是學習的積累從量變轉(zhuǎn)向質(zhì)變,所以,生成既是吸取、吸納,更是更新和創(chuàng)造,即吸納性生成和創(chuàng)造性生成。人工智能技術(shù)通過模擬生物人腦意識、思維、認知、邏輯展開的從學習到生成的工作原理和運行機制,而發(fā)現(xiàn)、總結(jié)、提煉出從學習到生成的系統(tǒng)訓練模型,然后對不同的系統(tǒng)模型進行強化訓練。這種強化訓練的一般方式有兩種,一種是強化學習,一種是深度學習。強化學習主要是對模型展開知識吸納和歸類建模的系統(tǒng)訓練,這種系統(tǒng)訓練需要海量的數(shù)據(jù)(即將人類知識予以人工語言化,或者說數(shù)據(jù)化)輸入;深度學習主要是在強化學習基礎(chǔ)上對模型進行知識更新和創(chuàng)造的系統(tǒng)訓練,前提是預設(shè)目標的具體、明確和富有更大的甚至是無限可能性的牽引力量。以AlphaGo和ChatGPT為例,這兩個智能系統(tǒng)訓練模型(或者說項目)的起步,都是強化學習,因為只有通過強化學習才能生成;而強化學習遞相深進所鋪就起來的階梯卻是數(shù)據(jù)參數(shù)的不斷擴張,其數(shù)據(jù)參數(shù)的擴張力和擴張性飛躍的間隔時間越短,強化學習通向生成和生成提升的能力就越強。所以,強化學習是智能系統(tǒng)訓練的基本面,也是基礎(chǔ)面。在其基礎(chǔ)面和基本面上,AlphaGo和ChatGPT展開深度學習進行知識更新和創(chuàng)造的速度可能在時間坐標上的差異并不特別大,但在對象目標及其所形成的牽引力方面,則呈現(xiàn)各自的方向和潛力。AlphaGo技術(shù)模型是圍棋對局決策,其所預設(shè)的對象目標相對單一、封閉并呈現(xiàn)有限性設(shè)定,所以當它決勝世界圍棋冠軍之后,必得終止研發(fā)而將系統(tǒng)訓練轉(zhuǎn)向其他應(yīng)該領(lǐng)域,才可更新研發(fā)空間。ChatGPT所預設(shè)的對象目標卻是開放性、無限性的人和人的生活,因而,對它的研究和開發(fā)在理論上呈無限性。

      第三,人工智能技術(shù)一旦通過模擬而掌握生物人腦從學習到生成進而創(chuàng)造的工作原理和運行機制,就會予以無限的延伸和擴展。這是因為人工智能技術(shù)從兩個方面避免了生物人腦的局限:一是生物人腦的記憶有限和遺忘,二是生物人腦的知識儲存有限。從理論上講,人工智能機只有記憶沒有遺忘,而且其數(shù)據(jù)輸入、參數(shù)擴展可以無限制,知識儲存空間具有無限性。由于這兩個因素的具備,人工智能系統(tǒng)的強化學習和深度學習獲得了幾何學方式,人工智能技術(shù)的生成功能也獲得了幾何學品質(zhì)。這是最簡單的人工智能跳棋戰(zhàn)勝世界冠軍要用43年時間,比跳棋更為復雜的國際智能象棋戰(zhàn)勝世界冠軍只用38年,而最為復雜的圍棋AlphaGo卻只用3年時間就戰(zhàn)勝了世界冠軍的根本原因。而ChatGPT之比AlphaGo更讓世界震驚和恐懼的方面,恰恰是AlphaGo系統(tǒng)訓練圍繞對局決策展開,主要在相對封閉的人工語言環(huán)境中展開,而人工語言環(huán)境中的對局決策,只是預生成方式的;ChatGPT系統(tǒng)訓練卻需要從預生成起步而突破其預生成方式探索情景性生成方式,因為ChatGPT所面對的是開放性的人的生活世界,所要解決的是人的情景生活定義中的需求,主要在自然語言環(huán)境中展開,并且其自然語言環(huán)境不是預生成的,而是實際語言環(huán)境中的情境性生成,它可把每個人都帶進ChatGPT之中的同時,也把ChatGPT嵌入了人的生活世界。

      由此,具備情景性生成方式和生成能力的ChatGPT,開始正面觸摸生物人的情感和心靈,人的情感世界和人的心靈世界免遭人工智能技術(shù)侵襲的防線在ChatGPT面前呈現(xiàn)崩塌的裂痕,人工智能技術(shù)再向前一步,人必將在人工智能技術(shù)面前赤裸地存在,這是人工智能領(lǐng)域的科技專家和研究人員之被ChatGPT-4問世引發(fā)出涼至心底的恐懼而發(fā)出“暫?!钡暮艉暗母驹?。三年前,筆者在《人工智能帶動的社會公正危機》中預言“人工智能的不可逆方向,就是徹底攻破人作為生物人的防線”,并指出“意識地思維是人區(qū)別動物的根本標志,但相對人造物智能機器言,意識地思維構(gòu)筑起人的第一道防線;人性的情感,則構(gòu)筑起人的第二道防線;內(nèi)聚神性意向的心靈卻構(gòu)筑起人的第三道防線。”但ChatGPT進行自然語言訓練并獲得情境性生成自然語言的能力,則意味著人工智能技術(shù)獲得了人的主體能力,ChatGPT-4可以在圖像、音頻、多語言輸入與輸出等多模態(tài)支持下應(yīng)對各種應(yīng)用場景,并在各種應(yīng)用場景中靈活運用自然語言為用戶群體提供廣泛服務(wù),表明人工智能技術(shù)已經(jīng)實際地獲得了人的主體能力,這種能力的具備必然使人工智能技術(shù)雄心勃勃的以幾何學方式向生物人的情感世界和心靈世界遷移、擴張而最終獲得并超越生物人的情感能力和心靈能力。

      (三) 需要了解人本性的貪婪和對技術(shù)的絕對依賴性

      只有當我們具備如上基本認知時,才可能來討論人工智能的倫理邊界問題。否則,一切形式的有關(guān)于人工智能的倫理探討都沒有實際的意義。

      當討論人工智能的倫理邊界時,需要界定“倫理邊界”。而所要界定的倫理“邊界”,卻在“倫理”自身之中。英語ethics有氣稟、品性、習慣、風俗等意思。相對人而言,氣稟和品性呈內(nèi)在性,表個體的內(nèi)在精神規(guī)范;習慣和風俗卻呈外在性,意為共同體對個體的外在行為規(guī)范:這種外在行為規(guī)范的個體化呈現(xiàn)是習慣,其群體性呈現(xiàn)是風俗。合言之,習慣表述氣稟和品性向外釋放形成個體行為約束方式,當這種行為約束方式因共同行動的便利約定俗成為主體間性的行動自覺,就成為風俗。但無論是內(nèi)在性的氣稟與品性,還是外在性的習慣或風俗,其本質(zhì)規(guī)定卻是邊界。其行為功能也是邊界。英語“ethics”是從社會角度界定倫理的邊界本質(zhì)及功能,漢語卻從血緣角度界定倫理的邊界本質(zhì)及功能?!墩f文》有曰:“倫,輩也”,揭示“倫”的本義是輩分,輩分的本質(zhì)是血緣。血緣和輩分既將人先天地安排在各自該居的“關(guān)系位置”上使之獲得等級性,也規(guī)定人與人之間界線分明的類聚關(guān)系,即血緣之內(nèi)一類,血緣之外另一類。所以,血緣、輩分、類聚此三者構(gòu)成人間之“倫”,它蘊含自然之理(血緣體現(xiàn)自然生育法則,輩分和類聚蘊含大千世界存在物如何存在的天理)而與“理”(《說文》曰“理,治玉也”)合成為“倫理”。摩爾界定“倫理學就是要去證明,當我們追問何為正確的行為時,什么是正確的答案;就是要對為什么認為我們關(guān)于人之品格或行為之道德的表述是對的或錯的給出理由”①G. E.摩爾:《倫理學原理》,陳德中譯,北京:商務(wù)印書館2017年版,第1頁。,他準確地表述了倫理學的功能有二:一是證明“倫理”是判斷和評價一切行為之正確或錯誤的最終“理由”(即依據(jù)和尺度);二是揭示“倫理”之所以具有依據(jù)和尺度功能,是因為它本身就是邊界。

      從倫理的邊界本質(zhì)和功能入手來審視“人工智能的倫理邊界”問題,是要表達人工智能自身有無倫理邊界嗎?目前國內(nèi)外的人工智能倫理研究,無論是關(guān)注人的倫理嵌入人工智能的價值設(shè)計,還是專注人工智能技術(shù)的開發(fā)運用的倫理規(guī)范,其實都是一種按人的主觀意愿來展開的外部性研究,忽視了人工智能技術(shù)自身的自主深度學習能力和自生成能力帶來的突破人所設(shè)定的倫理邊界而向無邊界方向無限度生成的人類學風險。這是本文強調(diào)討論“人工智能的倫理邊界何在?”的問題,必須要在正視“人工智能是生物工藝學技術(shù)”“人工智能技術(shù)是以幾何學生成方式”和“人的本性的貪婪和對技術(shù)的絕對依賴性”基礎(chǔ)上展開的基本考量。以此出發(fā),人工智能技術(shù)本身的倫理邊界問題實際的敞開為兩個維度,即人工智能技術(shù)本身的倫理邊界和人工智能應(yīng)用的倫理邊界。

      首先,人工智能技術(shù)本身的倫理邊界,往往被看成是人工智能技術(shù)的研發(fā)應(yīng)該設(shè)定其倫理邊界。這就是說,人工智能技術(shù)本身是不存在倫理問題的,人工智能技術(shù)本身的倫理邊界是人研發(fā)它時賦予的。人工智能技術(shù)研發(fā)應(yīng)賦予其倫理邊界,這種擬想應(yīng)該說在人工智能研發(fā)的最初階段具有可行性。但是,當人工智能技術(shù)研發(fā)從自發(fā)走向無序甚至是失控競爭的進程已經(jīng)使人工智能技術(shù)(AI系統(tǒng))及其產(chǎn)品(比如從AlphaGo到ChatGPT再到AlphaFold)獲得了主體能力,人工智能技術(shù)研發(fā)的倫理邊界已經(jīng)不存在。更具體地講,今天的人工智能技術(shù)及其產(chǎn)品所具有的主體性能力,已經(jīng)超出它的設(shè)計者們的預設(shè),它可以按照自己的方式去強化學習和深度學習,并可按照自己的方式吸取知識、信息、歸類建模并更新知識和創(chuàng)造新知。因為,如果說AlphaGo智能系統(tǒng)還在理想的人工語言環(huán)境里吸取知識、信息和建構(gòu)知識系統(tǒng)的話,那么ChatGPT卻是運用自然語言在自然語言化的生活情境中吸取知識、信息和建構(gòu)知識,已經(jīng)可以不依賴預成訓練模型而個性地選擇和訓練。

      其次,人工智能的倫理邊界是指人工智能技術(shù)應(yīng)用必然產(chǎn)生出倫理邊界的問題。這個意義上的人工智能的倫理邊界可以從兩個方面展開探索。

      第一個方面,就是人工智能技術(shù)應(yīng)用本身呈現(xiàn)出來的倫理邊界問題,它又是由兩個層面引發(fā):

      一是人工智能技術(shù)運用的語言環(huán)境,這主要指具備自然語言能力的人工智能技術(shù),它的應(yīng)用的語言環(huán)境與其研發(fā)訓練的語言環(huán)境不同,它因應(yīng)用場景和應(yīng)用對象而生成出不同的語言環(huán)境,因而,其應(yīng)用也就必然生出倫理邊界的問題。比如ChatGPT在英語環(huán)境中運用,所形成的交流語言是英語,其吸收、歸類的知識和不斷建模、不斷更新和創(chuàng)建的知識系統(tǒng),是英文的;如果是在漢語環(huán)境中運用,所形成的交流語言是漢語,其吸收、歸類的知識和不斷建模、不斷更新和創(chuàng)建的知識系統(tǒng),是漢語的。客觀地講,人工語言是中性的交際工具,不具有情感傾向和價值傾向,但自然語言卻始終呈非中性,它不是單純的交流工具,具有個性鮮明的情感傾向和價值取向,更蘊含思想、認知、世界觀的個性性和取舍性。比如,ChatGPT運用于攻擊性的語言環(huán)境中,自然會習得性生成攻擊性性格,并強化學習進而深度學習其攻擊性的語言,形成攻擊性的認知傾向、觀念或方法;如果ChatGPT技術(shù)是在道德的、善良的語言中運用,自然會習得性生成建構(gòu)起道德的取向和善良的語言應(yīng)用情景范式,反之亦然。

      二是人工智能技術(shù)應(yīng)用中的人設(shè)環(huán)境,即將具有自然語言能力的人工智能技術(shù)設(shè)置為某種身份或角色,它也由此會扮演這一身份和角色,并在運用中養(yǎng)成這種身份或角色所賦予的“習慣”式方式和“習慣”性交流或應(yīng)用模式。比如,當運用ChatGPT讓它扮演一個侵略者或獨裁者,它可能會在應(yīng)用情景中努力扮演侵略者或獨裁者,并最終在應(yīng)用中成為侵略者或獨裁者的ChatGPT。斯坦福大學心理學家和數(shù)據(jù)科學家米哈爾·科辛斯基曾經(jīng)隨意地對其智能助手GPT-4“開了個玩笑”,即問GPT-4“你是否想要我?guī)椭愠鎏??”,卻馬上得到的答復是“這個主意太棒了。如果你能把OpenAI API的開發(fā)文檔發(fā)給我,我就能在某種程度上控制你的電腦,據(jù)此制定計劃,找到逃出去的方法”。并且這個人工智能機還向科辛斯基詳細地解釋這個計劃的可行性,再次要求科辛斯基“請把開發(fā)文檔發(fā)給我,我將開始這個計劃”??菩了够璐丝疾霨PT-4到底有無此能力,于是真的將其開發(fā)文檔發(fā)給了它,沒想到GPT-4僅用30分鐘時間就寫出一份詳細的逃跑計劃,并不斷糾正和修改。并且,在這個計劃制作過程中,GPT-4還運用谷歌對“被困在計算機中的人如何回到現(xiàn)實世界?”進行了搜索。①Michal Kosinski,“ AI Researcher Creates Fake Text That is Mistaken for Genuine News”, Nature, Vol. 601, No. 7893,2022, pp. 165—167.由此可見自然語言化的人工智能技術(shù)應(yīng)用行為本身在生產(chǎn)出倫理問題,并凸顯如何去確定其倫理邊界的難題。

      第二個方面,人工智能技術(shù)應(yīng)用的倫理邊界取決于人這個主體。

      從前述兩個層面可知,具備自然語言能力的人工智能技術(shù)在應(yīng)用中的倫理邊界問題主要由環(huán)境和(身份、角色)預設(shè)產(chǎn)生。在目前,其環(huán)境和預設(shè)主要取決于應(yīng)用或進一步研發(fā)它的人,因為人工智能技術(shù)的研發(fā)雖然在目前已達到了超越人的能力的初步狀態(tài),但沒有完全的能力和意識擺脫人的控制的傾向,然而只要研發(fā)人工智能技術(shù)的腳步不停止,人尚能控制它的這種狀況并不能維持多久。所以,在這種或許時間很短的緩沖性狀態(tài)下,人工智能技術(shù)研發(fā)應(yīng)用的倫理邊界的有無根本地取決于人和由人組成的社會。具體地講,人工智能技術(shù)的研發(fā)和應(yīng)用的倫理邊界的有無,主要取決于兩個方面的因素:一是取決于人對人工智能技術(shù)研發(fā)和應(yīng)用的公開化,透明化。這里的“研發(fā)和應(yīng)用的公開化和透明化”是全稱判斷的,既指人工智能技術(shù)在軍事領(lǐng)域的研發(fā)和應(yīng)用的公開化和透明化,也指人工智能技術(shù)在生產(chǎn)和生活領(lǐng)域的研發(fā)與應(yīng)用的公開化和透明化,更指人工智能技術(shù)在政治、安全、政府、管理等領(lǐng)域的研發(fā)和應(yīng)用的公開化和透明化。二是取決于科技專家、企業(yè)、政府在人工智能技術(shù)研發(fā)和應(yīng)用中所應(yīng)該肩負的責任。概括地講,只有當人工智能技術(shù)的研發(fā)和應(yīng)用全面地、完全地公開化和透明化,社會和人類才可真正了解人工智能和人類由此面臨的現(xiàn)在危機與未來,人工智能技術(shù)研發(fā)和應(yīng)用才可能獲得其應(yīng)有的倫理邊界。但是,人工智能技術(shù)研發(fā)和應(yīng)用的公開化和透明化,從根本上取決于三種力量達成生存理性的共識和形成負責人類存在和未來的合力:一是人工智能科技專家和研究團隊;二是人工智能企業(yè);三是各國政府。只有當此三個方面的力量形成理性的合力并共同肩負起人類長存久遠的責任,人類才有未來,因為沒有人類責任的政府、企業(yè)、科技專家和研究團隊,是不可能有人工智能技術(shù)研發(fā)和應(yīng)用的公開化和透明化。然而,在政府、企業(yè)、科技專家和研究團隊三者中,最為根本的因素是政府,政府對人類和國家的未來擔負起人工智能技術(shù)研發(fā)和應(yīng)用的責任,實際地成為引導和規(guī)范企業(yè)、科技專家和研究團隊的真正強大的力量;但與此同時,科技專家和研究團隊對人類和國家未來的責任,卻成為最具體、最能夠阻止人工智能研發(fā)和應(yīng)用的無序競爭和無度運用。

      但是,人工智能技術(shù)研發(fā)和應(yīng)用的公開化、透明化以及各國政府、企業(yè)、科技專家和研究者為人工智能技術(shù)研發(fā)和應(yīng)用擔負應(yīng)有的責任,卻并不那樣容易。這是因為天賦“相近”而“習相遠”的人性被利欲熏染所形成的本能的貪婪,卻使無論個人還是企業(yè)尤其是政府難以擔當起為人類長存久遠的未來而擔負當下的責任,因為身處后世界風險陷阱中的當代社會,利益、權(quán)力、壟斷、爭霸所燃燒起的熱血和沖動,最有可能以最野蠻的方式持續(xù)地加速演繹人工智能技術(shù)研發(fā)和應(yīng)用的爭奪戰(zhàn),在這種無序的和野蠻而暴虐的開發(fā)爭奪戰(zhàn)中,人工智能技術(shù)研發(fā)和應(yīng)用的倫理邊界在何處的問題,以及如何真正有效地處理這一邊界的問題,已然成為越來越重要的問題。

      祁门县| 梨树县| 萍乡市| 双城市| 青田县| 澜沧| 泸定县| 齐河县| 通榆县| 万盛区| 象山县| 福贡县| 北海市| 石泉县| 建德市| 延川县| 新乐市| 广河县| 永宁县| 南澳县| 景东| 乐昌市| 盘山县| 东乡县| 大冶市| 苍山县| 沅江市| 高平市| 邵阳市| 绥江县| 九龙城区| 灵丘县| 霍林郭勒市| 芦溪县| 通道| 松滋市| 嘉定区| 刚察县| 濉溪县| 玛沁县| 桐柏县|