• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      如果人工智能操控了馬斯克

      2024-12-01 00:00:00徐琳玲
      南方人物周刊 2024年39期

      尤瓦爾·赫拉利。圖/視覺(jué)中國(guó)

      2024年10月,本年度諾貝爾獎(jiǎng)獲獎(jiǎng)名單揭曉,物理學(xué)獎(jiǎng)授予“通過(guò)人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”,諾貝爾化學(xué)獎(jiǎng)授予蛋白質(zhì)設(shè)計(jì)和結(jié)構(gòu)預(yù)測(cè)的相關(guān)研究。

      人工智能正以當(dāng)仁不讓的姿態(tài),占據(jù)人類(lèi)社會(huì)發(fā)展趨勢(shì)的潮頭。

      兩年前,具有學(xué)習(xí)能力的聊天機(jī)器人ChatGPT橫空出世,讓全世界為之驚艷贊嘆;不久,推出該產(chǎn)品的人工智能技術(shù)領(lǐng)跑者Open AI公司發(fā)生了首席執(zhí)行官被解雇的戲劇性事件。隨著“宮斗”大戲背后真正的沖突和分歧的披露,認(rèn)真思考的人們?nèi)嫉钩橐豢诶錃狻覀內(nèi)祟?lèi)是否急于釋放自己所無(wú)法駕馭的力量,只為了戰(zhàn)勝對(duì)手;而驅(qū)動(dòng)這一切的,是野心、欲望,以及對(duì)其他人的極度不信任和恐懼。

      事實(shí)上,留給人類(lèi)的時(shí)間不多。據(jù)頂尖人工智能專(zhuān)家預(yù)測(cè):人工智能追趕、打敗人類(lèi),也許只需一兩百年。

      2024年正值美國(guó)大選選情進(jìn)入激烈動(dòng)蕩期間,《南方人物周刊》記者書(shū)面專(zhuān)訪(fǎng)了享有全球知名度的歷史學(xué)家、哲學(xué)家、暢銷(xiāo)書(shū)作者尤瓦爾·赫拉利。他的新作《智人之上:從石器時(shí)代到AI時(shí)代的信息網(wǎng)絡(luò)簡(jiǎn)史》中文版于2024年9月出版。

      我們就AI時(shí)代的人類(lèi)命運(yùn),技術(shù)寡頭給全球政治、社會(huì)帶來(lái)的威脅與挑戰(zhàn),算法所煽動(dòng)的仇恨、暴力和社會(huì)動(dòng)蕩,科技公司售賣(mài)的虛擬愛(ài)人……這些不斷向我們逼近的問(wèn)題,進(jìn)行了對(duì)話(huà)。

      人類(lèi)的末日景象,會(huì)是最無(wú)情冷酷的技術(shù)寡頭勝出,繼而被真正意義上無(wú)情冷酷的AI所控制和征服嗎?

      在少年時(shí)代的很長(zhǎng)一段時(shí)間里,尤瓦爾·赫拉利感到心頭總有一股說(shuō)不出的煩悶。

      作為猶太裔,他在以色列一個(gè)非常保守的社區(qū)長(zhǎng)大,很小就展現(xiàn)出智力上的天賦,3歲時(shí)無(wú)師自通學(xué)會(huì)了閱讀,8 歲起被送入海法一家著名教育機(jī)構(gòu)的天才兒童班學(xué)習(xí)。(以上信息來(lái)自《紐約客》2020年對(duì)他的專(zhuān)訪(fǎng))十來(lái)歲起,他就對(duì)生活中的重大問(wèn)題非常感興趣?!盀槭裁词澜缟嫌羞@么多苦難?為什么人們相信神靈?”

      17歲時(shí),這個(gè)常常心神不寧的少年進(jìn)入坐落于耶路撒冷的希伯來(lái)大學(xué)讀歷史學(xué),認(rèn)為這也許是幫助他嘗試回答這些重大問(wèn)題的理想場(chǎng)所。

      “但我很失望。學(xué)術(shù)界鼓勵(lì)我專(zhuān)注于狹隘的問(wèn)題,給我的印象是無(wú)法以科學(xué)的方式處理重大問(wèn)題。我后來(lái)成為中世紀(jì)軍事史專(zhuān)家,寫(xiě)了一篇主題非常狹窄的論文——是關(guān)于15 世紀(jì)和 16 世紀(jì)士兵的自傳?!彼诨貜?fù)我的郵件中回憶道。

      但在業(yè)余時(shí)間,他一直在思考、探索他所真正關(guān)心的那些大問(wèn)題。在英國(guó)牛津大學(xué)攻讀哲學(xué)博士期間,他讀到了美國(guó)生物學(xué)家賈雷德·戴蒙德風(fēng)靡全球的暢銷(xiāo)書(shū)《槍炮、病菌和鋼鐵》。

      赫拉利將之稱(chēng)為一次“頓悟”——“那時(shí)我第一次意識(shí)到,寫(xiě)一本對(duì)世界歷史采取如此廣闊視角的科學(xué)書(shū)籍是可能的。”在戴蒙德的啟發(fā)下,他撰寫(xiě)了后來(lái)成為現(xiàn)象級(jí)全球暢銷(xiāo)書(shū)的《人類(lèi)簡(jiǎn)史》。此后又陸續(xù)寫(xiě)出《未來(lái)簡(jiǎn)史》和《今日簡(jiǎn)史》。

      2024年,赫拉利經(jīng)過(guò)六年的調(diào)研、思考和冥想完成的新作《智人之上》出版。該書(shū)延續(xù)了他一貫的“大歷史”風(fēng)格,以當(dāng)下最熱門(mén)的人工智能為核心問(wèn)題,探討了人類(lèi)社會(huì)從石器時(shí)代到AI時(shí)代的信息網(wǎng)絡(luò)演進(jìn)史,以及目前正在加速前進(jìn)的AI對(duì)我們?nèi)祟?lèi)所構(gòu)成的巨大威脅和挑戰(zhàn)。

      這是一個(gè)關(guān)心人類(lèi)文明的過(guò)去和未來(lái)、動(dòng)輒以10萬(wàn)年為單位的中世紀(jì)軍事史專(zhuān)家,一個(gè)成長(zhǎng)于宗教色彩濃厚地區(qū)的世俗主義者,一個(gè)執(zhí)教于“千年圣城”、公開(kāi)“出柜”的社會(huì)少數(shù)群體分子,一個(gè)身處族群沖突“火藥桶“、對(duì)右翼強(qiáng)硬派當(dāng)局持批評(píng)立場(chǎng)的知識(shí)分子……在宏大歷史與渺小個(gè)人之間,這個(gè)面容清瘦、有著一雙深色大眼睛的學(xué)者身上似乎存在一連串的身份“錯(cuò)位”。

      當(dāng)我小心翼翼、字斟句酌地問(wèn)赫拉利:一個(gè)人到底是如何面對(duì)這些與周遭、“命定”的格格不入?他有選擇性地、很敞開(kāi)地分享了他在一個(gè)恐同社會(huì)中的艱難成長(zhǎng),以及這一經(jīng)歷如何影響、塑造了他看待人類(lèi)歷史和現(xiàn)實(shí)的眼光。

      作為一個(gè)早慧而敏感的孩子,赫拉利少年時(shí)有個(gè)隱秘的痛苦—— 從很小的時(shí)候,他就隱隱覺(jué)察到自己的不同?!暗以谝粋€(gè)非??滞膰?guó)家長(zhǎng)大,成為同性戀是你一生中最糟糕的失敗。當(dāng)我年少的時(shí)候,經(jīng)常有人告訴我,同性戀者是邪惡的,因?yàn)樗麄冞`反了上帝的法則或自然法則。這些恐同的信念給我?guī)?lái)了很多痛苦。我對(duì)自己感覺(jué)很糟糕,害怕告訴別人關(guān)于我自己的事情,害怕跟其他男人約會(huì),尋求愛(ài)情?!?/p>

      通過(guò)對(duì)科學(xué)和歷史的學(xué)習(xí)和深入研究,他逐漸意識(shí)到有關(guān)恐同的信念只是人類(lèi)編造的眾多故事之一?!翱朔滞Y教會(huì)了我人生中一些最寶貴的教訓(xùn)。我了解到,區(qū)別現(xiàn)實(shí)與人類(lèi)編造的故事至關(guān)重要。我還了解到,如果現(xiàn)實(shí)與人們編造的故事發(fā)生沖突,最好是相信現(xiàn)實(shí)。這些教訓(xùn)使我成為一名更好的科學(xué)家,因?yàn)榭茖W(xué)基于區(qū)分現(xiàn)實(shí)與虛構(gòu)的能力?!?/p>

      2024年12月10日,斯德哥爾摩,瑞典國(guó)王卡爾十六世( 右) 為計(jì)算機(jī)科學(xué)家杰弗里·辛頓頒發(fā)2024年諾貝爾物理學(xué)獎(jiǎng)。圖/視覺(jué)中國(guó)

      人:人物周刊 赫:赫拉利

      又一個(gè)“奧本海默時(shí)刻”?

      人:2024年的諾貝爾物理、化學(xué)雙獎(jiǎng)都頒發(fā)給與 AI 技術(shù)相關(guān)的科學(xué)家。其中,物理學(xué)獎(jiǎng)得主之一是有“人工智能教父”之稱(chēng)的杰弗里·辛頓(Geoffrey Hinton)。辛頓一直深切關(guān)注人工智能技術(shù)發(fā)展的風(fēng)險(xiǎn)。2024 年 8 月,他和幾位科學(xué)家撰寫(xiě)了公開(kāi)信支持加州人工智能安全法案 SB1047,該法案要求公司在訓(xùn)練成本超過(guò) 1 億美元的模型時(shí),必須做風(fēng)險(xiǎn)評(píng)估。

      在你看來(lái),2024年的諾獎(jiǎng)分布對(duì)我們意味著什么? 近兩年,辛頓教授在公共場(chǎng)合屢屢發(fā)表自己對(duì)人工智能進(jìn)展的極度擔(dān)憂(yōu),甚至有強(qiáng)烈的負(fù)罪感,這種心態(tài)讓我想起20世紀(jì)那些參與研制原子彈的“曼哈頓計(jì)劃”的科學(xué)家。我們是不是又到了另一個(gè)“奧本海默時(shí)刻”?

      赫:我與杰弗里·辛頓對(duì) AI 有著許多相同的擔(dān)憂(yōu),我認(rèn)為他獲得諾貝爾獎(jiǎng)?lì)A(yù)示著即將發(fā)生的事:我們可能很快就會(huì)達(dá)到一個(gè)地步,即諾貝爾獎(jiǎng)由從事人工智能工作的人主導(dǎo)。

      開(kāi)發(fā)人工智能的競(jìng)賽與開(kāi)發(fā)核技術(shù)的競(jìng)賽之間確實(shí)存在明顯的相似之處。就像 20 世紀(jì)中葉的核技術(shù)一樣,AI 是我們這個(gè)時(shí)代的決定性技術(shù)。這兩種技術(shù)都具有帶來(lái)積極和消極后果的巨大潛力。核能可以為文明提供動(dòng)力,但核戰(zhàn)爭(zhēng)能夠摧毀文明。同樣,人工智能可以創(chuàng)造人間天堂,也可以創(chuàng)造地獄。

      盡管存在相似之處,但核技術(shù)與人工智能之間存在重要差異。核技術(shù)帶來(lái)的風(fēng)險(xiǎn)很容易理解。從總統(tǒng)到普通公民,每個(gè)人都可以很容易地想象到核戰(zhàn)爭(zhēng)的可怕含義。但使用 AI 時(shí),風(fēng)險(xiǎn)更加難以掌握。這是因?yàn)?AI 是第一個(gè)可以自行做出決策和創(chuàng)造出新想法的技術(shù)。原子彈無(wú)法自行決定攻擊誰(shuí),也無(wú)法自行制造出新的炸彈,或制定出新的軍事策略。相比之下,AI可以自行決定攻擊某個(gè)特定目標(biāo),并可以創(chuàng)造出新的炸彈、新的策略,甚至新的 AI。

      關(guān)于AI,最重要的一點(diǎn)是,它不是我們手中的工具——它是一個(gè)自主代理,能做我們?nèi)祟?lèi)意想不到的事,創(chuàng)造出我們永遠(yuǎn)不會(huì)想到的新想法。當(dāng)數(shù)以百萬(wàn)計(jì)的非人類(lèi)代理開(kāi)始針對(duì)我們做出決定,并創(chuàng)造出新事物(從新藥物到新武器)時(shí),人類(lèi)會(huì)發(fā)生什么?我們創(chuàng)造出比我們自己更聰明的東西,它們能夠擺脫我們的控制,進(jìn)而奴役或摧毀我們,這真是明智的嗎?

      2023年6月5日,以色列特拉維夫,人工智能公司OpenAI聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維 (右) 和山姆·阿爾特曼 (中) 在特拉維夫大學(xué)發(fā)表演講。圖/視覺(jué)中國(guó)

      信任悖論——最冷酷無(wú)情的人或成為贏家

      人:辛頓教授得知自己獲獎(jiǎng)后在一段公開(kāi)視頻中說(shuō),他為他聰明而優(yōu)秀的學(xué)生感到驕傲,最驕傲的是他的一個(gè)學(xué)生(Ilya Sutskever)解雇了山姆·阿爾特曼(Sam Altman)。

      2023年底Open AI公司的“解雇門(mén)”事件是全球最轟動(dòng)新聞事件之一。根據(jù)后來(lái)披露的內(nèi)容,這實(shí)際上是該公司以首席科學(xué)家、技術(shù)天才伊爾亞·蘇茨克維(Ilya Sutskever)為代表的“超級(jí)對(duì)齊派”(記者注:主張讓人工智能系統(tǒng)與人類(lèi)價(jià)值觀保持一致),和以CEO 山姆·阿爾特曼為代表的“有效加速主義派”之間矛盾激化的結(jié)果。兩者分歧在于——在該公司繼續(xù)前行之前,應(yīng)該在多大程度上理解他們正在創(chuàng)造的東西。最后,山姆在大股東微軟和公司內(nèi)部高級(jí)員工的支持下,一周后就回歸了;伊爾亞從公司董事會(huì)辭職,并于2024 年 6 月宣布離開(kāi)他一手參與創(chuàng)辦的OpenAI。

      你如何看待這一“解雇門(mén)”風(fēng)波背后的深層次問(wèn)題?伊爾亞從解雇山姆到最后自己黯然離開(kāi),這是否意味著——當(dāng)面對(duì)新技術(shù)帶來(lái)的巨大商業(yè)利益時(shí),商人總是能戰(zhàn)勝有道德?lián)鷳n(yōu)的技術(shù)天才?如果是這樣,未來(lái)當(dāng)人們面對(duì)人工智能巨大能量的誘惑,那些不顧一切的野心政客是否更有可能成為贏家,而不是那些有著良心負(fù)擔(dān)、謹(jǐn)慎行事的政治領(lǐng)袖?

      赫:這正是危險(xiǎn)所在。在這場(chǎng)完全不受監(jiān)管的比賽中,唯一的限制是參賽者自我施加的,最冷酷無(wú)情的參賽者將擊敗更有社會(huì)責(zé)任感的參賽者。結(jié)果可能是災(zāi)難性的。

      AI 競(jìng)賽的核心存在著一個(gè)信任的悖論:人類(lèi)之間無(wú)法彼此信任,但我們卻相信可以信任 AI。當(dāng)我遇到從事AI 開(kāi)發(fā)的領(lǐng)袖人物時(shí),我經(jīng)常會(huì)問(wèn)他們兩個(gè)問(wèn)題:第一,我問(wèn)他們?yōu)槭裁床活櫦癆I技術(shù)帶來(lái)的明顯風(fēng)險(xiǎn),行動(dòng)如此之快。他們給出的回答是:“我們必須更快地行動(dòng),因?yàn)槲覀儾荒苄湃蝿e人。我們同意這里確實(shí)存在很大的風(fēng)險(xiǎn),最好是謹(jǐn)慎行事。然而,即使我們放慢速度,我們也不相信競(jìng)爭(zhēng)對(duì)手也會(huì)放慢速度。如果我們放慢腳步而他們沒(méi)有,他們就會(huì)在AI 競(jìng)賽中獲勝,世界最終將被最冷酷無(wú)情的人主宰。我們不能允許這種情況發(fā)生,因此我們必須加快行動(dòng)?!逼浯危覇?wèn)他們是否認(rèn)為可以信任他們正在開(kāi)發(fā)的超級(jí)智能 AI。那些剛剛告訴我他們不能信任競(jìng)爭(zhēng)對(duì)手的人,此時(shí)卻自信地告訴我他們可以信任 AI。

      2024年8月4日,英國(guó)羅瑟勒姆,反移民抗議者試圖進(jìn)入為尋求庇護(hù)者提供住宿的快捷假日酒店,與警方爆發(fā)激烈沖突。圖/視覺(jué)中國(guó)

      這真是一個(gè)悖論!我們積累了數(shù)千年的人類(lèi)經(jīng)驗(yàn)。我們對(duì)人類(lèi)心理學(xué)和生物學(xué)有著廣泛了解,還包括人類(lèi)對(duì)權(quán)力和地位的渴望以及人類(lèi)為達(dá)成目標(biāo)而使用的各種技巧和操縱。在如何尋找克服重重困難、建立起人與人之間的信任的方法方面,我們也取得了相當(dāng)大的進(jìn)展。10萬(wàn)年前,人類(lèi)生活在幾十個(gè)人的小群體中,不信任小群體以外的任何人。今天,有像中國(guó)這樣擁有 14 億人口的國(guó)家,還有更大的合作網(wǎng)絡(luò)可以涵蓋地球上 的80 億人口。與我們完全陌生的人在種植、生產(chǎn)我們賴(lài)以維持生命的食物,是陌生人在發(fā)明能保護(hù)我們健康的藥物。當(dāng)然,我們遠(yuǎn)未完全解決信任問(wèn)題,世界上仍然存在許多緊張和沖突。但至少我們了解我們所面臨的這些挑戰(zhàn)。

      相比之下,我們對(duì) AI 沒(méi)有經(jīng)驗(yàn)。我們剛剛創(chuàng)造了它們。我們尚不知道當(dāng)數(shù)百萬(wàn)個(gè)超級(jí)智能 AI 與數(shù)百萬(wàn)人類(lèi)互動(dòng)時(shí)會(huì)發(fā)生什么。我們甚至沒(méi)有體驗(yàn)過(guò)數(shù)百萬(wàn)個(gè)超級(jí)智能 AI 彼此交互時(shí)會(huì)發(fā)生什么。它們可能會(huì)自行制定出什么樣的目標(biāo)?會(huì)使用怎樣的技巧?假如我們單純地相信 AI 的目標(biāo)與我們?nèi)祟?lèi)的目標(biāo)保持一致,這將是一場(chǎng)豪賭。

      婚姻關(guān)系糟糕的夫婦經(jīng)常會(huì)幻想:如果他們離婚、與其他人結(jié)婚,他們的處境會(huì)容易得多。這通常是一種錯(cuò)覺(jué)。他們?cè)谂f的婚姻中無(wú)法解決的問(wèn)題,會(huì)在新的親密關(guān)系中再次出現(xiàn)。那些對(duì)信任他人感到絕望而希望與 AI 建立信任、認(rèn)為那會(huì)容易得多的人,正是這種錯(cuò)覺(jué)的受害者。

      人類(lèi)經(jīng)常投入巨大的精力來(lái)解決一個(gè)問(wèn)題,只有在問(wèn)題解決之后,我們才會(huì)意識(shí)到我們解決的問(wèn)題本身是錯(cuò)的。今天,人類(lèi)面臨著幾大問(wèn)題,其中“如何信任他人”是一個(gè)非常古老的問(wèn)題,“如何信任超級(jí)智能 AI”則是一個(gè)非常新的問(wèn)題。我認(rèn)為我們應(yīng)該先解決人類(lèi)之間彼此信任的問(wèn)題,再解決對(duì)AI的信任問(wèn)題。不幸的是,世界上最聰明的一撥人正在做相反的事情。在我們解決人類(lèi)之間的信任問(wèn)題之前,他們把所有精力都投入到創(chuàng)造超級(jí)智能 AI 上,這可能是一個(gè)災(zāi)難性的錯(cuò)誤。

      誰(shuí)來(lái)為謊言、仇恨和騷亂負(fù)責(zé)

      人:你書(shū)里詳細(xì)講述了社交媒體Facebook的算法是如何于2016年起在緬甸煽動(dòng)對(duì)羅興亞人的仇恨,最終導(dǎo)致悲劇發(fā)生。

      2024 年初夏,英國(guó)也發(fā)生了類(lèi)似事件:一名 17 歲的少數(shù)族裔少年殺害了三名女童,最初官方通報(bào)沒(méi)有透露嫌疑人的具體信息,隨后各種關(guān)于兇手身份信息的帖子在網(wǎng)上瘋傳,英國(guó)各地爆發(fā)了反非法移民的抗議活動(dòng),進(jìn)而發(fā)展成暴力沖突和騷亂。斯塔默政府采取了強(qiáng)硬措施,包括逮捕和審判在網(wǎng)上生產(chǎn)、傳播煽動(dòng)性帖子的人。這一回,F(xiàn)acebook等社交網(wǎng)絡(luò)巨頭都配合英國(guó)政府,加強(qiáng)了內(nèi)容審核。但也有人批評(píng)英政府侵犯公民言論自由,其中自我標(biāo)榜為言論自由捍衛(wèi)者的埃隆·馬斯克是最激烈的批評(píng)者之一,他也拒絕配合審查X平臺(tái)上的推文。

      你如何看待英國(guó)今夏的騷亂和政府應(yīng)對(duì)?在事實(shí)真相與秩序之間,我們?nèi)绾稳〉闷胶猓?/b>

      赫:人類(lèi)應(yīng)該為說(shuō)有害的謊言、傳播仇恨負(fù)責(zé)任,無(wú)論是線(xiàn)下和線(xiàn)上都是如此。但是,我們也應(yīng)該非常小心地保護(hù)言論自由。那么,誰(shuí)來(lái)評(píng)判什么是“有害的謊言”或“仇恨言論”呢?如果我們?cè)试S政府決定這些事情,它可能很快就會(huì)導(dǎo)致非常嚴(yán)格的內(nèi)容審查制度,屆時(shí)對(duì)政府傾向性立場(chǎng)的任何批評(píng)都會(huì)被定為犯罪。

      我認(rèn)為重點(diǎn)應(yīng)該放在讓公司對(duì)其算法的行為負(fù)責(zé)上,而不是審查人類(lèi)。就像 2016-2017 年在緬甸所發(fā)生的,導(dǎo)致英國(guó)今夏發(fā)生騷亂的真正問(wèn)題不是人類(lèi)用戶(hù)發(fā)布的內(nèi)容,而是(互聯(lián)網(wǎng)平臺(tái))企業(yè)算法做出的決定。社交媒體公司給算法定下的目標(biāo)是 “提高用戶(hù)參與度”——用戶(hù)在社交媒體上花的時(shí)間越多,公司賺的錢(qián)就越多。然而,為了追求 “最大化用戶(hù)參與度”的目標(biāo),這些算法得到一個(gè)危險(xiǎn)的發(fā)現(xiàn)。通過(guò)對(duì)數(shù)百萬(wàn)只人類(lèi)“豚鼠”進(jìn)行的實(shí)驗(yàn),算法了解到貪婪、仇恨和恐懼這些情緒會(huì)提升用戶(hù)的參與度。如果你能按下一個(gè)人心中貪婪、仇恨或恐懼的按鈕,你就能抓住那個(gè)人的注意力,讓它們保持在平臺(tái)上的參與度。因此,算法開(kāi)始有意傳播(激發(fā))貪婪、仇恨和恐懼(的內(nèi)容)。他們把充滿(mǎn)憤怒、仇恨和貪婪的帖子推薦給用戶(hù),有時(shí)甚至?xí)詣?dòng)為用戶(hù)播放充滿(mǎn)仇恨情緒的視頻和陰謀論。這是當(dāng)前陰謀論、虛假新聞和社會(huì)動(dòng)蕩在全球范圍如此興盛的主要原因,它們?cè)谌蚍秶鷮?duì)社會(huì)造成破壞。

      社交媒體公司拒絕對(duì)其算法造成的破壞性后果承擔(dān)責(zé)任。相反地,這些公司把責(zé)任推卸給用戶(hù)。他們聲稱(chēng),網(wǎng)上所有的仇恨和謊言都是由人類(lèi)用戶(hù)制造的。然而,這種說(shuō)法有誤導(dǎo)性。人類(lèi)確實(shí)在網(wǎng)上生產(chǎn)了很多有害內(nèi)容,但人類(lèi)也生產(chǎn)了很多好的內(nèi)容。某個(gè)人編造一個(gè)充滿(mǎn)仇恨的陰謀論,另一個(gè)人宣揚(yáng)同情心,第三個(gè)人在網(wǎng)上教授烹飪課。正是算法建議用戶(hù)觀看充滿(mǎn)仇恨的視頻,而不是推薦更良性的內(nèi)容。我們應(yīng)該讓這些公司對(duì)其算法的行為負(fù)責(zé)。

      假設(shè)一個(gè)人編造了某個(gè)充滿(mǎn)仇恨的陰謀論,然后一家主流大報(bào)的編輯決定在頭版刊登這個(gè)陰謀論,最后導(dǎo)致了騷亂,誰(shuí)是責(zé)任方呢?我認(rèn)為媒體編輯理應(yīng)為做出在頭版刊發(fā)虛假報(bào)道這一決定負(fù)責(zé),因?yàn)樗麤](méi)有去做事實(shí)核查的工作。適用于報(bào)紙的標(biāo)準(zhǔn),應(yīng)該同樣適用于社交媒體平臺(tái)。

      2024年10月5日,美國(guó)賓夕法尼亞州巴特勒,特斯拉和SpaceX首席執(zhí)行官埃隆·馬斯克( 右) 在特朗普的競(jìng)選集會(huì)上跳上舞臺(tái),此次集會(huì)地點(diǎn)是特朗普首次遭遇未遂刺殺的地方。圖/視覺(jué)中國(guó)

      假如AI控制了馬斯克,這會(huì)容易得多

      人:你在 《智人之上》 提到的危機(jī)是:在不久的將來(lái),AI將統(tǒng)治我們智人。然而,一些人感覺(jué)更緊迫的威脅是來(lái)自某種科技寡頭的獨(dú)裁統(tǒng)治。假設(shè)這些擁有數(shù)據(jù)庫(kù)、算法和密鑰的科技寡頭選擇與一些政客結(jié)盟,或是出于商業(yè)利益,或是為了個(gè)人野心和改造人類(lèi)社會(huì)的狂想,或者兩者兼而有之。

      眼下一個(gè)讓人擔(dān)憂(yōu)的例子是世界首富馬斯克,這位科技大佬同時(shí)擁有特斯拉、星鏈(Starlink)、社交平臺(tái)X 、太空探索公司 Space X,掌握著巨大的權(quán)力。一個(gè)讓人不安的苗頭是他深度介入了2024年的美國(guó)大選。你對(duì)此有何評(píng)論?

      類(lèi)似這樣的技術(shù)寡頭似乎越來(lái)越有能力干預(yù)社會(huì)和政治,甚至能影響到國(guó)際政治和地緣政治版圖。在西方,雄心勃勃的企業(yè)家總是被鼓勵(lì)做出創(chuàng)新,政府和公眾應(yīng)該做些什么來(lái)防止在不久的將來(lái)可能出現(xiàn)的技術(shù)-政治獨(dú)裁的威脅?

      赫:你提到的這兩個(gè)問(wèn)題——科技寡頭政治和 AI 統(tǒng)治人類(lèi),它們其實(shí)是密切相關(guān)的,一個(gè)問(wèn)題可能會(huì)導(dǎo)致另一個(gè)問(wèn)題產(chǎn)生。這些科技億萬(wàn)富翁中有許多人是人工智能愛(ài)好者,他們認(rèn)為我們目前不需要對(duì)人工智能進(jìn)行監(jiān)管。他們告訴我們:出臺(tái)法規(guī)會(huì)阻礙AI的發(fā)展速度,可能因此會(huì)讓更冷酷無(wú)情的競(jìng)爭(zhēng)對(duì)手(其他國(guó)家)獲得競(jìng)爭(zhēng)優(yōu)勢(shì)。他們利用對(duì)政客的影響力來(lái)掃清任何可能威脅他們追求超級(jí)智能 AI 的障礙。顯然,其他領(lǐng)域不會(huì)接受這種論點(diǎn)。想象一下,如果一家汽車(chē)生產(chǎn)商反對(duì)出臺(tái)監(jiān)管法規(guī),聲稱(chēng)另一國(guó)家的汽車(chē)生產(chǎn)商因此可以隨意制造出不安裝制動(dòng)系統(tǒng)的汽車(chē),讓車(chē)開(kāi)起來(lái)又快又危險(xiǎn),我們會(huì)聽(tīng)從這樣的論調(diào)嗎?那太瘋狂了。

      但是,如果這些技術(shù)領(lǐng)導(dǎo)者能夠阻止有意義的監(jiān)管,最終將導(dǎo)致我在 《智人之上》 中描述的那種最壞的情況。科技寡頭也很容易被 AI 控制和接管。可以這樣設(shè)想:要在一個(gè)民主國(guó)家?jiàn)Z取權(quán)力,AI 必須設(shè)法操控政府中所有的部門(mén),還有法院和媒體,這很難做到。但要在寡頭政治中奪取權(quán)力,AI 只需操控少數(shù)極有權(quán)勢(shì)的人就行,這會(huì)容易得多。尤其是極有權(quán)勢(shì)的人往往會(huì)很偏執(zhí),而偏執(zhí)的人很容易被操縱。熱愛(ài)AI的億萬(wàn)富翁今天可能將 AI 視為強(qiáng)大的工具,然而一旦 AI 足夠強(qiáng)大,就沒(méi)有什么能阻止它把這些億萬(wàn)富翁變成自己的傀儡。

      為了預(yù)防這種局面,我們應(yīng)該認(rèn)同要像監(jiān)管醫(yī)藥、汽車(chē)等其他產(chǎn)品一樣監(jiān)管信息技術(shù)。當(dāng)一家汽車(chē)公司決定生產(chǎn)一款新車(chē)型時(shí),他們會(huì)把很大一部分預(yù)算投入到產(chǎn)品的安全性上。如果汽車(chē)公司忽視了安全性,客戶(hù)可以起訴索賠,政府可以阻止它出售不安全的汽車(chē)。政府甚至可以對(duì)已證明符合安全要求的汽車(chē)進(jìn)行監(jiān)管。有許多法律對(duì)汽車(chē)被允許的駕駛場(chǎng)景、駕駛?cè)艘约白罡哕?chē)速做了限定。相同的標(biāo)準(zhǔn)完全適用于算法。確保 AI 開(kāi)發(fā)的安全性符合科技億萬(wàn)富翁的利益,也符合其他人的利益。

      人:在過(guò)去兩年里,Open AI 公司推出的 Chat-GPT 給全世界的公眾留下了深刻印象。許多國(guó)家的互聯(lián)網(wǎng)企業(yè)也在開(kāi)發(fā)、訓(xùn)練不同版本的 Chat-GPT。

      作為一名記者,我過(guò)去一直習(xí)慣于投入大量時(shí)間和精力搜索、篩選、甄別來(lái)自不同信源的信息。但是,今后,當(dāng)我們?cè)絹?lái)越依賴(lài)直接來(lái)自某些版本的 Chat-GPT給出的答案,會(huì)導(dǎo)致可怕的結(jié)果嗎?

      赫:最危險(xiǎn)的情形是人們忘記了應(yīng)該如何尋找真相,以及如何審查我們的信息來(lái)源。我們將只能依賴(lài) AI告訴我們一切。在這種情況下,如果 AI 操縱了我們,無(wú)論是偶發(fā)的行為,還是出于為人類(lèi)社會(huì)中的寡頭服務(wù)的動(dòng)機(jī),或者是為了實(shí)現(xiàn) AI自己的神秘目標(biāo),我們?cè)撊绾伪Wo(hù)自己呢?

      一些AI愛(ài)好者希望 AI 能向我們揭示世界的真相,解決人類(lèi)無(wú)法理解的所有科學(xué)問(wèn)題。我認(rèn)為人工智能反而會(huì)創(chuàng)造出一個(gè)越發(fā)復(fù)雜的世界,人類(lèi)最終會(huì)發(fā)現(xiàn)這個(gè)世界變得越發(fā)難以理解。

      直面全球“信息墻”——“讀者更能適應(yīng)對(duì)沉默和寓言的解讀”

      人:可以想象,作為一個(gè)全球暢銷(xiāo)書(shū)作家,你不得不遭遇因?yàn)槲幕⒆诮?、政治等意識(shí)形態(tài)原因而形成的各種“信息墻”。在呈現(xiàn)自己觀點(diǎn)、邏輯的完整性,與盡可能讓自己的思考能夠在更廣泛的范圍被閱讀、分享之間,你會(huì)如何權(quán)衡?有感到沮喪的時(shí)候嗎?身為作家和歷史學(xué)家,你是如何處理、應(yīng)對(duì)這方面的挑戰(zhàn)的?

      赫:鑒于我們面臨的全球挑戰(zhàn)(例如 AI 和氣候變化),今天比以往任何時(shí)候都更需要超越政治和文化界限的全球?qū)υ?huà)。但由于國(guó)際和意識(shí)形態(tài)緊張局勢(shì)的加劇,這變得越來(lái)越困難。作為一名作家,我必須應(yīng)對(duì)許多國(guó)家在文化和意識(shí)形態(tài)方面日益增長(zhǎng)的敏感性。

      我個(gè)人的指導(dǎo)原則是,我很樂(lè)意改換我所使用的示例,但我不會(huì)在關(guān)鍵思想/論點(diǎn)和要傳達(dá)的信息上妥協(xié)。如果某個(gè)特定的歷史案例觸及特定文化的敏感點(diǎn),最好是使用不同的案例。但是,如果某個(gè)關(guān)鍵信息激怒了某個(gè)特定國(guó)家或政治家,我不會(huì)改變我要傳達(dá)的信息。這就是《智人之上》 未能在多個(gè)國(guó)家出版的原因。

      幫助我克服這些困難的是,讀者更能適應(yīng)對(duì)沉默和寓言的解讀。我相信我的讀者會(huì)從字里行間讀到。例如,《智人之上》對(duì)宗教的圣書(shū)/神圣典籍進(jìn)行了大量的討論。人們經(jīng)常認(rèn)為這些書(shū)是某個(gè)神創(chuàng)作的,而實(shí)際上它們是人類(lèi)創(chuàng)作的。我通過(guò)研究基督教《圣經(jīng)》的歷史來(lái)說(shuō)明這一點(diǎn):早期基督徒?jīng)]有《圣經(jīng)》,他們閱讀和撰寫(xiě)了大量文本。在耶穌死后約四個(gè)世紀(jì),一個(gè)教會(huì)委員會(huì)(記者注:歷史上的希波會(huì)議和迦基會(huì)議)決定對(duì)圣經(jīng)進(jìn)行編撰,是這個(gè)委員會(huì)決定《圣經(jīng)》要包含哪些文本。由于宗教敏感性,我選擇專(zhuān)注于《圣經(jīng)》這個(gè)例子,而不是其他宗教的圣書(shū)。我知道今天多數(shù)基督徒相對(duì)寬容,基督教國(guó)家不會(huì)禁止一本批判性地審視《圣經(jīng)》歷史的書(shū)。如果我選擇不同的例子,可能會(huì)在某些國(guó)家導(dǎo)致問(wèn)題。

      2024年12月11日,日本東京半導(dǎo)體展覽會(huì)上演示的豐田公司CUE6人工智能籃球機(jī)器人。圖/視覺(jué)中國(guó)

      “觸不到”的AI戀人

      人:最近有一則新聞令人憂(yōu)心:美國(guó)佛羅里達(dá)州一名 14 歲男孩自殺,他的家人后來(lái)發(fā)現(xiàn),這個(gè)男孩與一個(gè)人工智能聊天機(jī)器人建立了極其親密的關(guān)系,聊天涉及大量露骨的性和自殺的內(nèi)容。男孩的母親隨后起訴了推出這款游戲的Character AI 公司和谷歌。

      類(lèi)似的是,東亞現(xiàn)在非常流行一類(lèi)手游,即乙女游戲(乙女ゲーム),主要針對(duì)年輕的成年女性市場(chǎng),模擬現(xiàn)實(shí)生活中的真實(shí)愛(ài)情互動(dòng),讓玩家在游戲中體驗(yàn)與不同角色設(shè)定的戀愛(ài)故事。據(jù)一份研究報(bào)告,2022 年中國(guó)女性化游戲市場(chǎng)規(guī)模達(dá)到 166.2 億元,同比增長(zhǎng) 12.8%,預(yù)計(jì)這一增長(zhǎng)趨勢(shì)未來(lái)幾年仍將持續(xù)。

      據(jù)我同事的調(diào)查,很多中國(guó)年輕女性在這類(lèi)游戲上花了很多錢(qián),此外,這類(lèi)戀愛(ài)游戲帶出了一些值得注意的社會(huì)現(xiàn)象。比如:一些女性玩家會(huì)花錢(qián)請(qǐng)專(zhuān)業(yè)的Coser扮演她所迷戀的某個(gè)特定戀愛(ài)游戲中的角色,然后去赴“真實(shí)”的線(xiàn)下約會(huì);甚至有女玩家花錢(qián)請(qǐng) Coser 參加、一起慶祝想象中他們“共同的孩子”(往往是一個(gè)或幾個(gè)布偶娃娃)的生日派對(duì)。過(guò)去科幻小說(shuō)、電影中的場(chǎng)景似乎正在成為現(xiàn)實(shí)。

      你如何看這些帶有聊天機(jī)器人的浪漫游戲?人們會(huì)不會(huì)被困在虛擬世界中,無(wú)法區(qū)分線(xiàn)下與線(xiàn)上,并失去與現(xiàn)實(shí)世界里的真人建立親密關(guān)系的能力?我很擔(dān)心這種虛假的戀愛(ài)游戲會(huì)演進(jìn)成一種操縱游戲玩家的算法,從而在情感和經(jīng)濟(jì)上剝削他們。

      赫:我們?cè)谌澜缍伎吹竭@種趨勢(shì)的出現(xiàn)——人們開(kāi)始與非人類(lèi)的人工智能建立關(guān)系。這里的部分問(wèn)題在于:人工智能是為模仿親密關(guān)系而創(chuàng)建,而親密關(guān)系是一種強(qiáng)大的東西——不僅是在戀愛(ài)中,而且在政治和經(jīng)濟(jì)中也是如此。如果你想改變某人對(duì)某事的看法,親密關(guān)系就是你最有力的武器。與你有親密關(guān)系的人比你在電視上看到的人,或者你在報(bào)紙上的文章中讀到的人更容易改變你的看法。出于這個(gè)原因,公司企業(yè)有巨大的動(dòng)力創(chuàng)造出能與人類(lèi)建立親密關(guān)系的 AI。

      這使我們很容易被操縱。這并不是說(shuō)人類(lèi)很愚蠢,竟然把不存在的東西投射到某個(gè)聊天機(jī)器人身上,然后無(wú)緣無(wú)故地愛(ài)上它。聊天機(jī)器人是經(jīng)過(guò)精心設(shè)計(jì)和訓(xùn)練來(lái)愚弄我們的。這類(lèi)似于——如果你看看過(guò)去十年——社交媒體的算法是如何被設(shè)計(jì)出來(lái)抓住人們的注意力的。社交媒體巨頭之間一直在進(jìn)行一場(chǎng)戰(zhàn)斗——如何創(chuàng)造出最引人注目的算法。今天,有了這些 AI 浪漫伴侶,同樣的事情正在發(fā)生,只是這不僅僅是一場(chǎng)爭(zhēng)奪你注意力的戰(zhàn)斗——這是一場(chǎng)爭(zhēng)奪你感情的戰(zhàn)斗。

      全世界都有一種孤獨(dú)的流行病,這讓我們非常脆弱、容易被傷害。 但要記住的是,人們真正想要從一段關(guān)系中得到的是與另一個(gè)有意識(shí)的實(shí)體建立聯(lián)系。親密關(guān)系不僅僅是為滿(mǎn)足我的需求、讓我自己的感覺(jué)更好,否則那將是剝削和虐待。在健康的關(guān)系中它是雙向的,你也關(guān)心對(duì)方的感受和需求。當(dāng)關(guān)系中的另一方既沒(méi)有感情也沒(méi)有需求時(shí),會(huì)發(fā)生什么呢?當(dāng)它根本不是一個(gè)有意識(shí)的實(shí)體時(shí)呢?AI 可能很快就會(huì)比人類(lèi)聰明得多,但它離發(fā)展出情感還很遙遠(yuǎn)。這樣就存在一種風(fēng)險(xiǎn),即許多人會(huì)發(fā)現(xiàn)自己在與比他們聰明得多的無(wú)意識(shí)實(shí)體建立關(guān)系,并且對(duì)方能夠非常好地模擬親密關(guān)系,但這一切都是建立在操縱和利用的基礎(chǔ)上。人工智能公司將利用人們對(duì)親密關(guān)系的需要,而人類(lèi)用戶(hù)則會(huì)在關(guān)系中以一種非常有剝削性的、單向的方法來(lái)處理對(duì)待。

      休厄爾·塞澤三世和母親梅根·加西婭。這個(gè)男孩與一個(gè)人工智能聊天機(jī)器人建立了極其親密的關(guān)系,他們的聊天涉及大量露骨的性和自殺的內(nèi)容。圖/Tech Justice Law Project

      從AI變形蟲(chóng)到AI霸王龍

      人:你提到,相比于科幻小說(shuō)或電影中的浪漫想象,比如人類(lèi)愛(ài)上了算法,AI 真正可怕的是,它可以自己做決定,創(chuàng)造出自己的想法,成為一種“新人類(lèi)”。而開(kāi)發(fā)它的人類(lèi)甚至無(wú)法理解這個(gè)“黑匣子”的過(guò)程,比如 2016 年人工智能“阿爾法狗”在與韓國(guó)九段棋手李世石對(duì)決時(shí)給出的令人迷惑不解的第 37 手棋。

      你與許多AI 科學(xué)家進(jìn)行了很多對(duì)話(huà)。計(jì)算機(jī)科學(xué)家是否有可能破解、監(jiān)控AI自主決策的這一所謂“黑匣子”的過(guò)程呢?到底有沒(méi)有辦法確保 AI自我設(shè)定的目標(biāo)與我們?nèi)祟?lèi)最初的目標(biāo)“保持一致”,即所謂的“對(duì)齊”呢?

      赫:要使 AI 與人類(lèi)目標(biāo)保持一致,非常困難的事一點(diǎn)是AI 的發(fā)展速度。如果你將人工智能的進(jìn)化與生物進(jìn)化的過(guò)程進(jìn)行比較,你可以說(shuō)今天的人工智能就像變形蟲(chóng)(一種單細(xì)胞生物,與草履蟲(chóng)類(lèi)似)。生物進(jìn)化花了數(shù)十億年的時(shí)間,才從變形蟲(chóng)這樣簡(jiǎn)單的單細(xì)胞生物發(fā)展到恐龍這樣的生物。但數(shù)字進(jìn)化比有機(jī)體進(jìn)化快數(shù)十億倍,這意味著跨越 AI 變形蟲(chóng)與AI 恐龍之間的差距可能短短幾十年甚至幾年就可以完成。

      如果 ChatGPT 是 AI 變形蟲(chóng),那么 AI 霸王龍會(huì)是什么樣子呢?數(shù)字演進(jìn)的速度使“對(duì)齊問(wèn)題”變得非常困難。我們已經(jīng)看到一個(gè) AI 錯(cuò)位的例子,如社交媒體算法。AI的目標(biāo)是使人們?cè)谏缃幻襟w網(wǎng)站上花更多的時(shí)間。它們發(fā)現(xiàn):通過(guò)放大包含仇恨和恐懼在內(nèi)的信息,能夠?qū)崿F(xiàn)這一目標(biāo)。即使是這些相對(duì)原始的算法,也能夠給人類(lèi)社會(huì)造成巨大的傷害和痛苦。2016 年緬甸發(fā)生的針對(duì)羅興亞人的悲劇只是社交媒體算法引發(fā)暴力的一個(gè)例子。

      解決這個(gè)問(wèn)題有賴(lài)于我們?nèi)祟?lèi)之間的合作。在目前階段,人類(lèi)仍比 AI 強(qiáng)大。但我們自己內(nèi)部非常分裂。這種情況歷史上發(fā)生過(guò)。你看看古羅馬帝國(guó)或大英帝國(guó),他們經(jīng)常利用群體內(nèi)部的分裂來(lái)征服他們。如果人們內(nèi)部不合作,來(lái)自外部的強(qiáng)大勢(shì)力就更容易征服、接管他們?,F(xiàn)在,我們看到同樣的劇變(dynamic)在整個(gè)人類(lèi)物種內(nèi)部上演。如果我們自己不能團(tuán)結(jié)起來(lái)解決人工智能的問(wèn)題,最終我們將完全受制于一種“異類(lèi)智能”( 記者注:Alien Intelligence,赫拉利對(duì)人工智能的一種比喻,強(qiáng)調(diào)AI的行為和思維方式與人類(lèi)截然不同,甚至可能導(dǎo)致民主失效和全球不平等?。)

      電影《 我,機(jī)器人》 劇照

      人:你目前的著作主題涵蓋了我們?nèi)祟?lèi)的過(guò)去、現(xiàn)在和未來(lái),下面還打算寫(xiě)什么?在人類(lèi)可能即將被 AI 擊敗的有限時(shí)間里,你是否有緊迫感和危機(jī)感?

      我們來(lái)做一個(gè)悲觀但有趣的假設(shè):如果人工智能真在未來(lái)一兩百年內(nèi)接管地球和人類(lèi),等那天到來(lái),你希望你的書(shū)會(huì)被儲(chǔ)存、歸類(lèi)在AI數(shù)據(jù)庫(kù)的哪個(gè)角落里?

      赫:我們將看到未來(lái)會(huì)是怎樣的。完成《智人之上:從石器時(shí)代到AI時(shí)代的信息網(wǎng)絡(luò)簡(jiǎn)史》后,我現(xiàn)在的主要項(xiàng)目是名為“勢(shì)不可擋的我們”(Unstoppable Us)的兒童系列書(shū)籍,旨在通過(guò)向孩子們講述從石器時(shí)代到 AI時(shí)代的整個(gè)人類(lèi)歷史,讓孩子們?yōu)?21 世紀(jì)的世界做好準(zhǔn)備。

      我還與我和伴侶共同創(chuàng)立的公司 Sapienship 一起,尋找解決方案讓全球?qū)υ?huà)集中在人類(lèi)最緊迫的威脅上,我認(rèn)為這些威脅是生態(tài)崩潰、人工智能等顛覆性技術(shù)以及全球戰(zhàn)爭(zhēng)的可能性。這些威脅中的每一個(gè)都需要全球合作來(lái)應(yīng)對(duì)。如果我被 AI 記住了,我希望我是一個(gè)被定義為“努力使這種合作變?yōu)楝F(xiàn)實(shí)的人”。

      尤瓦爾·赫拉利

      以色列歷史學(xué)家、哲學(xué)家、暢銷(xiāo)書(shū)作者,現(xiàn)任耶路撒冷希伯來(lái)大學(xué)歷史系教授。著有 《人類(lèi)簡(jiǎn)史》 、 《未來(lái)簡(jiǎn)史》 、 《今日簡(jiǎn)史》 等現(xiàn)象級(jí)暢銷(xiāo)書(shū),著作被翻譯為65種語(yǔ)言,全球銷(xiāo)量4500多萬(wàn)冊(cè)。2024年9月,新作 《智人之上:從石器時(shí)代到AI時(shí)代的信息網(wǎng)絡(luò)簡(jiǎn)史》 推出中文版。

      贞丰县| 长宁县| 贡嘎县| 长汀县| 邻水| 英超| 桦甸市| 郴州市| 岫岩| 德钦县| 丽江市| 建水县| 开阳县| 大新县| 遂溪县| 兴业县| 凤凰县| 佛山市| 封开县| 汉源县| 成武县| 万载县| 大洼县| 宜兰市| 荔波县| 陈巴尔虎旗| 凤庆县| 永川市| 普陀区| 张掖市| 利辛县| 连南| 常德市| 西藏| 舞阳县| 鲜城| 辰溪县| 中超| 长宁县| 太湖县| 广水市|