在過去一年里,關于人工智能(AI)的討論甚囂塵上。AI要么正把我們帶入一個充滿無限可能的閃亮新世界,要么正把我們推向一個陰森凄涼的反烏托邦—這取決于你聽到的是哪一方的言論。我們可以把它們稱為“芭比和奧本海默情境”—就像今年夏天的好萊塢大片一樣既奪人眼球又差異巨大。但有一種對話卻很少受到關注,那就是關于企業(yè)責任的對話。
我于1998年加入耐克公司擔任首任企業(yè)責任副總裁時,正值其遭遇超全球化時代最大的企業(yè)危機:這家標志性體育健身公司,被指為剝削發(fā)展中國家勞動力的代表性企業(yè)。在處理這場危機和為耐克建立企業(yè)責任的過程中,我們吸取了來之不易的經(jīng)驗教訓,而這些經(jīng)驗教訓現(xiàn)在可以幫助指導我們去駕馭AI革命。
但當今有個關鍵的不同點。在耐克事件發(fā)生的上世紀90年代末,形勢的發(fā)展還相對緩慢。然而在AI領域我們卻無法享有如此多的時間。在去年這個時候大多數(shù)人都從未聽過生成式AI,但這項技術卻在2022年底如閃電般闖入了我們的集體視野,而自此之后我們就一直在努力了解它。
從目前的情況來看,并沒有外部力量去構筑一個圍欄把那些生成式AI公司圈起來,這導致我們所有人都淪為了小白鼠。如果波音或空中客車公司推出某個型號的飛機并承諾它更廉價且速度更快,但卻可能非常危險,我們當然不會接受這種風險。如果一家制藥公司推出了一種未經(jīng)測試的藥品并警告說它可能存在毒性,那么它就要為其造成的疾病或死亡承擔刑事責任。那為什么科技企業(yè)可以將自己已經(jīng)警告可能對人類構成存續(xù)性風險的AI產品推向市場呢?
甚至在生成式AI嶄露頭角之前,大型科技企業(yè)和注意力經(jīng)濟就因其有害影響而面臨越來越多的批評。Snapchat、Instagram和TikTok等產品旨在引發(fā)大腦多巴胺激增,使人像吸煙一樣上癮??茖W界已達成的共識是,數(shù)字媒體正在損害用戶(尤其是兒童)的心理健康。
AI加速了注意力經(jīng)濟的發(fā)展,也帶來了影響范圍尚不明確的一系列新風險。雖然要求監(jiān)管的呼聲越來越高,但當這些呼聲恰好來自技術的幕后推手時,它們在很大程度上更像是公共關系行動和大企業(yè)的權宜之計。畢竟,監(jiān)管機構和政府并不完全了解基于AI的產品是如何運作以及它們所催生的風險;只有企業(yè)本身才了解這些。
企業(yè)有責任去確保不在知情的情況下造成傷害,并解決自身造成的任何問題。政府的職責是讓企業(yè)承擔責任。但問責往往是在事后執(zhí)行—這對AI這樣的技術來說已是為時已晚了。
如果普渡制藥公司的所有者薩克勒家族在意識到奧施康定(OxyContin)所帶來的危險后能夠采取負責任的行動,采取措施阻止醫(yī)生過量開具這款藥物的處方,那么近年來席卷美國的阿片類藥物危機本可以避免。當政府介入時無數(shù)生命已經(jīng)逝去,無數(shù)社區(qū)已經(jīng)被毀。任何訴訟或罰款都無法挽回這一切。
而在AI方面,企業(yè)可以也必須做得更好。但它們必須盡快行動起來,以免AI驅動的工具過度滲透到日?;顒?。新生的AI產業(yè)顯然也感受到了外部壓力:7月21日,白宮確保七家頂級AI企業(yè)都自愿承諾開發(fā)安全可信的產品,這與去年提出的《AI權利法案藍圖》是一致的。但模糊的自愿準則留下了太多的回旋余地。
我們的集體未來,現(xiàn)在取決于企業(yè)是否在董事會、高管會議和閉門戰(zhàn)略會議上決定做正確的事。大型科技企業(yè)必須像追求利潤最大化一樣致力于保護人類。如果底線就是唯一的終點,那我們所有人都會陷入麻煩。
瑪麗亞·埃特爾,耐克基金會和GirlEffect非盈利組織創(chuàng)始人,曾為耐克公司首任企業(yè)責任副總裁。本文已獲Project Syndicate授權。