翟志勇
科技是第一生產(chǎn)力,但在科技推動社會經(jīng)濟發(fā)展的同時,也會給人的生命、自由、隱私、安全等帶來各種各樣的威脅和風(fēng)險。我國已經(jīng)在醫(yī)療等領(lǐng)域制定了專門的科技倫理規(guī)范,但將科技倫理上升到國家戰(zhàn)略層面,實際上始于2018年。2018年的“基因編輯嬰兒”事件引發(fā)全社會的普遍關(guān)注和擔(dān)憂,科技“作惡”已經(jīng)開始挑戰(zhàn)人類最基本的倫理底線,急需建立完善的科技倫理和治理體系。
2019年7月24日,中央全面深化改革委員會第九次會議審議通過《國家科技倫理委員會組建方案》,“目的就是加強統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系”。2020年10月21日,國家科技倫理委員會正式組建。2021年7月28日,在國家科技倫理委員會的指導(dǎo)下,科技部研究起草了《關(guān)于加強科技倫理治理的指導(dǎo)意見(征求意見稿)》,其中確立五項科技倫理原則,包括“增進人類福祉”“尊重生命權(quán)利”“堅持公平公正”“合理控制風(fēng)險”“保持公開透明”。
值得注意的是,《指導(dǎo)意見(征求意見稿)》在科技倫理原則體系中,將“增進人類福祉”作為首要原則,指出“科技活動應(yīng)有利于促進經(jīng)濟發(fā)展、社會進步、民生改善和生態(tài)環(huán)境保護,堅持以人民為中心的思想,不斷增強人民的獲得感、幸福感、安全感,促進人類社會和平發(fā)展和可持續(xù)發(fā)展。”這一原則定位意味著,針對科技倫理,我們不能僅僅局限于“不做惡”,還應(yīng)該關(guān)注“科技向善”。而所謂的“向善”,非常重要的一個方面就是面向可持續(xù)發(fā)展。
不作惡
很長一段時間內(nèi),“不作惡”(don't be evil)幾乎成為科技倫理的“最高”標(biāo)準(zhǔn)。谷歌公司在1999年初創(chuàng)時期提出“不作惡”口號,并將其作為公司的價值理念和行為準(zhǔn)則,并在2004年將“不作惡”寫入公司的首次公開招股書中,成為谷歌在科技倫理方面非常響亮的主張,備受追捧。2015年,谷歌重組成立新的母公司Alphabet時又進一步提出“做正確的事”(Do the right thing)取代“不作惡”,并將其作為公司正式的座右銘,不過仍然在行為準(zhǔn)則中保留著“不作惡”的表述。雖然看上去“做正確的事”似乎包含著“不作惡”,但是或許因為“做正確的事”不像“不作惡”那么直截了當(dāng),以至于“做正確的事”始終沒有“不作惡”那么有影響力。
2018年5月,有報道稱,谷歌修改了行為準(zhǔn)則,刪除了其中幾處“不作惡”的表述,僅在行為準(zhǔn)則最后一句保留“不作惡”:“記住,不要作惡,如果你看到一些你認(rèn)為不正確的事情——大聲說出來!”為什么要做如此修改?谷歌始終沒有給出任何解釋,以至于很多人認(rèn)為谷歌公司已經(jīng)突破了“不作惡”這條底線。即便如此,“不作惡”依然是公眾對于科技倫理的“最低”要求。
事實上,對于科技“作惡”的擔(dān)憂和指控時有發(fā)生。在生物技術(shù)領(lǐng)域,從最早的克隆羊多莉到“基因編輯嬰兒”,公眾和科學(xué)家始終關(guān)注著生物技術(shù)給人類帶來的倫理挑戰(zhàn),但底線依然在不斷降低,著名學(xué)者弗朗西斯·福山疾呼要對生物技術(shù)加以政治管制。此外,在互聯(lián)網(wǎng)和信息技術(shù)領(lǐng)域,科技巨頭利用個人數(shù)據(jù)進行用戶畫像,再通過定向推送廣告賺取巨額利潤,甚至形成“信息繭房”,干預(yù)個人的自由意志,動搖民主制度的社會基礎(chǔ)。幾乎所有的科技巨頭都或多或少在隱私、安全、壟斷等方面受到指控,因各種違規(guī)違法行為而繳納罰款幾乎成了家常便飯,繳納罰款就像是在購買“贖罪券”。本來作為底線的“不作惡”,幾乎成了“最高”的倫理要求,即便如此,底線仍一再被突破。
這種狀況仍然在加劇,隨著算法、人臉識別、人工智能技術(shù)的突飛猛進,科技“作惡”已經(jīng)成為系統(tǒng)性的社會問題,算法帶來的系統(tǒng)性剝削和控制,人臉識別潛在的追蹤和控制風(fēng)險,人工智能可能帶來的失業(yè)問題,以及諸如元宇宙可能帶來的人類自主性的喪失等。因此,近年來各國都在加強科技倫理和治理方面的立法,用立法來守護“不作惡”這條底線。例如:我國將“將基因編輯、克隆的人類胚胎植入人體或者動物體內(nèi),或者將基因編輯、克隆的動物胚胎植入人體內(nèi)”的行為納入到刑事處罰中,國家互聯(lián)網(wǎng)信息辦公室等四部門出臺《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,嚴(yán)禁算法歧視、“大數(shù)據(jù)殺熟”、誘導(dǎo)沉迷等算法不合理應(yīng)用;歐盟在《可信賴的人工智能倫理準(zhǔn)則》基礎(chǔ)上,禁止人臉識別技術(shù)在公共場所的使用;美國正在推出《算法責(zé)任法》,限制算法在自動化決策領(lǐng)域的使用,等等。人是目的而非手段,倫理底線失守之處,政治和法律必須出場。
技術(shù)向善
雖然對于科技公司來說,守住“不作惡”的底線已經(jīng)很難,但這并不妨礙科技公司提出更高的倫理要求。比起“不作惡”,“科技向善”看起來充滿正能量。其實谷歌公司當(dāng)年提出“做正確的事”,已經(jīng)部分包含“科技向善”的意思。據(jù)說投資者保羅·米勒最早提出“技術(shù)向善”(Technology for social good):“確保技術(shù)公司專注于回饋世界,而不僅僅是占領(lǐng)我們的屏幕時間。”但這種提法在中國流行,主要是因為騰訊公司的推動,并且將其改為中國人更喜歡的表述“科技向善”。
2018年1月,騰訊研究院在北京舉辦“T-Meet大會”,開始啟動“科技向善”項目。2019年5月6日,騰訊董事會主席兼首席執(zhí)行官馬化騰首次在公開場合談到公司的新愿景和使命:“我們希望‘科技向善’成為未來騰訊愿景與使命的一部分。我們相信,科技能夠造福人類;人類應(yīng)該善用科技,避免濫用,杜絕惡用;科技應(yīng)該努力去解決自身發(fā)展帶來的社會問題”。隨后騰訊公司將“科技向善”作為公司新的使命愿景:“用戶為本,科技向善”。
接下來的問題是,如果連“不作惡”都不能完全實現(xiàn),“科技向善”又如何可能呢?首先是如何定義這里的“善”?企業(yè)不是慈善機構(gòu),企業(yè)要盈利,要對股東負(fù)責(zé),要在激烈的市場競爭中勝出,企業(yè)所理解的“善”應(yīng)該如何界定?即便是提出“科技向善”的騰訊公司,也沒有對“善”給出一個清晰明確的界定。騰訊呼吁社會各界通過對話達成共識,但就目前的情況來看,共識遠遠沒有達成。即便達成共識,這是騰訊公司要達成的“善”還是所有企業(yè)都要接受的“善”?更何況騰訊只是個互聯(lián)網(wǎng)技術(shù)公司,這種“善”可能未必適合其他類型的企業(yè)。
其次是如何“向善”?即便對何為“善”達成了共識,那么如何“向善”呢?企業(yè)要使自己的所有產(chǎn)品和服務(wù)都符合善的標(biāo)準(zhǔn),還是企業(yè)選擇一兩個符合善的標(biāo)準(zhǔn)的項目就可以了?比如從2021年開始的APP適老化改造。也就是說,“向善”是一個普遍性的要求還是一個選擇性實施的加分項?“不作惡”可以成為企業(yè)的倫理義務(wù),乃至于上升為法律責(zé)任,但“向善”只能作為一種倡議,無法通過法律強制企業(yè)履行“向善”的倫理義務(wù)。
那是否意味著“科技向善”就是一個空洞的口號呢?就像“不作惡”總是流于空洞的說教一樣?!安蛔鲪骸鄙星矣懈鞣N各樣相對明確的倫理規(guī)范,而“科技向善”始終沒有可以依據(jù)甚至參考的標(biāo)準(zhǔn)。要避免“科技向善”淪為空洞的口號,我們可以用全社會已經(jīng)達成的共識,為“科技向善”注入新的內(nèi)涵,《關(guān)于加強科技倫理治理的指導(dǎo)意見(征求意見稿)》已經(jīng)指出了這種可能性,那就是讓“科技向善”面向可持續(xù)發(fā)展。
面向可持續(xù)發(fā)展
2015年聯(lián)合國千年發(fā)展目標(biāo)(MDGs)到期后,聯(lián)合國193個成員國在可持續(xù)發(fā)展峰會上正式通過17個可持續(xù)發(fā)展目標(biāo)(SDGs),旨在從2015年到2030年間以綜合方式徹底解決社會、經(jīng)濟和環(huán)境三個維度的發(fā)展問題??沙掷m(xù)發(fā)展的17項目標(biāo)是在聯(lián)合國推動之下為各國所普遍接受的,這些目標(biāo)的最終實現(xiàn)當(dāng)然要靠各國政策的推動,但也要注意到,科技的進步是實現(xiàn)可持續(xù)發(fā)展目標(biāo)的重要力量,甚至是決定性力量。
比如,解決人類饑餓問題需要糧食,而在耕地面積有限的前提下,糧食的增產(chǎn)主要依賴于科技的進步。再比如,今天全球有8億人口食不果腹,占全球總?cè)丝诘?/9,而與此同時全球每年有1/3的糧食被浪費掉,如果能改進糧食的供應(yīng)鏈,避免大量糧食的浪費,饑餓問題是有可能在不增加糧食產(chǎn)量的情況下就能解決的,這同樣需要有改進糧食供應(yīng)鏈的技術(shù)。因此SDGs目標(biāo)2(消除饑餓,實現(xiàn)糧食安全、改善營養(yǎng)和促進可持續(xù)農(nóng)業(yè))的實現(xiàn),非常依賴技術(shù)的發(fā)展。
2019年4月3日,聯(lián)合國人居署與騰訊公司在聯(lián)合國總部舉辦主題研討會,探討如何利用人工智能等新興技術(shù)實現(xiàn)可持續(xù)發(fā)展目標(biāo)。聯(lián)合國人居署執(zhí)行主任謝里夫講到:“世界五分之一的人口正居住在嚴(yán)重缺水地區(qū),而未來城市對于食物 、能源、水這些基礎(chǔ)資源的需求更是前所未有的,我們需要鼓勵科技創(chuàng)新來解決未來城市所面臨的挑戰(zhàn)?!睍h上提出一個重要的課題“AI for FEW”,如何用AI分析數(shù)據(jù)來提高農(nóng)作物產(chǎn)量和種植效率(Food),如何用AI預(yù)測能源需求并優(yōu)化能源供給和清潔能源生產(chǎn)(Energy),如何用AI提升用水效率、預(yù)測水資源供應(yīng)以及檢測水質(zhì)(Water)。騰訊公司首席探索官網(wǎng)大為(David Wallerstein)有一本書《重構(gòu)地球:AI FOR FEW》,系統(tǒng)闡述了如何用人工智能技術(shù)重塑食物、能源和水的未來,用科技來實現(xiàn)可持續(xù)發(fā)展目標(biāo)。
“AI for FEW”是一個很好的面向可持續(xù)發(fā)展的“科技向善”的例子,這樣的例子今天不是太多而是太少了,我們期待更多的科技企業(yè),利用自身的技術(shù)助力可持續(xù)發(fā)展目標(biāo)的實現(xiàn),期待更多面向可持續(xù)發(fā)展的“科技向善”的創(chuàng)意和嘗試。雖然可持續(xù)發(fā)展目標(biāo)并非衡量“科技向善”的唯一指標(biāo)體系,但在“科技向善”的具體含義仍不清晰之前,為了避免“科技向善”流于空洞,不妨先將“科技向善”指向可持續(xù)發(fā)展。
最后要特別強調(diào)的是,“科技向善”不能取代“不作惡”。在倡導(dǎo)“科技向善”的同時,也不能忽略對科技“不作惡”的倫理要求,更要警惕企業(yè)通過高舉“科技向善”的旗幟來遮蔽“作惡”的行為?!翱萍枷蛏啤焙汀安蛔鲪骸贝砹丝萍紓惱碜罡吆妥畹偷囊?,兩者都不僅需要具體化為可執(zhí)行可測量的標(biāo)準(zhǔn)和規(guī)則,也需要通過一個個具體的案例來呈現(xiàn)和檢討,如此才能確保兩者都不停留在口號階段。
3899500338209