Theodoros Evgeniou and Ludo Van der Heyden
技術(shù)一直是一把雙刃劍。雖然它是推動(dòng)人類文明進(jìn)步的主要力量,但也被濫用并造成傷害。從蒸汽動(dòng)力到福特主義(Fordism,以市場(chǎng)為導(dǎo)向,以分工和專業(yè)化為基礎(chǔ),以較低產(chǎn)品價(jià)格作為競(jìng)爭(zhēng)手段的剛性生產(chǎn)模式),歷史表明,技術(shù)本身并無(wú)好壞之分。是好還是壞,取決于使用方式。
電信、特別是互聯(lián)網(wǎng),以及到2030年預(yù)計(jì)為全球經(jīng)濟(jì)貢獻(xiàn)超110億歐元的人工智能,本質(zhì)上都沒什么不同。
一方面,互聯(lián)網(wǎng)將所有人聯(lián)系起來,讓大家能在疫情期間保持緊密聯(lián)系。人工智能和機(jī)器學(xué)習(xí)可以幫助解決一些世界上最緊迫的問題,例如診斷疾病、保護(hù)網(wǎng)絡(luò)安全、應(yīng)對(duì)氣候變化等。然而,如果不加以控制,算法也可能使偏見永久存在,制造網(wǎng)絡(luò)回音室、激進(jìn)主義,并危及安全和隱私。
2022年,全球數(shù)字監(jiān)管格局徹底改變。歐盟議會(huì)批準(zhǔn)了《數(shù)字服務(wù)法》,以加強(qiáng)網(wǎng)絡(luò)安全和消費(fèi)者保護(hù),并在籌備出臺(tái)《人工智能法》來管理AI。美國(guó)聯(lián)邦貿(mào)易委員會(huì)(Federal?Trade?Commission)發(fā)布了其關(guān)于人工智能的指導(dǎo)意見,中國(guó)也推出了一波監(jiān)管規(guī)定。目前,經(jīng)合組織跟蹤到了60個(gè)國(guó)家的700多項(xiàng)人工智能政策舉措。
與此同時(shí),多年來,私營(yíng)和非營(yíng)利部門一直支持“科技向善”(Tech?for?Good)運(yùn)動(dòng),該運(yùn)動(dòng)致力于“讓數(shù)字和技術(shù)為人類服務(wù)”。它以最簡(jiǎn)短、最全面的形式承諾,技術(shù)可以幫助世界實(shí)現(xiàn)聯(lián)合國(guó)的可持續(xù)發(fā)展目標(biāo)。
但從歷史的角度來看,我們必須問:“科技向善”是否能在不造成傷害的情況下取得成功??答案在于更加關(guān)注“好技術(shù)(good?tech)”本身。
好的意愿并不能保證積極的結(jié)果。因此,只關(guān)注技術(shù)能做什么是過于狹隘的,需要把重點(diǎn)轉(zhuǎn)移到在技術(shù)發(fā)明使用過程中如何跨領(lǐng)域地綜合考慮環(huán)境、實(shí)施和監(jiān)控等。
換句話說,需要關(guān)注過程。
為了充分利用人工智能等技術(shù)的優(yōu)勢(shì),并保護(hù)我們的世界免受這些技術(shù)固有風(fēng)險(xiǎn)的影響,必須在相關(guān)技術(shù)活動(dòng)中納入強(qiáng)有力的流程設(shè)計(jì),以防止濫用、偏見或有害使用。根據(jù)在人工智能、機(jī)器學(xué)習(xí)等方面的研究,可以將這種基于“過程導(dǎo)向的技術(shù)創(chuàng)新和監(jiān)管方法”的技術(shù)產(chǎn)出稱為“好技術(shù)”。
“好技術(shù)”的目標(biāo)是將現(xiàn)代技術(shù)被濫用和造成傷害的可能性降到最低,使經(jīng)濟(jì)社會(huì)盡可能多獲得凈利益?!昂眉夹g(shù)”需要一個(gè)嚴(yán)格的、包容的設(shè)計(jì)、執(zhí)行和監(jiān)督過程,包括三個(gè)組成部分:向善的原則、公平的程序和強(qiáng)有力的監(jiān)督。
設(shè)定技術(shù)目標(biāo)后,還需要定義價(jià)值觀。在一個(gè)組織或團(tuán)隊(duì)中,共同的價(jià)值觀創(chuàng)造了一道防止濫用和防范風(fēng)險(xiǎn)的“理念之墻”。
近年來,谷歌、微軟、IBM、寶馬和Telefonica等公司紛紛支持道德或負(fù)責(zé)任的技術(shù)原則。截至2020年4月,瑞士非營(yíng)利組織AlgorithmWatch在其人工智能全球道德準(zhǔn)則清單中設(shè)置了173條準(zhǔn)則。
最有力、最有效的原則,如聯(lián)合國(guó)的《人權(quán)原則》或經(jīng)合組織的《人工智能原則》,都是“基于價(jià)值觀的”,是通過一個(gè)包容性的過程逐步提煉出來的,該過程尋求所有利益攸關(guān)方的意見,并最大限度地減少偏見。幸運(yùn)的是,我們不需要總是從頭開始。例如,經(jīng)合組織的人工智能框架等原則和經(jīng)合組織人工智能專家網(wǎng)絡(luò)所做的工作可以成為開發(fā)“好技術(shù)”原則的基礎(chǔ)素材。
目標(biāo)和原則很好,但如果在需要的時(shí)候沒有實(shí)施或忽視它們,一切就形同虛設(shè)。實(shí)施是一項(xiàng)關(guān)鍵挑戰(zhàn)。
雖然設(shè)計(jì)負(fù)責(zé)任的技術(shù)有多種框架,但需要確保它們也完全符合經(jīng)過時(shí)間考驗(yàn)的公平程序。這是一項(xiàng)至關(guān)重要的工作。
對(duì)公平程序的承諾有助于發(fā)展“好技術(shù)”。公平競(jìng)爭(zhēng),也被組織科學(xué)家們稱為公平程序,由五個(gè)價(jià)值觀定義,所有這些價(jià)值觀都適用于“好技術(shù)”的過程管理:
·清晰和透明,包括目的和“規(guī)則”;
·始終如一地平等對(duì)待人和事,沒有偏見;
·有利于傾聽而非傾訴的溝通,不會(huì)因?yàn)槿藗冋f的話而制裁他們;
·面對(duì)新證據(jù)時(shí),觀點(diǎn)能夠相應(yīng)改變;
·追求真理,做正確的事情,而不是選擇最受歡迎或最方便的事。
公平程序指出了在創(chuàng)造“好技術(shù)”時(shí)候,如何決策、監(jiān)測(cè)以及根據(jù)需要進(jìn)行調(diào)整。它需要可執(zhí)行和可測(cè)量。例如,我們知道精準(zhǔn)醫(yī)療中的性別偏見會(huì)影響患者護(hù)理,尤其是如果人工智能使用的數(shù)據(jù)集中男性多于女性。在這種情況下,公平程序要求數(shù)據(jù)分析不分性別,并建立系統(tǒng)檢查,以防止“代表偏見”。
“好技術(shù)”還需要具有相同價(jià)值觀和使命感的員工,由于任務(wù)的復(fù)雜性,非常需要高效的協(xié)作領(lǐng)導(dǎo)。
許多組織已經(jīng)設(shè)立了技術(shù)倫理委員會(huì)和董事會(huì)來審查和調(diào)查人工智能風(fēng)險(xiǎn)。公平程序要求公正、負(fù)責(zé)、透明,并像法官或州長(zhǎng)那樣,要求無(wú)偏見的領(lǐng)導(dǎo)。良好的技術(shù)倫理委員會(huì)應(yīng)該包括具有足夠多樣性的外部跨部門專家,以便消除更多偏見。
技術(shù)倫理委員會(huì)必須通過公平程序組建,否則將面臨風(fēng)險(xiǎn)。例如,谷歌的人工智能倫理委員會(huì)成立不到一周就消失了,它被對(duì)其組成和作用的懷疑所吞噬,人們普遍認(rèn)為該委員會(huì)缺乏明確的授權(quán),它可能只是個(gè)形式主義的產(chǎn)物。
此外,規(guī)章制度也必須經(jīng)過公平程序的檢查。一個(gè)值得稱贊的例子是,歐盟一直會(huì)發(fā)表白皮書公開信息,促進(jìn)利益相關(guān)者開展討論。
開發(fā)“好技術(shù)”遇到的大多數(shù)錯(cuò)誤往往重復(fù)出現(xiàn),雖然不一定以同一種方式出現(xiàn),但基本邏輯幾乎沒變。設(shè)置合格的技術(shù)倫理委員會(huì)、聘用“明智的領(lǐng)導(dǎo)”,可以有效杜絕這些錯(cuò)誤。
不可否認(rèn),技術(shù)總是會(huì)帶來風(fēng)險(xiǎn),這將一直存在、無(wú)法改變。但向善的技術(shù)原則、公平的程序和強(qiáng)有力的監(jiān)督,可以在開發(fā)新的技術(shù)時(shí)讓世界更安全。在未來幾年,基于一套“好技術(shù)”開發(fā)方案,我們或許能避免幾場(chǎng)技術(shù)災(zāi)難。
來源:哈佛商學(xué)院;編譯:王夢(mèng)菲