鮑勇劍 涂威威 袁文龍
風(fēng)險(xiǎn)代表著人們對負(fù)面影響事件的概率評估。風(fēng)險(xiǎn)因素也許來自外部力量,也可能由內(nèi)部薄弱環(huán)節(jié)引發(fā)。風(fēng)險(xiǎn)對企業(yè)的存在、運(yùn)營和發(fā)展帶來威脅。人機(jī)共處的企業(yè)中,人工智能作為外部和內(nèi)部活動(dòng)的樞紐中介,也必然成為各類商業(yè)風(fēng)險(xiǎn)集中出現(xiàn)的領(lǐng)域。
在《常態(tài)事故》(Normal Accidents)中,已故社會學(xué)家佩羅(Charles Perrow)極有預(yù)見性地指出:在提高生產(chǎn)力的同時(shí),技術(shù)創(chuàng)造了一個(gè)強(qiáng)關(guān)聯(lián)的系統(tǒng),它必然制造風(fēng)險(xiǎn)。事故不再是意外事件,而是強(qiáng)關(guān)聯(lián)系統(tǒng)的常態(tài)。佩羅的預(yù)見在人機(jī)共處環(huán)境中得到充分體現(xiàn)。
人工智能是一種系統(tǒng)能力,可以解釋和學(xué)習(xí)外部提供的數(shù)據(jù),并利用數(shù)據(jù)學(xué)習(xí)能力去實(shí)現(xiàn)設(shè)定的目標(biāo),完成規(guī)定的任務(wù)。在此過程中,它能夠通過機(jī)器學(xué)習(xí)的反饋回路,不斷靈活調(diào)整和適應(yīng)與外部環(huán)境的關(guān)系,以至于能夠在合適的時(shí)空情境下,作出合適的選擇。環(huán)顧左右,我們知道,人工智能已經(jīng)深入到人類經(jīng)濟(jì)活動(dòng)的各個(gè)方面。
據(jù)普華永道會計(jì)事務(wù)所估算,到2030年,人工智能及其應(yīng)用對全球經(jīng)濟(jì)會產(chǎn)生15.7萬億美元($15.7 trillion USD)的經(jīng)濟(jì)影響,大約接近中國2021年的GDP($17.8 trillion USD)。除了規(guī)模,人工智能深入企業(yè)活動(dòng)的程度也從點(diǎn)、線到全系統(tǒng)。以人工智能企業(yè)第四范式為例,其應(yīng)用從增強(qiáng)企業(yè)單個(gè)功能發(fā)展到涵蓋產(chǎn)、供、銷、研、客服、物流全系統(tǒng)的智慧企業(yè)方案。普及的人工智能也制造了一個(gè)新型的強(qiáng)關(guān)聯(lián)系統(tǒng),由此派生的管理風(fēng)險(xiǎn)對許多企業(yè)還似初識。
因此,建立對人工智能企業(yè)風(fēng)控的全面認(rèn)知刻不容緩。本文意圖提供一個(gè)系統(tǒng)的風(fēng)控框架,幫助企業(yè)識別人機(jī)共存現(xiàn)象中的新型風(fēng)險(xiǎn)。
已故科學(xué)家霍金(Stephen Hawking)曾警示:人工智能會帶來人類生存層次的危機(jī)。在哲學(xué)上,人工智能確實(shí)提出許多宏觀科學(xué)哲學(xué)問題。在技術(shù)建模過程中,工程師會遇到各種各樣的數(shù)據(jù)代碼問題,引發(fā)系統(tǒng)錯(cuò)誤。在公共政策方面,人工智能引發(fā)對社會控制和影響能力的合法性的關(guān)注。不過,這些不是本文的重點(diǎn)。人工智能已經(jīng)被引入企業(yè)管理全系統(tǒng),本文側(cè)重討論它連帶產(chǎn)生的企業(yè)管理風(fēng)險(xiǎn)。人工智能在企業(yè)戰(zhàn)略、日常運(yùn)營、組織結(jié)構(gòu)和企業(yè)文化四個(gè)方面都會衍生新型風(fēng)險(xiǎn),將之綜合在一起,可組成一個(gè)人工智能的企業(yè)風(fēng)控框架(見圖1)。
公元前3500年,在美索不達(dá)米亞的幼發(fā)拉底河流域,人們每逢大事就會詢問當(dāng)?shù)匚讕熌芊癯墒?。巫師會評估正向和負(fù)面因素,并在泥板上標(biāo)出比較分析的結(jié)果。中國古代的《易經(jīng)》也為決策者提供未來情境的組合分析。它們可以被視為人類最早的風(fēng)險(xiǎn)思維和對外部災(zāi)害的規(guī)避活動(dòng)。不過,規(guī)避外部災(zāi)害和風(fēng)險(xiǎn)管控有區(qū)別。前者是被動(dòng)認(rèn)識,后者代表人們的主動(dòng)認(rèn)知能力。
風(fēng)險(xiǎn),特別是技術(shù)風(fēng)險(xiǎn),是一個(gè)現(xiàn)代概念。風(fēng)險(xiǎn)指的是可能發(fā)生的意外或失誤的概率,以及對計(jì)劃中的活動(dòng)帶來的損害與沖擊。它與早期樸素的避禍意識有差別。避禍?zhǔn)羌僭O(shè)災(zāi)害來自外部環(huán)境因素,人們無法影響和控制,只能選擇躲避。風(fēng)險(xiǎn)是一個(gè)概率問題,對它的影響,人們可以防范、避免、降低、補(bǔ)償、恢復(fù)。簡言之,通過人們有意識的管理活動(dòng),風(fēng)險(xiǎn)能夠得到控制。
本文建議的風(fēng)控框架就是識別人工智能的連帶風(fēng)險(xiǎn)并加以控制的一套管理步驟。以下,先指出四類風(fēng)險(xiǎn)的問題性質(zhì),分析它們的來源,然后提出風(fēng)控建議。因?yàn)槿斯ぶ悄軐ζ髽I(yè)活動(dòng)的系統(tǒng)改造還是一個(gè)進(jìn)行時(shí)態(tài)現(xiàn)象,這一框架只能是基于現(xiàn)有情況的總結(jié),并需要與時(shí)俱進(jìn)。本文的貢獻(xiàn)在于匯聚零散的風(fēng)險(xiǎn)分析為一個(gè)系統(tǒng)框架,并為將來的批判和反思提供一個(gè)集中的靶向。
2018年5月25日,歐盟的數(shù)據(jù)保護(hù)規(guī)范(General Data Protection Regulation, GDPR)正式生效。許多AI公司猝不及防,不得不暫時(shí)停止在歐洲的業(yè)務(wù)。事實(shí)上,歐盟在2012年就頒布了規(guī)范,并說明生效時(shí)日。如果在歐洲有業(yè)務(wù)的公司董事會理解它對數(shù)據(jù)收集和使用的影響,企業(yè)是有足夠的時(shí)間采取技術(shù)措施,適應(yīng)變化的。遺憾的是,許多企業(yè)的董事會成員缺乏人工智能知識,無法適時(shí)反應(yīng)。
董事會沒有在治理結(jié)構(gòu)層面設(shè)計(jì)和推行有針對性的政策只是AI戰(zhàn)略風(fēng)險(xiǎn)的一個(gè)表現(xiàn)。另外兩個(gè)普遍的表現(xiàn)包括企業(yè)高管看不到AI改變商業(yè)模式,以及引入人工智能初期可能存在的價(jià)值沖突。
例如,美國濱州的一個(gè)地方政府人文服務(wù)部與人工智能公司合作開發(fā)了“反虐待兒童”軟件 “AFST”(The Allegheny Family Screening Tool)。通過綜合各個(gè)部門的信息,這一軟件可以對本地兒童是否可能遭受家庭虐待作出風(fēng)險(xiǎn)評估,還能提出有預(yù)見性的干預(yù)措施??墒?,在實(shí)施時(shí),發(fā)現(xiàn)一個(gè)重大問題。衛(wèi)生部門接到緊急求助電話的頻率是預(yù)防軟件的一個(gè)重要參數(shù)。黑人家庭撥打醫(yī)療求助電話的頻率一般高于非黑人家庭,盡管對求助電話頻率參數(shù)作過加權(quán),系統(tǒng)還是給黑人兒童受虐待以更高的風(fēng)險(xiǎn)值。當(dāng)軟件推出后,公司和政府機(jī)構(gòu)都受到各界嚴(yán)厲的批判。對這一有明顯種族歧視的技術(shù)分析后果,董事會無疑是監(jiān)管缺失、反應(yīng)遲緩的。
造成董事會成員反應(yīng)遲緩的一個(gè)根本原因是存在認(rèn)知代溝。董事一般是事業(yè)有成的商業(yè)精英,他們的知識結(jié)構(gòu)形成于10-20年之前。對于最近10年興起的人工智能,董事們?nèi)狈Ρ匾闹R準(zhǔn)備,存在認(rèn)知代溝。和大多數(shù)管理者的認(rèn)識類似,董事會成員了解AI能促進(jìn)流程自動(dòng)化、生產(chǎn)規(guī)模化,能提高生產(chǎn)效率。但是,對AI的全系統(tǒng)影響以及外部監(jiān)管的反應(yīng),他們有認(rèn)知盲點(diǎn)。這直接體現(xiàn)在治理結(jié)構(gòu)的缺陷上。治理結(jié)構(gòu)涉及企業(yè)戰(zhàn)略中的大關(guān)系、長遠(yuǎn)發(fā)展目標(biāo)和根本規(guī)范。董事會成員的認(rèn)知代溝致使他們忽略人工智能帶來的顛覆性變化。
如果企業(yè)高管只是關(guān)注人工智能對生產(chǎn)效率和規(guī)模的正面效果,就可能造成決策短視。初期,改造現(xiàn)有流程的效率,降低成本,這是管理者對新技術(shù)的起始訴求。但是,隨著技術(shù)和應(yīng)用的演變,高管必須要站在商業(yè)模式的高度思考,人工智能怎樣創(chuàng)造新的價(jià)值、新的客戶關(guān)系和新的競爭能力。從已經(jīng)發(fā)生的實(shí)例看,高管需要理解人工智能不僅可以改變怎樣做,還能影響做什么的問題。做什么?怎樣做?在哪里創(chuàng)造差異化的價(jià)值?當(dāng)人工智能直接觸及到這些問題時(shí),企業(yè)需要重新想象自己的商業(yè)模式。
另外,強(qiáng)大的AI技術(shù)有可能帶來道德風(fēng)險(xiǎn),并有違于公司的核心價(jià)值觀。與過去的技術(shù)相比,人工智能更能夠刺激和培養(yǎng)特定的消費(fèi)行為。而消費(fèi)過度成癮的時(shí)候,它就成為一種道德倫理的挑戰(zhàn)。強(qiáng)大的AI技術(shù)還可能在服務(wù)特定客戶的同時(shí),對制度規(guī)則和其他利益相關(guān)者造成間接、灰色、滯后性的傷害。
一個(gè)典型的企業(yè)案例是“臉書”(Facebook)。臉書的后臺AI技術(shù)可以識別使用者的興趣偏好,并加大推送同一類型信息。許多患有厭食癥的青少年,因?yàn)椴粩嗍盏酵扑偷耐愋畔⒍鴱?qiáng)化了厭食行為。在美國2016年大選過程中,一家名為“劍橋分析”(Cambridge Analytics)的咨詢公司與臉書合作,利用AI技術(shù),控制社交媒體中的政治話題信息,影響選民的投票行為。公司的一些員工明確反對利用技術(shù)操縱選舉的做法。后來,劍橋分析被告上法庭,這些員工成為了法庭證人。
在人工智能應(yīng)用領(lǐng)域,商業(yè)實(shí)踐和公司價(jià)值觀相違背的現(xiàn)象屢屢出現(xiàn)。原因很多,其中最突出的一個(gè)是利用AI實(shí)現(xiàn)單一目標(biāo),缺乏制約和平衡。當(dāng)AI被引入企業(yè)時(shí),它往往與一個(gè)顯著的需求相關(guān),例如識別和強(qiáng)化某種消費(fèi)和信息使用習(xí)慣。但是,強(qiáng)大的AI技術(shù)也會帶來負(fù)面溢出效應(yīng),例如操縱政治的能力和制造病態(tài)消費(fèi)習(xí)慣。它們與公司和員工的社會價(jià)值觀發(fā)生沖突,最終不僅離散人心,還可能給企業(yè)致命一擊。劍橋分析這家公司后來以破產(chǎn)告終。
哈貝馬斯(Jurgen Habermas)說:真理就在比例中!對于越來越強(qiáng)大的人工智能,把握它的適度性不是一件容易的事情,特別是關(guān)系到主觀性極高的價(jià)值觀。人工智能企業(yè)也發(fā)現(xiàn),沒有一付通用的妙方能解除AI涉及的道德風(fēng)險(xiǎn)。比較合適的方法就是始終保持關(guān)注,始終以反思和反省的態(tài)度看待技術(shù)的社會影響。為此,設(shè)立公司內(nèi)部的倫理委員會,邀請外部倫理專家做第三方檢驗(yàn),借鑒行業(yè)經(jīng)驗(yàn)和教訓(xùn),是AI企業(yè)現(xiàn)行的風(fēng)控實(shí)踐。
另外一個(gè)有用的方法是做“蒙眼品嘗”(Blind taste)??煽诳蓸泛桶偈驴蓸吩?jīng)有過“蒙眼品嘗”的營銷方法,把商標(biāo)拿掉,讓消費(fèi)者直接品嘗味道來評估喜好。專家建議,借用同樣的邏輯,用不同的訓(xùn)練數(shù)據(jù)建立人工智能預(yù)測模型,包括撥打緊急醫(yī)療電話的數(shù)據(jù)。然后,從模型中抽出特定性質(zhì)的數(shù)據(jù),例如緊急醫(yī)療電話,看模型是否仍然可以提供有效的預(yù)測。這個(gè)設(shè)計(jì)能解決模型某個(gè)參數(shù)造成的自我循環(huán)、自證合理的問題。
人工智能的道德風(fēng)險(xiǎn)將始終挑戰(zhàn)管理者的認(rèn)知。就像著名的道德困境——“滑輪車?yán)Ь场保═rolley dilemma),是否讓滑輪車改道,實(shí)則是一個(gè)是否可以犧牲少數(shù)、救助多數(shù)的兩難選擇。無論在自動(dòng)駕駛應(yīng)用,還是自動(dòng)化替代人工的管理決策上,人機(jī)共處的企業(yè)將不斷遇到兩難的道德困境。這要求最高決策者從戰(zhàn)略的高度正視這種風(fēng)險(xiǎn),并通過集體反思,做出符合當(dāng)?shù)鼐唧w情況的選擇。涉及到人工智能的道德風(fēng)險(xiǎn),人既是問題的制造者,也是答案的唯一來源。圖2概括總結(jié)了戰(zhàn)略風(fēng)險(xiǎn)方面的問題、分析和方案。
AI應(yīng)用在交通工具中已經(jīng)很普遍了,可是,車主對AI的功能卻有截然不同的反應(yīng)。車主可以接受AI對道路選擇的建議,但不太愿意選擇AI的自動(dòng)駕駛功能。研究表明,人工智能時(shí)常遇到“真實(shí)性”偏見(Authenticity)的挑戰(zhàn)。在車主看來,路況建議的AI功能是一種“客觀”的真實(shí),可以接受;而自動(dòng)駕駛功能則涉及道德判斷的“主觀”的真實(shí),一般難以接受。心理學(xué)家早就指出人在決策過程中受到多種偏見的影響,例如尋求確定的偏見(Confirmation bias)、感知框架的偏見(Framing bias)、歸因的偏見(Attribution bias)、錨定偏見(Anchoring bias)等。對人的認(rèn)知和決策偏見,管理學(xué)已經(jīng)逐漸摸索出一套對應(yīng)和適應(yīng)的方法。但是,對人工智能技術(shù)引發(fā)的新偏見,例如“真實(shí)性”偏見,管理學(xué)還沒有比較好的應(yīng)對方法。在運(yùn)營互動(dòng)過程中,新偏見也連帶出新風(fēng)險(xiǎn)。
加州伯克利曾經(jīng)發(fā)布一份極有行業(yè)影響的報(bào)告,指出美國金融公司智能算法支持的服務(wù)比人工服務(wù)收費(fèi)低40%,但算法對少數(shù)族裔申請的房屋按揭收取額外的利息。類似情況在英國和新加坡也出現(xiàn)過?,F(xiàn)在,各國對智能算法運(yùn)用過程中的公正性有鼓勵(lì)政策,但是,是否執(zhí)行和怎樣執(zhí)行,還取決于金融公司的實(shí)際操作。因?yàn)楸O(jiān)管者的專業(yè)知識水平滯后于人工智能企業(yè),政策只能暫時(shí)鼓勵(lì)自我監(jiān)管。這增加了企業(yè)創(chuàng)新的寬松度,但也帶來事后問責(zé)的風(fēng)險(xiǎn)。
自我監(jiān)管不盡人意的例子很多。2018年,網(wǎng)絡(luò)企業(yè)亞馬遜的人事招聘算法被發(fā)現(xiàn)存在性別歧視,自動(dòng)降低女性申請人入圍概率。幾年前,蘋果公司的信用評級系統(tǒng)也出現(xiàn)對女性消費(fèi)者的歧視。蘋果創(chuàng)始人伍茲尼亞克(Steve Wozniak)的信用額度是他妻子的10倍,盡管他們的財(cái)務(wù)和賬戶是完全共享的。這些錯(cuò)誤不僅增加了運(yùn)營中的法律風(fēng)險(xiǎn),也不利于優(yōu)化運(yùn)營過程的效率。
運(yùn)營風(fēng)險(xiǎn)還發(fā)生在互動(dòng)過程中。它包括內(nèi)外利益相關(guān)者之間的互動(dòng)。首先,它表現(xiàn)在不可理解和難以解釋的風(fēng)險(xiǎn)上。員工對人工智能自動(dòng)給出的建議也許不理解;客戶、消費(fèi)者對人工智能的反饋也會感到有失常理,不可理解。其次,它表現(xiàn)在難以舉證性上。對人工智能選擇決策的后果,系統(tǒng)本身難以在事后舉證它的合理性和合法性,這種情況在監(jiān)管部門檢查和審計(jì)人工智能造成的不良后果時(shí)經(jīng)常出現(xiàn)。
運(yùn)營風(fēng)險(xiǎn)還表現(xiàn)在內(nèi)置的偏見上。人工智能的強(qiáng)化學(xué)習(xí)起始于訓(xùn)練數(shù)據(jù)。如果訓(xùn)練數(shù)據(jù)有偏見,人工智能會強(qiáng)化這種偏見。AI模型是工程師建立的,建模工程師自身的認(rèn)知偏見也容易內(nèi)置在系統(tǒng)中,最終造成負(fù)面效果。內(nèi)置的偏見與能夠使用的訓(xùn)練數(shù)據(jù)庫有關(guān)。企業(yè)在建立AI應(yīng)用時(shí),往往從內(nèi)部的少數(shù)人成功的行為過程開始。而這些人的成功已經(jīng)受到諸多社會因素影響,例如種族、教育背景、家庭收入、社會關(guān)系等。這些隱性變量也同時(shí)通過訓(xùn)練數(shù)據(jù)左右AI的強(qiáng)化學(xué)習(xí),并成為決策規(guī)則的一部分。
互動(dòng)過程的運(yùn)營風(fēng)險(xiǎn)源不止是工程師,還有使用者。微軟曾經(jīng)為推特打造了一個(gè)談話機(jī)器人(Chatbot),但很快就取消并下線。因?yàn)?,在互?dòng)過程中,使用者各種各樣的污言穢語和種族歧視言論把談話機(jī)器人帶壞了。由此,我們看到,運(yùn)營風(fēng)險(xiǎn)既可能來自內(nèi)部,也可能來自外部。
AI系統(tǒng)遭遇監(jiān)管質(zhì)詢時(shí),難以舉證合理性。因?yàn)橄到y(tǒng)變量從千萬級到億萬級,很難挑選和分辨出是哪一個(gè)單獨(dú)變量導(dǎo)致決策失誤和不良后果。特別是監(jiān)管本身有滯后屬性,一般發(fā)生在社會不良后果已經(jīng)形成的時(shí)候,這為溯因舉證帶來困難。例如,螞蟻金服曾經(jīng)能夠利用阿里生態(tài)中的各種數(shù)據(jù),自動(dòng)生成對小微企業(yè)的商業(yè)貸款決定。這個(gè)過程調(diào)動(dòng)超過3,000個(gè)數(shù)據(jù)來源。如果有企業(yè)質(zhì)詢阿里算法的合理性,螞蟻金服很難解釋怎樣由這3,000個(gè)數(shù)據(jù)來源推導(dǎo)出商業(yè)決策。換到一個(gè)嚴(yán)監(jiān)管的環(huán)境,比如歐盟,這套算法就會立即遭遇監(jiān)管危機(jī),因?yàn)槠髽I(yè)有責(zé)任解釋消費(fèi)者獲得不同服務(wù)的依據(jù)。算法的難以解釋性成為運(yùn)營風(fēng)險(xiǎn)的一個(gè)要素。
導(dǎo)致不可理解性和難以解釋性的因素很多。概括起來,主要是下面幾個(gè)原因:一是機(jī)器運(yùn)作邏輯和人腦思維邏輯不一樣;二是人的思維受有限理性和直觀情感規(guī)則影響;三是人的思考往往是線性推理的,抓大放小、有始有終,而機(jī)器則可以面面俱到,平行運(yùn)轉(zhuǎn),來回往返;四是社會互動(dòng)過程的復(fù)雜動(dòng)態(tài)特征,人工智能不一定能涵蓋社會文化中隱性和微妙的變化。
簡而言之,人工智能運(yùn)轉(zhuǎn)過程不需要也不依賴人的理解性,也不一定需要善解人意。對人而言,它是一個(gè)黑箱過程。這是AI機(jī)器學(xué)習(xí)強(qiáng)大的原因,但也造成互動(dòng)過程中的不可理解性和難以解釋性。
也是因?yàn)槭艿奖O(jiān)管的倒逼,運(yùn)營風(fēng)險(xiǎn)是各類風(fēng)險(xiǎn)中首先被重視的。過去,人們認(rèn)為人工智能運(yùn)營過程的黑箱是無法避免的技術(shù)特征?,F(xiàn)在,多種解決方案進(jìn)入試錯(cuò)階段。它包括提升運(yùn)營過程可視化水平,用自然語言解釋代碼模型和運(yùn)營過程,幫助監(jiān)管者和消費(fèi)者理解AI決策的依據(jù)和邏輯?,F(xiàn)在也已經(jīng)有允許溯因、文件留檔和過程示警的機(jī)器學(xué)習(xí)模型。例如,IBM的開放源平臺(Watson OpenScale platform)已經(jīng)可以支持決策溯源需求。另外,事先審核訓(xùn)練數(shù)據(jù)庫的隱性偏見、內(nèi)置識別偏見的變量、培訓(xùn)提高工程師的社會意識等措施也在行業(yè)中推廣開來。
消除工程師的自身偏見,也可以通過人力資源政策來推行。一些企業(yè)積極雇傭少數(shù)族裔、女性和新移民工程師,他們的世界觀和文化背景為企業(yè)多元化增添力量。多元化是對沖單一思維帶來的偏見的好方法。如軟件行業(yè)的萊納斯法則(Linus’s law)所言:有足夠豐富的眼球,任何錯(cuò)誤都是膚淺的。
在降低運(yùn)營風(fēng)險(xiǎn)的實(shí)踐中,法律領(lǐng)域相對比較積極。它與錯(cuò)誤后果的嚴(yán)重性和監(jiān)管的力度有關(guān)。法律領(lǐng)域的人工智能對當(dāng)?shù)鼐唧w情況、小數(shù)據(jù)和厚數(shù)據(jù)更加敏感。一個(gè)預(yù)測判斷減刑犯人是否會重新犯罪的算法不僅涉及到個(gè)人命運(yùn),還關(guān)系到社區(qū)安全。因此,法律領(lǐng)域的人工智能更重視以特征數(shù)據(jù)為中心,用特別的價(jià)值回歸模型(Shapely analysis)來訓(xùn)練機(jī)器學(xué)習(xí)社區(qū)動(dòng)態(tài)變量,避免廣譜性、通用算法帶來的預(yù)測錯(cuò)誤。
總之,人機(jī)共處企業(yè)中,運(yùn)營風(fēng)險(xiǎn)一直會有,但是風(fēng)險(xiǎn)對沖的方法也層出不窮。圖3概括了運(yùn)營風(fēng)險(xiǎn)的問題特征、來源分析和應(yīng)對方案。
組織結(jié)構(gòu)為戰(zhàn)略服務(wù)。任務(wù)性質(zhì)、決策角色和權(quán)威主導(dǎo)組織結(jié)構(gòu)設(shè)計(jì)。當(dāng)人工智能進(jìn)入戰(zhàn)略層面后,傳統(tǒng)的結(jié)構(gòu)設(shè)計(jì)就不能滿足新的戰(zhàn)略要求,這會帶來結(jié)構(gòu)性風(fēng)險(xiǎn)。
在本刊曾經(jīng)發(fā)表的一篇文章《高維智慧企業(yè)的認(rèn)知協(xié)同策略》(2021年第7-8期)中,筆者分析,人工智能化的企業(yè)中,任務(wù)分工的基本特征發(fā)生重大變化:從勞務(wù)分工(Division of labor)演變到認(rèn)知協(xié)同(Cognitive collaboration)。任務(wù)決策出現(xiàn)決定(Decision)、反思(Deliberation)、設(shè)計(jì)(Design)和探索(Discovery)四種認(rèn)知活動(dòng)范疇。在AI支持下,大多數(shù)日?;顒?dòng)都可以自動(dòng)化,可以由機(jī)器去“決定”,而其他三類認(rèn)知活動(dòng),則要求不同風(fēng)格和方式的人機(jī)協(xié)同。在人工智能的機(jī)器這一面,強(qiáng)化機(jī)器學(xué)習(xí),有監(jiān)管和無監(jiān)管的機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)等工具為人機(jī)協(xié)同展開一個(gè)廣泛的選擇區(qū)域。但是,受制于自然人的學(xué)習(xí)能力、有限理性(計(jì)算、記憶和感知能力的有限性)和去學(xué)習(xí)能力(Unlearning skill),自然人往往自陷于組織遺留下來的結(jié)構(gòu)選擇。機(jī)器可以同時(shí)接受等級制結(jié)構(gòu)、扁平結(jié)構(gòu)或者二者任意程度的組合、變化,而員工有歷史性依賴,很難隨工作任務(wù)的境遇做靈活、共時(shí)的切換。當(dāng)員工必須與機(jī)器協(xié)同工作時(shí),結(jié)構(gòu)風(fēng)險(xiǎn)便出現(xiàn)了。
人工智能化的企業(yè)的結(jié)構(gòu)風(fēng)險(xiǎn)主要體現(xiàn)在三個(gè)方面。
第一,A I賦能后,組織的核心流程發(fā)生重大變化。它包括:數(shù)碼化(D i g i t i z a t i o n)——紙質(zhì)信息記載方式轉(zhuǎn)換為數(shù)碼存儲和交換;數(shù)字化(Digitalization)——工作任務(wù)和流程通過互聯(lián)網(wǎng)、社交媒體和物流網(wǎng)方式執(zhí)行;數(shù)據(jù)化(Datafication)——以有質(zhì)量的數(shù)據(jù)形式整理企業(yè)資產(chǎn),在高質(zhì)量數(shù)據(jù)分析的指引下組織企業(yè)資源和能力;數(shù)字孿生(Digital twin)——企業(yè)的存在和能力同時(shí)具有物理實(shí)在形式和虛擬數(shù)字形態(tài)。以這“4D”為基礎(chǔ),企業(yè)重新審視核心業(yè)務(wù)流程。這個(gè)過程中,企業(yè)既需要等級結(jié)構(gòu),又需要扁平結(jié)構(gòu),而且在特定情境中,兩種結(jié)構(gòu)共存,兩種結(jié)構(gòu)隨情境轉(zhuǎn)換。這樣的靈敏組織結(jié)構(gòu)要求超過傳統(tǒng)結(jié)構(gòu)的支持能力。實(shí)踐中,已經(jīng)AI賦能的核心流程由于得不到對應(yīng)的組織結(jié)構(gòu)支持,造成重重矛盾。
第二,在可以完全自動(dòng)化的工作任務(wù)環(huán)境中,機(jī)器主導(dǎo)決策;在涉及復(fù)雜人際關(guān)系的任務(wù)環(huán)境中,機(jī)器輔導(dǎo)人決策;在政治敏感性強(qiáng)的任務(wù)環(huán)境中,人主導(dǎo)決策;在探索性的任務(wù)環(huán)境中,人引導(dǎo)決策。因此,人工智能化企業(yè)既要求員工有不同程度的認(rèn)知能力,又需要人機(jī)認(rèn)知能力之間的高度協(xié)同。在前三次工業(yè)革命(機(jī)械,電氣,信息)中,人與技術(shù)都經(jīng)歷了很長的磨合期,這次也不例外,甚至更嚴(yán)峻。兩種組織能力要耦合為一股,它必然經(jīng)歷上上下下的波折。
第三,AI賦能后,工作任務(wù)屬性發(fā)生變化,工作角色的權(quán)威性不同于往常。人工智能技術(shù)的顯著地位讓員工產(chǎn)生被邊緣化和工作異化的心理感受,這影響到員工對企業(yè)的忠誠度、歸屬感和工作承諾。
為控制結(jié)構(gòu)風(fēng)險(xiǎn),人工智能化的企業(yè)摸索出一系列方法。首先,企業(yè)認(rèn)識到核心流程與為客戶創(chuàng)造價(jià)值之間的密切關(guān)系。梳理出核心流程,然后實(shí)施數(shù)碼化、數(shù)字化、數(shù)據(jù)化和數(shù)字孿生。這四個(gè)步驟的每一步都試圖將之與人工智能的應(yīng)用相結(jié)合。而組織結(jié)構(gòu)設(shè)計(jì)必須服務(wù)于核心流程的人工智能化。建構(gòu)人工智能賦能的核心流程,人機(jī)共處企業(yè)要思考下面幾個(gè)問題。
第一,在人工智能支持下,企業(yè)規(guī)模不再是競爭優(yōu)勢來源。規(guī)模不是競爭要素后,企業(yè)的核心競爭力出現(xiàn)什么變化?
第二,與外部供應(yīng)鏈上下游之間的協(xié)同成為一個(gè)競爭熱點(diǎn)和弱點(diǎn)。如此,我們管理專長有多少是放在與外部協(xié)同能力上?供應(yīng)鏈之間因?yàn)榫o密聯(lián)動(dòng)而始終隱含風(fēng)險(xiǎn),我們有沒有識別和應(yīng)對的管理專長?
第三,假如競爭者可以用人工智能算法快速復(fù)制我們的核心流程,我們在成本上的優(yōu)勢和劣勢如何?假如有成本優(yōu)勢,它能持續(xù)多久?
第四,賦能后的核心流程是否能夠?yàn)樾碌目蛻?、新的價(jià)值形式服務(wù)?例如數(shù)據(jù)分析演變出預(yù)測服務(wù)、戰(zhàn)略情境分析等。
第五,賦能后的核心流程是否為企業(yè)帶來跨界合作和聯(lián)盟的機(jī)會?例如,本來用于預(yù)測性物流的算法能力可以成為與運(yùn)輸企業(yè)合作的資本。
除了核心流程結(jié)構(gòu)改造之外,為消除員工對人工智能的恐慌心態(tài)和抵觸行為,企業(yè)要率先從對員工能產(chǎn)生增強(qiáng)效果的工作任務(wù)開始。讓員工直接感知到人工智能帶來的好處。同時(shí),企業(yè)應(yīng)該選擇一組相關(guān)性高的工作任務(wù)和流程,厘清它們之間相關(guān)性的性質(zhì)和方向。然后,利用人工智能,同步提升這一組工作任務(wù)的效率。如果只是提升單個(gè)功能的效率,只會對有強(qiáng)關(guān)聯(lián)的工作任務(wù)產(chǎn)生壓力,讓其他工作崗位的員工更加焦慮。同時(shí)提升一個(gè)群組的工作任務(wù)流程,能夠?qū)Ω鱾€(gè)流程中的員工表現(xiàn)產(chǎn)生正反饋,讓整個(gè)群組的員工有獲得感。圖4概括總結(jié)了結(jié)構(gòu)風(fēng)險(xiǎn)的問題和解決方案。
在人工智能對企業(yè)文化影響的討論中,一個(gè)有誤導(dǎo)性的趨勢是強(qiáng)調(diào)“數(shù)字信任”文化,認(rèn)為包括區(qū)塊鏈在內(nèi)的去中心化數(shù)字技術(shù)會根本性地改寫組織內(nèi)部和組織之間的信任文化。這是一種不全面的認(rèn)識。筆者曾經(jīng)在本刊發(fā)文(《區(qū)塊鏈改造組織信任》,2018年第10期)指出,區(qū)塊鏈解決的是不信任問題。而信任與不信任不是一個(gè)共同維度上的兩個(gè)極端。消除或降低不信任當(dāng)然會促進(jìn)信任。但是,影響信任的因素有人們感知到的專業(yè)能力、仁慈和友善的品質(zhì),以及相互欣賞的情感。至少,到目前為止,人們還很難在相互欣賞的情感方面建立起與人工智能技術(shù)的關(guān)系。因此,強(qiáng)調(diào)用人工智能建設(shè)與客戶、消費(fèi)者和員工之間的信任文化,是不全面的,甚至是一種誤導(dǎo)。事實(shí)上,但凡涉及到道德判斷和價(jià)值評估,消費(fèi)者和員工對人工智能都有信任問題。這種文化風(fēng)險(xiǎn)將長期存在。怎樣建立人機(jī)共處環(huán)境中的團(tuán)隊(duì)信任是這種文化風(fēng)險(xiǎn)中的突出問題。
另一個(gè)文化風(fēng)險(xiǎn)是關(guān)于勞動(dòng)價(jià)值和商品價(jià)值的。深圳郊區(qū)的大芬村是一個(gè)全球著名的“畫家村”,以模仿外國油畫作品知名。幾年前,模仿凡高畫了2萬幅作品的趙小勇先生終于有機(jī)會訪問歐洲。站在凡高原作面前時(shí),趙先生才深深感受到原創(chuàng)和復(fù)制之間的區(qū)別。人工智能指數(shù)級提升企業(yè)生產(chǎn)的規(guī)?;?yīng),其模仿再生產(chǎn)的能力影響消費(fèi)者對產(chǎn)品價(jià)值的心理評估。機(jī)器人飯店的飯菜可能保持了大廚原創(chuàng)的色、香、味??墒?,消費(fèi)者的心理感知是一個(gè)復(fù)雜且微妙的過程。缺少的一種氣氛會讓機(jī)器人飯店給人一種養(yǎng)雞場投喂的感覺。類似的價(jià)值評估也會發(fā)生在企業(yè)員工的心理活動(dòng)中。在許多領(lǐng)域,工作越來越成為人的第一需要,是人定義組織身份和建立集體心理身份的必要功課。人工智能賦能后,當(dāng)功課變得極其容易的時(shí)候,工作的異化和心理的空虛則演變?yōu)樾碌膯栴}。企業(yè)是機(jī)器的組織,還是人的組織?這涉及到文化價(jià)值觀的風(fēng)險(xiǎn)課題。
第三種文化風(fēng)險(xiǎn)來自于探索性和創(chuàng)新性工作任務(wù)的模糊性。人工智能容易在效率提升領(lǐng)域率先獲得成功,因?yàn)樾屎统杀痉懂牭囊蚬兞筷P(guān)系容易指認(rèn),容易設(shè)計(jì)自動(dòng)化流程。而探索和創(chuàng)新工作任務(wù)的戰(zhàn)略目標(biāo)往往是模糊的、變化的、難以量化的。探索工作任務(wù)的表現(xiàn)更難定性和定量。這帶來人工智能化過程中的兩極分化現(xiàn)象。創(chuàng)新工作能否實(shí)現(xiàn)預(yù)先設(shè)定的目標(biāo)還取決于許多偶然因素。這樣,人們更加愿意選擇能很快顯現(xiàn)具體表現(xiàn)的任務(wù)。組織的資源也會向成功結(jié)果可視性高的任務(wù)傾斜。長此以往,將損害企業(yè)的創(chuàng)新文化,影響企業(yè)持續(xù)發(fā)展。
控制文化風(fēng)險(xiǎn)可以從下面幾個(gè)方面著手。首先,理解信任不僅要有技術(shù)支持,更要有人與人之間友好的互動(dòng),情感信任和專業(yè)能力信任同樣重要。人工智能技術(shù)在情感信任方面的功效是有限的。為克服人機(jī)共處企業(yè)環(huán)境中的團(tuán)隊(duì)信任問題,可以從三個(gè)方面開始。
第一,建立團(tuán)隊(duì)成員之間對彼此能力的信任。認(rèn)為隊(duì)員有執(zhí)行任務(wù)的能力,可以依靠他們的專業(yè)能力,這是團(tuán)隊(duì)信任的基礎(chǔ)。因此,要讓人工智能普遍地對每個(gè)員工賦能,避免機(jī)器不平均賦能加劇團(tuán)隊(duì)員工的能力差別。
第二,支持團(tuán)隊(duì)成員之間積極的互助。在戰(zhàn)場上,戰(zhàn)友可能會冒著生命危險(xiǎn)救助受困的伙伴。在商場中,隊(duì)員也許會放棄一些自己的工作業(yè)績,成全落后的伙伴。在人工智能的模型中,這些舉措會被標(biāo)識為非理性的行為。但是,正是這樣的相關(guān)救助強(qiáng)化了團(tuán)隊(duì)信任。企業(yè)要有機(jī)制識別互助行為,并可以置人性決策于人工智能決策之上。
第三,鼓勵(lì)以團(tuán)隊(duì)為建制,使用人工智能工具,培養(yǎng)對人工智能預(yù)測功能的使用能力。像任何專業(yè)領(lǐng)域一樣,團(tuán)隊(duì)成員對技術(shù)的理解能力是有差別的,個(gè)人專業(yè)水平有高低。因此,使用人工智能過程中,判斷水平會參差不齊。如果以團(tuán)隊(duì)為建制,并肩工作,集體判斷,不僅會提升個(gè)別隊(duì)員的判斷水平,也能夠增強(qiáng)全體成員對人工智能的預(yù)測功能的信任。
在建立社會信任方面,企業(yè)要建立AI為人服務(wù)的價(jià)值觀。企業(yè)要利用正式和非正式的方式宣傳,讓人工智能為良善的社會關(guān)系服務(wù)。針對人工智能在支持效率活動(dòng)方面表現(xiàn)突出的特征,企業(yè)高管要對探索性、創(chuàng)新性的任務(wù)有不同的規(guī)劃,對任務(wù)表現(xiàn)有對應(yīng)的評估標(biāo)準(zhǔn),對失敗的結(jié)果有“慶祝新鮮的失敗”的態(tài)度。需要強(qiáng)調(diào)的是,人工智能技術(shù)也同樣可以為探索創(chuàng)新任務(wù)服務(wù),重點(diǎn)是在對結(jié)果變量的考核評估上。評估標(biāo)準(zhǔn)改變,照樣可以利用人工智能的增強(qiáng)功能。
如何在人機(jī)共處企業(yè)推崇信任文化?IBM公司的做法有參考價(jià)值。首先,在董事會層面建立人工智能和倫理委員會,向全公司傳遞一個(gè)重要信號:人工智能是戰(zhàn)略大事件。第二,對于人工智能的開放和利用,向全體員工發(fā)布“信任和透明”指導(dǎo)原則,破除圍繞人工智能的迷思,幫助全體員工理解為什么、怎樣、在何處應(yīng)用人工智能。第三,堅(jiān)持與值得信任的外部伙伴合作,從源頭防范來自外部合作者的風(fēng)險(xiǎn)。2020年,IBM加入“人工智能倫理的羅馬倡議”,積極參與歐盟關(guān)于人工智能應(yīng)用的規(guī)則制定,這為企業(yè)尋找可靠的合作者提供一個(gè)廣泛的朋友圈。第四,為人工智能技術(shù)建立開源代碼做貢獻(xiàn)。IBM有一個(gè)“公平AI”開源代碼工具箱(AI Fairness 360),這個(gè)工具箱幫助志同道合的外部合作企業(yè)建設(shè)一個(gè)信任社區(qū)。
總之,人機(jī)共處企業(yè)的文化風(fēng)險(xiǎn)主要與社會信任、組織價(jià)值和創(chuàng)新戰(zhàn)略有關(guān)。人工智能對這三方面長期的影響不容忽視。圖5概括總結(jié)了文化風(fēng)險(xiǎn)的問題和解決方案。
需要指出的是,上述四類風(fēng)險(xiǎn)不是單獨(dú)存在的。它們之間有極強(qiáng)的關(guān)聯(lián)性。當(dāng)一類風(fēng)險(xiǎn)得到妥善控制后,其他三類風(fēng)險(xiǎn)的管理也會更加順利。四類風(fēng)險(xiǎn)之間的關(guān)聯(lián)性和性質(zhì)則是未來值得研究的課題。人機(jī)共處的類型可能會有多種形態(tài),不過,企業(yè)風(fēng)控框架的基本維度具有穩(wěn)定性。管理者可以根據(jù)形態(tài)的具體特征對風(fēng)控框架做調(diào)整。
人機(jī)共處時(shí)代的企業(yè)管理有兩個(gè)令人擔(dān)憂的現(xiàn)象:一個(gè)是對人工智能效益的重視遠(yuǎn)遠(yuǎn)高過對風(fēng)險(xiǎn)的關(guān)注;另一個(gè)是以單獨(dú)和割裂的態(tài)度對待系統(tǒng)風(fēng)險(xiǎn)問題。而這兩個(gè)現(xiàn)象又會反噬技術(shù)效益。本文建議用系統(tǒng)和辯證的態(tài)度看待人機(jī)共處的效益和風(fēng)險(xiǎn),因?yàn)楫?dāng)代社會的樞紐性活動(dòng)已經(jīng)從如何生產(chǎn)與分配社會資源的問題轉(zhuǎn)移到如何實(shí)施風(fēng)險(xiǎn)管理的問題。
已故社會學(xué)家烏爾里希(U l r i c h Beck)在他的開創(chuàng)性著作《風(fēng)險(xiǎn)社會》中指出,風(fēng)險(xiǎn)的產(chǎn)生、外溢、分布、防范和控制已經(jīng)成為現(xiàn)代社會的管理綱要,綱舉目張。他分析現(xiàn)代社會之前的社會形態(tài)有一個(gè)共同的特征,即圍繞著社會資源的生產(chǎn)和分配來組織人類社會。而技術(shù)的大發(fā)展已經(jīng)使其從被利用的工具變成改造社會的力量。同時(shí),與經(jīng)歷過億萬年除錯(cuò)過程的自然界不一樣,人造的技術(shù)尚在使用中除錯(cuò)。因此,它必然帶來風(fēng)險(xiǎn)。技術(shù)力量越大,風(fēng)險(xiǎn)程度越高。這就是我們目前面臨的人機(jī)共處的世界的核心矛盾。我們的研究不過是理解和緩解這一核心矛盾的嘗試。
有一種風(fēng)險(xiǎn)未被包含在上述框架中。它就是可能的極端不確定性,也是經(jīng)濟(jì)學(xué)家奈特(Frank Knight)所定義的“無知的未知”(The unknown unknown)。人工智能是否潛藏對人類的滅絕力量?這個(gè)問題屬于“無知的未知”,即我們“不知道所不知道”的現(xiàn)象。藏身其后的極端不確定性可能帶來滅絕危機(jī)。牛津大學(xué)“人工智能研究中心”的博斯特倫(Nick Bostrom)指出,當(dāng)我們看到極端不確定可能帶來滅絕危機(jī)時(shí),一切已經(jīng)太晚,命運(yùn)將無法改變。有些技術(shù)信仰者認(rèn)為這是聳人聽聞,他們相信一切皆可控制。只有讀過《百年孤獨(dú)》,人們才能體會那幻影般不可知的力量能如何扭曲制造光怪陸離的人生。待到能夠體會時(shí),改變已經(jīng)不可能。
《百年孤獨(dú)》是一部拉丁美洲的魔幻現(xiàn)實(shí)主義作品。哥倫比亞作家加西亞·馬爾克斯(Gabriel Garcia Marquez)描述了布恩迪亞家族百年七代的興衰、榮辱、愛恨、福禍、文化與人性中無法逃避的孤獨(dú)。小說中的人物時(shí)而通鬼神,時(shí)而鐘情于科學(xué)技術(shù)。每一代人各有奇詭的折騰方式,卻總是以孤獨(dú)命終。無論他們?nèi)绾紊咸烊氲?,通鬼拜神,這七代人還是被神秘的外部力量籠罩。孤獨(dú)無意義注定是他們的宿命。
了解歐洲外部力量幾個(gè)世紀(jì)以來對拉美社會的摧毀性打擊是理解《百年孤獨(dú)》的鑰匙。加西亞·馬爾克斯曾經(jīng)近乎絕望地表示:“拉丁美洲歷史是一切巨大然而徒勞的奮斗總結(jié),是一幕幕事先注定要被人遺忘的戲劇總和。”1518年,騎著高頭大馬的西班牙人科特斯(Heman Cortes)出現(xiàn)在墨西哥時(shí),當(dāng)?shù)氐陌⑵澟_克土著人完全懵了。從軍事技術(shù)到社會文化,歐洲對當(dāng)?shù)厝硕允峭耆粗男卢F(xiàn)象(unknown unknowns)。人數(shù)上有絕對優(yōu)勢的土著人首先在思想上被征服,然后遭受肉體的殺戮而無還手之力。在拉美的場景里,看到極端不確定性出現(xiàn)之時(shí)已經(jīng)是終場的前戲。
人工智能會帶來另一幕拉美劇情嗎?我們寧可信其有,不可信其無!