【摘 要】 新一代信息技術(shù)的不斷發(fā)展與深度應(yīng)用,為財務(wù)人員帶來便利的同時,也帶來倫理風(fēng)險或困惑。文章從中國傳統(tǒng)的倫理思想出發(fā),融合馬克思主義政治經(jīng)濟學(xué)的倫理特色,以習(xí)近平新時代中國特色社會主義思想中的倫理思想為核心抓手,從規(guī)范、責(zé)任、協(xié)同和綠色等層面,深度解析人工智能倫理的內(nèi)涵與特征、智能財務(wù)倫理問題類別,探尋破解智能財務(wù)倫理困境的政策建議。
【關(guān)鍵詞】 人工智能; 智能財務(wù); 倫理; 政策
【中圖分類號】 F230;TP39 【文獻(xiàn)標(biāo)識碼】 A 【文章編號】 1004-5937(2025)02-0130-06
數(shù)千年來,哲學(xué)家們一直在思考,當(dāng)面對道德困境時(如典型的有軌電車問題),什么才是行為的道德方式,即什么是“正確的事情”,這便是倫理學(xué)一般研究的焦點[ 1 ],而倫理學(xué)的基礎(chǔ)是理解我們的行為如何影響他人的幸福[ 2 ]。新一代信息技術(shù)的不斷發(fā)展與深度應(yīng)用,為財務(wù)人員帶來便利的同時也帶來倫理風(fēng)險或困惑。以ChatGPT為代表的生成式BI成為2023年討論的熱點技術(shù),人們在感慨技術(shù)進(jìn)步的同時,也伴隨著技術(shù)恐慌和憂慮。2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,期待生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用。當(dāng)大家在激烈討論數(shù)據(jù)泄密、數(shù)據(jù)倫理相關(guān)問題時,應(yīng)該明確倫理實際上是一個隱性的動機,而不是明確的動機[ 3 ],應(yīng)該明確智能財務(wù)建設(shè)中哪些行為屬于倫理討論的范疇,更應(yīng)該明確如何將中國人工智能治理委員會(CAIGC)發(fā)布的新一代人工智能治理原則轉(zhuǎn)換為可以落地的政策與建議。面對這些亟待解決的科學(xué)問題,我們應(yīng)該以史為鑒,從中國傳統(tǒng)的倫理思想出發(fā),融合馬克思主義政治經(jīng)濟學(xué)的倫理特色,以習(xí)近平新時代中國特色社會主義思想中的倫理思想為核心抓手,深度解析人工智能倫理的內(nèi)涵與特征、智能財務(wù)倫理問題類別,探尋破解智能財務(wù)倫理困境的政策建議。
一、新時代中國倫理思想的核心內(nèi)涵
中國傳統(tǒng)倫理思想源遠(yuǎn)流長,從強調(diào)人的血緣輩分關(guān)系到調(diào)整人與人關(guān)系的條理、道理和原則,既具個體性又具社會性[ 4 ]。倫理是調(diào)整個體利益和社會整體利益的協(xié)調(diào)過程與原則,但目前還沒有一個統(tǒng)一的、標(biāo)準(zhǔn)的、明確的倫理體系[ 5 ]。馬克思主義政治經(jīng)濟學(xué)重視生產(chǎn)的目的、財富的分配以及與此相關(guān)的正式和非正式的制度安排是否符合公平正義,這充分體現(xiàn)了馬克思主義政治經(jīng)濟學(xué)的倫理特色[ 5 ]。進(jìn)入新時代,以習(xí)近平同志為核心的黨中央詮釋和創(chuàng)新發(fā)展了馬克思主義政治經(jīng)濟學(xué)“以人民為中心”的思想,堅持把“增進(jìn)人民福祉”作為推進(jìn)我國經(jīng)濟社會發(fā)展的倫理目的,提出的五大新發(fā)展理念準(zhǔn)確把握了發(fā)展倫理學(xué)的核心問題??偟膩碚f,新時代中國倫理思想的核心內(nèi)涵包含以下內(nèi)容:
(一)法治與德治并舉是倫理治理的基本思路
“法安天下、德潤人心……法律是成文的道德,道德是內(nèi)心的法律”①,法律與道德都是人們的行為規(guī)范,兩者是“準(zhǔn)繩”與“基石”的關(guān)系,既有聯(lián)系又有區(qū)別,道德對法律有滋養(yǎng)作用,道德規(guī)范是人們的價值追求,在一定條件下可以轉(zhuǎn)換為法律規(guī)范,而法律可以承載道德理念,對于道德領(lǐng)域的突出問題可以運用法律進(jìn)行解決。
(二)五大新發(fā)展理念是發(fā)展過程中應(yīng)遵循的倫理規(guī)范
習(xí)近平同志提出的創(chuàng)新、協(xié)調(diào)、綠色、開放、共享的“新發(fā)展理念”,回答了追求怎么樣的發(fā)展、如何讓所有成員共享發(fā)展成果、如何處理人與人關(guān)系建立公平公正的和諧社會、如何處理人與自然關(guān)系實現(xiàn)綠色發(fā)展。創(chuàng)新發(fā)展特別是技術(shù)創(chuàng)新應(yīng)堅守以人為本的倫理底線,不得損害人、組織與社會利益,應(yīng)以創(chuàng)造更加公平公正的社會與為人們創(chuàng)造美好生活為宗旨;協(xié)調(diào)發(fā)展是解決發(fā)展不均衡的問題,要求技術(shù)創(chuàng)新帶來的發(fā)展應(yīng)該是在一定規(guī)則范圍內(nèi)的、可控制與可持續(xù)的發(fā)展,不會對人、組織、區(qū)域和社會發(fā)展帶來不公平性;綠色發(fā)展要求處理好人與自然和諧共生關(guān)系,在技術(shù)創(chuàng)新發(fā)展過程中應(yīng)堅持綠色發(fā)展方式和生活方式;共享發(fā)展注重的是解決社會公平正義問題②,目標(biāo)是關(guān)注現(xiàn)實中每個人的存在,讓所有人都具有獲得感、參與感以及幸福感,并不會因為自己的行為而影響他人的幸福。
(三)大德與小德統(tǒng)一是倫理價值觀的追求
目前所形成的社會主義核心價值觀其實是一種德,是大德和小德的統(tǒng)一,既是國家的德、社會的德,也是個人的德③。小德要求我們每個人做好小事、管好小節(jié),而大德是基于社會和國家層面要求服務(wù)人民。在日常的行為過程中,修德不僅修的是個人的小德,也是在吸納中華優(yōu)秀傳統(tǒng)文化的基礎(chǔ)上修大德,而傳統(tǒng)文化中的“修身齊家治國平天下”正是小德走向大德的過程。
二、人工智能倫理內(nèi)涵
當(dāng)信息技術(shù)與倫理相融合時,應(yīng)明確信息技術(shù)等工具理性的邏輯,它不僅控制著那些直接遵循嵌入式模型和程序要求的人的行為,而且控制著管理組織資源的人的行為[ 6 ]?;蛘哒f以人工智能為代表的新一代信息技術(shù)可以看作是工具理性的物理表達(dá),這種技術(shù)強加了一種組織、延續(xù)和改變社會關(guān)系的模式,使它們反映出工具理性的標(biāo)準(zhǔn),并最終符合主導(dǎo)的意識形態(tài)[ 1 ]。因此,在分析人工智能等新一代信息技術(shù)具體應(yīng)用時不能僅僅看作是非道德技術(shù)的中立表現(xiàn),而應(yīng)看作是與權(quán)力和控制相關(guān)的社會意識形態(tài)的體現(xiàn)[ 1 ]。比如,不同的利益群體所關(guān)注、存儲的信息不同,反映出看待自己和周圍環(huán)境的態(tài)度也不同;對哪些功能、對象感興趣,有可能就會選取反映其價值觀的模型和程序;隱含在智能產(chǎn)品中的假設(shè)、模型和程序的隱蔽性及未知性降低了人們質(zhì)疑自身行為的基本原則或后果的能力[ 1 ];按照智能產(chǎn)品要求所采取的行為很有可能造成權(quán)責(zé)歸屬的不明確問題等。
人工智能等新一代信息技術(shù)對人類社會帶來益處的同時也內(nèi)嵌著人類倫理道德的成分,進(jìn)而會在技術(shù)開發(fā)或使用過程中因規(guī)范標(biāo)準(zhǔn)的不明確帶來倫理的反思。對技術(shù)倫理的反思主要著眼于技術(shù)所處的具體環(huán)境,包括技術(shù)、人、社會和自然,關(guān)注技術(shù)進(jìn)步的條件、使用的預(yù)期與目的、運用的手段以及帶來的主觀與非主觀意愿的后果[ 7 ]。有學(xué)者運用宏觀ETHOs模型(Environmental,Technological,Human,and Organizational,簡稱ETHOs)理解、識別、發(fā)展和檢查智能產(chǎn)品設(shè)計、開發(fā)、實施及應(yīng)用過程中可能存在的倫理問題[ 3 ],涉及標(biāo)準(zhǔn)、技術(shù)規(guī)范、行為原則等環(huán)境因素,軟硬件技術(shù)特征與功能等技術(shù)因素,文化、個人特征與行為、態(tài)度等人為因素,以及組織戰(zhàn)略、架構(gòu)、信息規(guī)劃等組織因素。
對人工智能倫理的分析主要從主體關(guān)系、倫理存在形式、倫理的價值判斷標(biāo)準(zhǔn)三個維度進(jìn)行。人工智能倫理中涉及的倫理主體關(guān)系包括人與人、人與自然以及人與智能產(chǎn)品。人工智能倫理存在的形式包括觀念、情感等無形形式和標(biāo)準(zhǔn)、行為規(guī)范等有形形式。人工智能倫理的價值判斷標(biāo)準(zhǔn)主要是指人工智能應(yīng)該遵循的倫理原則。比如歐洲科學(xué)和新技術(shù)倫理小組(EGE)在2018年3月公布的“人工智能、機器人和自治系統(tǒng)聲明”,含人性尊重、自主決定權(quán)、責(zé)任、正義、公平、人類團結(jié)的促進(jìn)、民主、法治和當(dāng)責(zé)9項倫理原則及民主前提;而2019年中國人工智能治理委員會(CAIGC)發(fā)布了“新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能”提出了組織在開發(fā)AI應(yīng)用程序以保護人類和社會權(quán)利時應(yīng)遵循的8項規(guī)則,包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理[ 8 ]。
綜上分析,將人工智能倫理上升為意識形態(tài)層面,即從制度、社會和組織層面歸結(jié)人們做出倫理決策的利益出發(fā)點,而對人工智能倫理內(nèi)涵的討論,實際上是探究人工智能產(chǎn)品設(shè)計、開發(fā)、實施及應(yīng)用過程中的倫理邊界問題,即哪些可以納入人工智能倫理的研究主題范疇。
三、智能財務(wù)倫理問題分類
對智能財務(wù)倫理而言,強調(diào)的是財務(wù)人員在人工智能技術(shù)使用中的行為原則(Michael Alles,2020a),在適當(dāng)?shù)臅r候防止對他人、組織和社會的傷害(Michael Alles,2020b)。綜合考慮環(huán)境、技術(shù)、人的行為、組織以及倫理主體關(guān)系、倫理形式和倫理治理原則,將智能財務(wù)倫理問題歸結(jié)于以下幾類:
(一)人機倫理
無論是智能財務(wù)機器人(含RPA)還是智能財務(wù)產(chǎn)品(如智能財務(wù)分析軟件等)都會涉及道德行為主體的討論,即智能機械人或智能產(chǎn)品是否要承擔(dān)道德責(zé)任,人機倫理是否要遵守人與人之間的倫常關(guān)系[ 9 ]?這些依然是要討論的核心倫理問題。而人機倫理關(guān)系問題的討論包括:(1)侵犯企業(yè)數(shù)據(jù)隱私問題,比如軟件公司對客戶數(shù)據(jù)隱私保密問題,集團內(nèi)部各子公司財務(wù)、業(yè)務(wù)數(shù)據(jù)集成到財務(wù)數(shù)據(jù)中臺有可能造成數(shù)據(jù)隱私、濫用問題[ 10 ];(2)人工智能技術(shù)是否滿足使用者預(yù)期和用戶需求,目前人們對智能財務(wù)機器人或智能財務(wù)產(chǎn)品的期望較大,但有時過高的期望反而事與愿違,比如管理會計人員依托RPA技術(shù)可以實現(xiàn)管理會計報表的智能生成,但是復(fù)雜的管理會計報表間的嵌套邏輯、RPA技術(shù)尚未做到完全的自動抓取數(shù)據(jù),還需要人工補錄、計算、財務(wù)數(shù)據(jù)調(diào)整等;(3)事先設(shè)定的算法有可能將人類原有的偏見傳遞給使用者或者被放大,如商業(yè)智能(BI)依托實現(xiàn)設(shè)定的專家規(guī)則對財務(wù)數(shù)據(jù)進(jìn)行分析,有可能將專家本身的偏見進(jìn)行傳遞[ 10 ];(4)使用者對智能財務(wù)機器人或智能財務(wù)產(chǎn)品的態(tài)度,如可能產(chǎn)生較強的依賴,也可能對其不信任,財務(wù)機器人可以解放財務(wù)人員繁瑣的工作,但可能使財務(wù)人員造成依賴,影響對原有財務(wù)數(shù)據(jù)的敏感性,也有可能使用某類智能財務(wù)產(chǎn)品所產(chǎn)生的決策與其職業(yè)判斷不相符時造成信任感危機;(5)使用者對智能財務(wù)機器人或智能財務(wù)產(chǎn)品操作層面是否會帶來不舒適感和不公平性,比如智能財務(wù)帶來的財務(wù)人員被迫轉(zhuǎn)型,從核算財務(wù)轉(zhuǎn)變成b017585a404afbd8005eb3e365c3f24e業(yè)務(wù)財務(wù),需要深入到業(yè)務(wù)一線,而有的業(yè)務(wù)財務(wù)63576f1e9dc6c4de985eb708e2a8eb02需要一定的SQL編程能力,這樣會給財務(wù)人員帶來挑戰(zhàn),又如不公平性主要是一些智能化軟件產(chǎn)品對年紀(jì)較大的財務(wù)人員操作不友好,不容易操作。
(二)責(zé)任歸屬的倫理
責(zé)任倫理學(xué)是倫理研究中很重要的分支,主要是分析責(zé)任主體的倫理目的、行為方式、結(jié)果以及成因等[ 11 ]。就智能財務(wù)機器人或智能財務(wù)產(chǎn)品而言,責(zé)任倫理應(yīng)該是以人工智能技術(shù)算法為核心的程序或系統(tǒng)在設(shè)計、開發(fā)、實施以及應(yīng)用過程中的責(zé)任歸屬問題。應(yīng)建立必要的問責(zé)制,主要是指與人工智能技術(shù)應(yīng)用相關(guān)的監(jiān)管者、需求分析師、軟件開發(fā)者、系統(tǒng)建設(shè)主要負(fù)責(zé)人以及使用者應(yīng)該在哪些環(huán)節(jié)、哪個節(jié)點承擔(dān)哪些必要的責(zé)任。比如在系統(tǒng)設(shè)計、開發(fā)階段,系統(tǒng)建設(shè)主要負(fù)責(zé)人、使用者以及需求分析師是否應(yīng)該做好需求的溝通者、傳遞者和轉(zhuǎn)化者,使會計準(zhǔn)則、賬務(wù)處理規(guī)則、財務(wù)管理理念等財務(wù)需求可以被軟件開發(fā)者充分理解;軟件開發(fā)者是否應(yīng)充分理解財務(wù)需求,將財務(wù)語言轉(zhuǎn)化為計算機語言。除此之外,需求分析師是否應(yīng)根據(jù)客戶需求選擇恰當(dāng)?shù)臄?shù)據(jù)建模算法或規(guī)則。在系統(tǒng)建設(shè)實施階段,哪些人需要參與到數(shù)據(jù)和功能測試中,即哪些人對數(shù)據(jù)負(fù)責(zé),哪些人對系統(tǒng)功能負(fù)責(zé),哪些人對算法和規(guī)則結(jié)果負(fù)責(zé)都應(yīng)該明確;在系統(tǒng)應(yīng)用階段,算法或規(guī)則及數(shù)據(jù)的更新、系統(tǒng)穩(wěn)定性、系統(tǒng)的推廣應(yīng)用等責(zé)任的歸屬應(yīng)該被明確,以確保智能財務(wù)機器人或智能財務(wù)產(chǎn)品可以帶來預(yù)期的效益。
(三)人工智能技術(shù)應(yīng)用帶來的倫理價值失衡
技術(shù)創(chuàng)新發(fā)展是為了更好地追求人類社會的和諧,維護社會公平正義,這也正是社會倫理價值的基本取向[ 9 ],不能因為智能財務(wù)機器人或智能財務(wù)產(chǎn)品的使用而加大倫理價值的失衡。在新一代信息技術(shù)環(huán)境下,對智能財務(wù)倫理價值失衡的討論主要集中于:(1)財務(wù)算法或規(guī)則中本身所隱含的程序偏見。比如智能財務(wù)分析與決策類產(chǎn)品,如果財務(wù)專業(yè)術(shù)語多且不好被非財務(wù)人員所理解,則會給非財務(wù)出身的領(lǐng)導(dǎo)者和各級管理者造成很大的心理壓力。(2)智能財務(wù)產(chǎn)品的使用可能會加大倫理價值的失衡。比如對待終端用戶而言,操作是否易用、界面是否友好都應(yīng)該被考量,經(jīng)常被推送的財務(wù)指標(biāo)信息會不會隱藏企業(yè)運營中的其他信息,業(yè)財人員所診斷的異常財務(wù)指標(biāo)原因是否真實可靠會對管理者決策帶來影響。(3)智能財務(wù)機器人或智能財務(wù)產(chǎn)品的應(yīng)用使部分財務(wù)人員面臨失業(yè)或者新的工作挑戰(zhàn)。新技術(shù)的應(yīng)用不僅造成原來從事憑證登記的財務(wù)人員失業(yè),而且使原來從事管理會計分析或財務(wù)分析的人員面臨失業(yè)和轉(zhuǎn)型的風(fēng)險。比如RPA替代了大量重復(fù)且具有明確規(guī)則的會計核算工作,迫使財務(wù)人員失業(yè)或離開原崗位進(jìn)行財務(wù)轉(zhuǎn)型,而財務(wù)共享的廣泛應(yīng)用使子公司財務(wù)人員轉(zhuǎn)向業(yè)務(wù)財務(wù)崗位,需要對業(yè)務(wù)進(jìn)行深度理解并分析財務(wù)指標(biāo)異動背后的業(yè)務(wù)原因。(4)社會層面的倫理價值失衡。智能財務(wù)機器人或智能財務(wù)產(chǎn)品的應(yīng)用可能會對社會公正帶來挑戰(zhàn),包括資源的配置、技術(shù)利益的分配以及技術(shù)成果應(yīng)用過程可能存在“數(shù)字鴻溝”或“發(fā)展鴻溝”等。(5)自然生態(tài)層面的倫理價值失衡。關(guān)注新技術(shù)應(yīng)用帶來社會福利和對生態(tài)環(huán)境改善帶來益處的同時,應(yīng)該密切關(guān)注技術(shù)應(yīng)用的“副作用”,即新技術(shù)的應(yīng)用會不會使資源過度消耗而出現(xiàn)生態(tài)過載的問題以及環(huán)境污染和碳排放增加的風(fēng)險。
(四)人工智能技術(shù)應(yīng)用對財務(wù)人員的倫理行為與倫理關(guān)系的影響
從人的倫理行為層面看,智能財務(wù)機器人或智能財務(wù)產(chǎn)品對財務(wù)人員的影響程度會因為人的屬性特征不同而呈現(xiàn)差異性。部分使用者對智能財務(wù)機器人或智能財務(wù)產(chǎn)品產(chǎn)生依賴,而且個性化推薦算法可以根據(jù)人的偏好、習(xí)慣等特征屬性進(jìn)行精準(zhǔn)信息推送,雖然為財務(wù)人員獲取信息提高了效率,但如果長期依賴這種信息推送功能,就會造成路徑依賴甚至依賴成癮[ 9 ],導(dǎo)致人們將注意力完全集中在AI識別出的異常事件上,以及對未知因素的無知[ 1,12 ],從而形成“信息繭”[ 13 ];部分使用者因擔(dān)心智能財務(wù)產(chǎn)品分析結(jié)果會影響自己的職業(yè)判斷,并造成誤導(dǎo),進(jìn)而會對其倫理行為產(chǎn)生影響。從人的倫理關(guān)系層面看,智能財務(wù)機器人或智能財務(wù)產(chǎn)品應(yīng)用會影響人與人之間的倫理關(guān)系。比如智能財務(wù)機器人或智能財務(wù)產(chǎn)品應(yīng)用給人帶來的孤立感或隔離感,這不僅是由于使用了支持遠(yuǎn)程工作的AI系統(tǒng),而且歸因于各種在線服務(wù)的迅速發(fā)展,孤立感從個人交流(即人們現(xiàn)在使用微信或其他軟件在網(wǎng)上聊天更多,而不是在面對面交流中,年輕人更喜歡下班后玩在線游戲)延伸到工作領(lǐng)域。現(xiàn)有的人工智能產(chǎn)品可以使員工在應(yīng)用程序中完成大部分工作,對財務(wù)人員而言,“工作場所”和“同事”就像在線游戲中的對象和角色一樣,無需再進(jìn)行面對面的溝通與交流,很容易造成人與人之間的倫理問題。
四、基于新時代中國倫理思想的政策建議
面對智能財務(wù)機器人或智能財務(wù)產(chǎn)品設(shè)計、開發(fā)、實施及應(yīng)用過程中可能存在的倫理問題,本文擬從中國新時代倫理思想和內(nèi)涵出發(fā),在共建共享共治社會治理整體思路下,從規(guī)范、責(zé)任、協(xié)同和綠色等方面提出破解,包括智能財務(wù)機器人或智能財務(wù)產(chǎn)品在內(nèi)的人工智能倫理困境的政策建議。
(一)倫理規(guī)范與法律約束協(xié)同發(fā)力
法律有效實施有賴于道德支持,道德踐行也離不開法律約束,法律和道德協(xié)同發(fā)力是習(xí)近平治國理政的倫理思路[ 14 ]。應(yīng)從習(xí)近平總書記大德和小德的論述中汲取營養(yǎng),在智能財務(wù)機器人或智能財務(wù)產(chǎn)品系統(tǒng)設(shè)計、開發(fā)、實施和日常應(yīng)用過程中,充分發(fā)揮企業(yè)、科研院所、科研人員、監(jiān)管者、使用者的能動性,形成具有普通共識、約束力的道德倫理規(guī)范,強化自我約束與監(jiān)督[ 9 ]。另外,應(yīng)在日常的倫理規(guī)范執(zhí)行中不斷積累和提升,從而上升到法律和制度層面,形成大德。具體包括:(1)強化自我修身和道德約束。對于開發(fā)者而言,應(yīng)選擇不偏不倚的算法,不應(yīng)該將自身偏見與歧視等主觀性意念寫入算法中,同時應(yīng)該注意保護用戶或使用者的隱私安全。對于使用者而言,自身素質(zhì)的提升是指主觀上為適應(yīng)人工智能技術(shù)的應(yīng)用而對自己綜合素質(zhì)的提升,主要有技術(shù)能力、專業(yè)懷疑能力、正確心態(tài)以及用戶自主性等,一般是通過自我學(xué)習(xí)和領(lǐng)悟而提升的。當(dāng)然,社會或者行業(yè)第三方機構(gòu)或者使用者所在的單位也可以提供必要的培訓(xùn),主要有新一代信息技術(shù)前沿與理念,技術(shù)、算法與規(guī)則邏輯,系統(tǒng)操作技能,數(shù)據(jù)治理與規(guī)則等[ 15 ]。(2)強化技術(shù)創(chuàng)新約束。2015年,美國電氣與電子工程師協(xié)會首次提出旨在解決人工智能和自主系統(tǒng)使用發(fā)展倫理問題的“合乎倫理設(shè)計”理念,即將智能財務(wù)機器人或智能財務(wù)產(chǎn)品的倫理規(guī)范與法律約束轉(zhuǎn)換為具體的設(shè)計標(biāo)準(zhǔn),在系統(tǒng)設(shè)計之初就嵌入人類的道德規(guī)范與約束,使得人工智能系統(tǒng)的決策、行為具有可靠性與安全性,并通過法律法規(guī)的“他律”與倫理道德的“自律”甚至智能系統(tǒng)的“物律”相結(jié)合,規(guī)范人工智能的發(fā)展[ 16-17 ]。(3)行業(yè)與中介第三方約束。即建立獨立第三方的驗證、監(jiān)測機制,在技術(shù)層面可以由第三方獨立的機構(gòu)或者由技術(shù)專家、倫理學(xué)家或決策者組成的團隊制定人工智能應(yīng)用的實踐標(biāo)準(zhǔn)、行為準(zhǔn)則、實施規(guī)范等,驗證智能財務(wù)機器人或智能財務(wù)產(chǎn)品的道德和結(jié)構(gòu)完整性,制定評估標(biāo)準(zhǔn)是否達(dá)到了預(yù)期用途。
(二)建立利益相關(guān)者共擔(dān)責(zé)任機制
在共建共享共治社會治理整體思路下,在智能財務(wù)機器人或智能財務(wù)產(chǎn)品建設(shè)過程中,利益相關(guān)者應(yīng)共同承擔(dān)責(zé)任并分享智能化成果,每個利益相關(guān)者應(yīng)負(fù)責(zé)避免某些道德風(fēng)險,而且責(zé)任應(yīng)貫穿在智能財務(wù)機器人或智能財務(wù)產(chǎn)品整個生命周期。如監(jiān)管者在智能財務(wù)機器人或智能財務(wù)產(chǎn)品引入前、應(yīng)用過程以及推廣中承擔(dān)必要的監(jiān)管責(zé)任;軟件開發(fā)者在前期需求溝通、系統(tǒng)設(shè)計與開發(fā)以及系統(tǒng)后期運維方面承擔(dān)必要的技術(shù)倫理責(zé)任;智能財務(wù)機器人或智能財務(wù)產(chǎn)品主要負(fù)責(zé)人在前期需求溝通、軟件功能需求設(shè)計、應(yīng)用宣傳等方面承擔(dān)必要的領(lǐng)導(dǎo)與監(jiān)督責(zé)任;而使用者在系統(tǒng)使用過程中有必要了解系統(tǒng)的操作、功能以及背后的算法邏輯,讓系統(tǒng)更好地輔助決策或提升生活質(zhì)量,減少不舒適感。
(三)建立共享與協(xié)同機制
從微觀的智能財務(wù)機器人或智能財務(wù)產(chǎn)品到宏觀的人工智能應(yīng)用,都要在技術(shù)創(chuàng)新發(fā)展的同時堅持協(xié)調(diào)發(fā)展和共享發(fā)展,實際上是在發(fā)展的同時兼顧公平,強調(diào)利益相關(guān)者之間的協(xié)同共享。首先,政府層面需注重科技資源的合理配置與調(diào)配,包括區(qū)域、城鄉(xiāng)之間的合理調(diào)配,而對于智能財務(wù)的推廣應(yīng)用應(yīng)堅持市場導(dǎo)向和政府宏觀調(diào)控相結(jié)合,西部或偏遠(yuǎn)地區(qū)政府可以通過推進(jìn)數(shù)字化轉(zhuǎn)型促進(jìn)當(dāng)?shù)貒衅髽I(yè)高質(zhì)量發(fā)展,進(jìn)而實現(xiàn)彎道超越。其次,社會層面應(yīng)更加關(guān)注弱勢群體對新技術(shù)的接受度和體驗感。比如大到社會上經(jīng)常性討論的老年人對智能醫(yī)療系統(tǒng)的體驗感,要真正便捷于民,醫(yī)院應(yīng)在新技術(shù)宣傳、志愿者服務(wù)方面下功夫,讓實惠和便利遍及每一個人;小到微觀企業(yè)要考慮到不同年齡階段、不同學(xué)歷背景的財務(wù)人員,以及財務(wù)與非財務(wù)背景的管理者對新技術(shù)的接納情況,進(jìn)而減少不公平性。最后,完善利益相關(guān)者溝通與反饋機制。溝通和反饋對于處理財務(wù)人員與技術(shù)、財務(wù)人員與企業(yè)、政府監(jiān)管與企業(yè)之間的關(guān)系都是必不可少的,在所有利益相關(guān)者之間建立溝通和反饋機制可以在很大程度上減輕由人工智能引起的道德風(fēng)險。
(四)兼顧技術(shù)創(chuàng)新發(fā)展與綠色發(fā)展
無論是自然生態(tài)層面的倫理價值失衡還是人與自然的倫理關(guān)系失衡,都說明人工智能等新一代信息技術(shù)的發(fā)展在給人類帶來益處、提升效率的同時,會直接或間接導(dǎo)致資源與材料消耗速度加快。另外,海量訓(xùn)練數(shù)據(jù)的大規(guī)模運轉(zhuǎn)也會造成能耗的上升。因此,在堅持技術(shù)創(chuàng)新發(fā)展的同時,應(yīng)兼顧生態(tài)環(huán)境,實現(xiàn)綠色發(fā)展。首先,在技術(shù)層面,可以運用低功耗的存儲技術(shù)降低數(shù)據(jù)中心的高能耗問題,以技術(shù)創(chuàng)新解決人工智能技術(shù)帶來的高能耗問題;其次,在政策激勵方面,鼓勵企業(yè)、高校、科研院所對更節(jié)能高效技術(shù)的研發(fā),同時政府應(yīng)制定新的政府采購標(biāo)準(zhǔn)和相應(yīng)的政策保障措施,鼓勵企業(yè)推動低耗節(jié)能技術(shù)的應(yīng)用;最后,企業(yè)作為新技術(shù)應(yīng)用的主體,應(yīng)在國家重大政策措施(如碳中和)的約束下,在運用新技術(shù)提升效率的同時,控制本企業(yè)的碳排放量,從而達(dá)到經(jīng)濟效益與社會效益的均衡發(fā)展。
智能財務(wù)機器人或智能財務(wù)產(chǎn)品的廣泛應(yīng)用,為大家的生活帶來便利的同時,也不能忽視背后所掩藏的倫理風(fēng)險。人工智能倫理是一個隱性動機,本文探討倫理的目的就是預(yù)防和減少人工智能新技術(shù)應(yīng)用對人、組織和社會帶來的損害。為達(dá)到這樣的目的,可以從優(yōu)秀的中國傳統(tǒng)倫理出發(fā),融合馬克思主義倫理思想,在新時代中國倫理思想的指導(dǎo)下,堅持共建共享共治社會治理的整體思路,從規(guī)范、責(zé)任、協(xié)同和綠色等層面破解人工智能倫理困境,這需要理論界和實務(wù)界不斷探索和思考。
【參考文獻(xiàn)】
[1] ALLES M.Using the 2019 JBE conference and 2017 JIS themed issue as natural experiments to examine the role of editors as gatekeepers of the research literature in AIS and ethics[J].International Journal of Accounting Information Systems,2020,39:1-22.
[2] PAUL R,ELDER L.The thinker's guide to ethical reasoning[M].Tomales,CA:Foundation for Critical Thinking Press,2013.
[3] GURAGAI B,HUNT N,NERI M,et al.Accounting information systems and ethics research:review,synthesis,and the future[J].Journal of Information Systems,2017,31(2):65-81.
[4] 唐凱麟.倫理學(xué)[M].合肥:安徽文藝出版社,2017:3-42.
[5] 蔣潔.風(fēng)險視域下人工智能倫理的主旨和原則[J].信息通信技術(shù)與政策,2019(6):13-16.
[6] ALLES M.AIS-Ethics as an ethical domain:a response to guragai,hunt,neri and taylor (2017) and dillard and yuthas (2002)[J].The International Journal of Digital Accounting Research,2020(20):1-29.
[7] 阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M].吳寧,譯.北京:社會科學(xué)文獻(xiàn)出版社,2018.
[8] 吳紅,杜嚴(yán)勇.人工智能倫理治理:從原則到行動[J].自然辯證法研究,2021,37(4):49-54.
[9] 譚九生,楊建武.人工智能技術(shù)的倫理風(fēng)險及其協(xié)同治理[J].中國行政管理,2019(10):44-50.
[10] ZHANG C,ZHU W,DAI J,et al.Ethical impact of artificial intelligence in managerial accounting[J].International Journal of Acounting Information Systems,2023,49:100619.
[11] DILLARD J,RUCHALA L,YUTHAS K.Enterprise resource planning systems:a physical manifestation of administrative evil[J].International Journal of Accounting Information Systems,2005(6):107-127.
[12] SEOW P S.The efects of decision aid structural restrictiveness on decision-making outcomes[J].International Journal of Accounting Information Systems,2011,12(1):40-56.
[13] GODDARD K,ROUDSARI A,WYATT J C.Automation bias:a systematic review of frequency, efect mediators,and mitigators[J].Journal of the American Medical Informactics Association,2012,19(1):121-127.
[14] 周中之,高屾.習(xí)近平治國理政的倫理思想[J].馬克思主義研究,2018(5):19-27.
[15] ARGOTE L,EPPLE D.Learning curves in manufacturing[J].Science,1990,247(4945):920-924.
[16] 閆坤如.人工智能“合乎倫理設(shè)計”的理論探源[J].自然辯證法通訊,2020,42(4):14-18.
[17] 閆坤如.人工智能“合乎倫理設(shè)計”的實現(xiàn)路徑探析[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2019,40(6):123-128.