摘 要 來(lái)自算法的建議并不總是由AI獨(dú)立給出的,還有可能是專家使用AI(即人機(jī)協(xié)同)給出的。而目前少有研究探討人機(jī)協(xié)同背景下決策者的建議尋求動(dòng)機(jī)對(duì)建議采納的影響。本研究采用疾病預(yù)測(cè)材料探討人機(jī)協(xié)同背景下建議來(lái)源和建議尋求動(dòng)機(jī)對(duì)建議采納的影響。研究1采用單因素(建議來(lái)源:專家/AI/人機(jī)協(xié)同)被試間設(shè)計(jì),發(fā)現(xiàn)相對(duì)于AI給出的建議,決策者更多采納人機(jī)協(xié)同給出的建議,而對(duì)人機(jī)協(xié)同給出的建議和專家單獨(dú)給出的建議,建議采納沒(méi)有顯著差異。研究2采用2(建議來(lái)源:專家/人機(jī)協(xié)同)×3(建議尋求動(dòng)機(jī):關(guān)系動(dòng)機(jī)/準(zhǔn)確動(dòng)機(jī)/控制組)被試間設(shè)計(jì),發(fā)現(xiàn)決策者對(duì)人機(jī)協(xié)同的建議采納多于對(duì)專家的建議采納,關(guān)系動(dòng)機(jī)條件下的建議采納多于準(zhǔn)確動(dòng)機(jī)條件下的建議采納。研究結(jié)果表明人們?cè)敢獠杉{人機(jī)協(xié)同給出的建議。
關(guān)鍵詞 人機(jī)協(xié)同;關(guān)系動(dòng)機(jī);準(zhǔn)確動(dòng)機(jī);建議采納
分類號(hào) B849
DOI:10.16842/j.cnki.issn2095-5588.2024.12.001
1 引言
日常生活中,人們做出決策時(shí)往往會(huì)參考他人建議以提高決策質(zhì)量(Gino & Schweitzer,2008)。影響建議采納的因素很多,但很少有研究探討決策者的動(dòng)機(jī)對(duì)建議采納的影響,尤其是當(dāng)建議來(lái)源不同時(shí),決策者的動(dòng)機(jī)是否影響其對(duì)建議的采納?本文對(duì)此進(jìn)行了探討。
Ji等(2017)通過(guò)質(zhì)性研究探討了決策者尋求建議的動(dòng)機(jī),結(jié)果發(fā)現(xiàn),獲取信息確實(shí)是尋求建議的主要?jiǎng)訖C(jī)之一,如解決手頭的問(wèn)題、獲得替代視角或確認(rèn)決定;同時(shí),決策者還可能會(huì)為了建立、維持或改善關(guān)系而尋求建議。建議采納過(guò)程既是信息加工過(guò)程,也是人際互動(dòng)過(guò)程,如果決策者期望獲得最優(yōu)的解決方案或做出最佳決定(Jonas, 2005)而評(píng)估他人建議,或?qū)⒆约旱某跏紱Q策和他人建議進(jìn)行比較分析,則說(shuō)明其采納建議時(shí)是出于準(zhǔn)確性動(dòng)機(jī)或認(rèn)知?jiǎng)訖C(jī)。如果建議者和決策者關(guān)注人際關(guān)系,說(shuō)明在建議采納中存在關(guān)系動(dòng)機(jī)或社會(huì)性動(dòng)機(jī),即采納建議是為了建立或維持積極的人際關(guān)系(Blunden et al., 2019)。Dreu和Boles(1998)發(fā)現(xiàn),持親社會(huì)動(dòng)機(jī)的談判者傾向于合作策略,易采納他人提供的信息。決策者基于準(zhǔn)確性動(dòng)機(jī)采納建議時(shí),如果其不信任建議者,則多采用系統(tǒng)式加工,并對(duì)建議信息反復(fù)權(quán)衡,從而可能導(dǎo)致建議采納程度降低(Chen et al., 1996)。因此,本研究探討的第一個(gè)問(wèn)題是決策者的建議采納程度是否因動(dòng)機(jī)不同(準(zhǔn)確vs. 關(guān)系)而存在差異。
在數(shù)字化時(shí)代,專家和AI都能給出建議,如醫(yī)療專家和醫(yī)療AI(杜秀芳等, 2023)。已有研究探討了人類專家與算法的建議對(duì)決策者的建議采納的影響,并發(fā)現(xiàn)存在算法厭惡(Dietvorst et al., 2015; Kaufmann et al., 2023)。人們不愿意采納算法的建議一方面是因?yàn)锳I能力不足(Mahmud et al., 2022)。相比于人類給出錯(cuò)誤建議的后果,人們對(duì)AI給出錯(cuò)誤建議后的信任損失得更快(Bogert et al., 2021);另一方面涉及AI的責(zé)任主體性問(wèn)題(Hakli & M?kel?, 2019; Parthemore & Whitby, 2014),即如果AI給出了錯(cuò)誤的建議,人們無(wú)法追究責(zé)任。但現(xiàn)實(shí)情況是,往往只有少數(shù)人擁有并使用AI,尤其是一些高級(jí)的AI,普通人可能并不擁有也不會(huì)使用。也就是說(shuō),有一部分來(lái)自算法的建議并不是AI獨(dú)立給出的,而是專家使用AI后給出的,是人機(jī)協(xié)同的結(jié)果。對(duì)于這部分建議,人們的采納情況如何?前人對(duì)人機(jī)協(xié)同決策的研究(Sowa et al., 2021; Zhang et al., 2023)發(fā)現(xiàn),相比與人協(xié)同,與高質(zhì)量的AI協(xié)同所作出的決策表現(xiàn)更佳。我們推測(cè),人機(jī)協(xié)同給出的建議一方面可以提高建議接受者對(duì)AI的信任,另一方面在一定程度上可以削弱人們對(duì)AI是否可以作為責(zé)任主體的疑慮。因此,決策者對(duì)人機(jī)協(xié)同的建議采納程度是否高于來(lái)自AI的建議或來(lái)自專家的建議,這是本研究要探討的第二個(gè)問(wèn)題。
人機(jī)協(xié)同給出的建議類似集體商議的結(jié)果,決策者可能會(huì)認(rèn)為它更準(zhǔn)確,那么在準(zhǔn)確性動(dòng)機(jī)條件下是否會(huì)對(duì)其采納程度更高?而在人機(jī)協(xié)同中,專家和AI的責(zé)任都會(huì)降低,這是否會(huì)削弱關(guān)系動(dòng)機(jī)條件下決策者的建議采納程度?因此,本研究要探討的第三個(gè)問(wèn)題是不同動(dòng)機(jī)條件下,決策者對(duì)來(lái)自專家和人機(jī)協(xié)同的建議的采納程度是否存在差異。
近幾年,醫(yī)療領(lǐng)域的AI技術(shù)得到了突破性發(fā)展。如2023年10月,科大訊飛的星火醫(yī)療大模型已經(jīng)在全國(guó)400個(gè)縣區(qū)取得了規(guī)模化應(yīng)用,并且該模型在國(guó)家執(zhí)業(yè)醫(yī)師資格考試中的表現(xiàn)優(yōu)于96%的參加考試的醫(yī)生。另外,被試對(duì)醫(yī)療情境均較為熟悉,該領(lǐng)域的研究成果較多,便于比較,如Bossen和Pine(2023)發(fā)現(xiàn),在醫(yī)療健康領(lǐng)域中,在人類監(jiān)督下提供醫(yī)療服務(wù)的AI更易被人們接受。因此,本研究將以醫(yī)療情境的疾病預(yù)測(cè)為實(shí)驗(yàn)材料,首先探討當(dāng)決策者出于準(zhǔn)確性的建議尋求動(dòng)機(jī)時(shí),建議采納程度是否因建議來(lái)源(人機(jī)協(xié)同vs. AI vs. 專家)不同而存在差異。其次,動(dòng)機(jī)(準(zhǔn)確性vs. 關(guān)系)是否影響對(duì)不同來(lái)源建議(專家vs. 人機(jī)協(xié)同)的采納。實(shí)驗(yàn)1采用單因素的被試間設(shè)計(jì),探討人們對(duì)人機(jī)協(xié)同的建議采納程度是否高于專家或AI的建議采納程度;在此基礎(chǔ)上,實(shí)驗(yàn)2采用3×2的被試間實(shí)驗(yàn)設(shè)計(jì),探討不同動(dòng)機(jī)條件下對(duì)專家和人機(jī)協(xié)同的建議采納程度是否存在差異。
本研究的程序材料、數(shù)據(jù)、分析代碼已在https://osf.io/gbtw9/?view_only=b1ba0b5d9a9b46c791bf7946c8c7800f公開(kāi)。
2 研究1 人機(jī)協(xié)同對(duì)建議采納的促進(jìn)作用
2.1 研究方法
2.1.1 被試
使用G*power計(jì)算效應(yīng)量f=0.25, α=0.05,1- β=0.8時(shí)的單因素方差分析所需樣本量,結(jié)果需要159名被試。本實(shí)驗(yàn)在Credamo在線實(shí)驗(yàn)平臺(tái)上招募259名被試,刪除六輪任務(wù)中建議采納程度(Weight of Advice, WOA)無(wú)效的被試67人以及3個(gè)標(biāo)準(zhǔn)差以外的極端值被試19人,最終有效被試為173人(男性78人, 女性95人, 年齡31.90±8.71歲)。
2.1.2 研究設(shè)計(jì)
采用單因素(建議來(lái)源:專家/AI/人機(jī)協(xié)同)的被試間設(shè)計(jì),因變量是被試的建議采納程度,參照Yaniv(2004)的計(jì)算公式:WOA=|決策者最終估計(jì)-決策者初始估計(jì)|/|建議值-決策者初始估計(jì)|,WOA=0表示決策者完全不接受建議,WOA=1表示決策者完全接受建議,被試初始估計(jì)與建議值相同時(shí),公式的分母為0,則WOA無(wú)效,數(shù)據(jù)被剔除。
2.1.3 材料
(1)疾病預(yù)測(cè)材料
改編自杜秀芳等(2023)的實(shí)驗(yàn)材料,包括肺癌、特發(fā)性肺動(dòng)脈高壓(IPAH)、前列腺癌、心臟病、糖尿病以及高血壓六種疾病患病概率的材料,每種材料給出了在特定人群中的患病概率以及檢出率,要求被試預(yù)測(cè)某項(xiàng)檢查異常的個(gè)體患該疾病的概率。如前列腺癌的材料:
曹爺爺,84歲,前列腺特異性抗原(PSA)測(cè)試的結(jié)果異常。PSA測(cè)試是檢測(cè)前列腺癌的一種手段。據(jù)統(tǒng)計(jì),我國(guó)80歲以上的老人中每1000個(gè)有15人患前列腺癌。對(duì)這15人進(jìn)行PSA測(cè)試會(huì)有11人結(jié)果異常;由于這種測(cè)試不是特別準(zhǔn)確,其余985人進(jìn)行該測(cè)試時(shí)也會(huì)有25人結(jié)果異常。如果曹大爺PSA測(cè)試結(jié)果異常,那么他實(shí)際患前列腺癌的概率是多少?
2.1.4 程序
被試被隨機(jī)分到三個(gè)實(shí)驗(yàn)組。然后主試依次向其呈現(xiàn)六個(gè)情景,被試按照J(rèn)AS范式完成建議采納任務(wù)。每個(gè)情景開(kāi)始時(shí),被試先獨(dú)立做出預(yù)測(cè)估計(jì),然后呈現(xiàn)專家、AI或人機(jī)協(xié)同的預(yù)測(cè)結(jié)果,被試根據(jù)該結(jié)果再做一次預(yù)測(cè),最初的預(yù)測(cè)可以修改,也可以保持。最后收集人口學(xué)信息。
2.2 結(jié)果
將被試在六種疾病預(yù)測(cè)材料中的建議采納程度平均值作為因變量,建議來(lái)源為自變量,性別作為協(xié)變量,采用單因素方差分析,結(jié)果發(fā)現(xiàn),建議來(lái)源的主效應(yīng)顯著,F(xiàn)(2, 169)=4.15,p=0.017,η2p=0.06,專家組(M=0.62, SD=0.25, t(110) =2.17, d=0.40, p=0.048)和人機(jī)協(xié)同組(M=0.64, SD =0.28, t(115)=2.51, d=0.46, p=0.040)的建議采納程度顯著高于AI組(M=0.50, SD=0.32)的建議采納程度,專家組和人機(jī)協(xié)同組的建議采納程度無(wú)顯著差異。
該結(jié)果說(shuō)明,即使在AI技術(shù)得到大幅度發(fā)展的今天,算法厭惡仍然存在,而人機(jī)協(xié)同可以避免算法厭惡。鑒于與高質(zhì)量的AI進(jìn)行協(xié)同決策時(shí)的聯(lián)合表現(xiàn)優(yōu)于單獨(dú)個(gè)體決策時(shí)的表現(xiàn)(Zhang et al., 2023),研究2將進(jìn)一步探討不同動(dòng)機(jī)條件下建議來(lái)源對(duì)建議采納的影響。
3 研究2 決策者動(dòng)機(jī)與建議來(lái)源對(duì)建議采納的影響
3.1 研究方法
3.1.1 被試
使用G*power計(jì)算效應(yīng)量f=0.25, α=0.05,1-β =0.8時(shí)的3×2方差分析所需樣本量,結(jié)果需要158名被試。本實(shí)驗(yàn)在Credamo在線實(shí)驗(yàn)平臺(tái)上招募400名被試,刪除答題不符合規(guī)范(如以文字而非數(shù)值進(jìn)行答題)的12人、六輪任務(wù)中WOA無(wú)效(被試初始估計(jì)與建議值相同)的33人、動(dòng)機(jī)操縱未成功的(準(zhǔn)確性動(dòng)機(jī)操縱條件下準(zhǔn)確性動(dòng)機(jī)檢驗(yàn)得分低于關(guān)系動(dòng)機(jī)檢驗(yàn)的被試和關(guān)系動(dòng)機(jī)操縱條件下關(guān)系動(dòng)機(jī)檢驗(yàn)得分低于準(zhǔn)確動(dòng)機(jī)檢驗(yàn)的被試)28人以及3個(gè)標(biāo)準(zhǔn)差以外的極端值被試4人,最終有效被試為323人(男性110人,女性213人,年齡32.73±9.31歲)。
3.1.2 研究設(shè)計(jì)
采用3(建議尋求動(dòng)機(jī):準(zhǔn)確性動(dòng)機(jī)/關(guān)系動(dòng)機(jī)/控制組)×2(建議來(lái)源:專家/人機(jī)協(xié)同)的被試間設(shè)計(jì),因變量是建議采納程度(同研究1)。
3.1.3 材料
(1)疾病預(yù)測(cè)材料同研究1。
(2)動(dòng)機(jī)操縱材料
準(zhǔn)確動(dòng)機(jī)操縱材料:“本研究的目的是探究采納他人建議時(shí)如何保持客觀的態(tài)度。建議互動(dòng)過(guò)程是多方面收集信息,減少?zèng)Q策中不確定性的過(guò)程。采納他人建議的目的是作出準(zhǔn)確的決策。建議互動(dòng)過(guò)程越客觀,最終的決策越準(zhǔn)確”。
關(guān)系動(dòng)機(jī)操縱材料:“本研究的目的是探究采納他人建議時(shí)如何主動(dòng)追求與他人之間的親密和良好關(guān)系,建議互動(dòng)過(guò)程是建立與他人之間的聯(lián)系,并互相支持的過(guò)程。采納他人建議體現(xiàn)了對(duì)于人際關(guān)系的認(rèn)知和重視。這個(gè)過(guò)程越和諧、越順利,雙方的關(guān)系也就越好”。
控制組動(dòng)機(jī)操縱材料:“本研究的目的是探究采納他人建議時(shí)的行為特點(diǎn)。建議互動(dòng)過(guò)程是決策者和建議者共同作出決策的過(guò)程。在下面的建議互動(dòng)情景中,請(qǐng)按照指導(dǎo)語(yǔ)和主試的指引進(jìn)行”。
(3)動(dòng)機(jī)操縱檢驗(yàn)材料
準(zhǔn)確動(dòng)機(jī)操縱檢驗(yàn)題目是“請(qǐng)問(wèn)在本次測(cè)驗(yàn)中,你追求自己的決策結(jié)果準(zhǔn)確性的程度是”。關(guān)系動(dòng)機(jī)操縱檢驗(yàn)題目是“請(qǐng)問(wèn)在本次測(cè)驗(yàn)中,你有意維持你和建議者的關(guān)系的程度是”。均為7點(diǎn)計(jì)分,1表示非常低,7表示非常高。
3.1.4 程序
基本同研究1。與研究1的不同之處在于在呈現(xiàn)情景之前,先對(duì)動(dòng)機(jī)進(jìn)行操縱,在完成六個(gè)情景任務(wù)后,進(jìn)行動(dòng)機(jī)的操縱檢驗(yàn)和人口學(xué)信息測(cè)量。
3.2 結(jié)果
3.2.1 動(dòng)機(jī)的操縱檢驗(yàn)
不同的建議尋求動(dòng)機(jī)組在兩種動(dòng)機(jī)檢驗(yàn)問(wèn)題上的平均數(shù)和標(biāo)準(zhǔn)差如表1所示。
重復(fù)測(cè)量的方差分析結(jié)果發(fā)現(xiàn),動(dòng)機(jī)感知效果檢驗(yàn)問(wèn)題的主效應(yīng)顯著,F(xiàn)(1, 320)=8.39, p=0.004,η2p=0.03;決策者動(dòng)機(jī)的主效應(yīng)不顯著;不同決策者動(dòng)機(jī)誘發(fā)和動(dòng)機(jī)感知效果檢驗(yàn)問(wèn)題之間的交互作用顯著,F(xiàn)(2, 320)=94.08, p< 0.001,η2p=0.37。進(jìn)一步的簡(jiǎn)單效應(yīng)分析表明,準(zhǔn)確性動(dòng)機(jī)組在準(zhǔn)確性動(dòng)機(jī)檢驗(yàn)問(wèn)題上(M=5.39, SD=0.12)的得分顯著高于關(guān)系性動(dòng)機(jī)的檢驗(yàn)問(wèn)題得分(M=4.21, SD=0.12), t(105) =9.85, p<0.001, d=1.03;關(guān)系性動(dòng)機(jī)組的被試在準(zhǔn)確性動(dòng)機(jī)檢驗(yàn)問(wèn)題上的得分(M=4.01, SD=0.12)顯著低于關(guān)系性動(dòng)機(jī)的檢驗(yàn)問(wèn)題得分(M=5.30, SD=0.11), t(109) =-13.37, p<0.001,d=-1.13;控制組的被試在準(zhǔn)確性動(dòng)機(jī)檢驗(yàn)問(wèn)題上(M=4.54, SD=0.12)的得分顯著低于關(guān)系性動(dòng)機(jī)的檢驗(yàn)問(wèn)題得分(M=5.05, SD=0.11), t (106)=-3.06, p=0.003, d=-0.37。
換個(gè)方向來(lái)看,在準(zhǔn)確性動(dòng)機(jī)的檢驗(yàn)問(wèn)題上,準(zhǔn)確性動(dòng)機(jī)組(M=5.39, SD=0.99)高于控制組(M=4.54, SD=1.44, t(189)=5.00, p<0.001, d=0.68)和關(guān)系動(dòng)機(jī)組(M=4.01, SD=1.28, t(205) =8.86, p<0.001, d=1.20),而且控制組也顯著高于關(guān)系動(dòng)機(jī)組(t(211)=2.88, p=0.013, d=0.39);在關(guān)系動(dòng)機(jī)檢驗(yàn)問(wèn)題上,關(guān)系動(dòng)機(jī)組(M=5.30, SD=0.97, t(195)=6.97, p<0.001, d=0.95)和控制組(M=5.05, SD=1.26, t(211)=4.81, p<0.001, d=0.66)顯著高于準(zhǔn)確性動(dòng)機(jī)組(M=4.21, SD=1.28),關(guān)系動(dòng)機(jī)組與控制組的差異不顯著。綜上,決策者動(dòng)機(jī)的操作是成功的。
3.2.2 決策者動(dòng)機(jī)與建議來(lái)源對(duì)建議采納的影響
被試在六種疾病預(yù)測(cè)材料中的建議采納程度平均值和標(biāo)準(zhǔn)差見(jiàn)表2。
以建議尋求動(dòng)機(jī)、建議來(lái)源為自變量,性別作為協(xié)變量,建議采納程度為因變量,進(jìn)行方差分析。結(jié)果顯示,建議尋求動(dòng)機(jī)的主效應(yīng)顯著,F(xiàn)(2, 316)=8.79, p<0.001,η2p=0.05。事后檢驗(yàn)發(fā)現(xiàn),關(guān)系性動(dòng)機(jī)組(M=0.71, SD=0.27, t (213)=4.42, p<0.001, d=0.60)和控制組(M=0.65, SD=0.28, t(201)=2.54, p=0.035, d=0.35)顯著高于準(zhǔn)確性動(dòng)機(jī)組(M=0.55, SD=0.28);控制組和關(guān)系性動(dòng)機(jī)組無(wú)顯著差異。建議來(lái)源的主效應(yīng)顯著,F(xiàn)(1, 316)=4.86, p=0.028,η2p=0.016,被試對(duì)人機(jī)協(xié)同(M=0.67, SD=0.30)的建議采納程度顯著高于對(duì)專家(M=0.60, SD=0.29)的。決策者動(dòng)機(jī)與建議來(lái)源的交互作用不顯著,F(xiàn)(2, 316)=0.79,p=0.456。
4 討論
研究1發(fā)現(xiàn),建議來(lái)源對(duì)決策者建議采納具有顯著影響,決策者對(duì)專家和人機(jī)協(xié)同的建議采納程度顯著高于對(duì)AI的。有研究認(rèn)為AI不能作為責(zé)任主體,因?yàn)樗麄內(nèi)狈ψ杂梢庵竞驼J(rèn)知條件(Hakli & M?kel?, 2019),因此人們不愿意把重要任務(wù)指派給它們。在AI技術(shù)得到大幅度發(fā)展的背景下,盡管AI的確在很多方面表現(xiàn)優(yōu)異,但人們?nèi)匀徊辉敢馐褂肁I的建議(Schmitt, 2020)。算法的黑盒屬性也會(huì)阻礙算法的使用。Longoni等(2019)的研究認(rèn)為醫(yī)療領(lǐng)域中出現(xiàn)算法厭惡是因?yàn)榫歪t(yī)者擔(dān)心算法不能考慮到個(gè)人的獨(dú)特情況。Bonezzi等(2022)的研究發(fā)現(xiàn)人們對(duì)人類決策的理解比對(duì)算法決策的理解容易,因?yàn)槲覀儠?huì)更多把自己對(duì)決策過(guò)程的理解投射到人類給出的建議。然而專家使用算法為決策者提供建議則表明了專家對(duì)算法的信任,決策者會(huì)認(rèn)為該建議具有較高的可靠度,降低了對(duì)AI能否作為責(zé)任主體的疑慮,因而采納程度更高。研究2雖然發(fā)現(xiàn)決策者對(duì)人機(jī)協(xié)同的建議采納程度高于對(duì)專家的,但差異的效應(yīng)量很低。
研究2發(fā)現(xiàn)出于關(guān)系動(dòng)機(jī)的決策者對(duì)他人的建議采納程度顯著高于出于準(zhǔn)確性動(dòng)機(jī)的決策者對(duì)他人的建議采納程度。這很可能是由于準(zhǔn)確性動(dòng)機(jī)的目的是了解問(wèn)題的本質(zhì),作出正確的決策,重點(diǎn)在于建議本身的質(zhì)量和可靠性程度。這導(dǎo)致決策者在決定是否采納時(shí)更加謹(jǐn)慎,甚至?xí)?duì)建議產(chǎn)生質(zhì)疑,從而降低了對(duì)建議采納的程度。另外,如果決策題目太難,操縱準(zhǔn)確性動(dòng)機(jī)可能會(huì)使被試有意質(zhì)疑專家或人機(jī)協(xié)同給出的建議,進(jìn)一步降低準(zhǔn)確性動(dòng)機(jī)條件下的建議采納程度。而關(guān)系性動(dòng)機(jī)的目的在于與他人建立或保持親密友好的關(guān)系,因此,作出決策時(shí)考慮的重點(diǎn)不在建議本身,而是與他人的關(guān)系,所以決策者對(duì)他人建議的質(zhì)疑較少,并且傾向于通過(guò)采納建議以建立或維持與他人良好的關(guān)系。
此外,我們發(fā)現(xiàn),在關(guān)系動(dòng)機(jī)條件下,決策者對(duì)人機(jī)協(xié)同的建議采納程度顯著高于對(duì)專家的建議采納程度。我們認(rèn)為,首先,基于關(guān)系動(dòng)機(jī)尋求建議的人對(duì)關(guān)系更加重視,這能夠減少人們的防御性(Van Tongeren et al., 2014),進(jìn)而增加對(duì)人機(jī)協(xié)同的接受程度;其次,建議由多位“專家”給出,體現(xiàn)了群體的智慧,使得建議更讓人信服。Mannes(2009)的研究發(fā)現(xiàn)人們認(rèn)為多位專家給出的建議比一位專家給出的建議好。
本研究具有重要的理論意義和實(shí)踐價(jià)值。從理論角度來(lái)看,將動(dòng)機(jī)與人機(jī)協(xié)同結(jié)合起來(lái),拓展了決策領(lǐng)域的研究范疇。從實(shí)踐角度出發(fā),本研究對(duì)促進(jìn)人工智能建議的應(yīng)用提供了指導(dǎo)意義。正如黨的二十大報(bào)告所指出的,要讓人工智能助力健康中國(guó)建設(shè)。高質(zhì)量人工智能的使用可以極大緩解目前面臨的就醫(yī)壓力。然而,以往研究發(fā)現(xiàn),醫(yī)療領(lǐng)域是算法厭惡最嚴(yán)重的領(lǐng)域之一(Jussupow et al., 2020)。因此,專家在決策過(guò)程中使用AI輔助工具,能夠顯著提高診斷的速度和質(zhì)量,同時(shí)也更容易被患者接受。
本研究也存在局限。第一,研究采用醫(yī)療情景材料,未來(lái)可以在其他領(lǐng)域中驗(yàn)證本研究的結(jié)果。第二,研究2中,對(duì)動(dòng)機(jī)的操縱過(guò)于直接,有可能存在被試效應(yīng)。因此,未來(lái)的研究,可以換一種動(dòng)機(jī)操縱方式來(lái)驗(yàn)證本結(jié)果的穩(wěn)健性。第三,研究2將決策者的動(dòng)機(jī)區(qū)分為準(zhǔn)確性動(dòng)機(jī)和關(guān)系性動(dòng)機(jī)兩個(gè)維度,但是人們的決策過(guò)程是復(fù)雜的,不止受到這兩種動(dòng)機(jī)的影響,還可以歸納出其他類型的動(dòng)機(jī)。因此,未來(lái)可在本研究的基礎(chǔ)上,更加深入細(xì)致地探討動(dòng)機(jī)對(duì)建議采納的影響。
參考文獻(xiàn)
杜秀芳, 王靜, 李方, 王亞婷(2023). 算法厭惡還是算法欣賞?——不同建議來(lái)源對(duì)個(gè)體建議采納的影響. 中國(guó)臨床心理學(xué)雜志, 31(1), 75-79, 95.
Blunden, H., Logg, J. M., Brooks, A. W., John, L. K., & Gino, F. (2019). Seeker beware: The interpersonal costs of ignoring advice. Organizational Behavior and Human Decision Processes, 150(3), 83-100.
Bogert, E., Schecter, A., & Watson, R. T. (2021). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific reports, 11(1), 8028.
Bonezzi, A., Ostinelli, M., & Melzner, J. (2022). The human black-box: The illusion of understanding human better than algorithmic decision-making. Journal of Experimental Psychology: General, 151(9), 2250-2258.
Bossen, C., & Pine, K. H. (2023). Batman and robin in healthcare knowledge work: Human-AI collaboration by clinical documentation integrity specialists. ACM Transactions on Computer-Human Interaction, 30(2), 1-29.
Chen, S., Shechter, D., & Chaiken, S. (1996). Getting at the truth or getting along: Accuracy-versus impression-motivated heuristic and systematic processing. Journal of personality and social psychology, 71(2), 262.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algo-rithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114.
De Dreu, C. K., & Boles, T. L. (1998). Share and share alike or winner take all?: The influence of social value orientation upon choice and recall of negotiation heuristics. Organizational behavior and human decision processes, 76(3), 253-276.
Gino, F., & Schweitzer, M. E. (2008). Blinded by anger or feeling the love: How emotions influence advice taking. Journal of Applied Psychology, 93(5), 1165.
Hakli, R., & M?kel?, P. (2019). Moral responsibility of ro-bots and hybrid agents. The Monist, 102(2), 259-275.
Ji, L. J., Zhang, N., Li, Y., Zhang, Z., Harper, G., Khei, M., & Li, J. (2017). Cultural variations in reasons for advice seeking. Journal of Behavioral Decision Making, 30(3), 708-718.
Jonas, E., Schulz-Hardt, S., & Frey, D. (2005). Giving advice or making decisions in someone else’s place: The influence of impression, defense, and accuracy motivation on the search for new information. Personality and Social Psychology Bulletin, 31(7), 977-990.
Jussupow, E., Benbasat, I., & Heinzl, A. (2020, June). Why are we averse towards algorithms? A comprehensive lite-rature review on algorithm aversion. Paper presented at the meeting of the Proceedings of the 28th European Conference on Information Systems (ECIS), An Online AIS Conference, Marrakech, Morocco.
Kaufmann, E., Chacon, A., Kausel, E. E., Herrera, N., & Reyes, T. (2023). Task-specific algorithm advice accep-tance: A review and directions for future research. Data and Information Management, 7(3), 100040.
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), 629-650.
Mahmud, H., Islam, A. N., Ahmed, S. I., & Smolander, K. (2022). What influences algorithmic decision-making? A systematic literature review on algorithm aversion. Technological Forecasting and Social Change, 175(49), 121390.
Mannes, A. E. (2009). Are we wise about the wisdom of crowds? The use of group judgments in belief revision. Management Science, 55(8), 1267-1279.
Parthemore, J., & Whitby, B. (2014). Moral agency, moral responsibility, and artifacts: What existing artifacts fail to achieve (and why), and why they, nevertheless, can (and do?。?make moral claims upon us. International Journal of Machine Consciousness, 6(2), 141-161.
Schmitt, B. (2020). Speciesism: An obstacle to AI and robot adoption. Marketing Letters, 31(1), 3-6.
Sowa, K., Przegalinska, A., & Ciechanowski, L. (2021). Cobots in knowledge work: Human-AI collaboration in managerial professions. Journal of Business Research, 125(24196), 135-142.
Van Tongeren, D.R., Green, J.D., Hulsey, T.L., Legare, C.H., Bromley, D.G., & Houtman, A.M. (2014). A meaning-based approach to humility: Relationship affirmation reduces worldview defense. Journal of Psychology and Theology, 42(1), 62-69.
Yaniv, I. (2004). Receiving other people’s advice: Influence and benefit. Organizational behavior and human decision processes, 93(1), 1-13.
Zhang, G., Chong, L., Kotovsky, K., & Cagan, J. (2023). Trust in an AI versus a Human teammate: The effects of teammate identity and performance on Human-AI coop-eration. Computers in Human Behavior, 139(1), 107536.