胡泳
IBM正在考慮出售沃森健康(Watson Health),這標志著人工智能的雄心在醫(yī)療保健業(yè)遭遇重大挫折。作為這家標志性科技企業(yè)近年來的明星業(yè)務,沃森健康最重要的產(chǎn)品可以幫助醫(yī)生診斷和治療癌癥。它是IBM最早也是最大的AI嘗試之一。然而,盡管為了打造這一增長引擎,IBM展開了一系列有針對性的價值數(shù)十億美元的收購,但沃森健康在爭取美國國內(nèi)外市場份額上的進展并不順利,并且短期內(nèi)也看不到盈利的前景。
失敗的原因不一而足。醫(yī)療專家相信,沃森機器人醫(yī)生的困境凸顯了將AI用于治療復雜疾病的障礙,可能同時包括人力、財務和技術。比如,獲得具廣泛代表性的患者群體的數(shù)據(jù)一直是一項挑戰(zhàn),而在另外一方面,這些疾病的結(jié)果往往取決于許多可能無法在臨床數(shù)據(jù)庫中完全捕獲的因素。同時,科技公司缺乏深厚的醫(yī)療保健專業(yè)知識,如果它們不夠了解實戰(zhàn)的臨床工作流程,就會增加在病患環(huán)境中實施人工智能的困難。必須知道可以在哪里插入AI,以及AI又能夠在哪些方面提供幫助,而一切都要以提高醫(yī)院的效率為準。
不過,究其根本,在醫(yī)院中應用人工智能,首當其沖的是信任問題。在相當大的程度上,我們還是第一次見證人和機器人共處一室的復雜環(huán)境。當醫(yī)生首次與沃森交流時,他們發(fā)現(xiàn)自己處于相當困難的境地。一方面,如果沃森提供了與他們自己的觀點相一致的治療指導,醫(yī)生們對沃森的建議就看不出太多價值。超級計算機只是告訴他們本身業(yè)已知道的東西,而這些建議并沒有改變實際的處理方式。這可能會讓醫(yī)生放心,讓其對自己的決定更有信心。然而如果只是幫忙確認,機器人醫(yī)生值得在醫(yī)院里部署嗎?另一方面,如果沃森提出了與專家意見相矛盾的建議,醫(yī)生通常會得出結(jié)論:沃森對癌癥無能為力。機器無法解釋為什么它的處理是合理的,因為它的算法太復雜了,不能被人完全理解。因此,這導致了更多的不信任和懷疑,許多醫(yī)生會忽略看起來異乎尋常的AI建議,并堅持自己的專業(yè)知識。
由此來看,沃森的腫瘤診斷問題是醫(yī)生根本不信任它。人類的信任往往基于我們對其他人如何思考的理解,以及對其可靠性的經(jīng)驗了解。這有助于創(chuàng)造一種心理安全感。而AI對于大多數(shù)人來說仍然是相當新穎和陌生的。它使用復雜的分析系統(tǒng)進行決策,以識別潛在的隱藏模式和來自大量數(shù)據(jù)的微弱信號。即使可以在技術上解釋(并非總是如此),AI的決策過程對于大多數(shù)人來說通常難以理解。和自己不明白的事情互動會引起焦慮,并使我們感覺我們失去了控制。許多人也不太了解許多AI實際工作的實例,因為它們常常發(fā)生在后臺。
相反,人們總能敏銳地意識到人工智能出錯的情況:谷歌算法將黑人分類為大猩猩;一個微軟聊天機器人在不到一天的時間里成為白人至上主義者;在自動駕駛模式下運行的特斯拉汽車導致了致命的事故。這些不幸的例子受到了媒體不成比例的關注,向社會發(fā)出了人類不能完全依賴技術的信息。機器學習并非萬無一失,部分原因是設計它的人不是萬能的。雖說如此,用人工智能改進醫(yī)療保健業(yè)的努力還會繼續(xù)。原因很簡單:在這個價值萬億美元的行業(yè)里,效率只能實現(xiàn)40%~60%。因此,用機器學習算法或可擴展的AI之類的優(yōu)雅工具使它得到顯著改善的想法,顯然還是非常誘人。然而,要想達至誘人的前景,至少需要完成三件事情:第一,打開黑箱,讓AI能夠解釋自己所做的事情;第二,發(fā)現(xiàn)和減輕訓練數(shù)據(jù)及算法中的偏見;第三,為人工智能系統(tǒng)賦予倫理價值。