陶大程
人工智能并不是一個新的概念,從1950 年的圖靈之問開始,到今天產(chǎn)業(yè)的蓬勃發(fā)展。隨著人工智能廣泛的產(chǎn)業(yè)落地帶來的諸多問題,AI 面臨越來越多的可信挑戰(zhàn),例如AI 系統(tǒng)的不確定性導致潛在的安全問題;可解釋性的缺乏限制了AI 更廣泛的應用與賦能;AI 系統(tǒng)如何在使用數(shù)據(jù)的同時保護用戶隱私等。構筑可信 AI 已成為全球共識,2016 年歐盟頒布了《通用數(shù)據(jù)保護條例(GDPR)》;2017 年 12 月,IEEE 提出了《人工智能的倫理設計準則》,之后澳洲、美國、新加坡等都提出了相關的政策、指南或白皮書。國內(nèi),何積豐院士于2017 年 11 月香山科學會議上首次提出了“可信人工智能”的概念。2017 年 12 月,工業(yè)和信息化部發(fā)布了《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃》。在此之后,中國的科技公司紛紛提出了可信人工智能發(fā)展規(guī)劃。2019 年10 月,京東集團就首次在烏鎮(zhèn)世界互聯(lián)網(wǎng)大會上提出京東踐行“可信賴AI”的六大維度;京東探索研究院在2021 年4 月已將“可信人工智能”正式列為主要研究方向之一,并于同年7 月聯(lián)合中國信通院完成撰寫、發(fā)布國內(nèi)首本《可信人工智能白皮書》。
可信AI 的研究涉及方方面面,為實現(xiàn)可信AI,首要任務是找到合適的方法來定量分析、量化人工智能算法、模型、系統(tǒng)的穩(wěn)定性、可解釋性、隱私保護能力及公平性。如果人工智能在以上四個方面的“可信”度量上都達到很高的共識水平,就有更好的機會做到明確責任、透明可信,并且推動人工智能在產(chǎn)業(yè)的進一步落地。
可信AI-穩(wěn)定性:人工智能系統(tǒng)抵抗惡意攻擊或者環(huán)境噪聲并且能夠做出正確決策的能力。高性能AI系統(tǒng),能在保障用戶安全的同時更好地服務社會??梢酝ㄟ^攻擊算法的攻擊成功率等方式來度量穩(wěn)定性能?,F(xiàn)有穩(wěn)定性技術的提升方法包括對抗訓練、樣本檢測等。
可信AI-可解釋性:指人工智能系統(tǒng)所做出的決策需要讓人能夠理解。可解釋性的提升,不僅有助于構建更高性能的AI 系統(tǒng),更能促進AI 技術在更廣泛行業(yè)的賦能與落地??山忉屝缘亩攘砍四P涂山忉屝灾?,還包含訓練樣本的可解釋性、測試樣本的可解釋性等。其研究內(nèi)容包括有效性分析、樣本檢測、顯著性分析等方面。
可信AI-隱私保護:指人工智能系統(tǒng)不能把個人的隱私信息或者群體的隱私信息進行泄露。AI 系統(tǒng)在為用戶提供精準服務的同時,也要注重保護用戶的隱私。隱私保護非常重要,衡量隱私保護可以使用差分隱私、隱私攻擊等多種方式。我們可以通過聯(lián)邦學習、多方計算、同態(tài)加密等手段來提升用戶的隱私保護。
可信AI-公平性:指人工智能系統(tǒng)需要公平地對待所有用戶。公平的AI 系統(tǒng)能包容人與人之間的差異,為不同的用戶提供相同質(zhì)量的服務。目前可以使用個體公平性和群體公平性等進行公平性度量。公平性保障算法包括預處理方法、處理中方法、后處理方法等。
關于可信AI 穩(wěn)定性、可解釋性、隱私保護能力及公平性的度量及技術的提升還有待進一步研究。此外,可信AI 研究的方方面面亦互相聯(lián)系,并不孤立,因此還需要從整體出發(fā)來開展可信AI 研究。要想實現(xiàn)最終的可信人工智能,需要找到統(tǒng)一的綜合治理框架,即要構建可信AI 的一體化理論,然后來幫助我們實現(xiàn)有效的可信治理??尚臕I 一體化研究將是未來的重要趨勢??尚拍芰υu測將是未來人工智能產(chǎn)業(yè)落地中非常重要的一個環(huán)節(jié),從理論和實踐的層面持續(xù)開展可信AI 研究,將推動人工智能產(chǎn)業(yè)進入一個新的浪潮。