田 怡
(青島大學(xué)紡織服裝學(xué)院,山東 青島 266071)
人工智能在現(xiàn)代社會各個領(lǐng)域的應(yīng)用是順應(yīng)時代發(fā)展需要,但因為信息技術(shù)發(fā)展的限制,人工智能在不同領(lǐng)域的應(yīng)用也面臨著各種難題。而“修昔底德陷阱”作為一個研究命題,長期以來學(xué)術(shù)界對其討論和研究也從未間斷過[1]。目前,人工智能技術(shù)在法律治理中的應(yīng)用,因其與人類價值觀及倫理性尚未形成完善的體制構(gòu)架,導(dǎo)致人工智能的法律治理陷入了“修昔底德困局”中。因此,針對人工智技術(shù)對當(dāng)前的法律體系造成的倫理沖擊,如何采取應(yīng)對措施,解決人工智能的法律治理“修昔底德困局”的難題,是本文探討和研究的重點。
直到今天,人們對于人工智能的定義并沒有形成共識,最早人工智能被認為是像機器人一樣學(xué)習(xí)、思考和認知事物,是一種通過計算機來模擬人類的智能技術(shù)。但隨著人工智能的不斷發(fā)展,到目前為止,人工智能有兩種常見的定義。一種認為人工智能是利用計算機來實現(xiàn)智能化操作;另一種認為人工智能是一門通過研究和獲取知識,再運用知識的科學(xué)。
隨著時代的發(fā)展,人工智能技術(shù)的不斷創(chuàng)新,現(xiàn)在歐洲對人工智能的通用定義是可以利用傳感器或互聯(lián)互通技術(shù)分析數(shù)據(jù)、獲取經(jīng)驗、調(diào)整自身行為的無生命意義的信息工具。雖然,人工智能在目前還未形成統(tǒng)一的定義,但明確人工智能的本質(zhì)特征,對于解決人工智能導(dǎo)致的倫理與法律問題有重要意義。
人工智能技術(shù)要為人類社會服務(wù),前提條件必然是遵循人類社會的倫理道德和法律準(zhǔn)則。但在實際的應(yīng)用中,人工智能技術(shù)是由研發(fā)人員設(shè)計的,人工智能系統(tǒng)的法律治理問題,還要歸為人工智能技術(shù)研發(fā)的倫理及法律問題。為避免人工智能技術(shù)研發(fā)人員將其個人的主觀好惡、偏見等代入人工智能系統(tǒng)研發(fā)的過程中,還需要在人工智能系統(tǒng)中植入相關(guān)的倫理道德規(guī)范和價值代碼化,以便人工智能系統(tǒng)可以在運行過程中,及時做出符合倫理道德及價值規(guī)范的行為。
由于人工智能算法歧視和算法自身的構(gòu)建,以及基于算法的數(shù)據(jù)樣本等密切關(guān)聯(lián),如果底層數(shù)據(jù)積累越多,人工智能算法的計算結(jié)果準(zhǔn)確度就越高,對某類人群的人工智能算法描述也更加精準(zhǔn)。另外,人工智能算法的復(fù)雜性在不斷增加,人類社會開始普及計算機學(xué)習(xí),也會加劇人工智能系統(tǒng)算法的黑箱問題日益嚴重[2]。
如今,人工智能已經(jīng)被廣泛用于企業(yè)管理、信用評估和治安巡邏等多種決策性工作中,如何確保人工智能算法在決策性工作中的公平正義性,成了人工智能法律治理中極為重要的問題。目前,人工智能的正義性問題主要分為兩個方面:①如何保障人工智能算法決策的公正性,杜絕出現(xiàn)人工智能算法決策歧視的問題;②在某種決策工作中若牽涉到個人,如何采取申訴,并問責(zé)人工智能及其算法,實現(xiàn)公開透明救助個人的效果。
在大數(shù)據(jù)時代,人工智能高速發(fā)展的社會背景下,人工智能自動化決策技術(shù)被用于教育、醫(yī)療、信貸、治安等諸多社會領(lǐng)域內(nèi),使得人工智能算法的歧視問題變得不容忽視,人工智能決策的不公正性問題也頻繁出現(xiàn)在各個領(lǐng)域內(nèi)。另外,人工智能系統(tǒng)中存在各種潛在的偏見,都會對涉及人工智能決策的個體產(chǎn)生負面影響,為其帶來不公正對待。而在傳統(tǒng)的法律體系中,我們可以借助程序正義,保證法律的公平正義。因為數(shù)字正義的規(guī)則范圍更廣,在極大程度上挑戰(zhàn)了人工智能時代各個領(lǐng)域內(nèi)的法律法規(guī)[3]。
人工智能系統(tǒng)需要收集大量的數(shù)據(jù)信息,并對其進行自動化和智能化的分析,這在很大程度上對個人隱私及數(shù)據(jù)保密造成了沖擊。因為人工智能系統(tǒng)運行的基礎(chǔ)是有大量數(shù)據(jù)作為支撐,通過分析大數(shù)據(jù)可以得知個人信息和消費、收入等隱私內(nèi)容。再由這些數(shù)據(jù)分析的結(jié)論,而采取“算法殺熟”的方式,會導(dǎo)致社會上出現(xiàn)各種不公平現(xiàn)象。
而且,人工智能系統(tǒng)可以利用對個人數(shù)據(jù)進行智能化分析、決策的優(yōu)勢,形成個人畫像,從而對個人投資和收益造成影響。比如在人工智能系統(tǒng)的自動化操作下進行投資,人工智能系統(tǒng)可根據(jù)客戶的財務(wù)狀況給予其投資建議。如果投資失敗,客戶的權(quán)益保障問題,銀行等相關(guān)的金融機構(gòu),如何與個人數(shù)據(jù)管理實現(xiàn)協(xié)調(diào)也成了人工智能法律治理問題中的難題。另外,司法審判過程中案件還原程度的真實情況被極大程度簡化,也會導(dǎo)致個人的人格、尊嚴及人權(quán)在人工智能技術(shù)的發(fā)展中逐漸喪失。
人工智能法律治理的主要目的是實現(xiàn)人工智能算法的公平、公正和透明化。而人工智能系統(tǒng)的透明化,也是確保人工智能算法公平、公正的前提條件。具體的實施方式為構(gòu)建完善的人工智能解釋機制,讓計算機編程人員提供相關(guān)信息,對人工智能系統(tǒng)的構(gòu)造和原理進行解釋,保證社會大眾對人工智能系統(tǒng)的運算機理有更清晰的認識。
人工智能算法雖然可以輔助司法系統(tǒng),并采取決策,但因為算法目標(biāo)不明,數(shù)據(jù)不完整及存在算法誤差等問題,也會導(dǎo)致司法系統(tǒng)人工智能決策出現(xiàn)各種倫理與法律問題。因此,在人工智能技術(shù)進行司法決策前,還要及時采取措施進行干預(yù),以便引發(fā)不必要的人工智能法律治理問題[4]。目前,全球各地都出臺了相關(guān)的人工智能法律法規(guī)條令,為了順應(yīng)社會發(fā)展的需要,我國在進行人工智能相應(yīng)立法時,也可以通過法律法規(guī)的形式來制定人工智能倫理和道德規(guī)范標(biāo)準(zhǔn)。
人工智能算法的透明性需要法律提供義務(wù)保障,算法的公開透明化,有助于人工智能研發(fā)及使用人員及時找到引發(fā)算法歧視的問題根源,明確遭受人工智能算法影響的群體范圍,有利于人工智能系統(tǒng)對算法模型進行及時更新。公開算法邏輯作為保障人工智能算法透明性的舉措,可以提供相關(guān)的數(shù)據(jù)類型、信息等分析構(gòu)架,雖然不能完全避免人工智能決策出現(xiàn)問題,但可以有效降低人工智能系統(tǒng)算法引發(fā)的一系列法律治理問題。
在大數(shù)據(jù)時代下,受到數(shù)據(jù)處理及流動的多樣化和全球化等因素的影響,為確保個人數(shù)據(jù)得到更好的法律保護,避免個人數(shù)據(jù)和信息泄露,對其人權(quán)、自由和尊嚴造成不良影響,法律還要確保人工智能數(shù)據(jù)處理人員,對個人數(shù)據(jù)實施匿名化處理,以免數(shù)據(jù)主體再次被識別。
針對人工智能法律治理中會出現(xiàn)的一系列問題,構(gòu)建完善的人工智能行政監(jiān)管體制也變得愈發(fā)重要。而人工智能監(jiān)管體制的確定,不僅可以為社會各領(lǐng)域的人工智能決策提供有效的法律保障,還能確保人工智能的應(yīng)用,不會對個體尊嚴、自由和人權(quán)造成侵犯,尤其是在保護個人數(shù)據(jù)信息方面,可以有效發(fā)揮人工智能監(jiān)管機制的作用[5]。
另外,人工智能開發(fā)商、制造商等在人工智能監(jiān)管部門的監(jiān)督管理下,也可以對人工智能應(yīng)用程序的人權(quán)和道德進行評估,及時發(fā)現(xiàn)其潛在的偏見,并作出相應(yīng)的改進。同時,人工智能監(jiān)管體制的完善,也有利于人工智能行業(yè)充分發(fā)揮自律作用,推動行業(yè)及區(qū)域性自律組織的建立,實現(xiàn)相互監(jiān)督、相互約束和自律管理的目的。
人工智能時代的到來,既為社會各行各業(yè)的發(fā)展帶來了機遇,也引發(fā)了相關(guān)的法律治理問題,使其陷入“修昔底德困局”。要破解人工智能法律治理的“修昔底德困局”,還要及時調(diào)整法律法規(guī),構(gòu)建人工智能行政管理體制,以適應(yīng)人工智能技術(shù)在各領(lǐng)域內(nèi)的應(yīng)用及發(fā)展,使其真正成為為人類社會服務(wù),便民、利民的新時代信息技術(shù)工具。