李思啟
新疆警察學(xué)院,新疆 克拉瑪依 830000
基于深度學(xué)習(xí)算法所搭建的人工智能之應(yīng)用已成為現(xiàn)實(shí),有別于以往,這一次的發(fā)展速度非常快,大型語(yǔ)言模型使開放式理解與生成連貫文本成為可能,理論算法開始走向?qū)嶋H應(yīng)用,推動(dòng)了聊天機(jī)器人系統(tǒng)的迭代升級(jí),2023 年ChatGPT(Chat Generative Pre-trained Transformer,是美國(guó)OpenAI 公司研發(fā)的聊天機(jī)器人程序)的誕生,標(biāo)志著人工智能算法科技進(jìn)入了新的階段。[1]算法發(fā)展的驚人速度,使得人們亟需重新審視人工智能的倫理及其所帶來(lái)的法律風(fēng)險(xiǎn)。
人工智能問(wèn)世60 多年,其應(yīng)用范圍早已拓展至多個(gè)領(lǐng)域,影響著人類的思維方式和行為模式?;仡櫲斯ぶ悄馨l(fā)展的歷史,人工智能經(jīng)歷了幾次大起大落。在其發(fā)展的過(guò)程中遇到過(guò)巨大瓶頸,又在新的理論和新的技術(shù)推動(dòng)下,奮而前行。
目前,我們正在進(jìn)入人工智能的“inside”時(shí)代,即人工智能并非簡(jiǎn)單的賦能,而是在創(chuàng)造著新的經(jīng)濟(jì)結(jié)構(gòu)和社會(huì)形態(tài)。[2]人工智能技術(shù),除了在搜索引擎、推薦系統(tǒng)、計(jì)算廣告、人臉識(shí)別、圖像識(shí)別、語(yǔ)音識(shí)別、機(jī)器翻譯、游戲博弈等領(lǐng)域已大規(guī)模熟練運(yùn)用外,還在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)、新藥發(fā)現(xiàn)、國(guó)防軍工等領(lǐng)域有了突破性的進(jìn)展。
人工智能的發(fā)展速度已然超越預(yù)期,進(jìn)入了一個(gè)新的歷史發(fā)展階段——第三次認(rèn)知革命,探索人類通過(guò)自我認(rèn)知而形成的主觀世界機(jī)制,把這樣的智能賦予機(jī)器并改造客觀世界,推動(dòng)人類智能的外化延伸。
根據(jù)研究,人工智能在新生命科學(xué)、類腦神經(jīng)系統(tǒng)、智能醫(yī)療等多個(gè)前沿領(lǐng)域取得突破性進(jìn)展,可預(yù)見其對(duì)人類社會(huì)勞動(dòng)力市場(chǎng)分工、經(jīng)濟(jì)產(chǎn)業(yè)結(jié)構(gòu)等產(chǎn)生重大的影響和連鎖反應(yīng)。[3]同時(shí),隨著人類能力被機(jī)械化和程式化的機(jī)器取代以及技術(shù)異化等問(wèn)題的產(chǎn)生,人工智能的運(yùn)用必然會(huì)帶來(lái)一系列技術(shù)風(fēng)險(xiǎn)與倫理問(wèn)題。本文將人工智能的風(fēng)險(xiǎn)分為:技術(shù)風(fēng)險(xiǎn)、倫理風(fēng)險(xiǎn)及法律風(fēng)險(xiǎn)三類。
復(fù)雜網(wǎng)絡(luò)是涵蓋多領(lǐng)域的交叉性學(xué)科,隨著人工智能的發(fā)展,其運(yùn)用愈發(fā)廣泛,但復(fù)雜網(wǎng)絡(luò)仍然面臨多變的環(huán)境、人為破壞以及自然災(zāi)害等誘發(fā)故障的因素。如果復(fù)雜網(wǎng)絡(luò)系統(tǒng)出現(xiàn)故障,則可能會(huì)造成嚴(yán)重?fù)p害。
人類很難甚至不可能跟蹤人工智能系統(tǒng)的工作原理并“預(yù)測(cè)”它們將如何發(fā)生故障。對(duì)于許多較老類型的自動(dòng)化系統(tǒng),工程師使用詳盡的測(cè)試或數(shù)學(xué)分析來(lái)“驗(yàn)證”系統(tǒng)是否在合理的范圍內(nèi)運(yùn)行。但現(xiàn)代人工智能系統(tǒng)比老一代自動(dòng)化系統(tǒng)復(fù)雜得多,它們不能像舊系統(tǒng)那樣進(jìn)行詳盡的測(cè)試,因?yàn)橐獪y(cè)試的可能性路徑實(shí)在太多。
換言之,人類可以通過(guò)設(shè)計(jì)一套高效、性能優(yōu)越的優(yōu)化方案及一套穩(wěn)定的系統(tǒng)來(lái)保證其面臨異常情況時(shí)的正常運(yùn)作,但本身并無(wú)法規(guī)避風(fēng)險(xiǎn)所發(fā)生的可能。
人工智能在倫理方面逐漸浮現(xiàn)出了諸多負(fù)面問(wèn)題。首先,人工智能算法存在性別、種族等歧視;其次,人工智能存在著弱化人類主體性的特征,開始具備人類語(yǔ)言能力、共情意識(shí)和自覺(jué)意識(shí),同時(shí)沖擊人類就業(yè)市場(chǎng),由此或?qū)⒁l(fā)群體性的恐慌和社會(huì)動(dòng)蕩;最后,算法濫用會(huì)挑戰(zhàn)學(xué)術(shù)規(guī)范,加劇學(xué)術(shù)不端現(xiàn)象,造成教育困境,引發(fā)深層次的教育不公。
從不同視角看,人工智能帶來(lái)的問(wèn)題不盡相同。這時(shí)要先從道德與倫理角度去思考其涉及的問(wèn)題,例如人工智能的設(shè)計(jì)不能擺脫“人是目的”。[4]人工智能發(fā)展如此迅速,極有可能產(chǎn)生一批游離于法律之外的“不道德的人”和“不道德的機(jī)器”。謹(jǐn)防出現(xiàn)基于“技術(shù)野蠻”的“寡頭恐怖主義”,應(yīng)當(dāng)盡快出臺(tái)人工智能相關(guān)預(yù)防性的、有效的、縝密的倫理應(yīng)對(duì)機(jī)制和路徑。[4]
就以本文所站的法律角度為例,人工智能的發(fā)展還會(huì)對(duì)法律職業(yè)、法律思維造成巨大的挑戰(zhàn)。從法律職業(yè)方面來(lái)說(shuō),人工智能的出現(xiàn)可以提高法律行業(yè)的辦公效率,使律師可以更高效地處理專業(yè)的法律問(wèn)題。但同時(shí),律師作為一門需要具備正確價(jià)值觀的職業(yè),是人工智能無(wú)法取代的。人工智能只能作為輔助,法律工作者需要有意識(shí)地篩選和審核。
人類特有的無(wú)法用機(jī)器生成的法律思維和語(yǔ)言有:倫理、文義和技術(shù)。人工智能可以替代通過(guò)語(yǔ)言的法律方法,但是仍然無(wú)法替代負(fù)責(zé)任的判斷或具體情境下的判斷?;诖?,人類仍然可以加強(qiáng)對(duì)于人工智能的監(jiān)管,控制其內(nèi)在風(fēng)險(xiǎn),完善相關(guān)法律,掌握法律解釋權(quán),防范人工智能時(shí)代出現(xiàn)的法律風(fēng)險(xiǎn)。
人工智能侵權(quán)現(xiàn)象的發(fā)生不可避免,但人工智能侵權(quán)行為的侵權(quán)程度不同,是否達(dá)到“犯罪”的程度,顯然公權(quán)力對(duì)此進(jìn)行的救濟(jì)之必要性與急迫性截然不同。
本文立意要點(diǎn)為,需要明確當(dāng)基于人工智能算法搭建的軟件對(duì)個(gè)體造成嚴(yán)重侵權(quán)時(shí),應(yīng)當(dāng)允許將商用主體直接作為被告,且舉證責(zé)任倒置。
根據(jù)《中華人民共和國(guó)民事訴訟法》第一百二十二條:“起訴必須符合下列條件:……(二)有明確的被告;(三)有具體的訴訟請(qǐng)求和事實(shí)、理由;(四)屬于人民法院受理民事訴訟的范圍和受訴人民法院管轄?!逼鹪V必須有明確的被告,以及確定準(zhǔn)確的利害關(guān)系。又依據(jù)《最高人民法院關(guān)于人民法院登記立案若干問(wèn)題的規(guī)定》第四條:“民事起訴狀應(yīng)當(dāng)記明以下事項(xiàng):……(二)被告的姓名、性別、工作單位、住所等信息,法人或者其他組織的名稱、住所等信息;(三)訴訟請(qǐng)求和所根據(jù)的事實(shí)與理由;(四)證據(jù)和證據(jù)來(lái)源……”
實(shí)踐中,無(wú)論是舉證證明程序與損害之間存在因果關(guān)系,還是尋找適格被告主體信息,對(duì)于普通個(gè)體,皆會(huì)存在困難,使得法律關(guān)系長(zhǎng)期處于不穩(wěn)定的狀態(tài)。故而根據(jù)法益衡量原理,有必要通過(guò)立法手段對(duì)這種“缺失”予以彌補(bǔ)。[5]例如可以模仿諸如《中華人民共和國(guó)消費(fèi)者權(quán)益保護(hù)法》中關(guān)于經(jīng)營(yíng)者與生產(chǎn)者的相關(guān)追責(zé)理論,允許受侵害的主體直接向商用主體(媒介機(jī)構(gòu))起訴,且規(guī)定舉證責(zé)任倒置。由商用主體對(duì)造成的損害進(jìn)行賠付,同時(shí)賦予商用主體對(duì)算法提供者追責(zé)的權(quán)利,這將最大程度上維護(hù)社會(huì)的整體穩(wěn)定性。
從倫理角度思考同樣支持應(yīng)由商用主體進(jìn)行賠付。計(jì)算機(jī)代碼本身只是將邏輯通過(guò)算法進(jìn)行轉(zhuǎn)化后所編寫成的文字,其本身并不具有善惡之分,按照法秩序統(tǒng)一性,即不具有可罰性。[6]正如自動(dòng)手槍可以殺人,但殺人的卻不是槍,而是扣動(dòng)扳機(jī)者。使用計(jì)算機(jī)代碼進(jìn)行惡意操作,其可罰性來(lái)源并不是“編程”這一行為本身,而是使用代碼時(shí)的動(dòng)機(jī),以及程序編寫好后運(yùn)行時(shí)的目的與造成的結(jié)果。對(duì)于人工智能算法所造成的違法行為,對(duì)其代碼編寫的本身進(jìn)行審查顯然過(guò)于困難且不切實(shí)際,將負(fù)責(zé)主體從編寫者轉(zhuǎn)移為商業(yè)使用者,顯然讓法律對(duì)行為進(jìn)行評(píng)價(jià)的過(guò)程更為方便可行。
基于大陸法系的特點(diǎn),法需要保持穩(wěn)定性。故而選擇將保護(hù)法益的天平向普通用戶傾斜,允許受侵害個(gè)體直接向算法的商用主體主張權(quán)利。又或者說(shuō),如希望在傳統(tǒng)大陸法學(xué)框架下對(duì)人工智能所引發(fā)的法律問(wèn)題予以規(guī)制,應(yīng)當(dāng)通過(guò)賦予受侵害主體直接向人工智能算法的商用主體告訴的權(quán)利。
從效率角度思考,選擇人工智能商用主體作為被告的優(yōu)點(diǎn)主要有兩個(gè)方面:
一方面,根據(jù)《中華人民共和國(guó)民法典》關(guān)于商事主體登記的相關(guān)規(guī)定,受侵害者尋求救濟(jì)時(shí),尋找商用主體的信息顯然更為簡(jiǎn)單。這使得面對(duì)人工智能侵權(quán)行為的維權(quán)成本不至于過(guò)高,有利于社會(huì)穩(wěn)定。另一方面,隨著對(duì)人工智能的使用越來(lái)越頻繁、范圍越來(lái)越廣,顯然相同算法所形成的人工智能程序侵權(quán)案件會(huì)越來(lái)越多。且由于電腦編程本身的可復(fù)制性,人工智能相關(guān)的違法犯罪行為會(huì)日漸猖獗。由法院法官逐一確認(rèn)并追責(zé),即便理論上可行,實(shí)際中也會(huì)因工作量過(guò)大而不切實(shí)際。
從效率角度來(lái)講,將犯罪主體確定在不當(dāng)使用人工智能算法的商用主體,顯然更符合效率最大化的原則。同時(shí),站在司法者的角度,也方便法院的審理與追責(zé),以及審判后的執(zhí)行,有助于節(jié)省司法資源。
人工智能技術(shù)的改進(jìn)和來(lái)自消費(fèi)者的自下而上的市場(chǎng)壓力有助于使人工智能更安全、更不容易發(fā)生事故,但僅靠這種調(diào)控力度并不足夠。健全立法應(yīng)發(fā)揮至關(guān)重要的作用。有前瞻性的立法有助于減少有侵權(quán)可能的人工智能算法研究,本文結(jié)合相關(guān)的研究,提出以下幾點(diǎn)立法建議:
為了使人工智能更安全,需要知道它何時(shí)以及如何失敗。在許多近似技術(shù)領(lǐng)域,共享事件報(bào)告有助于建立共同的知識(shí)基礎(chǔ),幫助行業(yè)和政府跟蹤風(fēng)險(xiǎn)并了解其原因。政策制定者應(yīng)該探索不同的方法來(lái)鼓勵(lì)經(jīng)營(yíng)者或生產(chǎn)商積極披露人工智能事故的細(xì)節(jié)。如政府可以制定事件報(bào)告的共同標(biāo)準(zhǔn),甚至強(qiáng)制要求經(jīng)營(yíng)者或生產(chǎn)商披露某些類型的事故。
對(duì)人工智能安全進(jìn)行審查與測(cè)試至關(guān)重要,旨在解決上述提到的問(wèn)題,以及將人工智能工程塑造為一類更嚴(yán)格的學(xué)科領(lǐng)域。如美國(guó)2021 年制定的《國(guó)防授權(quán)法案》(NDAA),要求美國(guó)國(guó)家科學(xué)基金會(huì)和能源部投資于“值得信賴的AI”研究。
我國(guó)亦應(yīng)當(dāng)注重人工智能標(biāo)準(zhǔn),制定出人工智能系統(tǒng)事故風(fēng)險(xiǎn)的標(biāo)準(zhǔn)。并委托更專業(yè)的監(jiān)管機(jī)構(gòu),創(chuàng)建一個(gè)國(guó)家背書的人工智能測(cè)試體系。進(jìn)而構(gòu)建一個(gè)包含標(biāo)準(zhǔn)化數(shù)據(jù)集、代碼和測(cè)試環(huán)境的數(shù)字平臺(tái),公共和私人人工智能系統(tǒng)可以在其上對(duì)安全性和可靠性進(jìn)行測(cè)試。
作為一種科學(xué)趨勢(shì)及事物的發(fā)展規(guī)律,我國(guó)的人工智能研究與應(yīng)用不可能等到立法健全時(shí)再開始。正如前述,法的滯后性也決定了問(wèn)題的出現(xiàn)一定早于立法。正基于這種特性,有學(xué)者提出了我國(guó)應(yīng)當(dāng)構(gòu)建強(qiáng)制責(zé)任保險(xiǎn)制度與侵權(quán)救濟(jì)基金制度。[7]該制度廣泛應(yīng)用于歐洲國(guó)家,即通過(guò)強(qiáng)制要求人工智能應(yīng)用主體繳交責(zé)任保險(xiǎn),或者設(shè)立侵權(quán)救濟(jì)基金,來(lái)為未來(lái)可能發(fā)生的侵權(quán)行為提前提供賠償保證。同時(shí),資金的要求無(wú)形之中也為人工智能公司的設(shè)立提供了門檻,有利于將風(fēng)險(xiǎn)限縮在一定的程度以內(nèi)。
筆者認(rèn)為,距離真正意義上的人工智能時(shí)代到來(lái)還有一定的年頭,且基于法律本身的滯后性,仍有許多未知的問(wèn)題現(xiàn)在無(wú)法預(yù)測(cè)。同時(shí)大陸法系的邏輯所決定,法學(xué)研究始終無(wú)法脫離于滯后因素,但學(xué)者必須盡可能在問(wèn)題發(fā)生之前去思考,這樣才能在問(wèn)題出現(xiàn)之時(shí)第一時(shí)間提供理論依據(jù),且將風(fēng)險(xiǎn)造成的破壞限縮在一定程度,進(jìn)而提供現(xiàn)實(shí)意義上的作用。確保即使侵害發(fā)生,也能找到最適格的被告主體進(jìn)而進(jìn)行司法救濟(jì),維護(hù)社會(huì)穩(wěn)定。