高 雙
(430200 武漢東湖學(xué)院 湖北 武漢)
人工智能作為一種能以人類智能相似方式做出反應(yīng)的智能機(jī)器,其本身具有著很強(qiáng)的自主性,能夠特定條件下與人完成自主互動(dòng),這使得其法律地位是比較模糊的,一旦在人工智能產(chǎn)品歸屬權(quán)方面產(chǎn)生糾紛,或是出現(xiàn)人工智能侵權(quán)事件,當(dāng)前的相關(guān)法律往往無法為這些問題的解決提供依據(jù)。而對(duì)于人工智能法律地位的思考,正是為了明確其法律地位,從而解決當(dāng)前面臨的諸多法律問題。
人工智能的法律地位問題實(shí)際上也可以理解為對(duì)人工智能性質(zhì)的判定,人工智能本身具有著人類自主處理問題的能力,有些方面甚至已經(jīng)超越了人類,因此從民法的角度來看,人工智能到底是應(yīng)判定為“自然人”還是物品,就成為了一個(gè)值得思考的問題。從目前來看,人工智能在自主性與情感方面還遠(yuǎn)遠(yuǎn)不能與“人類”相提并論,但隨著人工智能的不斷發(fā)展,人工智能既不屬于生命體,也不屬于自然人集合體法人的特性仍將給人工智能法律地位的賦予帶來困難。另外,從目前來看,人工智能作為民事主體的觀點(diǎn)似乎屬于天方夜譚,但在人類發(fā)展的歷史中,民事主體與民事客體的界定從來都不是固定的,例如在古希臘的城邦,民事主體就僅限于本邦的成年男性,因此在強(qiáng)人工智能不斷發(fā)展的背景下,其是否可以作為民事主體仍然是有待商榷的[1]。
在人工智能的諸多法律問題中,民事責(zé)任問題一直是最受關(guān)注的,現(xiàn)代社會(huì)對(duì)于人工智能產(chǎn)品的廣泛應(yīng)用,使得任何人都能夠享受到人工智能所帶來的便利,但由于人工智能技術(shù)本身尚不夠成熟,人們對(duì)于各種人工智能產(chǎn)品的操作也不夠熟悉,因此在享受人工智能服務(wù)的同時(shí),也同樣承擔(dān)著人工智能所帶來的侵權(quán)風(fēng)險(xiǎn)。以無人駕駛汽車為例,這類汽車是由人工智能系統(tǒng)對(duì)車輛進(jìn)行控制,因此我們可以將人工智能系統(tǒng)看作是汽車的“駕駛員”,然而一旦無人駕駛車輛發(fā)生車禍?zhǔn)鹿剩敲丛緫?yīng)由駕駛員承擔(dān)的民事責(zé)任卻無法由人工智能來承擔(dān),而對(duì)于這一民事責(zé)任應(yīng)有誰來承擔(dān),則是人工智能民事責(zé)任問題的關(guān)鍵所在。另外,如果將人工智能定義為產(chǎn)品,并從產(chǎn)品的角度來對(duì)相關(guān)民事責(zé)任進(jìn)行判定,那么人工智能產(chǎn)品的侵權(quán)事件往往需要由制造者來負(fù)責(zé),然而與其他產(chǎn)品不同的是,人工智能技術(shù)本身過于復(fù)雜,其產(chǎn)品的瑕疵也比較高,如果將民事責(zé)任全部歸咎于制造者,那么整個(gè)人工智能行業(yè)的發(fā)展都將受到極大的限制。
在人工智能的廣泛應(yīng)用中,很多智能機(jī)器人往往扮演著工人的角色,并占據(jù)了傳統(tǒng)經(jīng)營(yíng)生產(chǎn)模式中工人的崗位,而在這一情況下,則衍生出了人工智能的民事權(quán)利問題?,F(xiàn)階段的智能機(jī)器人使用大多都是高強(qiáng)度、持續(xù)性甚至是全天候的,如果從機(jī)械產(chǎn)品的角度來看,這無疑能夠大大提高生產(chǎn)效率,但如果人工智能具有了思維能力,那么這一行為無疑是對(duì)“勞動(dòng)者”的壓榨與剝削,即便這一“勞動(dòng)者”并不屬于真正意義上的人類。到了這時(shí),是否應(yīng)賦予人工智能以民事權(quán)利,保證其自由支配剩余勞動(dòng)時(shí)間的權(quán)利,就會(huì)成為一個(gè)極具爭(zhēng)議性的問題。
從目前來看,關(guān)于人工智能法律地位的問題雖然具有著很高的研究?jī)r(jià)值,但除了人工智能民事責(zé)任問題外,但由于其自主選擇能力只是基于算法而非情感,因此無論是哪種人工智能產(chǎn)品,都并不具備法律人格與民事責(zé)任能力,也不會(huì)對(duì)現(xiàn)行法律的實(shí)行造成太大影響。由此可見,民法領(lǐng)域?qū)嶋H上并沒有為人工智能單獨(dú)立法的必要,只要能夠針對(duì)人工智能影響下的具體法律問題,給出相應(yīng)的司法解釋,就已經(jīng)能夠使人工智能法律地位問題得到很好的解決,即便是在強(qiáng)人工智能不斷的背景下,短期內(nèi)也并不會(huì)出現(xiàn)太大的隱患[2]。
對(duì)于人工智能產(chǎn)品的民事責(zé)任問題,目前我國(guó)基本是以《產(chǎn)品質(zhì)量法》以及《侵權(quán)責(zé)任法》來作為法律依據(jù),但由于人工智能本身的復(fù)雜性與特殊性,當(dāng)前相關(guān)法律并不足以為所有人工智能侵權(quán)問題的解決提供法律依據(jù),在合理性方面也有著一定的缺陷。因此,要想對(duì)人工智能的民事責(zé)任問題進(jìn)行有效解決,還需將人工智能的設(shè)計(jì)者、制造者、銷售者、操作者均納入到侵權(quán)責(zé)任主體的范圍中來,并針對(duì)人工智能侵權(quán)事件制定專門的責(zé)任判定與承擔(dān)標(biāo)準(zhǔn)。同樣以無人駕駛汽車為例,一旦發(fā)生車禍?zhǔn)鹿剩煌ú块T應(yīng)立即判斷車禍原因,進(jìn)而根據(jù)具體原因與相關(guān)法律規(guī)定來依次確定責(zé)任主體,判定各方責(zé)任,這樣既尊重了人工智能產(chǎn)品的特殊性,同時(shí)不會(huì)讓制造者等相關(guān)責(zé)任人游離于法律之外。
無論未來人工智能能夠發(fā)展到何種水平,但至少在目前,強(qiáng)人工智能仍不具備自主意識(shí)以及自我認(rèn)知,也必然無法被判定為法律主體。為此,我們可以將人工智能看作是法律上的一種特殊物,并承認(rèn)其法律客體地位,即在法律上對(duì)與人工智能相關(guān)的人類行為做出明確的限制,這樣一來,不僅能夠?qū)崿F(xiàn)對(duì)人工智能的有效法律規(guī)制,同時(shí)也可以為人工智能技術(shù)目標(biāo)的實(shí)現(xiàn)提供巨大幫助。
總之,人工智能的法律地位問題雖然具有著很大的爭(zhēng)議,但在當(dāng)前的科技水平下,人工智能的法律地位仍然是比較明確的,我們只需在人工智能發(fā)展的同時(shí)對(duì)相關(guān)法律進(jìn)行持續(xù)性的創(chuàng)新與完善,就一定能夠?qū)⑷斯ぶ悄軐?duì)法律的影響降到最低。