孫舒雨
(江蘇省南京市南京信息工程大學,江蘇 南京 211800)
面對人類與人工智能技術(shù)之間逐漸升溫的融合和摩擦,將人工智能技術(shù)的倫理思考放在關(guān)注個人權(quán)利保護、群體權(quán)益保障和社會關(guān)系穩(wěn)固上顯得尤為重要。不僅要探究其AI技術(shù)產(chǎn)生倫理困境的成因,更要結(jié)合道德規(guī)范、社會評價、行業(yè)規(guī)則,國際精神以及法律體系來構(gòu)筑完整的AI技術(shù)倫理問題的應(yīng)對策略。
(一)人臉識別技術(shù)的倫理風險
人工智能與大數(shù)據(jù)結(jié)合的時代背景下,個人信息被看作是機遇和利益。人臉,由于其生理性、標識性等特點,毋庸置疑地屬于個人信息,且其為一種不同于傳統(tǒng)類別的新型信息,即生物識別信息[1]。在趨利心理以及好奇心的驅(qū)動下,人臉識別及置換技術(shù)如雨后春筍般大量出現(xiàn)在公眾視線中。
對于人臉識別技術(shù)失去控制而得到的濫用,首當其沖的反應(yīng)表現(xiàn)為對個人權(quán)益的侵犯。對于人臉識別技術(shù)濫用而引發(fā)的個人風險,若不加以謹慎對待和嚴格規(guī)制,必然掀起對人工智能倫理問題的強烈沖擊。
(二)醫(yī)療應(yīng)用的倫理風險
現(xiàn)如今的智能醫(yī)療打造了更加全面的信息檔案平臺,結(jié)合了物聯(lián)網(wǎng)技術(shù),逐步縮小了患者與醫(yī)生之間的信息鴻溝,并且借助人工智能的醫(yī)療嵌入系統(tǒng)、云計算技術(shù)、AI醫(yī)療產(chǎn)品等等技術(shù)手段使人們獲得了更高科技的醫(yī)療服務(wù)。但目前人工醫(yī)療應(yīng)用在主體及責任分配中尚處于模糊階段,而導致的倫理風險值得進一步探討。主導性診斷類醫(yī)療人工智能產(chǎn)品指的是在醫(yī)療服務(wù)中,承擔主導性診斷診療作用,而大大弱化醫(yī)療人員的參與。而有關(guān)于主導性診斷類醫(yī)療人工智能產(chǎn)品的相關(guān)人員是否具有和醫(yī)療機構(gòu)、醫(yī)務(wù)人員同樣的法律定位,其糾紛可能適用的責任究竟定位為“醫(yī)療損害責任”或是“產(chǎn)品責任”,甚至競合的責任狀態(tài),則需要進一步深入探討與研究。阿薩羅在對當前法律下人工智能機器的形勢進行分析時提出,法律法規(guī)是應(yīng)對人工智能倫理道德問題時的最佳選擇,但是在法律所照不見的地方,人工智能的倫理問題依舊被忽視[1]。
(三)軍事領(lǐng)域的倫理風險
目前,自主武器在經(jīng)過算法推演的智能化改造以及與軍用物理器械的結(jié)合下,逐漸暴露出倫理風險。如“機器人殺手禁令運動(Campaign to Stop Killer Robots)”組織公布的一段模擬視頻顯示:在AI控制下的殺人蜂機器人,在通過算法內(nèi)嵌的推演下鎖定一群學生,并對他們進行瞬間屠殺。歐盟議會提出賦予人工智能“電子人”的法律主體地位,由人工智能對其造成的損害直接承擔責任[2]。而在國際人道主義的倫理辯論中,人們普遍承認在使用武力的決定之下,人類的代理性及其主觀意圖是至關(guān)重要的。
(一)在倫理侵害行為發(fā)生的前端采取打擊行動。是指在信息的流動渠道中,應(yīng)當設(shè)置科學的AI技術(shù)評價監(jiān)督機制。要求增加市場準入的壁壘,嚴格要求媒介提供商及其產(chǎn)品的合法性、合理性。
(二)在倫理侵害行為發(fā)生的末端采取打擊措施。是指在人工智能技術(shù)損害個人權(quán)益的情形之下,該利用立法、司法、執(zhí)法部門的統(tǒng)籌規(guī)劃來對倫理和法律問題進行解決。如果法律不允許人工智能對用戶的隱私進行監(jiān)視,則人工智能的運行不能隨意讀取用戶的個人信息[3]。目前我國已經(jīng)出臺《個人信息安全規(guī)范》,以及于2020年3月1號實施的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等法規(guī)。其中《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第七章規(guī)定了法律責任,在《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第34條至40條詳細說明了當信息網(wǎng)絡(luò)內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺等給他人造成權(quán)益損害時,法律如何對網(wǎng)絡(luò)違法行為進行責任分配等問題。我國這種法律觀念使得學者更關(guān)心實在的法律,更加看重法律的體系性[4]。除此之外還可以考慮,在匿名用戶通過AI技術(shù)侵犯了他人信息時,除了媒體平臺應(yīng)該暴露其用戶的真實身份信息之外,法律應(yīng)當詳盡規(guī)定匿名用戶身份信息的使用范圍以及保護規(guī)范,以免對他人信息權(quán)益進行二次傷害。
目前仍需集中國際社會組織、公權(quán)力部門以及相關(guān)智能應(yīng)用參與者、智能技術(shù)設(shè)計人員、應(yīng)用技術(shù)使用者的力量來突破人工智能發(fā)展至今對于個人風險、群體風險、國家風險的倫理困境。首先要求各界充分發(fā)揮效能影響,從源頭控制人工智能應(yīng)用技術(shù)的不利影響,同時配合行業(yè)內(nèi)置和社會各界的監(jiān)管以及監(jiān)督;其次必須明確人工智能應(yīng)用技術(shù)的責任分擔機制;還要利用法律的公權(quán)職能,在人工智能算法程序內(nèi)部嵌入道德標準以及法律決策;最后,國際各界在對倫理問題應(yīng)用對策的同時,還要積極構(gòu)筑人工智能應(yīng)用技術(shù)在操作規(guī)范國際化、透明化、合法化;深化發(fā)展公平、公正、公開的人工智能技術(shù)聯(lián)動機制。