趙磊磊 吳小凡 趙可云
[摘? ?要] 教育人工智能風險治理已成為影響人工智能與教育教學(xué)深度融合的關(guān)鍵因素。文章以責任倫理為視角,提出教育人工智能風險治理的責任倫理框架,其涉及角色責任、契約責任、前瞻責任、關(guān)護責任四個維度。指出教育人工智能風險治理的責任倫理困境主要表現(xiàn)在教育主體功能遭遇技術(shù)禁錮、數(shù)據(jù)智能凌駕于契約精神、治理制度設(shè)計與倫理關(guān)照脫鉤、師生互動與情感訴求缺乏人文關(guān)照四個方面。據(jù)此,提出責任倫理視域下教育人工智能的風險治理路徑:其一,關(guān)注角色認同,促進人技關(guān)系的角色化建構(gòu)與重塑;其二,重塑契約精神,構(gòu)建智能教育領(lǐng)域數(shù)據(jù)治理責任規(guī)約機制;其三,關(guān)注倫理規(guī)范,架構(gòu)可判定責任行為的制度體系;其四,聚焦人文關(guān)懷,創(chuàng)設(shè)融入情感訴求的人智交互模式。
[關(guān)鍵詞] 教育; 人工智能; 風險治理; 責任倫理; 倫理規(guī)范
[中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A
[作者簡介] 趙磊磊(1991—),男,河南新蔡人。副教授,博士,主要從事教育學(xué)原理、智能教育研究。E-mail:zhaoleilei199102@163.com。
一、引? ?言
機器學(xué)習(xí)、生物識別、情感計算等人工智能技術(shù)的飛速發(fā)展,不僅帶來技術(shù)形態(tài)與方式的新一輪革命,同時也為教育空間、教育資源、教育管理、教學(xué)模式等方面的智慧轉(zhuǎn)型提供了新的機遇與平臺。自20世紀60年代起,教育領(lǐng)域已經(jīng)運用自適應(yīng)智能系統(tǒng)進行教學(xué);21世紀以來,教育領(lǐng)域興起了以深度學(xué)習(xí)、跨界融合、人機協(xié)同、機器學(xué)習(xí)等技術(shù)為主的智慧教育新生態(tài)。但是,在智能技術(shù)快速更新?lián)Q代的背景下,教育人工智能風險問題也屢見不鮮,如個人隱私數(shù)據(jù)泄露、學(xué)校管理格局的變革沖擊、公共安全的威脅等風險問題[1]。從風險治理的角度而言,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,為人工智能風險治理提出框架和行動指南[2],為公眾從責任倫理視角思考教育人工智能風險治理提供了新的方向。從教育人工智能實踐角度來看,人工智能賦能教育教學(xué)是否可能做到盡善盡美?人工智能自身的技術(shù)兩面性究竟會對教育教學(xué)產(chǎn)生何種負面影響?眾多議題均處于懸而未決狀態(tài),面對相關(guān)棘手難題,如何負責任地面對教育人工智能風險成為教育人工智能合規(guī)化、合法化發(fā)展[3]的關(guān)鍵抓手。為此,本文將基于責任倫理視角,聚焦于教育人工智能風險治理的責任倫理框架、現(xiàn)實困境與責任倫理視域下教育人工智能風險治理路徑,以期為新時代教育人工智能風險治理提供有益參照。
二、教育人工智能風險治理的歷史進路
1956年,達特茅斯會議首次提出“人工智能”概念后,人工智能的相關(guān)研究方興未艾,深度學(xué)習(xí)等成為當時的研究熱潮。經(jīng)過十幾年的發(fā)展,20世紀70年代人工智能正式進入教育領(lǐng)域,隨后發(fā)展為智能導(dǎo)師系統(tǒng)(ITS),但由于當時計算機的使用成本高、性能差,導(dǎo)致教育領(lǐng)域的人工智能應(yīng)用遭遇重大挫折。2002年,美國通過《教育科學(xué)改革法》,試圖在高等教育領(lǐng)域率先推行人工智能技術(shù),“機器學(xué)習(xí)”“智能導(dǎo)師”再次涌入教育領(lǐng)域,其他國家也紛紛加大對教育信息化的建設(shè)與推進力度[4]。此階段的教育人工智能發(fā)展尚處于萌芽期,教育人工智能的算法功能并不成熟,公眾缺乏對教育人工智能風險的清晰認知。
2015年以來,人工智能在國際教育領(lǐng)域的應(yīng)用逐漸增多,我國也高度重視人工智能在各領(lǐng)域的應(yīng)用。國務(wù)院于2017年7月印發(fā)《新一代人工智能發(fā)展規(guī)劃》[5],部署人工智能背景下創(chuàng)新型國家和世界科技強國建設(shè)?;诖?,眾多學(xué)者研究如何借助智能技術(shù)實現(xiàn)教育智能轉(zhuǎn)型。例如:余亮等研究教育人工智能對學(xué)習(xí)方式的影響,試圖探索智能學(xué)習(xí)資源的特征[6];許濤等探討將學(xué)生的“創(chuàng)新思維、創(chuàng)業(yè)意識和創(chuàng)造能力”作為人工智能時代“新工科”人才培養(yǎng)的標準和尺度[7]。同時也有部分學(xué)者,如劉三女牙等聚焦于教育人工智能發(fā)展面臨的困境與未來途徑[8],嘗試對教育人工智能風險治理的概念與邊界進行學(xué)理探討。
2019年,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,為人工智能治理與風險防范提出科學(xué)指導(dǎo),致力于提升人工智能的安全性與可靠性[2]。自此,發(fā)展“負責任”的人工智能成為當今教育人工智能風險治理的核心議題。文獻梳理發(fā)現(xiàn),教育人工智能風險研究主要關(guān)注數(shù)據(jù)風險[9]、算法風險[10]、情感風險[11]等風險的表征形式、現(xiàn)實危害與治理對策。然而,多數(shù)學(xué)者對風險治理路徑的研究以道德與法律層面的倫理倡議為主。例如:規(guī)范教育人工智能的道德行為,建立倫理風險評估和監(jiān)管機制。相關(guān)治理路徑的倫理考量并未著重體現(xiàn)“責任”意識與取向,作為銜接道德與法律的關(guān)鍵載體,責任倫理應(yīng)是教育人工智能風險治理不可忽視的關(guān)鍵視角。
三、責任倫理:教育人工智能風險治理的新視角
在技術(shù)時代背景下,傳統(tǒng)倫理學(xué)與技術(shù)責任的碰撞時常發(fā)生,如何發(fā)展負責任的教育人工智能備受關(guān)注,責任倫理為技術(shù)時代提供了技術(shù)責任考量尺度,也為教育人工智能風險治理提供了全新的倫理向度。為明確教育人工智能倫理風險的治理方向,有必要基于責任倫理視角,對教育人工智能治理主體、客體、工具等治理要素之間的責任關(guān)系與行為予以重新審視。
(一)責任倫理解析
“責任倫理”不同于傳統(tǒng)倫理學(xué),其是以人的角度談?wù)摻橛诘赖屡c法律間的規(guī)范。馬克斯·韋伯(Max Weber)在1919年的著名演講《政治是一種職業(yè)》(Politics As A Vocation)中提出“責任倫理”的概念,并將“形式合理性”作為其核心[12]。20世紀下半葉以來,歐美諸國對于責任倫理的理解逐步深入。例如:美國著名倫理學(xué)家芬伯格(Joel Feinberg)的《責任理論》,闡釋了責任理論的內(nèi)涵與其理論體系的構(gòu)建[13];漢斯·倫克(Hans Lenk)在《責任與技術(shù)》中闡明技術(shù)中的經(jīng)濟、道德問題通常和責任相關(guān),指明責任倫理在技術(shù)發(fā)展背景下的實踐途徑[14]。綜合來看,責任成為倫理學(xué)的核心范疇,其既是一種內(nèi)心的道德訴求,也是溝通道德與法律的現(xiàn)代社會基本規(guī)范。責任倫理側(cè)重于呼吁人從責任的角度關(guān)注技術(shù)發(fā)展給社會帶來的影響,思考教育人工智能治理主體應(yīng)當承擔何種責任。以責任倫理為理論視角,教育人工智能風險治理應(yīng)重視行為的性質(zhì)、責任與主客體等要素間的關(guān)系以及主體承擔的責任,教育人工智能風險治理所蘊含的責任倫理向度尚待進一步探究。92391A63-24D9-4CB8-991C-12C615E30BB5
(二)教育人工智能風險治理呼喚責任倫理介入
從本質(zhì)而言,倫理行為是一種責任行為,倫理風險也是一種責任風險。教育人工智能風險治理離不開倫理的浸潤,也離不開責任的歸屬與承擔。責任既是外在的規(guī)范制度,又是內(nèi)在的道德訴求。教育人工智能風險治理應(yīng)當在道德與制度倫理向度的基礎(chǔ)上,關(guān)注責任倫理的獨特性與包容性,使其與風險治理的路徑相契合[15]。作為技術(shù)產(chǎn)物,情感計算、生物感知等人工智能技術(shù)在教育領(lǐng)域中的應(yīng)用具有不確定性與風險性,數(shù)據(jù)隱私泄露、數(shù)據(jù)違規(guī)采集、智能算法歧視等教育人工智能風險問題頻發(fā),然而不少教育行政部門、學(xué)校管理部門等相關(guān)組織或教育責任個體在相關(guān)風險問題的治理層面存在權(quán)利與義務(wù)不清、行動方向不明等現(xiàn)實困境。對于教育人工智能風險治理而言,政府、學(xué)校、家庭等風險治理主體間的利益博弈涉及職責、權(quán)利、義務(wù)等方面的劃分與平衡,進而呼喚責任倫理層面的干預(yù)與介入。在人工智能時代,技術(shù)的存在具有智慧屬性或類人屬性,有關(guān)人工智能是否應(yīng)該具有主體存在特性的論斷也逐漸興起,當人工智能具有主體價值時,其與師生等教育主體間的責任歸屬與關(guān)系可能存在較多風險沖突與倫理困境。在推進教育人工智能風險治理方面,極有必要從責任倫理視角分析與解決具體的技術(shù)倫理問題。
四、教育人工智能風險治理的責任倫理框架
有關(guān)責任倫理的維度拆解存在一定差異。例如:約納斯將責任倫理分為實質(zhì)責任、關(guān)護性責任與自然責任[16],程東峰將責任倫理分為個體責任、組織責任、契約責任、職業(yè)責任與未來責任五個維度[17]。歸納來看,責任倫理主要涉及角色責任、契約責任、前瞻責任、關(guān)護責任四個維度?;诖耍狙芯刻岢鼋逃斯ぶ悄茱L險治理的責任倫理框架(如圖1所示),其中,角色責任是契約責任、前瞻責任及關(guān)護責任形成的基本條件,以角色建構(gòu)為起點,不同責任主體在達成行動契約的基礎(chǔ)上,應(yīng)對教育人工智能風險如何治理進行倫理規(guī)約,并形成具有未來取向的前瞻責任。在明確風險治理前瞻性目標的基礎(chǔ)上,責任主體施以情感關(guān)照,履行特定場域或情境下的關(guān)護責任。
(一)角色責任
角色是責任倫理的邏輯起點,無論是個體還是集體都在社會中以“角色”的形式出現(xiàn)。角色作為一種標識,為行為主體戴上了社會面具。角色與責任相互依存,角色是責任的前提。如齊格蒙特·鮑曼(Zygmnut Bauman)所述,“責任依賴角色,而不是依賴扮演角色、完成工作的人”[18]。社會主體只有在行動之后才扮演相應(yīng)的角色并承擔相應(yīng)的責任。面對教育人工智能的風險治理,不同的行為主體扮演著不同的角色。例如:學(xué)生作為教育人工智能的體驗者,需承擔智能教育質(zhì)量反饋的現(xiàn)實責任;教師作為教育人工智能的實踐者,應(yīng)有效保障智能技術(shù)與學(xué)科教學(xué)的有效融合;教育管理者作為人工智能監(jiān)管者與數(shù)據(jù)管理者,需承擔維護公共信息安全、國家信息安全的責任。歸納而言,教育人工智能風險治理需基于不同教育主體行為,根據(jù)其角色進行風險控制。
(二)契約責任
隨著智能時代的到來,人們的主體意識與法律意識越來越強,契約成為責任的一種要求與形式。一般而言,契約可被視為以法律規(guī)定、口頭承諾、書面立約以及約定俗成具有約束力的行為形式的統(tǒng)稱。契約可將行為主體與行為后果納入責任范疇。契約負載著責任,契約責任的實現(xiàn)應(yīng)是最基本的、最現(xiàn)實的、最關(guān)鍵的責任實現(xiàn)。我國現(xiàn)實契約責任的存在包括多種類型,如以《憲法》為基礎(chǔ)的公民責任、以生命為紐帶的自身責任等,而本文探討的教育人工智能風險治理中的契約責任主要是以倫理規(guī)約為工具的科技責任??萍计跫s責任是規(guī)避與化解人工智能風險的倫理工具,也是實現(xiàn)智能教育合規(guī)化發(fā)展的重要支柱。
(三)前瞻責任
如約納斯所述,隨著技術(shù)時代的變革,行為主體即人類自身的能力發(fā)生了技術(shù)性轉(zhuǎn)變,傳統(tǒng)倫理學(xué)僅考慮行為后果的當前效應(yīng),而責任倫理則體現(xiàn)了前瞻性與長遠性[19]。所謂前瞻責任,就是要求人要對其行為導(dǎo)致的未來結(jié)果負責。因僅有人類擁有“責任意識”,這就明確了人類在發(fā)展中應(yīng)當承擔的責任和義務(wù)。對于智能教育發(fā)展而言,具備及時應(yīng)對智能技術(shù)與教育教學(xué)整合的風險與可能性后果的能力至關(guān)重要[20],需根據(jù)情感計算、生物感知等人工智能技術(shù)的核心特點,思考與審查智能技術(shù)與學(xué)校管理、課程教學(xué)、教育評價等方面是否具有特征契合性。政府、學(xué)校等相關(guān)責任主體應(yīng)適時出臺相應(yīng)措施引導(dǎo)師生重構(gòu)責任意識,嘗試利用頂層設(shè)計引導(dǎo)教育人工智能的發(fā)展,指明教育人工智能發(fā)展的當前問題與未來取向,也應(yīng)肩負起智能教育頂層設(shè)計與風險規(guī)避的先導(dǎo)責任。
(四)關(guān)護責任
關(guān)護責任原指行為主體對其他人與生俱來的責任。在智能時代,關(guān)護責任應(yīng)體現(xiàn)為在集體中以不同責任主體的身份相互關(guān)護,關(guān)注情感訴求且思量人類整體存在的形式。人工智能的運行全過程主要涉及提出理念、設(shè)計、生產(chǎn)、應(yīng)用和反思調(diào)整等方面,參與者不局限于承擔教學(xué)工作的教師,還有教育管理者、人工智能設(shè)計者、學(xué)生等多個主體。岡特·羅波爾(G.Ropohl)在其代表作《技術(shù)系統(tǒng)論——一般技術(shù)論基礎(chǔ)》中指出,技術(shù)時代的責任不再是以個體倫理為基礎(chǔ)的責任,甚至不局限于人,而應(yīng)當是機制責任、集體責任[21]??紤]到當前一般教育現(xiàn)象與技術(shù)交織的復(fù)雜后果,從技術(shù)發(fā)展歷程來看,技術(shù)應(yīng)用似乎回避了基于關(guān)護責任的決策和行動意愿[22]。從技術(shù)與個體交互的角度來看,人工智能與人類均屬于教育人工智能場域下的責任主體,責任主體之間的有效互動不僅需要明確基本的角色、規(guī)范與計劃,也需要切實考慮關(guān)護責任在不同責任主體交互過程中的具體體現(xiàn)與落實。
五、教育人工智能風險治理的責任倫理困境
基于前文對教育人工智能風險治理的責任倫理框架的探討,本文嘗試從四個方面對教育人工智能風險治理的責任倫理困境進行具體分析。
(一)教育主體功能遭遇技術(shù)禁錮
在責任倫理學(xué)中,社會角色的分配要遵循一定的社會準則與自然規(guī)律,然而教育人工智能的出現(xiàn)打破了既定秩序與準則,在一定程度上會導(dǎo)致教育主體功能遭遇技術(shù)禁錮。首先,從學(xué)生角度而言,智能教學(xué)系統(tǒng)可定制化推送教育教學(xué)資源并捕捉學(xué)生的學(xué)習(xí)軌跡,但是也可能導(dǎo)致學(xué)生逐漸依賴智能算法,進而致使學(xué)生逐漸缺乏自主學(xué)習(xí)與探究性學(xué)習(xí)的意愿,學(xué)生主體性進而受到智能技術(shù)的禁錮與負面影響。其次,從教師角度而言,教育人工智能可在作業(yè)批改、學(xué)情分析等方面有助于減輕教師工作負擔,然而,許多教師由于自身智能教育素養(yǎng)的缺失,會形成一定程度的“人工智能依賴”,教師教學(xué)的藝術(shù)性、主體性、創(chuàng)造性可能受到智能算法的負面干擾,也可能出現(xiàn)自我職業(yè)認同層面的角色危機。最后,從教育管理者角度而言,基于數(shù)據(jù)智能的教育決策建議是否可以全盤接受仍然存疑,如一味偏信教育人工智能的推演,則很可能在決策制定與管理實施中出現(xiàn)偏差。92391A63-24D9-4CB8-991C-12C615E30BB5
(二)數(shù)據(jù)智能凌駕于契約精神
在人工智能場域下,教與學(xué)的相關(guān)行為與資源均可采用數(shù)字化形式進行數(shù)據(jù)表征與智能分析[23]。由于人工智能易受數(shù)據(jù)元素干擾,偽造數(shù)據(jù)愚弄決策、受利益驅(qū)使泄露隱私數(shù)據(jù)等現(xiàn)象時常發(fā)生[24],數(shù)據(jù)智能凌駕于契約精神成為教育人工智能不容忽視的現(xiàn)實問題。其一,責任主體契約精神的缺失。在人工智能場域下,師生、家長、教育管理者等責任主體應(yīng)當在平等的狀態(tài)下達成數(shù)據(jù)契約。然而,數(shù)據(jù)的收集過程涉及學(xué)生、教師、家長等多個責任主體的隱私權(quán)、知情權(quán)等合法權(quán)益,使用教育數(shù)據(jù)的權(quán)限一般集中于教育管理者、人工智能設(shè)計者等,權(quán)責的不對等致使數(shù)據(jù)的使用權(quán)與所有權(quán)出現(xiàn)失衡現(xiàn)象。其二,智能算法僭越教育行為主體的個性化。人工智能通過算法構(gòu)建責任主體的數(shù)據(jù)畫像[25],這一過程很可能在學(xué)生或教師不知情的情況下發(fā)生,容易出現(xiàn)學(xué)生主體的能動性被動受算法主導(dǎo)的問題,同時由于支持數(shù)據(jù)挖掘的模型的許多特性、度量和分析結(jié)構(gòu)均是由其設(shè)計者選擇的,此類技術(shù)可能會復(fù)制設(shè)計者的先入之見和偏見,進而會在一定程度上導(dǎo)致智能技術(shù)侵犯主體的合法權(quán)益、侵占主體個性化的表達空間等問題頻發(fā)[26],從而違背以契約價值為基準的科技責任,導(dǎo)致數(shù)據(jù)智能凌駕于契約精神。
(三)治理制度設(shè)計與倫理關(guān)照脫鉤
前瞻責任較為強調(diào)頂層設(shè)計與制度建設(shè)的重要價值,盡管已有不少關(guān)于人工智能倫理原則的暢想與建議[27],但依然存在教育人工智能風險治理制度設(shè)計與倫理關(guān)照脫鉤的現(xiàn)實問題。一方面,目前教育人工智能責任行為缺少倫理意識的指引與倫理準則的約束,教育人工智能風險預(yù)警制度設(shè)計在倫理關(guān)照方面并未有效凸顯前瞻性,進而導(dǎo)致很難盡早發(fā)現(xiàn)教育領(lǐng)域人工智能開發(fā)與應(yīng)用的可能性風險,預(yù)先設(shè)置應(yīng)急處理方案甚至成為一種治理奢望。另一方面,人工智能的責任歸屬問題治理缺乏前瞻性政策指引。當教師、學(xué)生、家長等群體受到智能決策系統(tǒng)影響時,通常被動向數(shù)據(jù)管理者開放隱私,且由于人工智能系統(tǒng)的設(shè)計、生產(chǎn)和實施過程的復(fù)雜性和分布性,一旦數(shù)據(jù)泄露,很難直接追究對這些結(jié)果負責的各方的責任。若缺乏相關(guān)法律或決策對于人工智能所導(dǎo)致后果的責任歸屬問題進行界定,可能會制約智能算法偏見、數(shù)據(jù)泄漏等倫理風險問責機制的有效構(gòu)建,并導(dǎo)致人工智能的教育應(yīng)用缺乏倫理關(guān)照。
(四)師生互動與情感訴求缺乏人文關(guān)照
人工智能在與個體進行交互的同時也伴隨著潛在的情感疏離風險,其可能會引發(fā)師生互動與情感訴求缺乏人文關(guān)照這一現(xiàn)實問題。一方面,通過智能算法實現(xiàn)的超個性化人機互動在本質(zhì)上對師生之間世界觀、人生觀與價值觀的互動易產(chǎn)生疏離作用,若學(xué)生嚴重依賴人機交互獲取知識與資源,不僅有可能導(dǎo)致師生互動需求的減少,也會導(dǎo)致學(xué)生過度依賴及迷戀人工智能的“智能魅力”。另一方面,人工智能可引發(fā)師生情感訴求的疏離風險。人工智能可通過大數(shù)據(jù)計算與預(yù)測學(xué)生的興趣偏向,若學(xué)生長期通過人工智能進行溝通,缺乏家長、教師的情感引導(dǎo),其情感態(tài)度與價值觀難以正確樹立。而且,智能教育可能在人與技術(shù)互動過程中對教師產(chǎn)生情感沖擊[28],若教師缺乏正確的人工智能感知態(tài)度與責任意識,可導(dǎo)致教師職業(yè)倦怠、心理健康問題頻發(fā)、教師幸福感缺失、人工智能焦慮感驟增等問題。
六、責任倫理視域下教育人工智能風險治理路徑
發(fā)展“負責任的教育人工智能”是對人工智能與教育教學(xué)和諧共處的期望,也是化解當前風險治理困境的有效發(fā)展路徑,為人機和諧的未來智能教育模式構(gòu)建提供了現(xiàn)實參照。因此,本研究將基于前文對教育人工智能風險治理的責任倫理困境分析,提出責任倫理視域下教育人工智能風險治理的路徑(如圖2所示)。
(一)關(guān)注角色認同,促進人技關(guān)系的角色化建構(gòu)與重塑
角色分配與教育人工智能風險治理的有序推進密不可分,公平、科學(xué)地分配治理角色將成為治理體系良性運行的關(guān)鍵。面對教育人工智能風險治理所出現(xiàn)的角色混亂現(xiàn)象(如師生自我身份感與歸屬感的缺失),教育主體需增強角色認同感,促進人與技術(shù)關(guān)系(即人技關(guān)系)的角色化建構(gòu)與重塑。首先,在學(xué)生角色認同方面,學(xué)生應(yīng)成為智能化信息挖掘的實踐者,利用智能終端或平臺對碎片化學(xué)習(xí)資源、非結(jié)構(gòu)化信息進行有效聚合,實現(xiàn)對碎片化知識的結(jié)構(gòu)化加工與建構(gòu),明確學(xué)生在智能教育實踐中的信息反饋責任。其次,在教師的角色認同方面,教師需在人工智能與學(xué)科教學(xué)整合中堅守教師職業(yè)本性,通過技術(shù)領(lǐng)導(dǎo)者角色的自我建構(gòu)引導(dǎo)智能技術(shù)的合規(guī)化應(yīng)用。教師應(yīng)當合理利用數(shù)據(jù)智能技術(shù)與平臺,根據(jù)學(xué)生的行為模型與數(shù)字畫像觀察并定位學(xué)生的學(xué)習(xí)特征與學(xué)習(xí)需求,加強對智能技術(shù)與教育教學(xué)整合的理解、反思與引導(dǎo)。最后,在教育管理者的角色認同方面,管理者應(yīng)充分提升自身智能教育素養(yǎng)、數(shù)據(jù)素養(yǎng)以及數(shù)字化勝任力,需實現(xiàn)基于共享智能數(shù)據(jù)的教育決策與管理,著力于利用智能算法對教育資源進行公平配置,避免出現(xiàn)智能算法偏見與歧視等倫理風險。
(二)重塑契約精神,構(gòu)建智能教育領(lǐng)域數(shù)據(jù)治理責任規(guī)約機制
從契約精神層面來看,可通過規(guī)約條例引導(dǎo)教育人工智能風險治理,進而規(guī)范數(shù)據(jù)智能的價值釋放過程。在教育人工智能場域,數(shù)據(jù)治理面臨侵犯數(shù)據(jù)提供者合法權(quán)益、智能算法僭越教育主體性等現(xiàn)實風險。為此,極有必要重塑契約精神,構(gòu)建智能教育領(lǐng)域數(shù)據(jù)治理責任規(guī)約機制。首先,關(guān)注契約精神,加強對師生等群體數(shù)據(jù)責任意識的培養(yǎng)。在應(yīng)對人工智能的數(shù)據(jù)安全威脅時,契約精神的樹立需要以權(quán)益和法律為責任底線進行保障,數(shù)據(jù)提供者(如教師、家長等群體)應(yīng)樹立個人數(shù)據(jù)安全的權(quán)益保護意識,數(shù)據(jù)搜集者應(yīng)事先征求責任主體的同意,地方政府、學(xué)校等應(yīng)攜手制定保護師生等群體隱私權(quán)、知情權(quán)等合法權(quán)益的規(guī)約條例。其次,應(yīng)基于契約精神制訂具有約束性的智能算法設(shè)計、開發(fā)與應(yīng)用方案,規(guī)范算法設(shè)計、算法推薦、算法數(shù)據(jù)的傳播,而且,人工智能算法設(shè)計應(yīng)考慮學(xué)生、教師等群體的多方訴求,取代以設(shè)計者為單一尺度的傳統(tǒng)智能算法設(shè)計。92391A63-24D9-4CB8-991C-12C615E30BB5
(三)關(guān)注倫理規(guī)范,架構(gòu)可判定責任行為的制度體系
責任歸屬的認定是可判定責任行為的風險治理制度體系架構(gòu)的基礎(chǔ)。當前學(xué)界對于教育人工智能風險治理的責任行為關(guān)注仍然有限,忽視了教育領(lǐng)域倫理規(guī)范的特殊存在價值。為此,極有必要關(guān)注倫理規(guī)范,架構(gòu)可判定責任行為的制度體系。第一,構(gòu)建教育人工智能責任倫理規(guī)則與責任監(jiān)管體系,厘定教育人工智能風險治理主體間的責任范圍與責任底線,在明晰智能技術(shù)教育角色的前提下制定教育人工智能風險問責標準。第二,應(yīng)注重完善教育人工智能風險評估制度體系。地方政府應(yīng)制定教育人工智能風險預(yù)估的機制范式,政府、社會、學(xué)校、家庭等風險治理主體應(yīng)協(xié)力提高風險預(yù)警與化解能力,著力構(gòu)建基于證據(jù)的教育人工智能監(jiān)測體系。第三,架構(gòu)具有前瞻性的教育人工智能責任行為問責體系。我國目前已從國家層面制定多項人工智能發(fā)展規(guī)范,但不少地方政府對于教育人工智能風險治理依然缺乏風險監(jiān)管與問責機制,因此,亟須進一步明晰教育人工智能風險的責任主體權(quán)責,以法律政策、制度規(guī)范等形式優(yōu)化人工智能設(shè)計者等群體的行為歸責機制。
(四)聚焦人文關(guān)懷,創(chuàng)設(shè)融入情感訴求的人智交互模式
目前,人工智能尚未在情感智能方面實現(xiàn)對于人類情感功能的實質(zhì)性超越,也難以滿足學(xué)生多樣化的人文訴求,為此,教育人工智能風險治理亟須聚焦人文關(guān)懷,創(chuàng)設(shè)融入情感訴求的人智交互(即人與人工智能的交互)模式。首先,應(yīng)關(guān)注師生的情感訴求與立德樹人根本目標,避免智能算法對教師、學(xué)生及家長之間的情感交流產(chǎn)生負面技術(shù)影響。從學(xué)生角度而言,加強智能教育場域下學(xué)生與教師間的情感連接,幫助學(xué)生群體通過德性內(nèi)化信念、道義驅(qū)動行為進行自我倫理觀念的建構(gòu);從教師角度而言,應(yīng)關(guān)注教師的職業(yè)倦怠與職業(yè)心理健康,及時監(jiān)測教師的人工智能焦慮感,關(guān)注并改善教師對于人工智能教育應(yīng)用的感知態(tài)度與責任意識。其次,應(yīng)當促使智能技術(shù)成為師生個人能力的充分延伸,也應(yīng)當關(guān)注智能教育場域下責任倫理的邊界和尺度,及時關(guān)注師生等群體的情感與情緒變化軌跡,避免人工智能對師生等群體身心發(fā)展帶來負面情緒干擾,以審視與批判的態(tài)度看待個體與人工智能的互動。
七、結(jié)? ?語
針對教育人工智能風險治理,技術(shù)、道德、法律層面已受到足夠多的關(guān)注,但倫理層面的思考更多從道德倫理和制度倫理的向度出發(fā),有關(guān)教育人工智能責任的論述與探究相對較少,“負責任的教育人工智能”成為人工智能與教育教學(xué)融合的倫理訴求,責任倫理視域下教育人工智能風險治理的理論體系亟待進一步挖掘與建構(gòu)。由此,本文以發(fā)展負責任的人工智能為起點,基于責任倫理視角架構(gòu)教育人工智能風險治理框架,也是對教育人工智能風險化解的理論回應(yīng)。教育人工智能蘊含的責任價值與倫理價值,也在一定程度上促使責任倫理成為教育人工智能風險治理的必由之路。教育人工智能的合規(guī)化發(fā)展不僅需要注重硬件設(shè)施、軟件資源的合理鋪設(shè)與架構(gòu),也應(yīng)關(guān)注人與技術(shù)、人與人之間倫理關(guān)系失范所導(dǎo)致的風險性問題。如何在教育人工智能風險治理過程中融入責任訴求,構(gòu)建和諧化的人技關(guān)系與責任體系,對于教育人工智能風險治理體系的構(gòu)建極具必要性與實踐導(dǎo)向價值。
[參考文獻]
[1] 惠志斌,李佳.人工智能時代公共安全風險治理[M].上海:上海社會科學(xué)院出版社,2021:226.
[2] 新華社.發(fā)展負責任的人工智能:我國新一代人工智能治理原則發(fā)布[EB/OL].(2019-06-17)[2022-03-10].http://www.gov.cn/xin wen/2019-06/17/content_5401006.htm.
[3] 陳全真.智能機器人權(quán)利存在的由因及對策[J].貴州師范大學(xué)學(xué)報(社會科學(xué)版),2019(3):144-151.
[4] 方海光.教育大數(shù)據(jù):邁向共建、共享、開放、個性的未來教育[M].北京:機械工業(yè)出版社,2016:21-25.
[5] 國務(wù)院. 國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL].(2017-07-20)[2022-03-10].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[6] 余亮,魏華燕,弓瀟然.論人工智能時代學(xué)習(xí)方式及其學(xué)習(xí)資源特征[J].電化教育研究,2020,41(4):28-34.
[7] 許濤,嚴驪,殷俊峰,周斌.創(chuàng)新創(chuàng)業(yè)教育視角下的“人工智能+新工科”發(fā)展模式和路徑研究[J].遠程教育雜志,2018,36(1):80-88.
[8] 劉三女牙,彭晛,沈筱譞,孫建文,李卿.數(shù)據(jù)新要素視域下的智能教育:模型、路徑和挑戰(zhàn)[J].電化教育研究,2021,42(9):5-11,19.
[9] 馮銳,孫佳晶,孫發(fā)勤.人工智能在教育應(yīng)用中的倫理風險與理性抉擇[J].遠程教育雜志,2020,38(3):47-54.
[10] VAN DE POEL I. Embedding values in artificial intelligence (AI) systems[J]. Minds & machines, 2020,30:385-409.
[11] BORENSTEIN J, HOWARD A. Emerging challenges in AI and the need for AI ethics education[J]. AI and ethics, 2021(1):61-65.
[12] WEBER M. Max Weber's complete writings on academic and political vocations[M]. New York: Algora Publishing, 2008:155-207.92391A63-24D9-4CB8-991C-12C615E30BB5
[13] FEINBERG J. Doing & deserving: essays in the theory of responsibility[M]. Princeton: Princeton University Press, 1974:32-37.
[14] LENK H, MARING M. Responsibility and technology[J]. Argumentos de razón técnica, 2002,(5):257-277.
[15] BAUM S D. Baum. Social choice ethics in artificial intelligence[J]. AI & society, 2020,35(1):165-176.
[16] JONAS H. Technology and responsibility: Reflections on the new tasks of ethics[J]. Social research, 1973,40(1):31-54.
[17] 程東峰.責任倫理導(dǎo)論[M].北京:人民出版社,2010:266-300.
[18] 齊格蒙特·鮑曼.后現(xiàn)代倫理學(xué)[M].張成崗,譯.南京:江蘇人民出版社,2003:89-94.
[19] JONAS H. The imperative of responsibility: in search of an ethics for the technological age[M]. Chicago: The University of Chicago Press, 1984:83-89.
[20] COECKELBERGH M. Artificial intelligence, responsibility attribution, and a relational justification of explainability[J]. Science and engineering ethics, 2020,26(4):2051-2068.
[21] ROPOHL G. Mixed prospects of engineering ethics[J]. European journal of engineering education, 2002, 27(2): 149-155.
[22] LENK H. Advances in the philosophy of technology: new structural characteristics of technologies[J]. Society for philosophy and technology quarterly electronic journal, 1998,4(1):56-62.
[23] 祝智庭,韓中美,黃昌勤.教育人工智能(eAI):人本人工智能的新范式[J].電化教育研究,2021,42(1):5-15.
[24] TUOMI I. The impact of artificial intelligence on learning, teaching, and education policies for the future[R]. Luxembourg: Publications Office of the European Union, 2018:14-23.
[25] 鐘卓,鐘紹春,唐燁偉.人工智能支持下的智慧學(xué)習(xí)模型構(gòu)建研究[J].電化教育研究,2021,42(12):71-78,85.
[26] LESLIE D. Understanding artificial intelligence ethics and safety: a guide for the responsible design and implementation of AI systems in the public sector[R]. London: The Alan Turing Institute, 2019:13-36.
[27] 張立國,劉曉琳,常家碩.人工智能教育倫理問題及其規(guī)約[J].電化教育研究,2021,42(8):5-11.
[28] 趙磊磊,陳祥梅,杜心月.人工智能時代師生關(guān)系構(gòu)建:現(xiàn)實挑戰(zhàn)與應(yīng)然轉(zhuǎn)向[J].教育理論與實踐,2021,41(31):36-41.92391A63-24D9-4CB8-991C-12C615E30BB5