• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      如何識別與判定人工智能教育應(yīng)用倫理問題

      2023-05-30 10:48:04謝娟
      電化教育研究 2023年1期
      關(guān)鍵詞:倫理問題

      [摘 ? 要] 倫理問題的產(chǎn)生在人工智能教育應(yīng)用中不可避免。如何識別與應(yīng)對之,是當(dāng)前研究的熱點,對于人工智能與教育融合創(chuàng)新具有顯著的倫理導(dǎo)向作用。已有研究多著力于對倫理風(fēng)險的預(yù)警,在一定程度上忽視了對倫理問題的識別與判斷,暴露出“泛倫理化”研究趨向,難以形成系統(tǒng)的倫理策略。實際上,只有辨別人工智能教育應(yīng)用行為的倫理屬性,通過倫理判斷的分類指引,經(jīng)由不同倫理分析框架的多樣嘗試,才能確定適切的倫理意圖并形成可行的倫理方案。從人工智能教育應(yīng)用行為的自知性、自愿性、社會性三個基本原則出發(fā),提出“識別人工智能教育應(yīng)用倫理問題”的一般方法,并基于目的論、義務(wù)論、美德論等規(guī)范倫理理論,確定“判斷人工智能教育應(yīng)用倫理問題是否合乎倫理規(guī)范”的方案依據(jù),從而闡釋人工智能教育應(yīng)用倫理策略的形成過程,為積極回應(yīng)“倫理問題識別意識薄弱”“倫理原則照搬難適應(yīng)”等實踐困境提供理論依據(jù)與實踐路徑。

      [關(guān)鍵詞] 人工智能教育應(yīng)用; 倫理問題; 倫理識別; 倫理判斷; 倫理策略

      [中圖分類號] G434 ? ? ? ? ? ?[文獻標(biāo)志碼] A

      [作者簡介] 謝娟(1984—),女,山東棗莊人。副教授,博士,主要從事教育技術(shù)倫理研究。E-mail:xiejuansd@126.com。

      一、引 ? 言

      隨著我國《新一代人工智能倫理規(guī)范》的發(fā)布,教育領(lǐng)域人工智能倫理研究已成為熱潮。什么是人工智能教育倫理問題、其判定依據(jù)是什么、規(guī)約這些問題的基本思想有哪些,是當(dāng)前人工智能教育倫理研究的三個基礎(chǔ)性問題[1]。本文從“人工智能教育應(yīng)用”的角度切入,通過對應(yīng)用行為的倫理分析,嘗試探尋倫理策略的形成過程,以期為識別倫理問題提供方法指導(dǎo)、為作出倫理判斷提供理論支撐、為確定倫理意圖和開展倫理實踐提供思路引領(lǐng)。

      二、問題的提出

      當(dāng)前學(xué)界對“倫理問題”的警醒和對“倫理策略”的訴求等研究熱情愈發(fā)高漲。一方面,學(xué)者們多維度辨識了人工智能教育應(yīng)用引發(fā)的技術(shù)濫用、數(shù)據(jù)泄露等倫理困境[2],深刻意識到人被技術(shù)異化等倫理風(fēng)險的隱蔽性和誘惑性[3],系統(tǒng)梳理了角色層面、技術(shù)層面和社會層面的倫理問題[4],并從主體規(guī)范缺失、倫理原則淡化、倫理形態(tài)嬗變等視角透視原因[5],使“人工智能教育應(yīng)用倫理問題”成為討論的焦點。另一方面,已有研究指出強人工智能與弱人工智能在倫理策略設(shè)計上的不同[6],主張通過實施人工智能倫理教育來應(yīng)對倫理問題[7],倡導(dǎo)利用義務(wù)論和美德論等倫理方法來表達(dá)技術(shù)美德和提高道德決策的有效性[8],呼吁從家長監(jiān)管、教育矯正等責(zé)任角度來提升倫理自覺[9],強調(diào)從個體和類群體兩個層面制定應(yīng)對措施[10],提出治理教育人工智能風(fēng)險的責(zé)任倫理框架[11],從而突出了倫理策略研究的迫切性,也在一定程度上暴露出“倫理策略難以落地”的研究不足。不可否認(rèn),已有研究對倫理風(fēng)險的多方位警覺,在凸顯了人工智能教育應(yīng)用倫理研究必要性的同時,也昭示了相應(yīng)倫理策略缺失所引發(fā)的惶恐不安。

      眾所周知,并非所有與人工智能關(guān)涉的問題都是倫理問題。然而,學(xué)界明顯的“泛倫理化”研究特點——習(xí)慣于把所有困境都?xì)w結(jié)為倫理問題、不對具體應(yīng)用行為的倫理性加以識別與區(qū)分、忽視倫理辨識的重要性,在很大程度上模糊了倫理策略的針對性。甚至,有些研究對諸如人工智能操作失誤、智能技術(shù)本身有待更新等非倫理性問題也進行倫理分析并試圖提出倫理策略,迫使倫理研究陷于“無邊界”境地。于是 “倫理原則照搬難適應(yīng)”等研究困境不斷出現(xiàn)。

      事實上,辨識倫理問題、明確倫理目標(biāo),是形成倫理策略的必要前提。所謂倫理策略,就是為解決倫理問題而制定的行動方案集合。它的前提是遭遇倫理問題并能夠進行倫理分析,其目的在于明確倫理意圖并做出倫理行動。著名的雷斯特道德行為模型理論(Rest's Model of Moral Behavior)認(rèn)為倫理決策的四個階段分別是倫理感知、倫理判斷、倫理意圖、倫理行為[12]。鑒于該模型的廣泛影響力及其對倫理策略形成的重要指導(dǎo)作用,本文據(jù)此構(gòu)建了人工智能教育應(yīng)用倫理策略的形成過程,如圖1所示。

      可見,人工智能教育應(yīng)用之倫理策略的形成要經(jīng)歷四個過程:一是識別倫理問題,即在教育情境中辨別出人工智能應(yīng)用行為所引發(fā)的倫理問題和非倫理問題,其關(guān)鍵在于盡可能地明確界定人工智能教育應(yīng)用行為的倫理性;二是作出倫理判斷,即通過規(guī)范倫理學(xué)等理論維度對倫理問題進行分析,判斷人工智能應(yīng)用行為是否合乎倫理規(guī)范,其重點是借助多種倫理分析框架對應(yīng)用行為進行道德判斷;三是確認(rèn)倫理意圖,即根據(jù)教育的育人目的和人工智能的功能意愿決定是否做出某種倫理行為,指向針對所依據(jù)的倫理目的或倫理原則而作出的行為選擇;四是實施倫理方案,即把前三步的分析結(jié)果,以合乎倫理規(guī)范的行為方式付諸實踐,從而解決倫理問題。

      總之,教育領(lǐng)域人工智能應(yīng)用所引發(fā)的問題,只有具備倫理性,才能稱之為倫理問題,進而才能對其進行倫理分析、尋求倫理策略。實際上,人工智能教育應(yīng)用的倫理實踐發(fā)軔于教育主體的倫理認(rèn)知[13]。只有教育主體認(rèn)識到人工智能應(yīng)用中的倫理問題并進行倫理判斷,才能開展倫理實踐。因此,要想有效應(yīng)對人工智能教育應(yīng)用引發(fā)的倫理風(fēng)險并形成系統(tǒng)的倫理策略,識別倫理問題是第一要務(wù),作出倫理判斷是關(guān)鍵環(huán)節(jié)。這兩步直接決定了倫理意圖與倫理行動方案的指向。

      三、識別人工智能教育應(yīng)用倫理問題的

      基本原則

      人工智能教育應(yīng)用,歸根結(jié)底是一種技術(shù)應(yīng)用行為,即技術(shù)應(yīng)用主體操作技術(shù)客體的行為。這種行為具有教育情境性,其后果與一般意義上的人工智能應(yīng)用相異,強調(diào)對教育中“人”的影響。一般地,從倫理學(xué)的角度,人類行為可以劃分為倫理行為和非倫理行為兩種類型[14]。根據(jù)行為是否關(guān)涉?zhèn)惱?,人工智能教育?yīng)用行為引發(fā)的問題可以分成兩大類:倫理問題和非倫理問題。根據(jù)“與倫理規(guī)范的合乎程度”,可以繼續(xù)把倫理問題細(xì)化為“合乎倫理規(guī)范的問題”和“不合乎倫理規(guī)范的問題”。而非倫理問題被排除在倫理分析之外,無需對其進行倫理策略建構(gòu),但為了強調(diào)與倫理問題的區(qū)別,仍可根據(jù)行為主體是否具有應(yīng)用的主動意識,將其劃分為“有意識的非倫理問題”和“無意識的非倫理問題”。具體問題種類如圖2所示。

      需要說明的是,倫理是道德的上位概念,個體的道德性和群體的倫理性均稱之為倫理性。倫理行為和非倫理行為的區(qū)別在于是否具有“倫理性”,即是否與倫理或道德關(guān)涉。所謂行為的“倫理性”是指行為受到一定的道德意識支配、主體自覺選擇并涉及他人或社會利益,具有善或惡的意義,具體表現(xiàn)為自知性、自愿性、社會性的特點[15]。而與此相對立的行為,缺少了道德意識的支配、不涉及他人或社會利益、不具有善或惡的意義,就是非倫理的。只有具有倫理性的行為,其引發(fā)的問題才是倫理問題。識別教育情境中人工智能教育應(yīng)用帶來的問題是否具有倫理性,需要基于人工智能應(yīng)用行為的自知性、自愿性、社會性三個基本原則進行判斷。

      第一,自知性原則是指行為主體對行為本身具有自覺的道德意識,能夠意識到行為的本質(zhì)、意義、價值和影響。也就是說,只有自覺意識到個體同他人、群體、社會之間的利益和義務(wù)關(guān)系,支配并付諸行動,才能構(gòu)成倫理行為。例如,神志不清的教育者、無判別是非能力的學(xué)習(xí)者,在人工智能應(yīng)用過程中即便在某些場合或某種程度上表現(xiàn)出有利或有害于他人、集體、社會的性質(zhì),但是此類行為不具有自知性的特點,故不屬于倫理行為。

      第二,自愿性原則是指行為主體依據(jù)自己的自由意志對道德行為進行自主選擇。只有行為主體出于自愿,并依據(jù)必要的道德準(zhǔn)則作出自主的行為選擇,才負(fù)有道德責(zé)任,屬于倫理行為。例如,在強制性要求或操作技能缺失的客觀條件下,教師或?qū)W生只能被迫或有限應(yīng)用人工智能部分功能進行教學(xué),即使付出最大努力,也無法達(dá)到理想的教學(xué)效果。此類行為的發(fā)生并非出自行為主體的自主自愿,不符合自愿性原則,因而屬于非倫理行為。

      第三,社會性原則是指行為本身對他人、群體、社會產(chǎn)生影響并涉及利害或利益關(guān)系。事實上,一切無礙于利益的行為,都無所謂道德或不道德,即不具有倫理性,無法作出利害或善惡判斷。例如,教師使用人工智能的行為,如果處于教學(xué)情境之外,并未涉及學(xué)生、他人及社會的利益,就不具有道德價值,不屬于倫理行為;倘若超越了特定界限并進入教育情境,對教學(xué)活動產(chǎn)生影響,如促進或阻礙了學(xué)生的創(chuàng)造力發(fā)揮,增加或損害了師生利益,則變成了倫理行為。

      通常,一種行為往往包含復(fù)雜的內(nèi)容,帶來倫理問題的同時,其他社會問題也會相伴產(chǎn)生。只要引發(fā)該問題的行為同時具備自知性、自愿性、社會性的特點,該問題就可以稱之為倫理問題。實際上,自知性原則是前提,自愿性原則是保障,社會性原則是基礎(chǔ),不符合任何一個原則都難以準(zhǔn)確厘定行為的倫理界限,也就不能認(rèn)定其帶來的問題是否為倫理問題。

      誠然,人工智能教育應(yīng)用無法與技術(shù)操作、教育管理等問題割裂開來,而把所有問題都等同于倫理問題無疑是不妥當(dāng)?shù)摹F鋵?,倫理與非倫理的界限雖然是確定的,但并非絕對。某些行為在特定意義上為非倫理行為,在廣泛范圍內(nèi)往往又具有倫理意義[16]。正因如此,人工智能教育應(yīng)用倫理問題才難以得到界定,導(dǎo)致學(xué)界出現(xiàn)“泛倫理化”的研究現(xiàn)象。所以,倫理辨識要審時度勢,一方面不能把倫理問題與非倫理問題混為一談,要堅決反對泛倫理主義;另一方面也要理性認(rèn)識倫理問題與非倫理問題之間的聯(lián)系,從發(fā)展和辯證的角度把握非倫理問題轉(zhuǎn)化為倫理問題的必要條件。尤其是,如果行為主體處在“無意識”的被動使用人工智能的狀態(tài)下,其行為容易被技術(shù)控制,極易導(dǎo)致由“非倫理問題”轉(zhuǎn)化為“教育被人工智能異化”等不合乎倫理規(guī)范的問題。同時也要注意到,“有意識的非倫理問題”在一定條件下可以轉(zhuǎn)化為“合乎倫理規(guī)范問題”的現(xiàn)實意義。

      總之,理性認(rèn)識倫理與非倫理、合乎倫理規(guī)范與不合乎倫理規(guī)范、無意識非倫理與不合乎規(guī)范倫理三組概念的相對性,有助于提升人們的倫理鑒別力,從而避免在“非此即彼”“非善即惡”的二元論道路上愈陷愈深。從這個意義上講,人工智能引發(fā)的諸如師生關(guān)系異化、人文情感缺失、教學(xué)交往不足等具體教育問題,均可訴諸自知性、自愿性和社會性三個原則進行判斷,確認(rèn)其是否屬于倫理問題以及能否進行倫理應(yīng)對。唯有如此,倫理分析才有理可依、倫理方法才有據(jù)可循,倫理問題方能迎刃而解。另外,值得強調(diào)的是,在辨識過程中,還要注意非應(yīng)用行為所引發(fā)的倫理問題,如人工智能對傳統(tǒng)倫理觀念的沖擊、對教育倫理關(guān)系的改變等,這些問題也屬于教育人工智能倫理研究的重要內(nèi)容,同樣值得深入探討。

      四、判斷倫理問題是否合乎倫理規(guī)范的

      主要方案

      根據(jù)倫理策略形成過程,識別出人工智能教育應(yīng)用中的倫理問題之后,就需要對其作出是否合乎倫理規(guī)范的判斷。規(guī)范體現(xiàn)的是一種社會關(guān)系特性,是指人們共同遵守的社會約定或標(biāo)準(zhǔn),主要有公共生活規(guī)則、職業(yè)或技術(shù)規(guī)范、法律規(guī)范、倫理規(guī)范等[17]。倫理規(guī)范是用來判斷善與惡、正當(dāng)與不正當(dāng)、權(quán)利與義務(wù)等的道德準(zhǔn)則。合乎倫理規(guī)范的行為就是正當(dāng)?shù)膫惱硇袨椋赶蛏?;而不合乎倫理?guī)范的行為就是不正當(dāng)?shù)膫惱硇袨椋赶驉?。然而,這種善惡、應(yīng)當(dāng)與否的價值判斷,因行為主體所處立場以及實際問題復(fù)雜程度的不同,涉及的理論依據(jù)也是綜合的,需要從不同角度對行為的動機或目的,進行倫理原則、道德規(guī)范的綜合比對與分析。這就需要規(guī)范倫理學(xué)為此提供理論闡釋和方法指導(dǎo)。

      規(guī)范倫理學(xué)是研究行為準(zhǔn)則、探討道德規(guī)范的理論,旨在通過揭示善與惡、正當(dāng)與不正當(dāng)、應(yīng)該與不應(yīng)該之間的界限與標(biāo)準(zhǔn),為社會成員指出通向道德完善的實踐之路[18]。這種理論類型致力于說明行為本身應(yīng)該遵從的道德標(biāo)準(zhǔn)及合理性原則,因而能夠為人工智能教育應(yīng)用的道德規(guī)范、倫理原則、責(zé)任體系、制度法規(guī)提供分析框架,有助于指導(dǎo)人們把人工智能的外在倫理規(guī)范和教育的內(nèi)在價值標(biāo)準(zhǔn)結(jié)合起來,以他律和自律相結(jié)合的形式,解決“規(guī)范與價值和諧共生”的難題。一般而言,依據(jù)不同的道德規(guī)范和問題解決的方法,規(guī)范倫理學(xué)有目的論、義務(wù)論和美德論三大理論陣營[19]。本文梳理了典型的規(guī)范倫理理論及其聯(lián)系(如圖3所示),進而為判斷人工智能教育應(yīng)用倫理問題是否合乎倫理規(guī)范提供了三種方案。

      第一種是目的論方案。目的論又稱為效果論,是以行為所實現(xiàn)的目的和結(jié)果作為評判道德善惡的依據(jù),具有感性主義的特點。目的論認(rèn)為,如果行為的后果帶來的好處超過壞處(使受影響對象獲得最大益處),那么這種行為就是合乎倫理的行為。這種理論思路強調(diào)行為目的是為個體或群體帶來幸福和避免不幸福。它通過考察每一種行為的可能后果,找出能夠帶來總益處最大凈增加的方案,從而確認(rèn)倫理意圖并實施倫理行為。例如,當(dāng)教育的需要與人工智能應(yīng)用目的之間存在沖突時,需要目的論提供一種可操作的程序,用最大利益原則對行為進行輕重緩急的排序,形成利益優(yōu)先級的方法,從而引導(dǎo)人們在教育活動或人工智能應(yīng)用行為中作出選擇,保障受影響對象獲得最大益處。

      第二種是義務(wù)論方案。義務(wù)論又稱為準(zhǔn)則論,強調(diào)評判道德善惡的依據(jù)在于動機,在于行為本身是否出于義務(wù)、應(yīng)當(dāng)和責(zé)任,是否遵從一定的道德原則和規(guī)范,具有理性主義的特點。康德主義、規(guī)則功利主義、社會契約論都是基于規(guī)則的倫理理論,其中,康德主義主張道德是一種普遍化的絕對命令,規(guī)則是人的意愿和行動理由,應(yīng)當(dāng)把人作為互相平等的道德主體來尊重,人是目的而非工具;規(guī)則功利主義強調(diào)“每個人都始終應(yīng)當(dāng)確立和遵循會給一切相關(guān)者帶來最大好處的規(guī)則”[20];社會契約論認(rèn)為“道德存在于規(guī)則之中,在大家都遵從這些規(guī)則的情況下,理性的人為了達(dá)到互惠互利的目的,也會接受這些規(guī)則”[21]。所以,該方案認(rèn)為,只有遵循正當(dāng)?shù)牡赖乱?guī)則的行為,才可以判定為合乎倫理的行為。

      第三種是美德論方案。美德論又稱為德性論,是以人應(yīng)該具備怎樣的品德以及如何完善道德修養(yǎng)等問題為中心,超越了行為的后果或動機,關(guān)注做人的標(biāo)準(zhǔn),即“我應(yīng)該成為什么樣的人”。該理論主張道德行為的依據(jù)在于建立良好的品格并依據(jù)品格去行事,強調(diào)的是人自身所具有的良好德行[22]。它能夠為個體提供道德的生活理念,培養(yǎng)個體的道德情感與道德人格,為道德教化提供理論指導(dǎo)[23]??梢?,只要人工智能教育應(yīng)用者具有良好的德性并在應(yīng)用過程中體現(xiàn)出負(fù)責(zé)任、誠實、正直等美德,這種行為就是合乎倫理的行為。這種方案以良好品格為評判依據(jù),強調(diào)教育主體的誠實、公正、守信、仁慈等美好品行,從而從自律的角度來應(yīng)對現(xiàn)有法律無明確規(guī)定而傳統(tǒng)道德又回答不了的問題。

      事實上,規(guī)范倫理的目的論、義務(wù)論、美德論等理論都有其優(yōu)缺點。目的論注重對行為后果的分析,強調(diào)“好的效果”,卻可能忽略個體內(nèi)在的道德品質(zhì);義務(wù)論把是否履行了某種義務(wù)作為善惡的主要評價依據(jù),強調(diào)“做好事”,卻忽視了道德價值的客觀性;美德論注重德性或道德品質(zhì)的形成,強調(diào)“做好人”,卻難以實現(xiàn)對行為的具體明確的指導(dǎo)。它們各有所長,相互補充。目的論和義務(wù)論側(cè)重于道德規(guī)范及原則的制定,屬于他律策略;德性論則追求個體美德的形成,是自律的行為。因?qū)ν环N人工智能教育應(yīng)用行為可以從不同的角度加以分析,所依據(jù)的理論框架也不同。所以,在進行倫理判斷時,應(yīng)盡可能避免一種理論的局限,根據(jù)不同的情況,將目的論、義務(wù)論、美德論三種理論綜合起來,揚長避短,實現(xiàn)自律與他律的統(tǒng)一。比如,當(dāng)強調(diào)人工智能應(yīng)用行為的道德價值時,就需要目的論的辯護;當(dāng)要維護人工智能與教育的和諧倫理秩序時,就需要義務(wù)論對行為進行明確具體的指導(dǎo);當(dāng)要塑造人工智能應(yīng)用者的良好道德品質(zhì)時,則離不開美德論的支持。只有將規(guī)范與美德統(tǒng)一起來,才能促進人工智能教育應(yīng)用按照道德生活的內(nèi)在必然性發(fā)展,實現(xiàn)技術(shù)與人文的統(tǒng)一,促進規(guī)范與價值的和諧共生。

      五、人工智能教育應(yīng)用倫理策略的形成

      倫理問題經(jīng)過識別和判定之后,就需要根據(jù)教育目的和人工智能應(yīng)用意愿進行倫理意圖的確認(rèn),為倫理行動的付諸實踐作好鋪墊。為詳細(xì)闡述識別與判定人工智能教育應(yīng)用倫理問題的過程與方法,本文以智能教學(xué)系統(tǒng)應(yīng)用中的“算法濫用現(xiàn)象”為例,分析其倫理策略的形成。

      首先,識別倫理問題。教師、學(xué)生在應(yīng)用該智能系統(tǒng)時,都具備自知性、自愿性和社會性的特點,因而該教學(xué)智能體被應(yīng)用所引發(fā)的問題屬于倫理問題。由于此類應(yīng)用行為存在“對所有學(xué)生行為的全面監(jiān)控”等倫理失范現(xiàn)象,是典型的算法濫用,不符合我國《新一代人工智能倫理規(guī)范》中的提倡善意使用、避免誤用濫用、禁止違規(guī)惡用、及時主動反饋、提高使用能力等倫理要求[24],是不合乎倫理規(guī)范的問題。

      其次,選擇倫理方案。為決定該行為的倫理意圖,明確倫理目標(biāo),需要從多種倫理視角進行分析,盡可能達(dá)成共識并提出適當(dāng)?shù)男袨榉桨?,從他律和自律相結(jié)合的角度,把效果、準(zhǔn)則與德性融合在一起,以促成倫理策略的最終形成。具體而言:(1)在明確人工智能教育應(yīng)用倫理問題基礎(chǔ)上,識別行為主體與利益相關(guān)者的關(guān)系,即該智能系統(tǒng)應(yīng)用所涉及的學(xué)校管理者、教師、學(xué)生、家長等多方利益;(2)判斷倫理問題的正當(dāng)性:是否公平、有效、健康、規(guī)范地應(yīng)用,即檢驗該智能系統(tǒng)應(yīng)用在多大程度上與教育教學(xué)等相關(guān)倫理原則相一致,避免泛倫理化;(3)從目的論、義務(wù)論和美德論的角度分析倫理問題的效益性、規(guī)范性和品德性,最終確定以義務(wù)論方案為主,以目的論和美德論方案為輔,強調(diào)倫理策略對原則、規(guī)范的遵守和對責(zé)任、義務(wù)的擔(dān)當(dāng);(4)將倫理解釋與教育規(guī)范、人工智能規(guī)范進行比對,對倫理目標(biāo)進行優(yōu)先級排序,確定以保證師生教與學(xué)的自主權(quán)為基本倫理意圖;(5)選定倫理方案,即從義務(wù)論的角度出發(fā),嚴(yán)格遵循《新一代人工智能倫理規(guī)范》基本原則和使用規(guī)范,認(rèn)真履行教育倫理規(guī)范,積極承擔(dān)育人的責(zé)任,從而形成倫理策略并執(zhí)行。

      可見,在人工智能深度應(yīng)用必然擴展教育倫理之約束邊界的背景下,只有把教育倫理規(guī)范和人工智能倫理規(guī)范共同放置于倫理問題解決的實踐中,才能確保人工智能教育應(yīng)用在教育倫理規(guī)范和人工智能倫理規(guī)范的共同約束中發(fā)揮效力并承擔(dān)育人職責(zé)。需要說明的是,本文無意區(qū)分多種倫理理論的異同,僅從倫理策略形成的一隅嘗試對人工智能教育應(yīng)用領(lǐng)域的一般倫理問題進行理論分析,以期引起更廣泛討論。

      [參考文獻]

      [1] 張立國,劉曉琳,常家碩.人工智能教育倫理問題及其規(guī)約[J].電化教育研究,2021,42(8):5-11.

      [2] 杜靜,黃榮懷,李政璇,周偉,田陽.智能教育時代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J].電化教育研究,2019,40(7):21-29.

      [3] 王嘉毅,魯子簫.規(guī)避倫理風(fēng)險:智能時代教育回歸原點的中國智慧[J].教育研究,2020,41(2):47-60.

      [4] 鄧國民,李梅.教育人工智能倫理問題與倫理原則探討[J].電化教育研究,2020,41(6):39-45.

      [5] 王東,張振.人工智能倫理風(fēng)險的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.

      [6] 莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學(xué)與社會,2018,8(1):14-24.

      [7] 蔡連玉,韓倩倩.人工智能與教育的融合研究:一種綱領(lǐng)性探索[J].電化教育研究,2018,39(10):27-32.

      [8] HAGENDORFF T. The ethics of AI ethics:an evaluation of guidelines[J]. Minds and machines,2020,30(1):99-120.

      [9] 王前,曹昕怡.人工智能應(yīng)用中的五種隱性倫理責(zé)任[J].自然辯證法研究,2021,37(7):39-45.

      [10] 李梅敬.理論層次視域下人工智能發(fā)展風(fēng)險的倫理應(yīng)對[J].探索與爭鳴,2021(8):167-176,180.

      [11] 趙磊磊,吳小凡,趙可云.責(zé)任倫理:教育人工智能風(fēng)險治理的時代訴求[J].電化教育研究,2022,43(6):32-38.

      [12] 吳紅梅,劉洪.西方倫理決策研究述評[J].外國經(jīng)濟與管理,2006(12):48-55.

      [13] 李曉巖,張家年,王丹.人工智能教育應(yīng)用倫理研究論綱[J].開放教育研究,2021,27(3):29-36.

      [14] 徐少錦,溫克勤.倫理百科辭典[M].北京:中國廣播電視出版社,1999:441.

      [15] 王敬華.新編倫理學(xué)簡明教程[M].南京:東南大學(xué)出版社,2012:238-239.

      [16] 郭廣銀.倫理學(xué)原理[M].南京:南京大學(xué)出版社,1995:310.

      [17] 廖申白.倫理學(xué)概論[M].北京:北京師范大學(xué)出版社,2009:18.

      [18] 余仕麟.倫理學(xué)要義[M].成都:巴蜀書社,2010:24.

      [19] 高湘澤.一種可能作為比較純正的規(guī)范倫理的原義“責(zé)任倫理”綱要[M].武漢:武漢大學(xué)出版社,2015:33.

      [20] 雅克·蒂洛,基思·克拉斯曼. 倫理學(xué)與生活[M].程立顯,劉建,譯.成都:四川人民出版社,2020:44.

      [21] 邁克爾J.奎因.互聯(lián)網(wǎng)倫理:信息時代的道德重構(gòu)[M].王益民,譯.6版.北京:電子工業(yè)出版社,2016:51-62.

      [22] 徐陶.當(dāng)代哲學(xué)導(dǎo)論[M].長沙:湖南大學(xué)出版社,2014:57.

      [23] 趙永剛.美德倫理學(xué):作為一種道德類型的獨立性[M].長沙:湖南師范大學(xué)出版社, 2011:216.

      [24] 中華人民共和國科學(xué)技術(shù)部.《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL]. [2021-10-12]. http://www.most.gov.cn/kjbgz/202109/t2021 0926_177063.html.

      How to Identify and Determine Ethical Issues in Educational Application of Artificial Intelligence —Based on Formation of Ethical Strategies

      XIE Juan

      (School of Education and Psychology, University of Jinan, Ji'nan Shandong 250022)

      [Abstract] Ethical issues are inevitable in educational application of artificial intelligence. How to identify and deal with them now is a hot topic, which plays a significant ethical guiding role in the integration and innovation of artificial intelligence and education. Most of existing researches focus on the early warning of ethical risks, and neglect the identification and judgment of ethical issues to a certain extent, thus exposing the trend of pan-ethicalization and making it difficult to form a systematic ethical strategy. In fact, only by distinguishing the ethical attributes of the application behavior, classifying guidance of ethical judgment, and by making various attempts in different ethical analysis frameworks, can appropriate ethical intentions be determined and feasible ethical schemes be formed. So this paper firstly puts forward a general method of identifying the ethical issues based on the three basic principles of self-knowledge, voluntariness and sociality, and then determines the basis of judging whether the ethical issues conform to ethical norms based on the normative ethical theories such as teleology, obligation theory and virtue. By explaining the formation process of the ethical strategies, it provides a theoretical basis and a practical path to actively respond to the practical dilemmas such as "weak awareness of identifying ethical issues" and "difficulty in copying ethical principles".

      [Keywords] Educational Application of Artificial Intelligence; Ethical Issues; Ethical Identification; Ethical Judgment; Ethical Strategy

      猜你喜歡
      倫理問題
      關(guān)于輔助生殖技術(shù)的倫理問題探究
      VR技術(shù)+新聞業(yè):新倫理問題的思考
      新媒體研究(2017年7期)2017-05-24 17:18:19
      醫(yī)學(xué)編輯應(yīng)把握好稿件中的倫理問題
      新媒體研究(2017年5期)2017-04-21 10:05:31
      微信倫理問題探析
      民事司法的倫理問題思考
      青年時代(2017年2期)2017-02-16 13:08:47
      現(xiàn)代生物技術(shù)發(fā)展帶來的倫理問題
      冠心病治療過程中的倫理問題
      網(wǎng)絡(luò)謠言若干倫理問題分析
      物聯(lián)網(wǎng)技術(shù)的倫理問題探析
      腦出血急性期丹參酮應(yīng)用醫(yī)療護理中的倫理問題與防范
      永仁县| 新余市| 鹿泉市| 砀山县| 库车县| 奉贤区| 肇庆市| 子洲县| 高唐县| 宁陵县| 本溪市| 宝鸡市| 吴川市| 米脂县| 荆州市| 江北区| 西乡县| 麟游县| 高密市| 会泽县| 鹤山市| 双牌县| 保康县| 丹东市| 茌平县| 上思县| 清丰县| 茂名市| 巴彦县| 昔阳县| 扎赉特旗| 阳城县| 崇文区| 广元市| 汤阴县| 宿松县| 宕昌县| 无棣县| 华蓥市| 郓城县| 于田县|