李世瑾 胡藝齡 顧小清
[摘? ?要] 對新興技術應用的追問從來都是停留在技術中性論層面。教育創(chuàng)新雖需技術支持,但不能只是管中窺豹,必須采用前瞻目光澄清模糊認識和錯誤做法,主動走出技術應用的風險困局。為推進智能教育生態(tài)的健康發(fā)展,本研究從管控視角廓清了四類典型現(xiàn)象:忽視智能技術還原教育世界的本體風險、遮蔽智能技術表征教育生態(tài)的認識風險、輕視智能技術違背教育初心的價值風險、濫用智能技術導致教育治理的倫理風險。研究發(fā)現(xiàn),風險成因關鍵在于:過度掩蓋技術應用的內(nèi)生復雜性機理,尚未厘清技術介入教育生態(tài)的普遍性規(guī)律;盲目弱化技術重塑教育的脆弱性機理,滋生技術介入教育生態(tài)的負向效應;高度忽視教育生態(tài)的測不準性機理,缺少風險治理的科學方法與適切路徑。鑒于此,提出應對智能教育風險的關鍵出路:共創(chuàng)復雜性治理范式,揭示教育生態(tài)的內(nèi)生規(guī)律;厘清主體的協(xié)同機制,提升教育生態(tài)的抗逆基因;構(gòu)建多元創(chuàng)新方法論,適應教育生態(tài)的動態(tài)平衡。
[關鍵詞] 人工智能; 教育應用; 生態(tài)風險; 內(nèi)生機理; 因應策略
[中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A
[作者簡介] 李世瑾(1993—),女,河南安陽人。博士研究生,主要從事學習科學與技術設計、智能教育研究。E-mail:shijinliEdu@163.com。
一、問題的提出
面對二元智能時代的到來,教育已被卷入這場聲勢浩大的技術革命中。盡管人工智能教育實踐的熱情與野心日趨高漲,但當技術直接參與人本身的改寫和塑造時,教育工作者產(chǎn)生前所未有的慌亂,甚至動搖了教育初心及育人使命。技術是建立在流沙之上的雙刃劍,對新興技術的追問從來都是停留在技術中性論層面[1]。教育創(chuàng)新雖需技術支持,但不能只是管中窺豹,必須采用前瞻目光澄清若干模糊認識和錯誤做法,主動走出技術應用的風險困局。
已有學者對這一問題進行深刻省思。舍恩伯格等指出,人工智能技術不是解決一切教育問題的“靈丹妙藥”,亟須理性探索人本人工智能的路徑和邊界[2]。安濤從海德格爾技術哲學觀檢省了“人—技術—教育”一體化的存在論結(jié)構(gòu)[3]。李芒等從人工智能教育應用的盲區(qū)、禁區(qū)和誤區(qū)出發(fā),強調(diào)人工智能教育必須重視人本性和完整性[4]。Jim[5]、Williamson[6]等依據(jù)教育治理原則探索數(shù)據(jù)服務的未來趨勢。鄧國民等提出福祉、公平正義、責任和問責等人工智能倫理原則[7]。由此看來,學界對人工智能教育的理性抉擇已達成共識,但鮮有針對風險管控的突圍路徑,這無疑將制約教育生態(tài)的健康發(fā)展。正如英國著名社會學家大衛(wèi)·科林格里奇所言:“一旦技術應用的風險后果發(fā)生時,它已成為經(jīng)濟和社會結(jié)構(gòu)的一部分,對其管控將十分困難?!盵8]因此,本研究從管控視角廓清智能教育的技術風險閾,進一步透析其內(nèi)生機理,主動突圍技術風險的困局,以期為智能技術與教育生態(tài)的深度融合覓求鏡鑒。
二、解構(gòu):智能教育的技術陷阱
智能技術內(nèi)蘊“造客之術”和“塑主之術”[9]。所謂造客之術,即主體在智能場域中無法理性感知到客觀環(huán)境的存在,對其本原認識存在偏頗。所謂塑主之術,即過于強調(diào)智能技術的應用價值,無法保持主體思維、意識和情感等方面的主觀能動性。如何消解智能技術的周邊定律、“過濾氣泡”等偏見效應[10],脫離技術奴役的牢籠尤為關鍵。因此,研究重新審視智能教育的邊界和限度(如圖1所示),為教育治理與管控指引科學方向。
(一)忽視智能技術還原教育世界的本體風險
人工智能通過多重意涵指向,試圖探索教育世界的奧秘,彰顯出更多的“趣悅性”和“個性化”[11]。例如,基于深度學習挖掘?qū)W習者的交互行為和情感特征[12]、采用人臉識別技術監(jiān)測學習者的學習質(zhì)量[13]、基于Spring Cloud的“微課堂”推送個性化學習資源[14]。但是,當撕下技術虛偽的“樂觀面目”時,其現(xiàn)實應用效果并不盡如人意。一項關于智能導學系統(tǒng)的元分析結(jié)果表明,其對學業(yè)成就的提升效果非常有限(ES=0.09)[15]。另有研究結(jié)果表明,智能教學干預會讓表現(xiàn)不佳的學習者感到不適應[16],甚至加劇了學習者的同質(zhì)化傾向[17]。
教育復雜而不可控,人性神秘而不可測[18]。人工智能技術雖能匯聚規(guī)?;慕逃龜?shù)據(jù),但始終無法全部還原真實的教育世界,這正是技術本體風險的現(xiàn)實映射。具體地,一是算法和數(shù)據(jù)的表征閾值遠遠小于教育生態(tài)范疇,其“樣本<總體”的可視化表征顯露出人工智能的局限性。二是表征形式的節(jié)點化和簡約化,背離了教育生態(tài)的復雜性和系統(tǒng)性。試想,當高高豎起的能力標桿被量化為可復制的標準時,恐怕早已遺忘“好的教育”的規(guī)范性問題[19]。因此,從本體意義上來看,一味忽視“暗箱知識”“緘默知識”以及人的生命成長和價值觀等內(nèi)在品質(zhì),無疑將與育人初心相悖。此外,算法偏好往往固化甚至放大教育世界的“噪音數(shù)據(jù)”或“干擾數(shù)據(jù)”,抹殺教育的整全性和人本性,甚至成為教育質(zhì)量測評的“殺傷性武器”。由此看來,技術工具的肆意狂妄,導致了教育人工智能的本體風險。
(二)遮蔽智能技術表征教育生態(tài)的認識風險
人工智能具有溢出帶動性很強的“頭雁”效應[20],為教育工作者勾勒未來教育圖景打開了新視角。然而,正是遵循“主體—數(shù)據(jù)—客體”的表征路徑,造成了技術還原教育實踐的局限與割裂。其一,人工智能技術企圖通過動態(tài)的數(shù)據(jù)鏈打開教育世界的“黑匣子”,但由于數(shù)字計算缺乏對因果關系這一隱性態(tài)勢的挖掘和解釋,很容易造成技術應用偏離教育實踐的本原路徑。其二,人工智能技術打破了“本我”與“非我”的平衡感。這是因為,技術的趣悅化促使個體認知、情感和意志等沉浸在智適應的世界里,進而產(chǎn)生一種“非我”的錯覺。一旦“非我”表征形態(tài)無法適配“本我”精神意志時,兩者之間的張力將會失衡,自我由此陷入技術異化的困境之中。其三,個體對技術過度迷戀容易導致主體話語權(quán)的缺失,從而遮蔽甚至割裂人的情感表征以及價值觀[21]。誠然,這些缺失主體內(nèi)在品質(zhì)和生命價值的二進制數(shù)據(jù),實質(zhì)上是對教育情境、教育生命、教育價值的荒謬表征。因此,面對人工智能教育的認識風險,教育工作者亟須“知其然,知其所以然”。
(三)輕視智能技術違背教育初心的價值風險
教育是一項具有時代感的偉大事業(yè)[22],始終承載著育人這一亙古不變的責任與使命[23]。然而,伴隨技術潛在的功效增強,其違背育人初心的現(xiàn)象愈發(fā)凸顯,這恰是技術價值風險的真實寫照。一方面,人工智能技術是一種客觀手段的存在,一旦未能充分考量教育的終極目標時,其弊端將顯而易見。比如,當大腦幾乎24小時置于智能世界時,由于緘默性知識的缺失以及認知結(jié)構(gòu)的固化,人的思維和意識很容易陷入西西弗斯式狀態(tài)[24]。另一方面,當過度依賴技術桎梏時,主我與客我之間的互動交流將視為數(shù)據(jù)與數(shù)據(jù)之間的較量,進而造成形式化和表層化的教學事故愈發(fā)頻繁,學習共同體也呈現(xiàn)同質(zhì)化發(fā)展傾向。顯然,這些初見端倪的價值風險正如“普羅克拉斯提斯鐵床”,逼迫學習者經(jīng)過“鐵床”的考驗終打上“標準產(chǎn)品”標簽[25]。但是,教育不是工廠流水線上的產(chǎn)品[26],無論人工智能技術如何發(fā)展,動之以情、導之以行的教育始終是育人的根基。因此,坦然面對人工智能技術“有計算而無算計、有智能而無智慧、有感知而無認知”的現(xiàn)實,以及“技術服務于人”的理性認知,是突圍教育人工智能價值風險的關鍵。
(四)濫用智能技術導致教育治理的倫理風險
人類總會對技術的進步勾勒善意的幻想。然則,人是倫理性的存在,其價值取向或精神觀念無疑將受到技術倫理風險的規(guī)約。其一,技術服務的異化以及數(shù)據(jù)隱私的泄露,正在侵蝕學習者的幸福感[27]。比如,賦思頭環(huán)所導致的信息泄露、學習證據(jù)的標簽化、異質(zhì)數(shù)據(jù)的雜糅化……可以說,教育人工智能正在通過程序和規(guī)則構(gòu)建一所??率健叭笆奖O(jiān)獄”,釋放出諸多“現(xiàn)代性信任風險”[28]。正如德雷福斯所言:“人類理性和智能的獨特性需要積聚智力、社會以及文化的熏陶,而這種獨特性是很難被人工智能表征和程序化的?!盵29]其二,學習者由于長期使用智能技術,很容易養(yǎng)成“技術心流”的陋習。所謂技術心流,即學習者過度迷戀技術交互而進入忘我的狀態(tài),甚至抗拒技術之外的任何事物感知[30]。也就是說,一旦學習者脫離技術牢籠,將會逃避同儕之間的合作交流,進而產(chǎn)生性情孤僻、情感疏離等不良癥狀。其三,在人工智能技術的倒逼下,教育內(nèi)容具有更大的密度和吞吐量,這讓學習者經(jīng)常感到無所適從,且當教育內(nèi)容愈發(fā)滿足學習者的個性化需求時,同伴之間的競爭力將會明顯弱化,這會阻礙學習者持續(xù)努力的信念與動力。
三、審思:風險形態(tài)的內(nèi)生機理
人工智能技術擁有變革教育的偉力,但“技術之于教育”的自反性力量消弭了人的主動性和生長性。正如著名風險社會學家烏爾里希·貝克所言:“技術宛如達摩克利斯之劍,應用進程中必將面臨隨時墜落的風險?!盵31]無論是智能教育裹挾下的何種風險,實則正是技術風險范式的現(xiàn)實映射。因此,從根源上透析風險背后的復雜機理,助力智能教育的理性蛻變。
(一)過度掩蓋技術應用的內(nèi)生復雜性機理
教育生態(tài)是一個不以人的意志為轉(zhuǎn)移的內(nèi)生復雜系統(tǒng)。當人工智能技術介入教育生態(tài)系統(tǒng)時,教育邊界被打開,性質(zhì)迥異的要素和行為耦合在一起,沖突、協(xié)同、吞噬、更新等現(xiàn)象紛紛涌現(xiàn),教育系統(tǒng)也更加錯綜復雜[32]。正如技術風險范式所證實,一旦教育工作者無法掌控教育生態(tài)系統(tǒng)時,其復雜性要素將以風險形式釋放出來。具體來說,人工智能教育應用的內(nèi)生與外源制約著風險產(chǎn)生的情境和場域,也決定著風險發(fā)生的頻率以及現(xiàn)實條件(如圖2所示)。從內(nèi)源風險來看,人工智能教育的不確定性、不可知性、非線性以及局限性擴大了風險發(fā)生場域。從外源風險來看,由于尚未厘清技術介入教育生態(tài)的基礎機制、普遍性規(guī)律以及特殊情境,使得原本復雜的生態(tài)系統(tǒng)衍生出更多新的風險,并將特殊化的內(nèi)生風險轉(zhuǎn)化為普遍風險。顯然,這種因技術交互所引發(fā)的外源風險、內(nèi)生風險以及與教育生態(tài)系統(tǒng)本身的復雜性耦合,加之飽受理性異化、認知沖突、監(jiān)管失范和利益驅(qū)動等“多重陷阱”的煩惱和詬病,加劇了人工智能教育風險發(fā)生的可能,進而影響教育風險的監(jiān)控與治理進程。
(二)盲目弱化技術重塑教育的脆弱性機理
脆弱性作為教育生態(tài)系統(tǒng)內(nèi)生屬性的客觀存在,是技術變革教育所呈現(xiàn)的不強韌狀態(tài)。人工智能教育應用遵循“起步→應用→融合→創(chuàng)新”的變革路徑,雖不斷嘗試在教育創(chuàng)新方面作出改革,但由于技術的脆弱性具有強大的潛在性或隱蔽性,只有當風險發(fā)生時才會涌現(xiàn)出來。依據(jù)技術風險范式的意涵可知,技術本身的脆弱性將會滋生教育生態(tài)的負向效應(如圖3所示)。首先是動機性,動機是行為意向的發(fā)端和持續(xù)方向,由于教育生態(tài)系統(tǒng)的復雜性表征和模糊邊界轉(zhuǎn)換加大了動機權(quán)重賦值的難度,迫使人工智能計算陷入尷尬局面。其次是常識,它是時間、空間和文化熏陶的經(jīng)驗產(chǎn)物,包括大量技術規(guī)約。但由于人工智能技術無法自主產(chǎn)生常識這一脆弱性,成為滯緩技術與教育生態(tài)深度融合的“絆腳石”。最后是決策,由于智能決策與人類決策之間存在天然的鴻溝,如何讓智能系統(tǒng)如同人腦一般,采用更加綜合化、智能化的行動干預,這是突圍教育人工智能走向人機協(xié)同、群智開放、跨界融合的關鍵。顯然,人工智能教育系統(tǒng)中脆弱性的存在無疑會放大教師、學習者和資源之間的不良互動,一旦發(fā)生較小“擾動”時,教育生態(tài)系統(tǒng)就會將“擾動”放大甚至變異[33]。但是,這并不意味著應該排斥技術應用的脆弱性,相反,高度警醒技術的脆弱性機理,掌握其變化規(guī)律和發(fā)生機制,是管控人工智能教育風險的科學方法。
(三)高度忽視教育生態(tài)的測不準性機理
人工智能在教育中的應用是一個動態(tài)演化過程,其風險發(fā)生機制和作用過程通常無法預測。比如,這些風險形態(tài)源于何種場域,其風險擴散路徑和機制又是如何?這恰是技術風險理論“測不準性”的直觀表現(xiàn)。測不準性表明教育系統(tǒng)的主觀意識與其客觀存在具有一定差距,只有當教育系統(tǒng)處于動態(tài)平衡或脫離“擾動”的影響時,才能夠正確刻畫和精準預測人工智能教育應用的發(fā)展情勢。在此情境下,我們需要高度重視教育生態(tài)的整體性和完備性,即不僅透視人工智能教育應用的潛在風險和發(fā)生過程,也亟須關注“風險為何發(fā)生”以及“為何如此認知”等問題。層次分析法(Analytic Hierarchy Process,簡稱AHP)是監(jiān)控與治理技術應用成效的典型工具[34]。具體地,可將人工智能技術介入教育生態(tài)分為三個層次:目標層、準則層以及方案層。其中,目標層是風險治理的科學方法與適應性路徑。準則層是對風險原點、風險場域以及風險過程的具體探索,把控風險成因的背后機理以及內(nèi)生規(guī)律。方案層是具體的治理措施,即從風險認知、監(jiān)控過程、作用機制等層面提供系統(tǒng)的應對方案。
四、突圍:風險治理的應對之策
科學管控智能技術風險,提升技術賦能教育生態(tài)的實效性,其根本出路在于共創(chuàng)復雜性治理范式,揭示教育生態(tài)的內(nèi)生規(guī)律;關鍵在于厘清多元主體協(xié)同的機制,提升教育生態(tài)的抗逆基因;最終落腳點在于構(gòu)建多元創(chuàng)新方法論,適應教育生態(tài)的動態(tài)平衡。
(一)共創(chuàng)復雜性治理范式,揭示教育生態(tài)的內(nèi)生規(guī)律
技術對人的奴役實質(zhì)上是教育愿景無限擴張的體現(xiàn),正如恩格斯所言:“人有限的認識能力往往給技術應用的長期目標埋下潛在威脅?!盵35]若要實現(xiàn)對技術的馴服,必須厘清人工智能教育風險的本質(zhì)、風險演化的內(nèi)生規(guī)律以及博弈機制。盡管腦科學、心理學、教育神經(jīng)科學等領域針對教育風險管控已經(jīng)沉淀了些許可靠結(jié)論。但是,由于人工智能介入教育生態(tài)的復雜性和動態(tài)性,帶有“經(jīng)驗色彩”的舉措始終無法靈活地應對人工智能教育風險。因此,構(gòu)建復雜性治理范式以揭示教育生態(tài)的內(nèi)生規(guī)律,是突圍人工智能教育風險的根本出路。
所謂范式,即科學共同體信念、價值以及方法的揚棄與組合[36]。復雜性范式則脫離二元線性的“簡單思維”,強調(diào)通過動態(tài)的、非線性的思維方式,平等關注技術與人性、理性與非理性、機制與規(guī)律等內(nèi)生機理[37]。也就是說,復雜性范式的理性洞見突圍了技術外力主導的路徑依賴,為監(jiān)控教育生態(tài)的異質(zhì)性、演化性和涌現(xiàn)性等提供了安全屏障。一方面,強調(diào)風險治理的“管”,即需要多元主體自覺形塑基于證據(jù)的科學精神,不僅是風險識別、分析、評估、處理、監(jiān)控和審查等過程需要基于證據(jù),同樣技術介入教育系統(tǒng)的問題診斷、策略選擇以及效果評估等進程也需符合科學的證據(jù)線索。另一方面,強調(diào)風險治理的“控”,即基于問題的求真精神,確保編寫算法時不引入性別、種族、經(jīng)濟能力、技術文化等偏好。比如,可通過元分析或?qū)嶒炑芯糠ㄗR別風險形態(tài)并篩選出關鍵要素,或是通過大規(guī)模實驗探索風險發(fā)生的作用機制??傊?,運用復雜性范式形塑人工智能教育生態(tài)的科學與透明化,依據(jù)內(nèi)生規(guī)律脫離風險場域的“囚徒困境”,致力于技術與教育生態(tài)的和諧共生以及深度融合。
(二)厘清主體的協(xié)同機制,提升教育生態(tài)的抗逆基因
技術與教育都是“人”的所有物,兩者在依附對象上是一體化的存在,這也決定了技術與教育是互惠共生的關系。然而,由于人工智能技術在教育實踐中往往充斥著技術算計、算法偏見、信息繭房等離心現(xiàn)象,加之原本教育生態(tài)的脆弱性,加劇了人工智能教育風險的“涌現(xiàn)效應”。正如馬克斯·霍克海默等所言:“技術最終實現(xiàn)了‘負催化劑的夙愿?!盵38]因此,治理人工智能教育的潛在風險,關鍵在于厘清多元主體協(xié)同機制,提升教育生態(tài)的抗逆基因。同時,需要強調(diào)的是,管理者、研究者以及教育實踐者等多元主體需要采用指數(shù)思維以及協(xié)同創(chuàng)新的交互模式[39],預測技術融入教育生態(tài)的臨界點,基于理性的系統(tǒng)思維勾勒人工智能教育生態(tài)的發(fā)展愿景,維持技術與教育的動態(tài)平衡與良性互構(gòu)。
對于管理者來說,人工智能教育風險管控智慧源于對風險規(guī)律的理性認識和科學把控,當教育生態(tài)面臨具有風險性、波動性、不透明性的因素時,必須切實完備地探索教育風險的作用機制和內(nèi)生規(guī)律。換言之,科學可行的管控措施有助于增強教育生態(tài)系統(tǒng)的抗脆弱性。一方面,應詳盡分析人工智能教育應用的真實情況,對現(xiàn)存的、潛在的風險進行預判并歸類。另一方面,合理調(diào)適“人—技術—環(huán)境”三者之間的依存與聯(lián)結(jié),嘗試激活彼此之間的主觀能動性,增強教育生態(tài)抗脆弱的生命力。比如,圣母大學商業(yè)智能項目通過雇傭數(shù)據(jù)治理管家,協(xié)調(diào)多元主體的數(shù)據(jù)共識,建立了利益相關者的數(shù)據(jù)權(quán)限規(guī)約以及數(shù)據(jù)流通機制。對于研究者來說,需要解答人工智能教育風險的本質(zhì)規(guī)律以及作用機理。這個問題一方面需要研究者以重復性實驗梳理人工智能教育風險的一般類型和內(nèi)生規(guī)律,另一方面也需要研究者采用小規(guī)模實驗針對性地解答特殊風險。比如,佐治亞大學采用數(shù)據(jù)分析工具GPS(Graduation Progression Success)探索動態(tài)數(shù)據(jù)的變化規(guī)律以及發(fā)生機理,同時結(jié)合學習風格和興趣偏好,幫助學習者建立學習預警系統(tǒng)以及反饋機制。對于教學實踐者來說,需要充分利用自身的教育敏感性和實踐智慧等優(yōu)勢,不斷提升人工智能教育生態(tài)脆弱性的認知,努力將風險意識內(nèi)化為應對行為,突圍技術所引發(fā)的教師角色“脫嵌”與“消匿”等危機。
(三)構(gòu)建多元創(chuàng)新方法論,適應教育生態(tài)的動態(tài)平衡
人工智能加劇了教育生態(tài)的“測不準性”,一旦技術方法無法洞見或表征過去、現(xiàn)在以及未來的深刻變化時,將會失去數(shù)據(jù)賦能以及科學預見的功效[40]。因此,構(gòu)建適應教育生態(tài)平衡的復雜方法論,反思技術驅(qū)動的合理性與創(chuàng)新性,彌合技術與教育深度融合的溝壑,縮小理論與現(xiàn)實之間的差距,這是治理人工智能教育風險的落腳點。需要強調(diào)的是,盡管人工智能技術介入教育生態(tài)的側(cè)重方向不一致,但有關風險治理路徑卻存在若干共同法則。
首先,建立真實透明的方法論體系,涵蓋人工智能算法偏好、學習者文化表征與內(nèi)在價值,以及人工智能技術“包容性”“公平性”“魯棒性”“可解釋性”等規(guī)約,保障規(guī)模化教育數(shù)據(jù)挖掘和診斷進程的科學性。例如,有學者基于“相關利益者的跨領域協(xié)作→兼顧群體的一般性和特殊性→識別風險作用機理→增加公眾評議”等過程弱化了技術算法偏見[41]。也有學者嘗試采用弱信號、場景構(gòu)建等未來方法論洞察教育發(fā)展范式。其次,架構(gòu)局部與整體相統(tǒng)一的方法論體系,即確保方法論與風險治理的邏輯自洽,使其在“時間—過程—空間”一致性鏈條中審查風險源及其變化規(guī)律。教育社會實驗研究法是一種局部通向整體的科學范式,通過循證手段、證據(jù)表征、背景分析和表達傳遞等過程[42],直面教育生態(tài)風險非線性、不確定性、不可知等因素,努力平衡現(xiàn)實與可能、實然與應然之間的鴻溝。最后,強調(diào)方法論的復雜性系統(tǒng)思維。其一,注重教育生態(tài)的聯(lián)動性、開放性與系統(tǒng)性,將風險結(jié)構(gòu)、發(fā)生機制和變化規(guī)律等模塊化或結(jié)構(gòu)化,有序演化人工智能教育風險的變化軌跡,這也符合貝塔朗菲“整體之和大于部分之和”的觀點。其二,強調(diào)風險演化的協(xié)同性和因果性,理性辯證地看待風險要素、序參量以及環(huán)境之間的非線性機制、上向和下向因果作用。其三,關注適應的、生成的突現(xiàn)性思維,即不僅從要素或系統(tǒng)的可能狀態(tài)把控風險的生成過程,同時也應充分考量“剩余風險”或“緘默風險”的客觀存在,預測以及治理突現(xiàn)性風險的侵襲。
五、結(jié)? ?語
盡管人工智能教育應用的熱情與野心日趨強烈,但要時刻警醒技術始終無法還原教育世界的面目。唯有堅守教育的育人初心,打造人與技術和諧共生的教育生態(tài)體系,才能從根本上發(fā)揮人工智能技術賦能教育的作用。因此,理性看待技術應用的價值與限度,主動建立風險意識和擔當意識,緊扣風險發(fā)生的內(nèi)生規(guī)律與作用機制,持續(xù)推動教育人工智能的健康發(fā)展。同時,建立公正透明的風險反饋與預警機制,形塑信仰同一的權(quán)力共同體。未來,如何應用人工智能技術提供個性化的學習支持、如何應用人工智能技術提高教學效率和質(zhì)量、如何應用人工智能技術開展精準化的教育決策與干預等應是人工智能教育生態(tài)研究的重點。
[參考文獻]
[1] 卡爾·波普爾. 推想與反駁[M]. 傅季重,紀樹立,周昌忠,蔣弋為,譯. 杭州:中國美術學院出版社,2010:39.
[2] 維克托·邁爾·舍恩伯格,肯尼斯·庫克耶. 大數(shù)據(jù)時代:生活、工作與思維的大變革[M]. 盛楊燕,周濤,譯. 杭州:浙江人民出版社,2013:105.
[3] 安濤.“算計”與“解蔽”:人工智能教育應用的本質(zhì)與價值批判[J].現(xiàn)代遠程教育研究,2020,32(6):9-15.
[4] 李芒,張華陽.對人工智能在教育中應用的批判與主張[J].電化教育研究,2020,41(3):29-39.
[5] JIM C K, CHANG H C. The current state of data governance in higher education[J]. Proceedings of the association for information science and technology, 2018, 55(1):198-206.
[6] WILLIAMSON B. Digital education governance: data visualization, predictive analytics, and "real-time" policy instruments[J]. Journal of education policy, 2016, 31(2):123-141.
[7] 鄧國民,李梅.教育人工智能倫理問題與倫理原則探討[J].電化教育研究,2020,41(6):39-45.
[8] MAYNE A J. The social control of technology[J]. Journal of the operational research society, 1982, 33(8):771-772.
[9] 徐英瑾.虛擬現(xiàn)實:比人工智能更深層次的糾結(jié)[J].人民論壇·學術前沿,2016(24):8-26.
[10] MELVIN K. Technology and history: "kranzberg's laws"[J]. Bulletin of science, technology & society, 1995, 15(1):5-13.
[11] 李棟.人工智能時代的教師發(fā)展:特質(zhì)定位與行動哲學[J].電化教育研究,2020,41(12):5-11.
[12] 徐振國,張冠文,孟祥增,黨同桐,孔璽.基于深度學習的學習者情感識別與應用[J].電化教育研究,2019,40(2):87-94.
[13] 王慧. 基于人臉識別的智能教育管理平臺的設計與實現(xiàn)[D].北京:北京交通大學,2019:18-41.
[14] 洪傳旺. 基于Spring Cloud的“微課堂”知識考核系統(tǒng)的設計與實現(xiàn)[D].南京:南京大學,2019:49-69.
[15] STEENBERGEN H S, COOPER H. A meta-analysis of the effectiveness of intelligent tutoring systems on K-12 students' mathematical learning[J]. Journal of educational psychology, 2013, 105(4):970-987.
[16] CHANG H Y, HSU Y S, WU H K. A comparison study of augmented reality versus interactive simulation technology to support student learning of a socio-scientific issue[J]. Interactive learning environments, 2014, 24(6):1148-1161.
[17] LIN H C K, CHEN M C, CHANG C K. Assessing the effectiveness of learning solid geometry by using an augmented reality-assisted learning system[J]. Interactive learning environments, 2013, 23(6):799-810.
[18] 金生鈜.大數(shù)據(jù)教育測評的規(guī)訓隱憂——對教育工具化的哲學審視[J].教育研究,2019,40(8):33-41.
[19] BIESTA G. Good education in the age of measurement—ethics, politics, democracy[M]. London: Routledge, 2016: 26.
[20] 習近平.確保人工智能關鍵核心技術牢牢掌握在自己手里[N].人民日報 (海外版),2018-11-01.
[21] BURTON E, GOLDSMITH J, KOENIG S, KUIPERS B, MATTEI N, WALSH T. Ethical considerations in artificial intelligence courses[J]. AI magazine, 2017, 38(2):22-34.
[22] 顧明遠.教育大辭典(上卷)[M].上海:上海教育出版社,1990: 726.
[23] 赫爾巴特.普通教育學[M].李其龍,譯.南京:江蘇教育出版社,1990: 6.
[24] 德克勞斯·施瓦布. 第四次工業(yè)革命——轉(zhuǎn)型的力量[M].林毅夫,姜建清,董明珠,等譯.北京:中信出版社,2016: 104.
[25] 高德勝.論標準化對教育公平的傷害[J].教育科學研究,2019(2):5-12.
[26] 宋靈青,許林.“AI”時代未來教師專業(yè)發(fā)展途徑探究[J].中國電化教育,2018(7):73-80.
[27] 張治.教育信息化——走進自適應學習時代[M].上海:上海教育出版社,2018: 2.
[28] 安東尼·吉登斯.現(xiàn)代性的后果[M].田禾,譯.南京:譯林出版社,2011: 27.
[29] 徐獻軍.德雷福斯對人工智能的批判仍然成立嗎?[J].自然辯證法研究,2019,35(1):15-20.
[30] CSIKSZENTMIHALYI M. The psychology of optimal experience[M]. New York: Harper Collins, 1990: 76.
[31] 烏爾里?!へ惪?風險社會[M].何博聞,譯.南京:譯林出版社,2004:5.
[32] 阿蘭·柯林斯,理查德·哈爾弗森.技術時代重新思考教育[M].陳家剛,程佳銘,譯.上海:華東師范大學出版社,2013:109.
[33] WOOLF B P, LANE H C, CHAUDHRI V K, KOLODNER J L. AI grand challenges for education[J]. AI magazine, 2013, 34(4):66-84.
[34] 張炳江.層次分析法及其應用案例[M].北京:電子工業(yè)出版社,2014:30-61.
[35] 許良.勞動、技術與人類解放——恩格斯技術哲學思想探析[J].自然辯證法研究,2006(4):45-47,60.
[36] 托馬斯·庫恩.科學革命的結(jié)構(gòu)[M].金吾倫,胡新和,譯.北京:北京大學出版社,2003:11.
[37] 劉佳.復雜性范式:混合方法研究的哲學立場[J].自然辯證法通訊,2015,37(6):85-91.
[38] 馬克斯·霍克海默,西奧多·阿道爾諾.啟蒙辯證法[M].渠敬東,曹衛(wèi)東,譯.上海:上海人民出版社,2003:27.
[39] 祝智庭,俞建慧,韓中美,黃昌勤.以指數(shù)思維引領智慧教育創(chuàng)新發(fā)展[J].電化教育研究,2019,40(1):5-16,32.
[40] 蔡中宏.教育與社會發(fā)展研究——基于文化和人的視角[M].北京:中國社會科學出版社,2013:12-20.
[41] KUSNER M J, LOFTUS J R. The long road to fairer algorithms[J]. Nature: international weekly journal of science, 2020, 578 (7793):34-36.
[42] 黃榮懷,王歡歡,張慕華,等.面向智能時代的教育社會實驗研究[J].電化教育研究,2020,41(10):5-14.