摘要:從教育與人工智能在技術(shù)層面的契合邏輯出發(fā),教育人工智能倫理面臨的三大悖論:主體性悖論、權(quán)利悖論和底線悖論。教育人工智能倫理具有基礎(chǔ)性、深遠性和不可逆性的特點,其倫理準則的構(gòu)建可參考三種模式:理論應用模式、中層原則模式、決疑案例普遍化模式。無論采用何種模式,破解悖論難題的關(guān)鍵是采用“非人主體說”,永遠不要把人工智能擺放在人類主體的位置,必須立場鮮明地將其視為機器;人永遠對自己的行為結(jié)果負責;人應該尊重自己,相信自己配的上最高尚的東西。只有如此,才不會淪落到與位卑一等的機器糾結(jié)倫理問題。
關(guān)鍵詞:教育人工智能;教育倫理;技術(shù)倫理;主體性悖論;“非人主體說”
中圖分類號:G434 文獻標識碼:A
人工智能(AI)旨在讓人造物“像人一樣思考”,以類似于人的方式對外界作出反應,其本質(zhì)是如何進行認知的問題。AI的演進訴諸于不同認知理論,目前已形成符號主義、行為主義和聯(lián)結(jié)主義三大流派。技術(shù)層面上,從早期的側(cè)重經(jīng)典算法的弱人工智能,到目前關(guān)注深度學習的強人工智能。AI可視為人類智能的鏡像,折射了人認知活動某些機制和功能,使人的認知間接地成為可以科學研究的“客觀”“外在”對象[1],教育正是通過對認知規(guī)律的把控,達到增強學習者認知效果和提升認知能力的目的,從而使得對學習者的規(guī)訓更加精準,當下不少教育技術(shù)學學者提倡的計算思維、數(shù)據(jù)素養(yǎng)就是典型的例子。
“技術(shù)賦能教育”是當下頗為流行的一句話,畢竟現(xiàn)時代的教育有著諸多讓人不滿意之處,在技術(shù)大爆發(fā)的時代,每一個人都受益于技術(shù)帶來的便利性,技術(shù)滲透于社會生活每一個角落,應用于教育具有天然的合理性,人們對技術(shù)賦能教育是充滿期待的。人工智能不同于一般技術(shù),它攜帶有他者的意志,其開發(fā)應用全面融入了社會價值觀[2]。當其介入教育過程時,人與人之間責、權(quán)、利關(guān)系出現(xiàn)的新變化,可能會產(chǎn)生教師意圖之外的結(jié)果。人工智能嵌入后,雖然不會像“汽車剎車失靈”那般的顯性化,但可能造成個人主體性被無意識侵害或社會權(quán)力結(jié)構(gòu)漂移,這類深層次的倫理問題,是人工智能賦能教育的理論和實踐研究必須警惕的。
教育作為培養(yǎng)人的社會活動,從技術(shù)學的角度而言,斯蒂格勒稱“教育是一套意識形態(tài)技術(shù),是一種傳輸與接受機制的記憶技術(shù),是個體與集體意識塑形及經(jīng)驗時空定位筑模,其主要任務是在思想中進行導向”[3]。人與其它物種的不同之處在于,人的生命歷程可以藉由“第三持存”保留下來并遺傳下去,這類持存可以超越基因汰選機制,在代際之間傳遞人類歷史的記憶,使人之為人。第三持存是區(qū)別于當下體驗(即第一持存)和事后意識(即第二持存)的存在,前兩類持存無法解決時間性問題,即心理學上所謂的遺忘,于是人類發(fā)明了用來表意的符號系統(tǒng)和時間偏倚的存儲介質(zhì),這個在傳播學上看似簡單的事實,卻引發(fā)諸多哲人的關(guān)注,海德格爾稱之為“世界歷史性的物化”,波普爾將物化結(jié)果稱為“世界3”,其人類學意義在于,使得集體記憶可以被重新激活。
教育是社會持存重要的存在方式,在個體層面上以饋贈方式將第三持存?zhèn)€性化,個體天然具有分享人類歷史財富的權(quán)利,在分享的同時完成自身的社會化,成為社會學意義上的人;在集體層面上,第三持存為人類共同擁有,是人類“必需的多余”。必需,是因為人類發(fā)展到技術(shù)文明階段,本能已經(jīng)退化到無法維持生物人在自然中存活,人類必須依靠不斷發(fā)展的技術(shù)維系自身的生存,技術(shù)革命(T-Revolution)取代生物進化(B-Evolution);之所謂“多余”,是因為其增值不過是在填充人的欲壑,而非滿足基本生存的需要。尼爾·波茲曼在《娛樂至死》中說,媒介的轉(zhuǎn)換過程中,很多東西并沒有得到復制,而是轉(zhuǎn)化成了另一種東西,最重要的那部分東西已經(jīng)丟失了[4],許多時候,技術(shù)更多地是作為一種娛樂性玩物而存在,其所承擔宗教、教育和生產(chǎn)的重任不過是一種托辭,至于其維護生存“必須性”更是蹤跡杳忽。
麥克盧漢說“一切技術(shù)都是身體和神經(jīng)系統(tǒng)增加力量和速度的延伸”[5],按照這個話語邏輯,我們可以說,人工智能是人的意志的延伸。美國哲學家Hilary Putnam在《理性、真理和歷史》一書提出過一個“缸中之腦”的思想實驗:將人的大腦移植出來放在一個培養(yǎng)缸里,用一臺超級計算機與大腦的末梢神經(jīng)相連,通過智能系統(tǒng)與其通訊,讓其發(fā)生記憶、遺忘和思考活動,并對外作出反應[6],我們姑且把這個整體稱之為“腦機人”。科幻小說《三體》中有一個人物叫云天明,安樂死之后他的大腦被送到太空,大腦被外星文明復活成一個有自我意識的主體,小說后文有他的諸多神跡,是被讀者封神的角色。我們有理由認為,這是人工智能的終極狀態(tài),把事物推到極致更容易看清問題的本質(zhì),在此情景下分析其可能產(chǎn)生的問題。
第一個問題:我們應該將這個有自我意識的“腦機人”視為一個“人”,還是視為一個“機”?
第二個問題:假設缸中保存的是“我”的腦,“我”看到自己的“身體”是一堆機械,我該做何界定自我?
第三個問題:假如“我”感知到的一切,都是人們通過計算機虛擬出來的場景,我如何判斷周圍的世界是真是假?
把此三個哲學問題映射到教育現(xiàn)象中來:首先,任何教育都致力于培養(yǎng)和增強人的智能,盡管沒有任何一個教師承認自己視學生為容器,但在教育過程中總是有意無意地向受教育者輸送自己認可的知識、思想和觀念。雖然很多教師言說自己尊重學生,以學生為主體,但由于他確信自己所追求的是最有價值的,自己所經(jīng)驗的是最真實的,于是越是用心于教育,越表現(xiàn)出強烈的主體性僭越,當學生不認可和不接受自己的理念時,很難做到釋懷和毫無怨念。從一定的意義而言,此刻,教師并沒有真的將學生視為一個完整的人。
其次,學生在成長的過程中,對自己的身體、自己的課桌、自己的房間有明顯的邊界意識,但是隨著認知領(lǐng)域的不斷擴大,自己與世界的邊界愈發(fā)模糊,直至把自己消解于世界之中。不僅在意識層面上如此,物質(zhì)層面上也存在同樣的情況,物質(zhì)財富是個體存在的一種方式,學校教育主張個體要回饋和奉獻社會?,F(xiàn)世的人們,潛意識里也承認并支持主體性的終極消解,日常話語“生不帶來死不帶去”“眾生皆過客”都蘊含著這一思想。
再次,日常話語中有一個使用頻率極高的詞匯——認真,意指嚴肅對待,“真”作為價值事物的三種基本類型之一,是指主體認識與客體存在相符合,對“真”的認識、認知和把握,是近現(xiàn)代人們唯一無須為之辯護的追求,嚴肅對待作為認真的首要含義,就是從此而來。仿真技術(shù)賦予了“假”合法性,人對自身的物理感覺、生理感知和心理感受實際上是模糊不清和邊界含混的[7],這使得人在物理、生理和心理的感知覺層面難以區(qū)分現(xiàn)實和虛擬現(xiàn)實、智能和人工智能,虛實難辨、真假難分將是未來人類面臨的新困境。與“認真”相對,會出現(xiàn)一種新的文化形態(tài)“尚假主義”文化,用來表征那類超越實體的虛擬世界。
人工智能和教育都關(guān)涉人的存在,二者在識別、邏輯推導、經(jīng)驗積累和與環(huán)境互動等方面追求趨向一致,人工智能與教育的契合點,同時也是悖論發(fā)生之處。人工智能作為新興技術(shù),其智能直接源自于人,當其與教育發(fā)生關(guān)聯(lián)時,又直接作用于人,這個過程中會不會出現(xiàn)類似器官移植和輸血一樣的排異反應,尚未可知。智能化汽車“剎車失靈”事件的主要原因是,駕駛員和剎車片之間不再是簡單的線性關(guān)系,其中嵌入了一個剎車智能管理系統(tǒng)。人工智能不同于其它技術(shù),它被允許有一定的自主性。對于教育人工智能而言,這種差異要求教育治理體系必須在柔性的教育道德規(guī)范和更具約束力的教育法律規(guī)范之間尋找立足點,重建教育人工智能倫理體系。
技術(shù)體系化以后,人類的生存愈發(fā)依賴技術(shù),正如“和平需要由戰(zhàn)爭來維持”一樣,技術(shù)的負面效應需要以技術(shù)的方式來解決,這種技術(shù)自治的后果導致了人類理性的迷失。教育在人類的自我拯救和作繭自縛之間游走,自身沉淪于技術(shù)座架又被寄希望作為社會救治的解藥。人工智能的介入會增強教育的盲目希翼感,繼而必然是巨大無措感。
(一)主體性悖論
智能系統(tǒng)的主體身份陷入失序狀態(tài)。教育志在引導人們過道德生活,道德生活意味著用理智來指導和控制行動,與自己的共同體和睦相處[8]。智能是道德的基礎(chǔ),共同體生活是道德結(jié)構(gòu)存在的場域,這是倫理學的基本原理。換句話說,沒有智能的事物是不會產(chǎn)生道德意識的,智能事物沒有共同體生活不會產(chǎn)生道德概念。若干“腦機人”放在一起,通過深度學習可以有智能的演化,但演化的結(jié)果會突破現(xiàn)代倫理規(guī)則,如微軟人工智能機器人Tay由預設“天真型人格”反轉(zhuǎn)為種族主義者,搜索引擎的智能會更大概率上將黑人姓名與犯罪記錄聯(lián)系在一起[9],將農(nóng)民工與社會底層現(xiàn)象聯(lián)系起來,人工智能基于大量案例習得這一規(guī)律,并將其揭示出來,文明人類會有意識地回避歧視的顯性化。人工智能系統(tǒng)缺乏共同體生活,不會產(chǎn)生主體自覺,沒有主體自覺就沒有主體和他者之分,自然不會產(chǎn)生由己及人的同理心和共在性。
現(xiàn)代倫理無法界定智能演化是“換代”還是“成長”,或許有人不覺得這是個倫理問題,是因為“放在一起”不等于“共同體生活”,共同體生活的重要性在于每個個體都浸潤在自我修正的反饋環(huán)境中,比如群體中會有“你把聰明勁兒用在正事上好不好”這樣的言語,這類反饋使得智能演化是受控的。血親群體是最典型的共同體生活的形態(tài),其內(nèi)含一套以輩分為內(nèi)容的制度。在共同體中生存,輩分關(guān)系是每個個體都必須熟悉和遵守的,每個個體都擁有兩個自我:個體自我和群體自我,兩類自我共同成就完整的主體性。其它所有的社會性群體,基本上都會參照血親群體構(gòu)造出類似輩分關(guān)系的層級制度。當“腦機人”和學生們組成教育共同體后,學生是否需要給予“腦機教師”像人類教師一樣的敬畏和尊重?克隆技術(shù)被禁止用于人類,其主要原因,一方面是會產(chǎn)生倫理問題,另一方面是對身體的控制行為比較容易具有故意殺人和故意傷害行為的犯罪特征。這時候問題僅僅出現(xiàn)在身體層面,身體是精神所棲居之舍即精舍,其實棲居于身體之內(nèi)的那個存在——精神、靈魂、心……才是人之為人的核心要件。至于以何概念指代它,內(nèi)涵是否完全一致,不是本文討論的重點,當其以人工智能的形態(tài)被客觀化出來,之后產(chǎn)生的倫理問題會更難以解決。
目前,部分電子產(chǎn)品里的“小度”“小智”“小愛”“小布”“Siri”等智能系統(tǒng),多數(shù)被孩子們作為戲玩的對象。試想,若有兩臺分別以學界泰斗N先生和H先生命名的教育人工智能系統(tǒng),能夠進行深度學習,具有自我進化機制,加之真人語音,人們該如何擺置?對于讀者諸君,自然可用一個“老師”或“教授”了之,不至于像帝制時代誤用不敬之語而因言獲罪,但兩位先生的碩博士研究生們,還有那些對先生充滿崇敬之情的人們,視其為師,還是視其為器?他們的下一代研究生們該稱智能先生為師爺么?或許有人讀到這個例子時,會遲疑這樣的話題是否有對逝者不敬,這恰恰說明,倫理問題在人們潛意識的存在是普遍的和深刻的,心生糾結(jié)之緒也是必然的。
(二)權(quán)利悖論
傳統(tǒng)的技術(shù)設計、技術(shù)本身以及技術(shù)產(chǎn)出的結(jié)果,由專利法、產(chǎn)權(quán)法作為分配框架,體現(xiàn)出人類借助技術(shù)表達能力、表征勞動量及其人際轉(zhuǎn)移關(guān)系,對技術(shù)的需求界定、流轉(zhuǎn)劃分和資源分配已經(jīng)具備成熟的法律、市場和習俗規(guī)則。人工智能的權(quán)利關(guān)系建立的政治合法性、歷史合理性與傳統(tǒng)技術(shù)不同,主體悖論引發(fā)的一個直接性結(jié)果就是權(quán)利爭議。試想,H教授的智能被眾弟子將其編程植入教育人工智能系統(tǒng),研發(fā)出“‘H先生人工智能教育系統(tǒng)”,人工智能從后期的各類交互中學習,即基于外界輸入進行自主風險評估并做出決策,由于沒有共同體生活,缺少鑠金之眾口的輿論機制,這種學習會放大人際親疏和對事物的喜惡偏見,點擊概率與疊加傳導技術(shù)將人類隱微的潛意識言行顯性化并強化,非程序設計者所能避免[10]。未來人工智能作品的版權(quán)爭議將會是棘手的問題,“H先生”認為自己寫的論文和教學所產(chǎn)生的收益應該屬于“自己”,教育人工智能系統(tǒng)的“造物主”該作何感想?另一方面,倘或該系統(tǒng)在工作中出現(xiàn)了差池,誰的人格、聲譽理應為之買單?
與此相關(guān)的另外一個悖論是教育權(quán)問題。人們是否愿意把自己的孩子交給“腦機教師”進行教育?在教育作為社會階層分篩器,考試文憑作為進階職場入場券的背景下,對這個問題的回答可能會存在分歧。為了考取理想的大學,犧牲身體健康已經(jīng)在所不惜,倫理問題變得無足輕重也在情理之中。當必須在目的和手段之間作出選擇時,人們對手段的認可和接受往往會讓局外人感到不可思議。這個世界上沒有哪一條倫理能回避這樣一個事實:在無數(shù)的情況下,獲得善的結(jié)果,一個人不得不采取道德上令人懷疑,或者至少有風險的手段。[11]還有,人們在網(wǎng)絡中傾向于夸張一點事實[12],一方面是因為這些事實并不直接與自己切身利害相關(guān),另一方面是因為對現(xiàn)實教育的無奈,只能寄希望于未來的可能途徑。人們對人工智能的美好期待仍保持高漲的勢頭,不少人對“腦機教師”持有歡迎和接納的姿態(tài)是可以理解的。
若是在上述問題上存在分歧,不妨再換一個問法:是否有人愿意把自己的嬰孩托付給“腦機人”養(yǎng)育?教育主張把人培養(yǎng)成為個性化的主體,強調(diào)“成為你自己”,反對把人訓練成為工具?!澳X機教師”在知識的授遞方面被人們接受的可能性,遠大于其在育人為人的方面被人們接受的可能性。且不論人們作何選擇,這背后隱藏的另一個問題暴露出來了,誰擁有教育權(quán)?邁克-波蘭尼曾指出,人類知道的遠比其能表達出來的更多[13],人類教師長期吟詠斟酌地思考,能表達顯性化的不過是冰山一角,但其能在學生憤悱之際介入提點、啟發(fā)引導,其終極關(guān)懷為意義與價值,更重要的是,教師始終以自己的人格作為擔保,對自己的言行負責。在這個層面上,無自我意識的智能系統(tǒng)只是一個工具,教育權(quán)本質(zhì)上是人類對自我命運的把控。權(quán)利和責任是一對范疇,假若嬰兒的健康(且不說人生)出現(xiàn)了偏差,誰該對此負責呢?人工智能的“可追責性”①目前來看是一個大問題。
文明人無不置身于各種知識、思想和問題之中,一旦有閑暇便會思忖生命“終極意義”的有無及其內(nèi)容。當“價值統(tǒng)一性”幻覺被現(xiàn)實擊碎時,只能牢牢抱住價值分裂碎片,求得片刻安寧,猶如沉船事故中抓住一塊浮木,把孩子推上浮木或許是人最后的希望,若有人劃船經(jīng)過,人們決然會把孩子推向那個人,而不會想他是什么人。人們更愿意把自己的另一種存在方式即后代拋給人類,而不會選擇托付給機器養(yǎng)育。
(三)底線悖論
倫理的本質(zhì)是人與人之間的關(guān)系。東漢經(jīng)學大師鄭玄將其注釋為“倫,猶類也;理,分也”[14]。意為一類人與另一類人之間的邊界、分野。人工智能的教育倫理,即在教育場域中,人與智能技術(shù)的邊界及關(guān)系。歐盟委員會在2019年發(fā)布《人工智能倫理準則》,參與起草工作的德國美因茨大學哲學教授托馬斯·梅辛格,對于此準則“沒有禁止使用人工智能開發(fā)武器”表示批評[15],此批評所反映的就是底線問題。
從個人意愿的角度,技術(shù)服務于人類是沒有盡頭的。技術(shù),包括人工智能,對于個體而言具有無須辯護的意義和價值:保障生存、群體中勝出、加速欲望的實現(xiàn)、提供生活的便利等等。但是,教育研究不僅要從個人的角度來考慮問題,還應當從整個社會的角度來考慮。
當從整個社會和人類的角度再去審視技術(shù),圖景截然不同:武器可以保全一個群體,卻能毀滅同類;生殖醫(yī)學可以保護母嬰的健康,卻消解了自然淘汰機制對人種的優(yōu)化作用;技術(shù)增強了人類改變世界的能力,人類某些功能的退化卻是必然的。人類通過技術(shù)擴展自身功能的“強化策略”要比單純生物學變異潛能“進化策略”要強大的多、迅速的多,疫苗的廣泛使用就是最好的例證,“自私的基因”決定了文明人不可能為了種的利益而放棄自身的存在[16],自殺和赴死許多時候是為了避免更大“惡”的結(jié)果。
個體和社會,是觀照的技術(shù)倫理的兩個視點,但若僅從此兩點出發(fā),仍不足以充分揭示“邊界”的合適位置。人工智能倫理,作為調(diào)和未來社會關(guān)系的準則,需要考察個體與社會雙方對“人之本能欲望”控制權(quán)的博弈史。最早,人類和其它動物一樣,行為方式完全受本能欲望支配,行為模式刻在基因里,這個階段,個體掌握著對本能欲望的控制權(quán);在過渡到社會性種群的過程中,個體壓制自己的本能欲望,服從群體的意志,典型標志為“約”“理”“道”的出現(xiàn),即要求凡為人者必須遵守的規(guī)則,否則即被逐出群體甚至處死,這個階段,社會掌握著對本能欲望的控制權(quán);網(wǎng)絡技術(shù)為人類開辟了另一種存在空間,此空間為人之本能欲望的實現(xiàn)提供了新的可能,原有社會的倫理規(guī)則,一則不完全適用于網(wǎng)絡空間,二則其發(fā)揮作用的控制力量又主要來源于個體,這種情況下,社會對本能欲望的控制就出現(xiàn)空白區(qū)?,F(xiàn)代人們,經(jīng)受過文明的洗禮,竊以為,以“善”作為行動的起點即可保障結(jié)果的圓滿性,豈不知“在通往地獄的道路上鋪滿了良好的愿望”②。2017年《人民日報》連發(fā)三篇評論,對智能平臺向用戶自動推薦個性化內(nèi)容的互聯(lián)網(wǎng)業(yè)態(tài)提出了批評,指出智能化系統(tǒng)迎合用戶趣味,而使得智能平臺走向媚俗化[17]。從算法設計者的角度而言,智能化推薦是充分發(fā)揮計算機技術(shù)優(yōu)勢的創(chuàng)新之舉。一位程序員的算法策略猶如“洛倫茲的蝴蝶”,可能會對人類社會產(chǎn)生潛在的、深遠的、不可預估的風暴式影響,對其中的因果關(guān)聯(lián)解析,其難度恐怕超越了人類的認知極限。
人工智能,主觀上旨于放大個體(善)的意志,實現(xiàn)服務于社會的目的,客觀上,其中攜帶的欲望成分也會被放大,這部分易于被其他個體所利用,導致欲望的泛濫不羈。人工智能不被禁止使用于開發(fā)武器,意味著天地良心的消解,人們可以藉技術(shù)之名,任由自己理性的作用,而隨便對陌生事物下斷語,根據(jù)自己的理性去設計行為規(guī)范,結(jié)果必然是英國歷史學家阿克頓所說的那樣:很多有良好動機的人干了壞事[18]。猶如英國人把殖民視為向落后地區(qū)傳播文明。
(一)教育人工智能倫理的特殊性
人工智能倫理作為一般性的社會問題,其核心是不損害“人類”的利益。其困難之處在于,不同的群體會以自身的利益作為人類的利益,不同利益相關(guān)方會從各自角度提出相應的準則規(guī)范,如何協(xié)調(diào)統(tǒng)一構(gòu)建出被整個國際社會認可的倫理框架。不同國家、民族、種族的人們對待親姻婚配、人類克隆和基因編輯等倫理問題,所持的態(tài)度比較相似。但是對于科學技術(shù)倫理的構(gòu)建,不同組織主導的倫理準則,包括像歐盟、G20、經(jīng)合組織、UNESCO這樣國際組織,其工作也難免有失偏頗,如對待核武器、外星文明接觸,人們的意見就比較難以統(tǒng)一。此外,人們還會誤將短時期的利益作為未來的利益。因此,分散性和時效性是人工智能時代初期倫理準則的必然特征。
教育作為全人類共有的事業(yè),涉及各階層人群,是最廣泛的非贏利性社會活動,教育倫理具有基礎(chǔ)性、深遠性、不可逆性的特點。教育倫理,包括教育人工智能倫理,其內(nèi)容并不作為教學材料和教育政策直接進入教育過程,而是以教育價值形態(tài)融入教師職業(yè)規(guī)范、德育評價、教師行為禁忌[19],以隱微的方式協(xié)調(diào)師生的行為和利益沖突,干預教育制度和政策,保障教育活動在當下和未來的社會系統(tǒng)中順利有效地開展,既柔性又野蠻地調(diào)節(jié)著教育與個體和社會之間張力的平衡。
(二)教育人工智能倫理的構(gòu)建路向
除了符合一般性社會倫理的基本規(guī)定,教育人工智能倫理還屬于技術(shù)倫理的范疇,其構(gòu)建過程可以參考科技倫理的范式。一般而言,科技倫理的構(gòu)建有三種模式:理論應用模式、中層原則模式、決疑案例普遍化模式。
理論應用模式采取自上而下的行動路向,從某種形上的倫理觀或國家提倡的核心價值觀出發(fā),回應具體的技術(shù)倫理問題。此模式適用于政府部門具有強力行政權(quán)的體制中,在“勢在必行”“迫在眉睫”的時候啟動運行,以官方文件的形式發(fā)布,對相關(guān)事態(tài)進行監(jiān)管。教育人工智能倫理問題尚屬于未來事件,此模式近期不會啟動。
中層原則模式,通常是自覺自發(fā)的行動方式,主要由具有學術(shù)影響力和前瞻視野的人物提議,由某個組織機構(gòu)主導,從倫理原則或社會基本訴求出發(fā),審視某類技術(shù)的價值內(nèi)涵、潛在風險,形成相應的倫理規(guī)范,成為某個專業(yè)、行業(yè)的指導原則。著名的“生命倫理學的四原則”就是這么來的[20]。此模式的產(chǎn)出,可以作為政策建議,是政府行政系統(tǒng)的重要智囊。未來教育人工智能準則的出臺,走此路向的可能性比較大。
決疑案例普遍化模式是自下而上的路向,社會上出現(xiàn)了影響廣泛的真實事件,用現(xiàn)行的法律條文無法調(diào)和,如虛擬學生華智冰[21]依靠“自己”的勞動獲得了資產(chǎn),這份酬勞的歸屬問題;類似的,人工智能作品的版權(quán)問題;機器人與人類婚戀問題等。按照現(xiàn)代人們的倫理觀念,無論資產(chǎn)還是版權(quán),理應歸屬該智能系統(tǒng)的開發(fā)者或擁有者,此觀念隱含的倫理原則是“華智冰不是人”。假設人工智能的發(fā)展達到了前文所描述的“腦機人”水平,他是否應該成為道德接受者?是否應該被要求承擔責任與義務,這類問題就毋容回避。
人們認識、理解并接受事件背后隱含的倫理原則,需要一個過程,但在特定事件的促逼之下,問題的解決又等不得,此種情況下決疑案例普遍化模式被啟動。通過對以往相近案例的收集、比較和分析,將其納入已有的評判范式中比對,新型價值訴求和已有倫理原則在輿論催化作用下不斷雜糅,得出具有普適性的倫理準則。
(三)教育人工智能倫理的核心內(nèi)容
前文描述的三個悖論有一個共同的內(nèi)核,即人類對人工智能主體性的認定。人工智能越是接近人們的理想狀態(tài),這個問題就越凸顯,且不說達到正常人的水平,可以斷言:如若能達到一只寵物狗的智能水平,智能機器人足以讓大部分人癡迷。
哲學史上對主體的判定可以分為三類:亞里士多德式、康德式和戴維森式[22]。亞里士多德把主體規(guī)定為能夠?qū)徤魉伎?、擁有實踐智慧的存在?!爸腔邸笔侨藗冏罴南M枞斯ぶ悄艿模斎灰彩侨藗冏顟岩珊筒辉敢獬姓J的地方;至于“審慎思考”,已經(jīng)不是問題,如各類棋牌博弈軟件的算法十分縝密,甚至表現(xiàn)出超越了人類的趨勢。用此標準來判定人工智能的主體性,焦點會集中在對“智慧”的理解與界定。教育會維護人類的尊嚴,拒斥商業(yè)性的智慧理解及諸多不嚴肅的濫用。
康德以自由意志代替實踐智慧,將“理性”和“自律”作為判定主體的要件:在自由實踐領(lǐng)域,籍由理性能力獲得自律方為主體。如博弈機器人能否像棋牌教練那樣,在特殊的情境下表現(xiàn)出“承讓”。從算法的角度,似乎并不是問題,但是對“特殊情況”的判定可能會超程序員的預估,教練不會一味地打贏學生,示弱以鼓勵學生是常有的事。人工智能在理性層面上不存在任何問題,至少在目前的技術(shù)水平上,從它不受情感因素的困擾這個角度,可以肯定這一點,但是其“自律”能力就難以把握了。中國俗語“十分聰明用七分,留下三分給兒孫”,且不論俗語的科學性如何,但它所透露的是,人對自我及未來關(guān)系的一種理解,通過對自我的掌控,也就是自律,以期與未來發(fā)生某種關(guān)聯(lián)。它遵循的是善理原則即尋求內(nèi)心的寧靜,而非真理原則即價值最大化。人工智能的進化,本質(zhì)上是算法的設計,遵循的是真理原則。如棋牌博弈軟件會打敗所有的對手,而不論對手是男女老幼、爺孫友朋。教育中存在“陪太子讀書”的現(xiàn)象,對先生的“自律”品行有特殊的要求,即便在現(xiàn)實的教育中,教師的自律依然是非常重要的素養(yǎng)。
戴維森將對主體的認定與“行動”及其“原因”聯(lián)系在一起。他認為,主體的任何行動都是有原因的,其原因是由前態(tài)度和相關(guān)信念組成的。前態(tài)度是指朝向某種行動的意向狀態(tài),包括欲望、期待、習俗觀念等。而擁有相關(guān)信念意味著主體知道、相信、感知到他的行動是前態(tài)度朝向的行動[23]?!霸颉币馕吨鴮Α昂我匀绱恕钡睦斫馀c接受,與亞里士多德的“智慧”、康德的“自律”屬于相同的主體性范疇。人工智能系統(tǒng)是否會猶豫該不該做某事,是否具有行動的意向性狀態(tài),程序員可以在算法上實現(xiàn)讓人工智能表現(xiàn)有點“像”,但在可遇見的未來,情感意志的數(shù)學模型很難精準建立,智能機器人不會為了父母的期待而刻苦學習,不會“為了中華之崛起而讀書”。
符合上述三種判定的主體,需要承擔相應的道德責任與義務,被人們普遍接受和認可。除此之外,還有一種主體判定的理論,該理論認為,所有的事件都處在因果鏈條之中,事件最直接的“因”可以被視為主體,如暴雨引發(fā)的人類所謂的災害,導致人死亡,暴雨即是主體。但該主體并不承擔我們通常意義上的道德“責任”,它只是自然發(fā)生的事件,不具備承擔責任的能力[24]。表面上看來,此理論似乎并無太大的價值,既解決不了實際的問題,也未表現(xiàn)出主體性哲學應有的睿智。但恰恰是這個不高明的理論,可以給許多現(xiàn)實的問題一個說辭:野生動物傷人,要不要處死?寵物狗不拴繩恐嚇到小朋友,如何劃分責任?汽車剎車沒有達到駕駛員預期的效果,是非孰應?洪澇疫情導致的損失,是否在理賠范圍內(nèi)?等等。我們稱此理論為“非人主體說”,此理論對教育人工智能倫理的構(gòu)建有很大啟發(fā)。
首先,永遠不要把人工智能擺放在人類“主體”的位置,必須立場鮮明地將其視為機器。科幻電影中,機器人有了人類的情感,當科學家、生產(chǎn)商將其銷毀時,賺得了不少觀眾的眼淚,這是因為彼時機器人代入了觀眾至親的主體位置;其次,人永遠對自己的行為結(jié)果負責,這是教育最核心的倫理觀念之一。將暴雨作為主體,意義在于,對不可知事物的祛魅,減少人類對神秘力量的恐懼。駕駛配備人工智能技術(shù)的汽車發(fā)生了事故,簡單地歸因于技術(shù)缺陷,是不完全合理的。作為能動的、理性的主體,駕駛員應該事先充分熟悉汽車的性能,如果一味地用自己習慣的方式對待新事物,并且指望新事物適應自己,是不理智的。且莫說機器,即便是人,可能也無法完全符合你的意愿。再次,人應該尊重自己,相信自己配的上最高尚的東西[25]。
教育需要提醒人們,退回到位卑一等的動物、智能人造物,并非幸福之路,生命體發(fā)展的終極形態(tài)是以意識的形態(tài)存在,它的發(fā)展會加速人類對終極關(guān)懷的靠近,這才是最高尚的存在,也是一條無法逃離的不歸之路。
作為“人造物”,要求人工智能為人類服務是最基本的倫理準則,這一點在任何時候都成立。人工智能和其它工具的差別在于其“自主性”,這種自主性的危險之處是它可能和某個人之間發(fā)生有個體意義的關(guān)聯(lián),而致個體脫序于現(xiàn)實社會。還有,泛在而低廉的存儲設備容易檢索提取過去的信息,這會徹底打破“記憶”與“遺忘”在人類社會中長期以來維持的平衡狀態(tài)[26]。當類似的事件達到一定的數(shù)量時,就不再是簡單的道德問題了,人類就不得不重構(gòu)已有的倫理體系。
“腦機教師”是教育人工智能的終極形態(tài),它和人們期待的人工智能產(chǎn)品有著相同的本質(zhì)。人工智能技術(shù)包含的計算機、數(shù)學、邏輯學、心理學、社會學知識與技術(shù)具有無限的拓展空間,人工智能產(chǎn)品也就具有各種發(fā)展可能,我們無法斷言人工智能的可能形態(tài)。在可以預見的未來“腦機人”不會出現(xiàn),我們可以坦然將人工智能視為機器。因此,對人工智能倫理問題的思考,不可能找到終極寧止點而一勞永逸。從現(xiàn)有的倫理框架出發(fā),做加減法依然是當前最現(xiàn)實的策略。未來,根據(jù)人工智能發(fā)展的具體水平,制定有針對性的倫理準則為時不晚。
參考文獻:
[1] 肖峰.人工智能與認識論的哲學互釋:從認知分型到演進邏輯[J].中國社會科學,2020,(6):49-71+205-206.
[2] 宋建寶.歐盟人工智能倫理準則概要[N].人民法院報,2019-04-19(08).
[3] [法]斯蒂格勒.技術(shù)與時間3:電影的時間與存在之痛的問題[M].南京:譯林出版社,2012.209.
[4] [美]波茲曼.娛樂至死.童年的消逝[M].桂林:廣西師范大學出版社,2009.66.
[5] [加]馬歇爾·麥克盧漢.何道寬譯.理解媒介:論人的延伸[M].南京:譯林出版社,2019.4.
[6] [美]普特南.童世駿譯.理性,真理與歷史[M].上海:上海譯文出版社,2005.33.
[7] 段偉文.虛擬現(xiàn)實技術(shù)的社會倫理問題與應對[J].科技中國,2018,(7):98-104.
[8] [美]約翰·杜威,詹姆斯·H.塔夫斯.方永譯.倫理學[M].北京:商務印書館,2019.44.
[9] 谷學強.搜索引擎中的倫理失范問題與治理研究[J].河南工業(yè)大學學報(社科版),2017,(6):61-66.
[10] 賈開,薛瀾.人工智能倫理問題與安全風險治理的全球比較與中國實踐[J].公共管理評論,2021,(1):122-134.
[11] [德]馬克斯·韋伯.馮克利譯.學術(shù)與政治[M].上海:生活·讀書·新知三聯(lián)書店,1998.
[12] David B.Whittier,周夢雅.網(wǎng)絡倫理教育與網(wǎng)絡心理[J].中國電化教育,2012,(3):1-7.
[13] Polanyi,M.The Tacit Dimension [J].Chicago:University of Chicago Press,2009.
[14] 蔡元培.中國倫理學史[M].北京:商務印書館,2012.33.
[15] None.歐盟發(fā)布人工智能倫理準則[J].傳感器世界,2019,25(4):35.
[16] [英]里查德·道金斯.盧允中譯.自私的基因[M].長春:吉林人民出版社,1998.33.
[17] 人民日報.三評算法推薦[EB/OL].http://opinion.people.com.cn/ GB/8213/420650/422761/index.html,2021-07-21.
[18] 王永章.過高的道德標準阻礙我們警惕人性之惡[J].人民論壇,2008,(13):7.
[19] 王正平.以新時代教育倫理道德引導我國教育現(xiàn)代化[J].上海師范大學學報(哲學社會科學版),2020,49(1):71-82.
[20] 范瑞平,蔡昱等.關(guān)于生命倫理學四原則理論的新討論[J].中國醫(yī)學倫理學,2021,34(4):395-407.
[21] 新浪科技.對話“華智冰”團隊:能力相當于人類多少歲?她會有情感嗎 [DB/OL].https://baijiahao.baidu.com/s id=170285842189018 5670&wfr=spider&for=pc,2021-07-25.
[22] Thomas Mowers.On the moral agency of computers [J]. Topoi,2013,(32):229-230.
[23] Donald Davidson.Actions,Reasons and Causes [A].Essays on Actions and Events [C].Oxford:Clarendon Press,2001.
[24] 戴益斌.人工智能倫理何以可能——基于道德主體和道德接受者的視角[J].倫理學研究,2020,(5):96-102.
[25] [德]弗里德里希·黑格爾.李智謀編譯.小邏輯(黑格爾對聽眾的致辭)[M].重慶:重慶出版社,2006.
[26] 鄒太龍,易連云.舍恩伯格大數(shù)據(jù)教育應用思想的倫理關(guān)懷[J].中國電化教育,2020,(12):55-62.
作者簡介:
李子運:教授,博士,碩士生導師,研究方向為教育技術(shù)基本理論、教育技術(shù)哲學。
Ethical Thinking of Artificial Intelligence Empowering Education
Li Ziyun(Department of Educational technology, Jiangsu Normal University, Xuzhou 221006, Jiangsu)
Abstract: The logic of the fit between education and artificial intelligence at the technical level reveals the three paradoxes facing the ethics of educational artificial intelligence: the Subjectivity Paradox, the Rights Paradox and the Base-line Ethic Paradox. The ethics of educational artificial intelligence is fundamental, far-reaching and irreversible, which regulates the balance of tension between education and individuals and society. The construction of educational artificial intelligence ethics can refer to three models: The Theory Application Model, The Middle Level Principle Model and The Doubtful Cases Generalized Model. No matter which model we choose, the key to solving the paradox problem is to adopt “Non-human subject theory”. We should never regard artificial intelligence as a human subject and must firmly treat it as a machine; Humans can always be responsible for the results of their actions; People should respect themselves and believe that they deserve the noblest things. Only in this way will it not fall into an ethical dilemma with a machine that is inferior to the human being.
Keywords: Educational Artificial Intelligence; educational ethics; subjectivity paradox; “non-human subject theory”
收稿日期:2021年8月1日
責任編輯:李雅瑄