○ 許根宏
(西北政法大學 新聞傳播學院, 陜西 西安 710012)
人工智能是利用數(shù)字計算機或者數(shù)字計算機控制的機器模擬、延伸和擴展人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)?!?〕所謂人工智能傳播是指由人工智能技術(shù)驅(qū)動的傳播,即通過數(shù)字計算機在“模擬、延伸和擴展人的智能”中,實現(xiàn)“感知環(huán)境、獲取知識并使用知識”的信息生產(chǎn)活動。具體包括人工智能傳播理論、人工智能傳播方法、人工智能傳播技術(shù)及人工智能傳播應(yīng)用系統(tǒng)等。
較之傳統(tǒng)意義上的新聞傳播,人工智能傳播的顯著特征在于由經(jīng)“仿人腦”的“機器”利用知識來完成信息傳播行為。根據(jù)人工智能傳播是否能真正實現(xiàn)推理、思考和解決問題,可以將人工智能傳播分為弱人工智能傳播和強人工智能傳播。鑒于目前人工智能技術(shù)的主流研究仍然集中于弱人工智能,及“機器”表面看像是智能的,但并非真正擁有智能,也不會有自主意識,〔2〕所以當前新聞傳播領(lǐng)域如機器人采訪、機器人寫作、算法新聞、數(shù)據(jù)新聞、推薦新聞等基于人工智能技術(shù)而催生的信息傳播形態(tài),可以被視為弱人工智能傳播。但隨著人工智能技術(shù)發(fā)展,尤其是伴隨“類人腦”(機器的思考和推理類似人的思維)的人工智能技術(shù)的到來,人工智能傳播遲早會進入強人工智能傳播階段。
在人工智能技術(shù)驅(qū)動下,人工智能傳播正加速解構(gòu)和重構(gòu)社會。當前,面臨人工智能傳播場域秩序失范問題,亟待通過倫理道德、政策和法律規(guī)制來實現(xiàn)人工智能傳播規(guī)范化治理。但鑒于目前人工智能傳播理論研究尚處在探索階段,相關(guān)規(guī)制人工智能傳播實踐的倫理、政策及法律仍處在建構(gòu)之中,故迫切需要首先盡快在理論層面達成規(guī)制人工智能傳播共識,科學建構(gòu)人工智能傳播倫理標準、政策體系和法規(guī)體系,從而推動人工智能傳播規(guī)范化治理。
人工智能概念誕生于1956年的達特茅斯會議。自2006年來,以深度學習為代表的機器學習算法,及云計算和大數(shù)據(jù)等技術(shù)的發(fā)展,人工智能的發(fā)展模式也從過去追求“用計算機模擬人工智能”,逐步轉(zhuǎn)向以機器與人結(jié)合而成的增強型混合智能系統(tǒng),用機器、人、網(wǎng)絡(luò)結(jié)合成新的群智系統(tǒng),以及用機器、人、網(wǎng)絡(luò)和物結(jié)合成的更加復雜的智能系統(tǒng)?!?〕
作為一項引領(lǐng)未來的戰(zhàn)略技術(shù),世界發(fā)達國家為能在新一輪國際競爭中爭取掌握主導權(quán),紛紛圍繞人工智能出臺規(guī)劃和政策,對人工智能核心技術(shù)、頂尖人才、標準規(guī)范等進行部署。為贏得人工智能發(fā)展先機,我國出臺《新一代人工智能發(fā)展規(guī)劃》(國發(fā)〔2017〕35號)、《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》(工信部科〔2017〕315號)等政策文件。十九大報告指出,要加快建設(shè)制造強國,加快發(fā)展先進制造業(yè),推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合?!?〕目前,人工智能技術(shù)在語義識別、語音識別、人臉識別和圖像識別等特定任務(wù)中的精度和效率已遠超人工。隨著人工智能技術(shù)的發(fā)展,基于人工智能技術(shù)驅(qū)動下的人工智能傳播正在興起。中國互聯(lián)網(wǎng)絡(luò)信息中心(CNNIC)發(fā)布第41次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》稱,以人工智能為核心的技術(shù)成為資訊平臺核心競爭力。CNNIC發(fā)布的第42次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》稱,2018 年上半年,我國人工智能政策不斷落地,人工智能技術(shù)和應(yīng)用飛速發(fā)展,帶來更為持久深刻的思維沖擊與變革?!?〕
路透社發(fā)布的2016年數(shù)字新聞報告表明,世界范圍內(nèi)的受訪者對社交媒體平臺的算法推薦機制可能導致的負面影響表示關(guān)注,其中,54%的挪威人、49%的英國人、49%的美國人均認為“影響了我的隱私”。〔6〕而現(xiàn)實中,人們對人工智能傳播的確產(chǎn)生了擔憂。2018年6月,英國數(shù)據(jù)監(jiān)管機構(gòu)“信息專員辦公室”(ICO)向Facebook開出了50萬英鎊(約合66.4萬美元)罰單,理由是針對劍橋分析公司濫用用戶數(shù)據(jù)行為,這家社交媒體巨頭未能及時發(fā)布預(yù)警信息并提供有效隱私保護措施。無獨有偶,另一巨頭谷歌因向美國國防部提供人工智能技術(shù)支持來分析無人機視頻的做法受到批評和爭議,谷歌被迫宣布與國防部的合約到期后,將不再與其簽訂新的合作計劃。〔7〕其實,早在2015年,土耳其政府就因社交媒體上瘋傳的一組恐怖組織槍殺人質(zhì)照片而下令封鎖包括Twitter、Facebook和YouTube在內(nèi)的166個網(wǎng)站?!?〕針對國內(nèi)巨頭今日頭條等互聯(lián)網(wǎng)企業(yè)算法新聞傳播的系列問題,有學者評價“只有守住底線,相關(guān)互聯(lián)網(wǎng)企業(yè)才能把握好科技創(chuàng)新的風口,站在社會發(fā)展的潮頭”?!?〕也許,人工智能技術(shù)帶來的現(xiàn)實困境,也從一個側(cè)面印證了以色列史學家尤瓦爾·赫拉利(Yuval Noah Harari)的擔憂:數(shù)字霸權(quán)使得人們多年來通過艱苦斗爭和巨大教訓所確立的現(xiàn)代理念基石“自由”和“平等”,正變得十分可疑和岌岌可危?!?0〕
為應(yīng)對人工智能的發(fā)展,在政策層面,自2017年以來,韓國政府擬訂了《機器人道德憲章》,美國信息技術(shù)產(chǎn)業(yè)委員會(ITI)于2017年頒布了人工智能的14條政策準則,歐盟出臺了史上最嚴數(shù)據(jù)保護條例——《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,簡稱GDPR),旨在加強對數(shù)據(jù)的保護。我國《新一代人工智能發(fā)展規(guī)劃》明確提出到2030年我國人工智能發(fā)展的“三步走”目標,強調(diào)在每一個階段,人工智能法律法規(guī)、倫理規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內(nèi)容。
毋庸置疑,包括算法新聞在內(nèi)的人工智能傳播的失范問題,正在帶來新聞傳播領(lǐng)域治理新課題。而事實上,既有的新聞倫理、政策與法規(guī)已不能完全適應(yīng)人工智能時代新聞傳播事業(yè)的發(fā)展,更談不上對人工智能傳播的規(guī)范化治理。如何規(guī)制人工智能傳播,實現(xiàn)人工智能傳播規(guī)范化,亟待我們首先要在理論層面予以科學的回答。
隨著人工智能技術(shù)進步,人工智能傳播加速到來。20年前,美國學者尼古拉斯·尼葛洛龐帝在《數(shù)字化生存》中就預(yù)言,下個一千年人類與機器說的話甚至比跟人類說的話還要多。有學者指出,人工智能技術(shù)在新聞傳播領(lǐng)域的全面滲透是近年來的一個現(xiàn)象級的發(fā)展?!?1〕這是因為新聞業(yè)的再次崛起,必須依賴智能化等新科技與內(nèi)容的融合,利用新技術(shù)建立新型的新聞與受眾的聯(lián)系?!?2〕在“人媒合一”中,人體上將有越來越多的“機器”,甚至某些芯片可以植入人體?!?3〕也許,未來的寫作將是人的能力與人工智能的結(jié)合,機器幫助人發(fā)現(xiàn)新聞線索,探析事物的深層規(guī)律,拓展寫作的深度或廣度。〔14〕
人工智能技術(shù)對新聞傳播的影響,很大程度上表現(xiàn)為算法新聞(Algorithmic Journalism)。基于人工智能算法技術(shù)的應(yīng)用,目前算法新聞主要包括“機器(人)新聞”(Robot Journalism)、“自動化新聞”(Automated News)、“數(shù)據(jù)驅(qū)動新聞”(Data-driven Journalism)、“計算新聞”(Computational Journalism)。不過,發(fā)達國家的算法新聞?wù)龔恼I(lǐng)域轉(zhuǎn)向?qū)掝I(lǐng)域應(yīng)用、從格式化轉(zhuǎn)向個性化應(yīng)用、從個案轉(zhuǎn)向規(guī)?;瘧?yīng)用、從低層次轉(zhuǎn)向高質(zhì)量應(yīng)用、從低難度轉(zhuǎn)向高難度應(yīng)用、從機械傳播轉(zhuǎn)向交互體驗應(yīng)用?!?5〕
人工智能技術(shù)給新聞傳播帶來正功能價值的同時,同樣引發(fā)擔憂。有研究者認為,人體上的智能設(shè)備讓隱私保護問題變得更為突出?!?6〕除涉嫌侵害隱私外,機器人算法可能面臨較窄的選題空間?!?7〕與此同時,人工智能將議題設(shè)置權(quán)力讓渡給社交關(guān)系和算法生成使受眾陷入過往經(jīng)驗的狹隘境地?!?8〕此外,人工智能異化、偽知識泛濫和全民娛樂已經(jīng)對人心之善和文明傳承造成了深度危害,〔19〕以智能化技術(shù)為核心的泛在網(wǎng)將帶來數(shù)據(jù)安全和“第三空間”的法律規(guī)范等問題?!?0〕美國賓夕法尼亞州立大學傳播學院終身教授、國際中華傳播學會副主席鐘布稱,“算法正在代替新聞媒體過濾信息,令人擔憂的是算法會否取代人類做價值判斷。因此,針對當前流行的算法決定論,有必要從算法審計、算法素養(yǎng)、算法倫理等方面展開研究?!薄?1〕
現(xiàn)階段人工智能技術(shù)及應(yīng)用“瑕疵”,決定了包括算法新聞等在內(nèi)的人工智能傳播的“缺陷”。這是因為,就驅(qū)動新聞傳播的人工智能技術(shù)而言,人工智能的核心是算法與數(shù)據(jù),其內(nèi)在邏輯是基于機器學習形成自主決策,〔22〕其安全、倫理和隱私問題直接影響人們在與人工智能工具交互經(jīng)驗中對人工智能技術(shù)的信任,〔23〕所以要關(guān)注人工智能的發(fā)展將帶來的深刻倫理道德問題?!?4〕在這種背景下,為新聞傳播提供驅(qū)動力的人工智能技術(shù)的治理問題,正日益引起人類關(guān)注和初步探索。〔25〕因此,有機構(gòu)呼吁,在擁抱人工智能的同時,正視技術(shù)之外的挑戰(zhàn),呼吁政府、產(chǎn)業(yè)界等相關(guān)方未雨綢繆,商討人工智能開發(fā)和應(yīng)用的倫理規(guī)范和公共準則。〔26〕
面對人工智能傳播治理問題,有研究者認為,在機器和算法流行的時代,人更需要堅守自己的價值,始終要把人文關(guān)照放在首位。〔27〕在機器時代,不僅需要警惕對于算法的迷信和誤用,更需要警惕自身出于某種利益因素對數(shù)據(jù)、算法、機器的裹挾和濫用,所以需要一些新的法規(guī)和倫理約束,平衡個性化服務(wù)與隱私權(quán)的保護,〔28〕而最終人工智能需要法律做出相應(yīng)調(diào)整?!?9〕但傳統(tǒng)科層治理結(jié)構(gòu)、方法以及范圍不能應(yīng)對新的變化,各國現(xiàn)有政策所遵循的“無需批準式監(jiān)管”或“審慎監(jiān)管”邏輯固然有其合理性,但卻局限于“創(chuàng)新”與“安全”的二維選擇而失于片面。〔30〕無疑,基于人工智能技術(shù)驅(qū)動的人工智能傳播治理問題,自然成了人工智能時代新聞傳播領(lǐng)域必須面臨的一個治理難題。
如何實現(xiàn)人工智能傳播治理?根本出路當然是規(guī)范化或法治化。但問題是,由于人工智能技術(shù)自身的快速發(fā)展和進步,目前規(guī)制新聞傳播領(lǐng)域的倫理、政策與法規(guī)體系已明顯滯后于人工智能傳播事業(yè)發(fā)展的需要,導致人工智能傳播規(guī)范化治理實踐難免陷入“無章可循”的窘境。而在理論界,雖然學者關(guān)注到人工智能傳播亟待規(guī)范化治理的重要性,但如何實現(xiàn)規(guī)范化治理,仍然缺少理論支撐。尤其是人工智能應(yīng)用領(lǐng)域的相關(guān)倫理道德、安全標準往往滯后于人工智能技術(shù)的發(fā)展,這將會引發(fā)更多分歧和爭議,所以要加強人工智能安全與倫理標準研究,重點開展人工智能安全的倫理設(shè)計、安全評估等標準研究。〔31〕因此,當前規(guī)制人工智能傳播,實現(xiàn)人工智能傳播規(guī)范化治理,首當其沖是要解決人工智能傳播規(guī)范化治理的前提或基礎(chǔ)問題,即建立規(guī)制人工智能傳播的規(guī)范化標準。具體而言,該規(guī)范化標準主要表現(xiàn)為人工智能傳播倫理依據(jù)、倫理主體及倫理基本原則的確立。本文旨在對人工智能傳播倫理依據(jù)和倫理主體兩個維度展開探討。
人工智能時代,人工智能傳播倫理的確立,離不開前置條件,即人工智能傳播倫理確立的依據(jù)。按照“我是誰?我從哪里來?我要到哪里去?”的哲學思考進路,人工智能傳播倫理確立的依據(jù)主要涉及倫理立場來源(我是誰?)、倫理價值生成(我從哪里來?)和倫理現(xiàn)實訴求(我要到哪里去?)三個基本維度。
人工智能傳播倫理,應(yīng)該基于屬于人的倫理范疇來確立。即人工智能傳播倫理的確立,是依據(jù)人的需要而規(guī)范人的行為這一基本立場來設(shè)定的。換言之,人工智能傳播倫理的基本立場,應(yīng)該是基于從具有生命體的人及以人類世界為出發(fā)點和歸宿。抑或人工智能傳播倫理作用的對象應(yīng)是具有生命體的傳播者,而非無生命體的機器或“機器人”。因為,從標準智能模型的構(gòu)造和生命的進化看,人工智能雖然分擔了人類的部分知識和智慧功能,但它還不能被看作是與人類同權(quán)的生命體。即使人工智能技術(shù)進階到強人工智能階段,但人工智能在最重要的創(chuàng)造性和評審創(chuàng)造性價值方面還無法替代有生命體和正常思維的人。普遍的看法,也是最為重要的觀點是,人工智能無法確定自己的進化方向和進化目標,也沒有正確進化的自然動力,它的進化動力來源于人類,依然是人類的工具?!?2〕即人工智能自始至終是為有生命體的人而存在的,是依附于人的。如果不是這樣,那我們確要反思人類本身存在的意義了。正如有學者從實驗倫理的角度認為,人們將道德責任轉(zhuǎn)向其他不在場的人而非人工智能?!?3〕因此,人工智能傳播倫理的確立始終以人的立場出發(fā),堅持以服務(wù)于人為根本遵循。
人工智能傳播倫理的價值生成,是基于調(diào)節(jié)社會關(guān)系的需要。馬克思主義倫理觀認為,建構(gòu)倫理原則應(yīng)該把社會關(guān)系放在首位,抑或倫理道德原則生成的前提是為了解決社會生產(chǎn)與交往中個人與集體、個人與社會、個人與個人之間利益上的矛盾或沖突,這也預(yù)示倫理原則會隨著社會關(guān)系的變化而變化。在人工智能時代,人類的社會關(guān)系將隨著人工智能新技術(shù)的普及和應(yīng)用而發(fā)生變化。面對新的沖突和矛盾,既有的倫理規(guī)范必然要面臨調(diào)整。事實上,在信息社會,智能機器的語義規(guī)則與現(xiàn)實世界中的物理邊界是此消彼長的關(guān)系。所以在人工智能傳播中,如果人工智能技術(shù)越能如期地執(zhí)行既定規(guī)則,則規(guī)范意義上的物理限制需求越少。反之,人工智能對規(guī)則的理解與執(zhí)行力越差,越需要人為設(shè)定規(guī)范意義上的物理邊界。因此,我們?yōu)榱私o人工智能機器設(shè)定行動邊界而給世界設(shè)定了邊界?!?4〕也就是說,我們?yōu)榱艘?guī)范人工智能傳播而需要設(shè)定合理的邊界。在這個意義上,社會需求推動了人工智能傳播倫理價值的生成。
人工智能傳播倫理的現(xiàn)實訴求,集中體現(xiàn)于社會主義核心價值觀實踐的需要。黨的十八大提出,倡導富強、民主、文明、和諧,倡導自由、平等、公正、法治,倡導愛國、敬業(yè)、誠信、友善,積極培育和踐行社會主義核心價值觀。社會主義核心價值觀是社會主義核心價值體系的內(nèi)核,體現(xiàn)社會主義核心價值體系的根本性質(zhì)和基本特征,是社會主義核心價值體系的高度凝練和集中表達。2017年10月18日,習近平同志在十九大報告中指出,要培育和踐行社會主義核心價值觀。要以培養(yǎng)擔當民族復興大任的時代新人為著眼點,強化教育引導、實踐養(yǎng)成、制度保障,發(fā)揮社會主義核心價值觀對國民教育、精神文明創(chuàng)建、精神文化產(chǎn)品創(chuàng)作生產(chǎn)傳播的引領(lǐng)作用,把社會主義核心價值觀融入社會發(fā)展各方面,轉(zhuǎn)化為人們的情感認同和行為習慣?!?5〕但作為全體中國人行為導向“最大公約數(shù)”的社會主義核心價值觀不可能自動被接受和實踐,需要借助人工智能傳播加強對社會主義核心價值觀基本理念和精神的普及,從而推動國人社會主義核心價值觀的價值內(nèi)化。而現(xiàn)實是,因人工智能時代的傳播失范問題,社會主義核心價值觀面臨著傳播方式與傳播途徑的亟待規(guī)范化治理。這正體現(xiàn)了人工智能傳播倫理建構(gòu)的重要性和現(xiàn)實訴求。
馬克思指出,“歷史不過是追求著自己目的的人的活動而已。”〔36〕在哲學上,主體指對客體有認識和實踐能力的人,是客體的存在意義的決定者。在伊格爾頓看來,“主體”是對個體在社會生活的不同場合下與他人打交道的一系列行為規(guī)則的命名,只有在共同生活的前提下才是可能的。換言之,“主體”與我們共同生活中的社會角色相關(guān),只要有群體性的社會生活存在,“主體”就會出現(xiàn)?!?7〕因此,在人工智能傳播倫理實踐生活中,當然離不開主體的確立,否則人工智能傳播便沒有存在的意義。對此,雖然安德里亞斯·格雷費(Andreas Graefe)基于“新聞—公眾”和“微觀—宏觀”結(jié)構(gòu)認為,機器人新聞對應(yīng)“記者和新聞消費者”與“新聞機構(gòu)和社會”四個行動者,〔38〕但這一基于機器人新聞場域社會行動結(jié)構(gòu)的表象區(qū)分,并不能反映人工智能傳播行動主體結(jié)構(gòu)的“真面目”。面向未來,人工智能在規(guī)范上應(yīng)遵循新的道德主體原則,在實踐上應(yīng)把責任放在首要地位,以適應(yīng)新的信息現(xiàn)代性社會?!?9〕
而在人工智能傳播場域,面對傳播失范的社會譴責與責任承擔,我們?nèi)匀涣晳T于遵循傳統(tǒng)意義的“傳者”主體結(jié)構(gòu)來尋找“實施者”歸責。但事實上,算法新聞、機器人新聞、推薦新聞等人工智能傳播中產(chǎn)生的虛假新聞等各種不道德甚至違法傳播行為,雖然直接與傳統(tǒng)意義的“傳者”有關(guān),但其真正“實施者”往往是“一群人”或“一類人”,并非傳統(tǒng)意義上“點到點”的單向傳播者。即人工智能時代,人工智能傳播主體已發(fā)生了根本性的結(jié)構(gòu)變化,其由傳統(tǒng)的線性主體結(jié)構(gòu)向非線性主體結(jié)構(gòu)加速演進。換言之,在人工智能時代,人工智能傳播主體已變成了開放式、多層次、動態(tài)的“全民主體”。此時,規(guī)制人工智能傳播,實現(xiàn)人工智能傳播規(guī)范化或法治化治理,亟需遵循新的道德主體原則,重新審視傳統(tǒng)傳播主體的構(gòu)成,確立和建構(gòu)符合人工智能傳播實際情況與治理需要的主體。事實上,如果人工智能傳播主體結(jié)構(gòu)被清晰地界定了,人工智能傳播中有關(guān)算法“黑匣子”問題或傳播失范問題,便容易因主體的明確而逐漸得到“曝光”或糾正。
反觀人工智能傳播技術(shù),在人工智能傳播中,立足“傳者”視角,“智能信息”經(jīng)歷著“數(shù)據(jù)—信息—知識—智慧”過程。這其中,“智能信息鏈”具體表現(xiàn)為從智能信息感知、智能信息表示與形成、智能推理、智能決策到智能執(zhí)行與輸出的一般過程。按照“角色—活動—功能”的層級分類體系,人工智能傳播系統(tǒng)主要由基礎(chǔ)設(shè)施提供者、信息提供者、信息處理者和系統(tǒng)協(xié)調(diào)者四類主要角色組成?!?0〕按照人工智能傳播規(guī)范化治理的目的,前述四類主體的行為決定了人工智能傳播的秩序,理應(yīng)成為人工智能傳播倫理主體。(見圖1)
圖1人工智能傳播主體結(jié)構(gòu)
基于人工智能傳播的技術(shù)邏輯特點,人工智能傳播系統(tǒng)中的基礎(chǔ)設(shè)施提供者,是指能為人工智能傳播提供計算能力支持,實現(xiàn)與外部世界溝通,并通過基礎(chǔ)平臺實現(xiàn)支撐的一類主體。而這其中,人工智能傳播的計算能力主要由智能芯片(CPU、GPU、ASIC、FPGA等硬件加速芯片及其它智能芯片)系統(tǒng)開發(fā)商提供,實現(xiàn)與外部世界的溝通功能設(shè)備主要通過新型傳感器制造商提供,基礎(chǔ)平臺包括分布式計算框架提供商及網(wǎng)絡(luò)提供商(包括云存儲和計算、互聯(lián)互通網(wǎng)絡(luò)等)。因此,在人工智能傳播倫理主體的確立中,基礎(chǔ)設(shè)施提供者成了人工智能傳播倫理主體的一個獨立而又特殊的群體,他們負有避免人工智能傳播“硬件”瑕疵的義務(wù)。某種意義上,在人工智能傳播侵權(quán)中,該類主體承擔的責任不同程度地接近或類似于“產(chǎn)品責任”。較之傳統(tǒng)傳播中的傳者,掌握人工智能傳播技術(shù)的媒體機構(gòu)采編人員完全有可能在傳播工作的交叉中,而成為基礎(chǔ)設(shè)施提供者。
按照傳統(tǒng)信息傳播原理,信息提供者是指生成、制作、發(fā)送信息的源頭和起點的主體。該主體既可以是事實、事件、人物、現(xiàn)象等原生信息的提供者,也可以是收集原生信息進行加工、制作、傳播的個人或團體。在人工智能傳播領(lǐng)域,信息提供者主要是指為人工智能傳播行為提供“一次”或“二次”感知信息的主體。既包括原生信息提供者,也包括經(jīng)加工信息的提供者。按照人工智能傳播技術(shù)原理,無信息提供者,便不存在人工智能傳播的知識信息來源。在人工智能傳播的知識信息感知過程中,由數(shù)據(jù)提供商提供人工智能傳播所需的智能感知信息。這其中,既包括原始數(shù)據(jù)資源,又包括數(shù)據(jù)集。而原始數(shù)據(jù)資源的感知涉及到圖形、圖像、語音、文本的識別,還涉及到傳統(tǒng)設(shè)備的物聯(lián)網(wǎng)數(shù)據(jù)。在這些信息提供者個體或群體中,他們的行為同樣要接受倫理的規(guī)制和約束。在這一環(huán)節(jié),如果信息提供者供給人工智能傳播所需的感知信息存在失實、虛假、侵權(quán)等不道德或違法問題,則可能導致人工智能傳播的不道德或違法,即在源頭上成了人工智能不道德傳播的“幫兇”。事實上,當前算法新聞、機器人新聞、推薦新聞等人工智能傳播中發(fā)生的傳播失范問題,與這一環(huán)節(jié)信息傳播的質(zhì)量不高或不道德緊密相關(guān)。因此,人工智能傳播中信息提供者自然成了人工智能傳播倫理主體框架中一個不可或缺的重要主體。
信息處理者是指人工智能傳播中技術(shù)和服務(wù)的提供商。在信息傳播史中,有信息就有信息處理。其實,人類很早就開始出現(xiàn)了信息的記錄、存儲和傳輸,原始社會的“結(jié)繩記事”就是指以麻繩和籌碼作為信息載體,用來記錄和存儲信息的。到目前為止,人類社會信息處理大致經(jīng)歷了手工處理、機械處理和計算機處理三個階段。而這其中,計算機作為信息處理工具,其信息存儲、處理、傳輸能力是當今任何其他技術(shù)無法與之相比的。在某種意義上,沒有計算機機器對信息處理的信息化,便不可能有人工智能技術(shù)的到來和進步。在人工智能傳播中,信息處理者承擔的信息處理活動,主要包括人工智能信息的表示與形成、人工智能推理、人工智能決策及人工智能執(zhí)行與輸出。這些人工智能信息處理者通常包括算法工程師及技術(shù)服務(wù)提供商,他們往往通過計算框架、模型及通用技術(shù),要么分階段對人工智能信息進行符號化和形式化的建模、抽取、預(yù)處理、訓練數(shù)據(jù)等,要么模擬人類的智能推理方式,依據(jù)推理控制策略,利用形式化的信息進行機器思維和求解問題,提供人工智能信息分類、排序、預(yù)測等,要么對輸入的輸出作出運動、顯示、發(fā)聲、交互、合成等響應(yīng),從而實現(xiàn)人工智能傳播。顯然,在人工智能傳播中,信息處理者是一個關(guān)鍵性的“把關(guān)人”,該主體行為的規(guī)范程度直接關(guān)系著人工智能傳播場域秩序的好壞。因此,規(guī)制人工智能傳播,實現(xiàn)人工智能傳播規(guī)范化,信息處理者理所當然成為人工智能傳播倫理主體而成為被規(guī)制對象。
在人工智能傳播領(lǐng)域,系統(tǒng)協(xié)調(diào)者類似于“大管家”或“守夜人”的角色,旨在向人工智能傳播活動提供包括政策、法律、資源、管理及各種傳播業(yè)務(wù)需求在內(nèi)的協(xié)調(diào)服務(wù),從而滿足人工智能傳播的整體性要求,保障人工智能傳播系統(tǒng)正常運轉(zhuǎn)。鑒于人工智能傳播涉及多學科交叉,實現(xiàn)人工智能傳播順利進行的系統(tǒng)協(xié)調(diào)者同樣是龐大而開放的,既包括倫理、政策和法治等管理層面的協(xié)調(diào)者,也包括人工智能傳播軟件調(diào)配、資源管理等具體技術(shù)層面的系統(tǒng)協(xié)調(diào)者。所以,在人工智能傳播倫理主體的建構(gòu)中,人工智能傳播系統(tǒng)協(xié)調(diào)者的“分層性”或“等級性”特征愈加明顯,抑或在這一區(qū)間,起碼要考慮宏觀和微觀兩個“類群體”的倫理主體的確立問題。即既要關(guān)注與人工智能傳播有關(guān)的基礎(chǔ)設(shè)施提供、信息提供和信息處理有關(guān)的“硬件系統(tǒng)”協(xié)調(diào)與服務(wù)的宏觀與微觀主體的構(gòu)成與確立,又要關(guān)注與人工智能傳播有關(guān)的基礎(chǔ)設(shè)施提供、信息提供和信息處理有關(guān)的“軟件系統(tǒng)”協(xié)調(diào)與服務(wù)的宏觀與微觀主體的構(gòu)成與確立,從而在規(guī)制人工智能傳播中,提升人工智能規(guī)范化或法治化的精準性。
上述人工智能傳播倫理主體的確立,正如馬克思所言,在人類歷史發(fā)展中,倫理主體經(jīng)歷了從群體本位發(fā)展到個體本位,最后在更高的層次上形成新的群體共同體——“類”,即“類本位”的倫理主體?!?1〕所以在某種意義上,人工智能傳播中基礎(chǔ)設(shè)施提供者、信息提供者、信息處理者和系統(tǒng)協(xié)調(diào)者乃“類本位”的倫理主體。較之傳統(tǒng)“傳播者”,該“類本位”的倫理主體的確立,無疑是對人工智能時代傳播新生態(tài)的主體調(diào)適。更為重要的是,該“類本位”的倫理主體的確立,使規(guī)制人工智能傳播實現(xiàn)規(guī)范化或法治化有了可以依托的責任載體和治理實踐的現(xiàn)實意義。
隨著人工智能技術(shù)加速發(fā)展進步,人工智能傳播正在加速成為當下及未來的一種越來越重要的傳播方式與途徑,其對人類傳播生態(tài)及社會結(jié)構(gòu)的加速解構(gòu)與重構(gòu),似乎正在變得不可預(yù)測。不過,在當前人工智能傳播實踐中,因人工智能傳播技術(shù)發(fā)展階段及人類對其治理水平有限等多種因素的制約,包括算法新聞等在內(nèi)的人工智能傳播給局部社會帶來的傳播失范后果正在放大,尤其是人工智能傳播中的各種不道德甚至違法傳播,正在制約社會主義核心價值觀的主體價值內(nèi)化與實踐。因此,人工智能傳播規(guī)范化或法治化治理,日益引起全人類的高度關(guān)注。但目前規(guī)制人工智能傳播的倫理、政策及法規(guī)的規(guī)范性基礎(chǔ),仍然是碎片化而非系統(tǒng)的標準化。事實上,人工智能傳播理論研究和實踐仍嚴重滯后于人工智能傳播技術(shù)的發(fā)展需要,甚至尚處在理論空白的尷尬境地,這無疑嚴重制約和影響了人工智能傳播實踐及其規(guī)范化治理。如今,隨著我國現(xiàn)代化進程加速,法治化必然加速,人工智能傳播治理須加速走上規(guī)范化或法治化軌道。而這其中,作為規(guī)制人工智能傳播的基礎(chǔ)環(huán)節(jié),人工智能傳播倫理依據(jù)與倫理主體的確立和建構(gòu),當然成了十分重要的基礎(chǔ)性工作。
注釋:
〔1〕〔2〕〔3〕〔23〕〔31〕參見《人工智能標準化白皮書》(2018版)。
〔4〕習近平:《決勝全面建成小康社會 奪取新時代中國特色社會主義偉大勝利——在中國共產(chǎn)黨第十九次全國代表大會上的報告》,北京:人民出版社,2017年,第30頁。
〔5〕《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》,始于1997年11月,是由中國互聯(lián)網(wǎng)絡(luò)信息中心發(fā)布的最權(quán)威的互聯(lián)網(wǎng)發(fā)展數(shù)據(jù)的報告之一。
〔6〕Reuters institute for the study of journalism in University of Oxford:Digital news report 2016,http://www.digitalnewsreport.org/.
〔7〕《人工智能開發(fā)和應(yīng)用的倫理規(guī)范和公共政策準則雛形》,東方網(wǎng),http://mini.eastday.com/a/180713182302068.html,2018年7月13日。
〔8〕《Google應(yīng)對網(wǎng)絡(luò)恐怖主義的四步組合拳》,搜狐網(wǎng),http://www.sohu.com/a/162512202_389790,2017年8月5日。
〔9〕支振鋒:《守好互聯(lián)網(wǎng)平臺的價值出口》,《人民日報》2018年4月13日,第5版。
〔10〕〔以〕尤瓦爾·赫拉利:《今日簡史:人類命運大議題》,林俊宏譯,北京:中信出版社,2018年。轉(zhuǎn)引自陶林:《赫拉利:不要缺席這場有關(guān)人類未來的辯論》,《新京報》2018年8月11日,第B09版。
〔11〕喻國明、蘭美娜等:《智能化:未來傳播模式創(chuàng)新的核心邏輯——兼論“人工智能+媒體”的基本運作范式》,《新聞與寫作》2017年第3期。
〔12〕陳昌鳳:《人機大戰(zhàn)時代,媒體人價值何在》,《新聞與寫作》2016年第4期。
〔13〕〔14〕〔27〕彭蘭:《智媒化:未來媒體浪潮 ——新媒體發(fā)展趨勢報告(2016)》,《國際新聞界》2016年第11期。
〔15〕吳鋒:《發(fā)達國家“算法新聞”的理論緣起、最新進展及行業(yè)影響》,《編輯之友》2018年第5期。
〔16〕彭蘭:《萬物皆媒——新一輪技術(shù)驅(qū)動的泛媒化趨勢》,《編輯之友》2016年第3期。
〔17〕葉韋明:《機器人新聞:變革歷程與社會影響》,《中國出版》2016年第10期。
〔18〕梁智勇、鄭俊婷:《人工智能技術(shù)對新聞生產(chǎn)的影響與再造》,《中國記者》2016年第11期。
〔19〕阮朝輝:《警惕人工智能異化、偽知識泛濫和全民娛樂對人性與文明的危害》,《科技管理研究》2016年第8期。
〔20〕徐軼瑛、郭媛媛等:《未來媒體視閾下的傳播變革》,《現(xiàn)代傳播(中國傳媒大學學報)》2017年第6期。
〔21〕丁方舟、韋路:《移動互聯(lián)與傳播創(chuàng)新——2016中國新媒體傳播學年會綜述》,《現(xiàn)代傳播(中國傳媒大學學報)》2016年第7期。
〔22〕〔30〕賈開、蔣余浩:《人工智能治理的三個基本問題:技術(shù)邏輯、風險挑戰(zhàn)與公共政策選擇》,《中國行政管理》2017年第10期。
〔24〕鄭南寧:《發(fā)展有助于人類的人工智能》,《人民日報》2016年6月21日,第7版。
〔25〕2017年1月,未來生命研究院(FLI)召開主題為“有益的人工智能(Beneficial AI)”的阿西洛馬會議,法律、倫理、哲學、經(jīng)濟、機器人、人工智能等眾多學科和領(lǐng)域的專家,共同達成了23條人工智能原則(被稱為人工智能發(fā)展的“23條軍規(guī)”),呼吁全世界在發(fā)展人工智能的時候嚴格遵守這些原則,共同保障人類未來的利益和安全,包括霍金、伊隆·馬斯克、德米斯·哈薩比斯等在內(nèi)的近四千名各界專家簽署支持這些原則。2017年3月,IEEE國際機器人與自動化協(xié)會(簡稱IEEE RAS)在《IEEE機器人與自動化》雜志發(fā)表了名為“旨在推進人工智能和自治系統(tǒng)的倫理設(shè)計的IEEE全球倡議書”,倡議建立人工智能倫理的設(shè)計原則和標準,幫助人們避免對人工智能技術(shù)產(chǎn)生恐懼和盲目崇拜從而推動人工智能技術(shù)的創(chuàng)新。此前,微軟也提出了人工智能需要遵循的“六大原則”。
〔26〕2018年7月9日,中國發(fā)展研究基金會與微軟公司發(fā)布了一份33頁的研究報告,探討了人工智能社會角色和倫理方面的思考。
〔28〕彭蘭:《機器與算法的流行時代,人該怎么辦》,《新聞與寫作》2016年第12期。
〔29〕胡凌:《“機器人”與“法律人”的“戰(zhàn)爭”》,《文化縱橫》2017年第4期。
〔32〕劉鋒:《人類賦予人工智能倫理,關(guān)鍵在生物進化方向的明確》,《中國電信業(yè)》2018年第6期。
〔33〕2017 年 12 月 24 日,第四屆全國賽博倫理學暨人工智能倫理學研討會在湖南長沙召開,學者李楊在會上發(fā)言。參見潘宇翔:《大數(shù)據(jù)時代的信息倫理與人工智能倫理——第四屆全國賽博倫理學暨人工智能倫理學研討會綜述》,《倫理學研究》2018年第2期。
〔34〕〔意〕盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,杭州:浙江人民出版社,2016年,第166頁。
〔35〕《習近平提出,堅定文化自信,推動社會主義文化繁榮興盛》,新華網(wǎng),http://www.xinhuanet.com/politics/2017-10/18/c_1121820800.htm,2017年10月18日。
〔36〕《馬克思恩格斯全集(第2卷)》,北京:人民出版社,1960年,第118-119頁。
〔37〕王?。骸秱惱硇缘摹爸黧w”》,《中國圖書評論》2015年第9期。
〔38〕Andreas Graefe,“Guide to Automated Journalism”,January 7,2016,http://towcenter.org/research/guide-to-automated-journalism/.
〔39〕張正清、張成崗:《第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu)——信息倫理對人工智能倫理的啟示》,《武漢大學學報(哲學社會科學版)》2018年第3期。
〔40〕本處參考了《人工智能標準化白皮書》(2018版)中對人工智能技術(shù)原理的有關(guān)描述。
〔41〕許惠芬:《從“人”作為倫理主體看類倫理的時代意義》,《浙江社會科學》2012年第8期。