• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      解釋學視角下智能出版?zhèn)惱砉仓蔚闹黧w間性分析

      2024-12-31 00:00:00尤麗娜?周榮庭
      出版廣角 2024年21期

      【摘 要】智能出版作為一種新興出版形態(tài),突破了傳統(tǒng)出版中單一主體即“主體—客體”的局限,代之以“主體—主體”的新型互動模式,其獨特的主體間性對于分析出版活動中的倫理風險及治理具有顯著優(yōu)勢。隨著具備“主體”特質的人工智能大模型的崛起,人工智能是否具有主體性的問題引發(fā)眾學者深思,同時引發(fā)智能出版領域內新一輪的倫理反思。從解釋學視角出發(fā),解析智能出版中多維主體間性的具體表現(xiàn)及其倫理治理路徑。通過案例分析,提出認知彌補、責任推理、道德決策及價值對齊等四大機制,旨在破解智能出版中的倫理風險難題,構建面向未來的智能出版?zhèn)惱砉仓卫碚摽蚣堋?/p>

      【關 鍵 詞】智能出版;倫理共治;主體間性;AI智能體

      【作者單位】尤麗娜,中國科學技術大學科學教育與傳播重點實驗室;周榮庭,中國科學技術大學科學教育與傳播重點實驗室。

      【基金項目】國家社科基金重大項目“全媒體傳播體系下的出版深度融合研究”(23&ZD219)的階段性成果。

      【中圖分類號】G230.7 【文獻標識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.21.005

      2017年9月國家新聞出版廣電總局印發(fā)《新聞出版廣播影視“十三五”發(fā)展規(guī)劃》,2021年12月國家新聞出版署印發(fā)《出版業(yè)“十四五”時期發(fā)展規(guī)劃》,兩個規(guī)劃明確提出實施數(shù)字化戰(zhàn)略、推動智能出版技術應用等重要舉措,為出版業(yè)智能化發(fā)展提供了政策支持。隨著大語言模型的快速發(fā)展,以及AIGC (AI-Generated Content)在自然語言處理和生成技術上的進步,大語言模型在選題策劃、內容校對和出版發(fā)行等環(huán)節(jié)得到廣泛應用,加速了傳統(tǒng)出版向智能出版的轉型。

      智能出版是依托自然語言處理、知識圖譜和機器學習等人工智能技術,對作品進行智能化編輯、加工及復制發(fā)行的新型業(yè)態(tài)。其核心特征在于人工智能與專業(yè)生產(chǎn)內容的協(xié)同作用[1],推動內容生產(chǎn)效率和質量的雙重提升。未來,在人與智能技術關系的移位過程中,技術將部分取代人類在出版產(chǎn)業(yè)鏈中的某些職能,從而挑戰(zhàn)其主體地位,傳統(tǒng)出版和數(shù)字出版的工作流程與工作定位都將發(fā)生改變[2]。出版行業(yè)的目標群體也將從傳統(tǒng)的“人類讀者”拓展至能夠分析和處理內容的“機器讀者”[3]?!皺C器讀者”是指具備信息處理能力的智能系統(tǒng),如AI助手通過高效的數(shù)據(jù)分析和內容提取,逐漸成為智能出版的關鍵消費者。總體而言,出版行業(yè)從紙質化到網(wǎng)絡化再到數(shù)字化,最終向智能化轉型。

      烏爾里?!へ惪嗽凇艾F(xiàn)代風險社會”理論中指出,技術進步伴隨不可控性和不確定性,這一觀點揭示了智能出版領域技術賦能與倫理風險并存的現(xiàn)狀[4]。也就是說,智能技術創(chuàng)新在為出版產(chǎn)業(yè)帶來發(fā)展契機的同時,也會引發(fā)一系列倫理問題:算法替代人類編輯可能導致倫理主體的失衡;內容推薦的透明性不足容易造成算法黑箱效應;侵犯用戶隱私和知識產(chǎn)權的風險與日俱增[5]。因此,在新技術模態(tài)賦能出版的背景下,亟須基于人機協(xié)同的新型主體關系構建智能出版的倫理共治機制,以打造良性的智能出版生態(tài)系統(tǒng)。

      一、解釋學視角下智能出版的主體間性分析

      主體間性(intersubjectivity)最早由胡塞爾在現(xiàn)象學中提出,指主體間通過語言與行動進行交流、理解和互動,并在共識關系中實現(xiàn)意義的相關性與一致性[6]。這一概念的擴展標志著哲學從“主體—客體”關系向“主體—主體”關系的轉變,將“他者”確立為與自我平等的交互主體[7]。如果缺乏主體間性,主體的意識可能局限于唯我的主觀世界,難以實現(xiàn)位置互換和意識交流[8]。因此,交流的本質在于承認彼此的主體性,為理解和互動提供基礎。解釋學中的“主體間性”強調通過交互實現(xiàn)意義生成。在智能出版中,人與算法、人與機器的多層互動正是主體間性的重要體現(xiàn)。機器因被賦予復雜算法和數(shù)據(jù)處理能力,呈現(xiàn)類似人類的“擬主體性”,如在特定場景中表現(xiàn)出自主性和意圖,從而在智能出版中與人類高效交互。這一變革打破了傳統(tǒng)出版中“主體—客體”的單向關系模式,轉向“主體—主體”的多元互動模式,推動了人機交互主體性的形成。但是,人機交互主體性在智能出版中的應用可能引發(fā)出版主體身份轉變和倫理責任歸屬模糊等問題[9],這對傳統(tǒng)以人類為核心的倫理觀念提出了挑戰(zhàn)。因此,我們需要重新審視和定義人與機器之間的關系,明確各自的權利、責任和義務。

      人工智能的主體性問題作為一個跨學科議題,其核心在于如何從哲學、法律和倫理角度定義人工智能的擬主體性及其責任歸屬。在法哲學領域,AI作為法律主體的哲學可能性逐漸得到探討[10]。盡管AI尚未完全具備自由意志,但應當基于責任承擔的原則,為強人工智能構建特殊財產(chǎn)性法律主體[11]。法理學的討論則關注AI對人類主體性的挑戰(zhàn),強調在賦予AI法律人格時需要謹慎[12]。在藝術創(chuàng)作領域,AI在作曲中表現(xiàn)出接近人類的“擬主體性”,但其本質上仍是人類智慧的模仿與再現(xiàn)[13]。在倫理學領域,有學者提出將“AI agent”譯為“人工智能行為體”有助于識別其倫理主體性,強調其與倫理行為的聯(lián)系[14]。也有學者認為“AI agent”可能成為未來的倫理主體,AI智能體在倫理決策中將承擔責任[15]。當前,AI智能體具有自主性和交互性能力,其適應性能力也因大數(shù)據(jù)系統(tǒng)和人工神經(jīng)網(wǎng)絡技術的發(fā)展而顯著提高。從道德哲學的視角來看,AI智能體已具備倫理責任主體的特征。因為它不僅能夠對刺激作出反應,還能夠以負責任的方式思考和作出決定[16]。這為研究智能出版中AI智能體的主體性問題提供了新的解釋框架。

      當下,數(shù)字化生存與智能化轉型標志著出版業(yè)的蛻變與進階,并加速了從數(shù)字出版向智能出版的轉型進程。智能技術的發(fā)展不僅驅動了出版主體轉型,還引發(fā)了“技術”與“主體”之間的矛盾交合,挑戰(zhàn)出版主體身份的合理性,導致身份認同危機,促使出版主體不斷審視并調整自身的角色定位。特別是具備“主體”特質的人工智能大模型崛起后,AI智能體是否具有主體性的問題引發(fā)眾多學者的深思,同時引發(fā)該領域內新一輪的倫理反思。例如,當AI智能體產(chǎn)生安全風險時,責任應由人類出版主體承擔還是歸咎于AI智能體?這一問題凸顯了智能出版主體的多元化特點,涉及人類、技術以及各種智能體之間的復雜互動與責任界定,構建了“人類出版主體—AI智能體”的新型主體關系。簡而言之,智能出版的倫理治理主體已不再限于傳統(tǒng)的人類出版主體,而是擴展到包括人工智能在內的更廣泛實體,這便要求智能出版亟須深入理解和應對新型主體間性帶來的挑戰(zhàn),探索并建立智能出版生態(tài)治理的新格局。

      解釋學(Hermeneutics)不僅關注文本和符號的解讀,還強調通過對話實現(xiàn)主體間的理解和互動。將其引入智能出版領域,有助于解析人機交互的主體間性,揭示人與智能技術在出版活動中的協(xié)同機制。解釋學起源于19世紀宗教文本解釋的研究,現(xiàn)已擴展至多個領域。在漢斯-格奧爾格·伽達默爾(Hans-Georg Gadamer)等學者的推動下,解釋學發(fā)展為一種全面的哲學方法論,關注文本解釋與人類理解的全過程。理解不僅是對話語或文本的認知,更融合了理智、情感和直覺的多元體驗。伽達默爾提出“理解是一種遇見”和“歷史性對話”,強調語境對認知的核心作用。在智能出版中,這種語境依賴性同樣重要,因為算法推薦的選擇性將直接影響用戶對出版內容的理解與接受。因此,主體間性不僅涉及理論層面的對話和互動,還涉及實踐中的應用。通過理解他人,主體能夠尊重對方的差異,為建立倫理關系奠定基礎,這一過程需要通過實踐來驗證,促使認知轉化為實際行動。因此,從解釋學視角來看,主體間的關系具有多維性,包括認知關系、生存關系、倫理關系和實踐關系[17]。各個維度的關系在現(xiàn)實中的應用雖相互滲透,卻各有其側重點和特定的倫理意涵:認知主體間性是基礎,指通過深層次的理解和溝通,利用算法優(yōu)化機制減少信息偏差,從而為其他維度的實現(xiàn)奠定基礎;生存主體間性要求在追求個體利益的同時,兼顧整體生態(tài)系統(tǒng)的發(fā)展,且與認知主體間性的理解深度緊密相連;倫理主體1119ed0e838b4adfbc66d413b640d88d間性基于認知主體間性,推動倫理規(guī)范的共建,并影響生存目標的共贏與實踐主體間性的具體執(zhí)行;實踐主體間性是認知、生存和倫理主體間性在實際操作中的體現(xiàn),要求各主體在行動中遵循相關理念與規(guī)范,并通過價值對齊機制促進倫理秩序的共筑。

      “象征性”是解釋學與出版研究的共同點。解釋學強調文本和行動的意義是在特定社會語境中生成的。在出版活動中,主體間性貫穿文本的生產(chǎn)與傳播過程,通過編輯、審核和發(fā)行各環(huán)節(jié)的協(xié)作,構建多主體間的意義生成機制[18]。特別是在智能化浪潮中,智能出版正面臨如何解讀傳統(tǒng)出版主體與智能技術間的動態(tài)關系、如何維系人與機器及算法之間平衡等核心問題。這不僅關乎技術應用,還觸及多維主體間關系的重構,進而深刻影響出版內容的生產(chǎn)、傳播、接收與評估。因此,本研究將智能出版的主體間關系維度分解為:智能出版的認知主體間性、生存主體間性、倫理主體間性、實踐主體間性。這四個維度共同構成了一個動態(tài)互動的框架,能更全面地分析智能出版中不同主體之間的復雜關系(見圖1),揭示其內在機制和規(guī)律,推動智能出版?zhèn)惱砉仓危瑸橹悄艹霭娴慕】蛋l(fā)展提供理論支持和實踐指導。

      二、認知主體間性:智能出版?zhèn)惱砉沧R構建的重要前提

      智能出版中的認知主體間性表現(xiàn)為不同主體在共同理解和解釋多模態(tài)出版內容過程中所形成的互動關系。其核心在于各主體通過溝通與協(xié)作,整合不同的知識視角和背景,從而提升出版內容的生產(chǎn)效率和質量。這種互動超越了單純的內容認知,涵蓋了各主體的理性、情感和直覺反應,尤其強調語境,即與出版內容相關聯(lián)的各種背景信息、環(huán)境條件以及文化、歷史和社會因素的總和,對內容解讀和出版決策的重要影響。例如,AI系統(tǒng)通過分析讀者習慣推薦內容,作者和編輯則需理解AI推薦機制,以優(yōu)化內容創(chuàng)作。這一基于共同內容的“遇見”和“對話”增強了各主體之間的相互理解與合作,有助于克服認知局限與偏見,實現(xiàn)更全面和深入的內容認知,進而推動內容創(chuàng)作、推薦和傳播過程中的創(chuàng)新與優(yōu)化。

      然而,智能出版中的算法黑箱和數(shù)據(jù)偏見問題可能會影響認知主體間性,導致誤解和不公平的內容分發(fā)。例如,智能推薦算法可能限制用戶接觸多元信息,造成信息繭房現(xiàn)象。同時,不同主體由于背景、教育、文化等方面的差異,對同一問題可能產(chǎn)生不同的理解。每個主體都可能從自己的視角出發(fā)來解釋和傳播信息,忽視其他主體的視角和理解,從而導致內容失真等問題。此外,不同主體不同的利益訴求、價值觀念和專業(yè)判斷也可能引發(fā)矛盾,從而影響出版內容的公正性與多樣性。因此,我們需要探討在智能技術支持下,如何實現(xiàn)更有效的溝通與協(xié)作,促進不同主體之間的對話和交流,增進他們彼此間的相互理解和尊重,以共同構建智能出版的倫理共識體系。

      AI認知智能體具有一套完整的符號模型,用以描述和感知外部環(huán)境變化,并能與其他智能體通過高級通信協(xié)議進行協(xié)作。當AI認知智能體在資源獲取過程中遇到?jīng)_突時,它們能夠根據(jù)有限的環(huán)境資源和自身目標進行合理的協(xié)商分配以解決問題。此外,AI認知智能體還具有記憶、存儲和分析功能,可以預測后續(xù)行為可能產(chǎn)生的影響,并通過評估、對比和選擇,實施最佳策略。這不僅增強了AI認知智能體處理復雜情況的能力,還使得它們能夠在倫理決策中考慮到長遠的后果,從而選擇最合適的行動方案。因此,AI認知智能體能促進智能出版領域內部參與者之間的理解和協(xié)作,推動智能出版?zhèn)惱砉沧R體系的構建。

      在視覺識別等多個領域,多模態(tài)大模型(MLLM)展示了強大的認知解析能力,能夠處理文本和圖像,提供更全面的解決方案。例如,MetaGPT Agent通過整合觀察(observer)、思考(thought)、行動(action)和記憶(memory)等關鍵環(huán)節(jié),模擬人類認知過程。因此,從具身認知角度看,AI智能體具備完整的身體圖示和身體意象,展現(xiàn)出進行復雜認知活動的潛力。進一步來說,智能體在具身化設計下展現(xiàn)出自主性與交互能力,初步具備道德判斷和行為能力,這標志著AI領域中的“道德物化”概念正在向“道德內化”轉變?;诖耍珹I智能體在遵循人類中心倫理設計原則的前提下,可以被賦予有限的主體資格,成為新的認知主體。這種資格的賦予既肯定了AI智能體運用認知功能的能力,又強調了其在所有操作和決策中必須始終將人類福祉放在首位這一關鍵內涵[19]。

      盡管如此,人類出版主體在智能出版體系中仍起到核心的決策和監(jiān)督作用,負責內容的創(chuàng)造、策劃及數(shù)據(jù)質量的把控。數(shù)據(jù)源的準確性、豐富性對AI認知智能體的學習和輸出至關重要。人類出版主體的深入理解與道德判斷,賦予AI認知智能體以人文關懷與倫理指導,高質量的數(shù)據(jù)源則為AI認知型智能體提供精準認知的基石。最終,AI認知型智能體、人類出版主體和數(shù)據(jù)源/知識庫之間的互動,會形成一種認知彌補機制。這種機制不僅能夠增強智能出版系統(tǒng)的整體認知能力,還能推動不同認知主體間的信息互通和資源共享。在倫理認知共識的構建中,認知彌補機制通過不斷校準和調整智能出版系統(tǒng)的認知框架,確保智能出版系統(tǒng)運行始終與人類倫理標準保持一致。

      “AI+出版”的清華系深??萍紙D書智能體產(chǎn)品“跟著李白學古詩”便深刻體現(xiàn)了這一認知彌補機制的運作過程。教育出版社負責內容的篩選和出版,確保了內容的權威性和準確性;技術開發(fā)團隊負責將內容數(shù)字化,融入互動技術,并嵌入青少年李白的智能體形象;讀者通過掃描書中的二維碼,便能在手機上與智能李白進行實時互動,提問并獲得基于古詩詞內容的個性化解答??梢姡珹I智能體不僅是一個信息的傳遞者,還是一個能夠根據(jù)讀者個性化需求進行互動的認知伙伴。這一過程中,教育出版社、作者、用戶、技術開發(fā)團隊、編輯以及AI智能體(模擬李白形象并提供知識解答的系統(tǒng))共同參與了對古詩詞內容的理解和解釋。這種基于共同內容的“遇見”與“對話”,極大地增強了各主體間的相互理解和交流,使讀者能夠更深入地認知和理解古詩詞的精髓,共同推動知識的傳遞與理解的深化。

      通過認知主體間性的共識機制,智能出版中的各主體能夠有效協(xié)調彼此的認知與理解,為下一階段的生存主體間性提供合作基礎。生存主體間性主要通過強化這種協(xié)作關系,推動各主體在智能出版生態(tài)系統(tǒng)中,依托共同目標應對外部挑戰(zhàn)與內部分歧,確保系統(tǒng)的持續(xù)繁榮。

      三、生存主體間性:智能出版?zhèn)惱碡熑喂矒哪繕肆α?/p>

      智能出版的生存主體間性是指在出版行業(yè)內不同主體(如人類出版主體與AI智能體)基于技術和人文環(huán)境建立的相互依存、協(xié)作共生關系。其本質在于智能出版各主體(包括內容創(chuàng)作者、AI工具及技術開發(fā)者)共同構成復雜的出版生態(tài)系統(tǒng),協(xié)作實現(xiàn)內容生產(chǎn)與傳播。因此,每個主體的行為與決策會對其他主體產(chǎn)生影響,需要在尊重與理解的基礎上尋求共同利益和目標。這種生存關系強調各主體在快速變化的市場環(huán)境中,通過協(xié)作應對技術風險與市場挑戰(zhàn),以促進出版行業(yè)價值理性,即實現(xiàn)技術發(fā)展與人文精神的協(xié)調統(tǒng)一。同時,通過深度解釋與再解釋的方法,智能出版生存主體間性致力于構建一個公平、透明、互信的環(huán)境,促進技術邏輯與人文精神的深度融合,引領智能出版行業(yè)向更加開放、包容、可持續(xù)的方向發(fā)展。

      智能出版以人工智能為核心技術,重塑了傳統(tǒng)出版生態(tài)的線性生存方式和競爭規(guī)則。在新生態(tài)中,出版主體需從單向內容生產(chǎn)者轉變?yōu)榕cAI智能體共同協(xié)作的伙伴,通過角色調整實現(xiàn)共生共贏。然而,在智能出版中,人類出版主體面臨以下兩個問題:一是過度依賴AI智能體可能削弱內容選擇和編輯的主觀判斷能力,削弱出版的原創(chuàng)性;二是AI智能體若基于不完善的數(shù)據(jù)或偏見算法進行決策,可能導致虛假信息傳播或版權侵害,損害出版的公正性與準確性。目前,AI智能體正從輔助工具轉變?yōu)槌霭媪鞒讨械闹匾袆诱?,與人類出版主體在信息傳播中形成協(xié)作與博弈關系。面對這一博弈,人類出版主體需在實踐中遵循協(xié)同思維,主動與AI智能體進行合理分工。值得注意的是,AI智能體的自主性也帶來責任歸屬模糊等問題,可能導致責任推諉,使不良后果難以追責。這種生存主體間的相互依賴和競爭關系進一步凸顯了智能出版中的身份認同問題與身份責任爭議,亟須在人機交互過程中構建人類出版主體與AI智能體身份協(xié)作的新路徑。

      在人類出版主體與AI智能體共同參與出版流程時,會形成人機協(xié)作的“復合責任體”,這一體制在推動技術與內容創(chuàng)新融合(如AI輔助生成創(chuàng)意作品)的同時,也引發(fā)責任歸因不清的問題。為此,設計責任推理機制至關重要,它為確保多主體責任的合理分配和承擔提供系統(tǒng)化的解決方案。倫理責任應根據(jù)出版流程的不同階段和任務,在人類主體和AI智能體間動態(tài)分配。例如,編輯內容的原創(chuàng)性由人類主體負責,算法推薦過程的偏差需由AI智能體承擔解釋責任。在實施上,基于“共擔責任”原則[20],要求AI智能體具備可解釋性、透明性和可追溯性,確保其決策過程是人類出版主體可以理解的。在決策過程中,AI智能體不僅要以人類能理解的語言呈現(xiàn)道德推理和決策邏輯,還需提供清晰證據(jù)鏈,以證明其決策的合理性,從而增強責任推理過程的可信度。當AI智能體的行為導致不良后果時,應通過補償人類出版主體來確定責任歸屬,并通過補償體驗來確認AI智能體責任承擔的有效性和真實性[21]。通過這一機制,智能出版的倫理責任得以明確分配,不僅能規(guī)避標準論中自主性、意向性以及感受性等屬性不足的問題,還可以彌合抽象論中責任歸屬、責任承擔斷裂以及負責不徹底等問題。

      以Dreamwriter為例,這是一款由騰訊研發(fā)的智能寫作助手系統(tǒng),通過大數(shù)據(jù)和算法生成新聞稿件。其功能雖然高效,但在某次版權侵權訴訟中暴露了責任歸屬的復雜性。在這一案件中,法院認定由Dreamwriter生成的內容屬于著作權法保護的文字作品。判決考慮到人類主創(chuàng)團隊在內容生成過程中的智力貢獻,認為其并不單純依賴Dreamwriter的自動化生成能力。這一案例體現(xiàn)了生存主體間性在智能出版中的應用:AI技術在內容生成中承擔技術角色,人類主創(chuàng)團隊則對內容質量和法律合規(guī)性負責,從而形成技術與人文協(xié)作的共生關系。盡管AI技術負責內容生成,責任歸屬卻不能單純歸于技術本身,應綜合考慮騰訊公司、主創(chuàng)團隊以及軟件開發(fā)者等多方的貢獻與責任。

      在生存主體間性的合作基礎上,各主體需通過建立透明的算法監(jiān)管機制和多方協(xié)商平臺,既追求短期共生效益,又實現(xiàn)更長遠的倫理責任共擔。這種合作關系為倫理主體間性提供了實踐支持,通過責任推理和倫理責任共擔,確保各方在行動中遵循共同的道德規(guī)范,避免道德沖突和不公平現(xiàn)象。

      四、倫理主體間性:智能出版?zhèn)惱硪?guī)范共建的道德力量

      智能出版的倫理主體間性是指在出版生態(tài)中,各主體通過協(xié)商參與倫理標準的建設與實施,以應對新技術與新場景下的倫理挑戰(zhàn),共同構建動態(tài)適應的智能出版?zhèn)惱硪?guī)范體系。在倫理決策與行為中,各主體需共同遵守以下核心倫理規(guī)范:首先,確保出版內容的合法性與道德性,如保護知識產(chǎn)權和尊重隱私權;其次,避免傳播虛假或有害信息;最后,建立協(xié)商機制以解決出版過程中可能出現(xiàn)的倫理沖突??傮w來看,倫理與道德在概念上具有共時態(tài)的互釋性,即二者可在實踐中相互補充[22]。在智能出版中,這種關系有助于平衡技術發(fā)展與社會價值,從而推動更加公正合理的出版生態(tài)建設。這一過程有助于確保智能出版在技術進步和社會變革中的倫理適應性。

      倫理智能體是指具備倫理或道德決策能力的AI系統(tǒng),其行為能夠自適應倫理規(guī)范。在智能出版中,倫理智能體通過算法分析與實時決策,主動應對版權保護、隱私維護等技術應用中的倫理風險。這種能主動適應倫理規(guī)范并作出道德判斷的倫理智能體[23],可被視為智能出版中的新型主體,其在行業(yè)健康發(fā)展及內容合規(guī)性上發(fā)揮關鍵作用。然而,倫理智能體的應用也面臨諸多風險。例如,其決策透明度不足可能導致公眾無法判斷其行為是否符合公認倫理原則,這會削弱公眾對智能出版的信任,進而影響行業(yè)的公信力。又如,倫理智能體在處理個人隱私、知識產(chǎn)權等敏感信息時,可能因技術缺陷或算法偏見而泄露隱私或侵犯權益,對用戶隱私和出版合規(guī)性構成威脅。

      Moor將倫理智能體分為四類:倫理影響智能體(Ethical Impact Agents),負責間接影響內容傳播;隱式倫理智能體(Implicit Ethical Agents),考慮倫理因素但不顯現(xiàn)決策過程;顯式倫理智能體(Explicit Ethical Agents),明確展示倫理決策邏輯;完全倫理智能體(Full Ethical Agents),具備獨立倫理判斷能力[24]。結合智能出版場景,各類智能體在不同環(huán)節(jié)(如內容篩選、個性化推薦、復雜審核)中發(fā)揮相應作用。我們可以進一步明晰智能出版流程中各倫理主體基于算法程序設計規(guī)制的互動關系:在智能出版中,倫理影響智能體通過初步篩選和推薦間接影響信息傳播;隱式倫理智能體則注重深度加工和個性化推薦,但其決策過程對用戶不可見;顯式倫理智能體的倫理決策明確且可見,負責復雜任務如內容審核等,能夠主動解決倫理問題;完全倫理智能體具備全面的倫理判斷能力,是倫理智能體的高級形式,能與人類出版主體及監(jiān)管機構深度協(xié)作,共同應對倫理挑戰(zhàn)。然而,這類倫理智能體的發(fā)展目前仍處于初級階段,需要更多的研究和實踐來完善其功能。

      在快速變化的技術環(huán)境中,智能出版中的倫理與道德界限可能變得模糊。智能出版主體通過整合個體的道德敏感性與社會公認的倫理規(guī)范,構建動態(tài)道德決策機制。這種機制可應用于出版流程的關鍵環(huán)節(jié),如版權保護與隱私維護,從而提升整體道德水平?;诖?,在智能出版的道德決策機制共建過程中,倫理智能體的行為不應僅僅受限于編程和算法,還應當在倫理和道德框架內進行自我調整和學習。美德倫理的“邊學邊做”(learning by doing)過程與強化學習(reinforcement learning)理論有著天然的契合性,尤其在處理道德和倫理決策情境方面。強化學習作為一種機器學習方法,其核心在于倫理智能體在特定狀態(tài)下通過在具體環(huán)境(environment)中執(zhí)行行動(action),并與環(huán)境交互后產(chǎn)生新狀態(tài),進而獲得獎勵(reward)[25],以此不斷優(yōu)化自身的性能。這一過程可類比人類在道德情境中的行為選擇和后果評估。

      在智能出版中,狀態(tài)模塊對應道德認知環(huán)節(jié),如識別版權合法性或內容敏感性等問題,這一模塊作為決策基礎,通過環(huán)境交互不斷優(yōu)化。AI智能體不僅應預設需要識別和處理的問題,如版權合法性、內容真實性與敏感性等,還應具備通過與環(huán)境交互自主學習的能力。行動模塊則對應道德行為,AI智能體基于道德認知狀態(tài)在出版過程中采取具體行動。例如,當檢測到版權問題時,它可以選擇延遲發(fā)布、通知人類編輯審核,或直接拒絕發(fā)布內容。獎勵模塊用于調節(jié)道德認知,AI智能體根據(jù)其行為對出版?zhèn)惱砟繕说挠绊懌@得正向或負向獎勵。例如:倘若其成功避免出版活動中的法律風險將獲得正向獎勵,增強類似情境中的行為傾向;倘若其決策引發(fā)道德爭議或法律問題,負向獎勵將促使其調整策略,減少此類行為的發(fā)生。環(huán)境模塊則對應道德情境,即AI智能體必須在考慮社會、文化和法律背景的基礎上操作,確保出版內容符合多樣化的倫理標準。

      目前,多種專業(yè) GPT的集成與應用展現(xiàn)了道德決策機制的運作過程,這將極大地影響智能出版流程。在道德合規(guī)定制方面,AthenaGPT遵循特定道德準則,確保高效運行并符合道德規(guī)范,同時具備了解決復雜道德困境的決策框架。在增強創(chuàng)作過程中,Super Hero RatioGPT遵循黃金比例,結合藝術美感與道德標準,創(chuàng)作出既美觀又符合倫理要求的藝術作品。在人類價值觀方面,Golden RatioGPT專注于包容性圖像創(chuàng)作,反映多元文化和價值觀,確保視覺內容的文化敏感性。在商業(yè)運營方面,Topical Authority Advisor和GBP-AI設定了道德內容創(chuàng)作的新標準,倡導透明、公平與尊重的數(shù)字環(huán)境。但我們也要注意,AI智能體的不斷發(fā)展要求我們在創(chuàng)新過程中優(yōu)先考慮道德問題與技術進步的平衡。為此,技術專家、AI開發(fā)人員、政策制定者、倫理學家及公民等各界人士應協(xié)力整合符合倫理規(guī)范的AI智能體,確保其創(chuàng)新與發(fā)展始終以增進人類福祉為核心,從而促進智能出版行業(yè)的健康發(fā)展。

      雖然倫理主體間性強調道德規(guī)范的協(xié)商與共建,但其真正價值在于通過實踐主體間性予以落實,即在具體出版流程中將倫理原則轉化為可操作的行為規(guī)范。將倫理標準應用到每一個出版環(huán)節(jié),確保每個決策和行動都遵循道德原則,是智能出版領域內實現(xiàn)倫理共識的關鍵步驟。

      五、實踐主體間性:智能出版?zhèn)惱韮r值對齊的具體落實

      智能出版的實踐主體間性是指出版過程中,各主體在將認知轉化為行動的實踐中形成的動態(tài)互動關系,涵蓋內容策劃、編輯校對、排版設計及營銷推廣等環(huán)節(jié)。每一主體既是實踐活動的貢獻者,又是責任承擔者。各主體需在認知、行動、決策及責任分擔上協(xié)同配合,并通過持續(xù)互動與反饋優(yōu)化出版流程,從而提升出版物的質量與效率。這一過程不僅是出版實踐中協(xié)同效應和整體效應的體現(xiàn),還是智能出版生態(tài)系統(tǒng)持續(xù)發(fā)展的關鍵。

      在智能出版實踐中,內容創(chuàng)作、審核、發(fā)布及消費等多個環(huán)節(jié)需確保AI智能體的決策邏輯與人類出版主體的倫理價值觀相一致,以實現(xiàn)倫理價值對齊并確保出版內容的合規(guī)性和社會接受度。倫理價值對齊(value alignment)是指通過技術設計將人工智能的行為邏輯與人類倫理價值觀協(xié)調一致,確保倫理原則在出版實踐中得以具體實現(xiàn)。但是,在以目標為導向的倫理價值對齊過程中,亟須解決的仍是多主體超邏輯關系問題和人機融合問題。當前倫理價值對齊面臨多重挑戰(zhàn),包括人機做事邏輯的差異、數(shù)據(jù)邏輯與非數(shù)據(jù)邏輯間的契合,以及多智能體間溝通的不兼容性等。因此,倫理價值對齊不僅要實現(xiàn)對技術道德化的轉化,還需從哲學層面審視其前提條件,以更好地解決智能出版中的倫理價值一致性問題,探索可行的實踐路徑。

      為了應對上述問題,技術倫理學者如溫德爾·華萊士(Wendell Wallach)、香農(nóng)·沃倫(Shannon Vallor)和伊森·加布里埃爾(Iason Gabriel)指出,單一的價值對齊路徑存在局限。具體而言,“自上而下”路徑通過預設規(guī)則賦予智能體道德框架,但可能因道德原則間的不一致引發(fā)沖突;“自下而上”路徑則依賴系統(tǒng)學習,但其學習過程的不透明性與不同道德偏好的存在使其面臨挑戰(zhàn)。因此,考慮到智能出版?zhèn)惱盹L險的復雜性,采用 “自上而下”與“自下而上”的混合路徑尤為關鍵?;旌下窂浇Y合明確的價值導向與靈活的學習機制,在為AI智能體提供道德框架的同時,可提升其適應復雜倫理情境的能力。通過這種方式,各實踐主體的利益沖突和道德分歧可以得到有效協(xié)調,促進各方在共同的倫理價值目標下協(xié)作,從而更好地應對智能出版領域的倫理挑戰(zhàn)。

      具體而言,人類出版主體結合自身偏好,通過下指令、傳達價值準則和基本價值觀,來“自上而下”地賦予AI智能體必要的道德原則,智能體則需通過實際操作中的經(jīng)驗積累,不斷試錯、調整和修補,實現(xiàn)道德習得[26],以適應系統(tǒng)實際需求。這一過程需引入基于人類反饋的強化學習(reinforcement learning from human feedback, RLHF)大模型,以推動自上而下的指導。其中,強化學習使AI智能體在與環(huán)境交互中學習并優(yōu)化行為策略,人工干預則確保人類價值觀念能持續(xù)引導和校正AI智能體的學習方向。未來,多智能體應用于智能出版將是大勢所趨,它們需從大數(shù)據(jù)中學習倫理原則,并以此來指導自身的決策和行為。但是在倫理學范疇中,不同的規(guī)范間可能存在沖突,或存在于單一智能體內部,或存在于不同AI智能體之間[27]。這需要依據(jù)特定標準構建智能體倫理判斷模型,輔助AI智能體完成自下而上的學習過程,即從認知(Awareness)、評估(Evaluation)、美德(Goodness)和正確(Rightness)[28]等四個維度全面評估多個AI智能體在智能出版實踐中的倫理行為,以解決潛在的沖突。

      騰訊AI實驗室開發(fā)的“TRANSAGENTS”多智能體框架系統(tǒng),通過模擬翻譯公司的實際運作,結合智能體與人類專家的協(xié)作,提升翻譯任務的效率和質量。該系統(tǒng)涵蓋高級編輯、初級編輯、翻譯、本地化專家及校對員等多種角色,他們各司其職,協(xié)同提升翻譯品質。該系統(tǒng)通過“自上而下”的指導模式賦予智能體道德原則,確保每個智能體職責明晰,且均遵循嚴格的道德規(guī)范。各智能體被編程以恪守特定的倫理準則,如尊重原文風格與文化背景,同時靈活適應目標語言習慣,從而保障譯文的精準性與全面性。此外,智能體還具備“自下而上”的學習模式,它們會依據(jù)用戶與同行的反饋調整翻譯策略,不斷優(yōu)化自身行為以更貼合倫理與質量標準。同時,通過觀摩人類編輯的決策流程,智能體還能習得處理復雜或邊緣內容的方法。當面臨特別復雜或敏感的翻譯難題時,智能體還會及時提示人類編輯介入,通過人機協(xié)作來確保決策的倫理性和準確性。

      實踐主體間性要求各主體在出版實踐中既遵循既定倫理規(guī)范,又通過反饋機制動態(tài)調整這些規(guī)范,如依托用戶反饋優(yōu)化推薦算法,確保出版決策符合多樣化倫理標準,從而推動智能出版生態(tài)的持續(xù)完善。

      六、結語

      智能出版的倫理共治問題,本質上是不同主體在面對復雜倫理問題時,通過互動與協(xié)作達成共識、形成有效的治理關系。在智能出版中,各主體需協(xié)同應對倫理挑戰(zhàn)。認知主體間性的缺失會妨礙對潛在倫理風險的識別和分析;生存主體間性的缺失則削弱協(xié)作基礎,阻礙共同目標的實現(xiàn);倫理主體間性的缺失容易導致主體沖突,使治理變得混亂;實踐主體間性的缺失會使理論難以轉化為實際行動,從而影響治理成效。因此,智能出版中的相關主體只有在理性(技術與倫理的邏輯一致性)、道德(對普遍倫理原則的認同)、目標(出版內容合法合規(guī))和價值(社會效益優(yōu)先)等四個層面達成共識,才能有效實現(xiàn)倫理共治。

      面對深度科技化時代的不確定性,技術開發(fā)人員在AI智能體的設計與開發(fā)過程中,應從倫理視角出發(fā),通過多方對話反思潛在倫理問題,并將結果貫穿于AI研發(fā)生命周期,以推動智能出版的科技向善。同時,智能出版的各方主體還需要關注多維主體間性的互動與平衡,持續(xù)優(yōu)化技術與倫理框架,進一步研究AI倫理智能體在跨文化出版中的適應性問題,以共同推動智能出版的高質量發(fā)展。

      |參考文獻|

      [1]孜里米拉·艾尼瓦爾. 聚焦“5G+智能”時代:數(shù)字出版著作權法治理困境及應對[J]. 科技與法律(中英文),2022(2):88-97.

      [2]劉寧,周宇豪. 智能出版的技術圖景:產(chǎn)業(yè)鏈、倫理困境與紓解路徑[J]. 出版廣角,2023(19):54-58.

      [3]吳漢東. 人工智能生成作品的著作權法之問[J]. 中外法學,2020(3):653-673.

      [4]趙延東. 解讀“風險社會”理論[J]. 自然辯證法研究,2007(6):80-83.

      [5]楊利利,馮子龍. 智能出版技術風險的責任倫理困境及其出場路徑[J]. 科技導報,2023(7):63-70.

      [6]丹·扎哈維. 胡塞爾現(xiàn)象學[M]. 李忠偉,譯. 北京:商務印書館,2022.

      [7]魏錦京,衣永紅. 主體際哲學:當代哲學的重要轉向[J]. 人民論壇,2016(20):114-116.

      [8]米麗娟. 主體間性視閾下交往行為的合理性與和諧社會建構[J]. 重慶大學學報(社會科學版),2014(6):178-183.

      [9]宋春艷. 人機融合智能的自我意識與交互主體性[J]. 倫理學研究,2023(5):115-120.

      [10]驍克. 論人工智能法律主體的法哲學基礎[J]. 政治與法律,2021(4):109-121.

      [11]鄭文革. 人工智能法律主體建構的責任路徑[J]. 中國應用法學,2022(5):221-231.

      [12]陸幸福. 人工智能時代的主體性之憂:法理學如何回應[J]. 比較法研究,2022(1):27-38.

      [13]秦越. 人工智能作曲的“擬主體性”特征研究[J]. 音樂創(chuàng)作,2023(5):150-157.

      [14]壽步. 人工智能領域倫理主體agent(行為體)的追本溯源[J]. 自然辯證法通訊,2023(12):10-17.

      [15]帕特里克·林,凱斯·阿布尼,喬治·A. 貝基. 機器人倫理學[M]. 薛少華,仵婷,譯,北京:人民郵電出版社,2021.

      [16]LEBEN,D. Ethics for Robots:How to Design a Moral Algorithm[M]. London:Routledge,2018.

      [17]阮超群. 論主體間性視野下黨的群眾路線[J]. 安徽師范大學學報(人文社會科學版),2013(3):328-333.

      [18]李唯梁,石亮. 作為解釋環(huán)節(jié)的出版研究:“深度解釋學的方法論架構”的應用[J]. 現(xiàn)代出版,2016(2):8-11.

      [19]李硯祖,張曼,張黎. 人工智能何以成為新的“認知主體”:具身認知的可能性與資格賦予[J]. 藝術生活-福州大學學報(藝術版),2020(5):33-37.

      [20]發(fā)展負責任的人工智能:新一代人工智能治理原則發(fā)布[EB/OL] . (2019-06-17)[2024-11-06]. https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.

      [21]王樂. 人工智能體的負責困境及其關系式出路新解[J]. 東北大學學報(社會科學版),2024(5):15-22.

      [22]李建華. 倫理與道德的互釋及其側向[J]. 武漢大學學報(哲學社會科學版),2020(3):59-70.

      [23]CERVANTES JA,LóPEZ S, RODRíGUEZ LF,etal. Artificial Moral Agents:A Survey of the Current Status[J]. Sci Eng Ethics,2020(2):501-532.

      [24]MOOR J H.The nature,Importance,and Difficulty of Machine Ethics[J]. IEEE Intelligent Systems,2006(4):18-21.

      [25]王亮. 人工智能體道德設計的美德倫理路徑:基于道德強化學習[J]. 自然辯證法研究,2022(10):56-62.

      [26]胡盛瀾. 人工情感智能體的道德賦能問題探析[J]. 自然辯證法研究,2023(2):74-80.

      [27]廖備水. 論新一代人工智能與邏輯學的交叉研究[J]. 中國社會科學,2022(3):37-54.

      [28]古天龍,李龍. 倫理智能體及其設計:現(xiàn)狀和展望[J]. 計算機學報,2021(3):632-651.

      丹棱县| 佛冈县| 印江| 巫溪县| 维西| 济宁市| 宁安市| 同仁县| 石泉县| 若尔盖县| 突泉县| 左贡县| 贵溪市| 西乌| 启东市| 简阳市| 宕昌县| 东乌珠穆沁旗| 衡阳县| 梅河口市| 大渡口区| 涿鹿县| 台中市| 莎车县| 武邑县| 巴林右旗| 灵川县| 高陵县| 宣威市| 北海市| 滦平县| 兴和县| 新野县| 揭西县| 杨浦区| 垫江县| 原平市| 玉田县| 临澧县| 罗城| 蓝田县|