• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      ChatGPT本土化背景下人工智能人格屬性的規(guī)制范式

      2023-06-07 17:20:28張凱雯宋怡欣
      青島職業(yè)技術學院學報 2023年4期
      關鍵詞:服務提供者法人規(guī)制

      張凱雯,宋怡欣

      (1.上海立信會計金融學院 外國語學院,上海 201600;2.上海電機學院 商學院,上海 201306)

      ChatGPT作為一種智能聊天機器人2022年初興之后便在全球被廣泛使用,亦受到了政府在監(jiān)管層面的關注??梢哉f,ChatGPT軟硬件技術的快速發(fā)展所帶來的必然結果,就像互聯(lián)網(wǎng)的發(fā)展一樣只能順應而無法回避??梢灶A見的是,AI技術的快速發(fā)展必然會被應用于更多的領域,且國內的相關產業(yè)也必然會得到快速發(fā)展,那么如何促進這一人工智能技術的有序發(fā)展就顯得非常重要。2023年4月11日國家網(wǎng)信辦出臺的《生成式人工智能服務管理辦法(征求意見稿)》第三條明確提出了國家對人工智能算法、框架等基礎技術產業(yè)發(fā)展的支持態(tài)度?;诖?關于人工智能信息安全的立法就必須同時開始著手加以完善。

      一、ChatGPT的主要特征

      ChatGPT的思維具象化特征使人工智能與自然人這一概念變得越來越模糊。傳統(tǒng)意義上的信息技術僅作為一種工具被人使用以創(chuàng)造價值,因此,目前我國各類關于信息網(wǎng)絡的立法皆將個人或其所形成的組織作為規(guī)制主體,并將人工智能作為一種工具使其客體化。然而,ChatGPT的到來使工具能夠和人進行自主意識層面的自動交流,甚至能夠根據(jù)與其交流主體的互動思維活動進行一定意義上有意識的自主化行為,因此,對人工智能的工具屬性及人格屬性有必要進行重新厘定。

      (一)基于大數(shù)據(jù)驅動的自主算法進化能力使人工智能完成了從具象思維到抽象思維的演進

      20世紀80年代,錢學森提出:“人所具有的形象思維、邏輯思維和靈頓思維能力構成了人對于世界進行自主改造的過程?!盵1]計算機作為一種運算工具能夠實現(xiàn)具象化思維,人工智能的主要區(qū)別在于通過模型實現(xiàn)了從具象化到抽象化的思維跨越,即ChatGPT將思維過程以大數(shù)據(jù)驅動的自主算法改進進行了重構:與傳統(tǒng)數(shù)據(jù)處理相區(qū)別,ChatGPT通過采用遞歸神經(jīng)網(wǎng)絡模型實現(xiàn)了共識節(jié)點的自適應性,完成了人工智能對無監(jiān)督學習數(shù)據(jù)的理解。從性質上看,思維具象化是人創(chuàng)造性的來源,通過不斷改造世界的過程加深對世界的認識,進而提升自我意識能力,當這一過程被人工智能塑造為現(xiàn)實世界的模型化后,繼而從新的維度構建了其邏輯模式。

      (二)基于從多媒體數(shù)據(jù)處理向跨媒體數(shù)據(jù)融合、演進、檢驗和評價過程形成了人工智能所獨有的實用主義知行觀

      實踐不僅是檢驗真理的唯一標準,也是思維的主要來源。數(shù)據(jù)處理能力的提升使人工智能可以從多個維度理解現(xiàn)實世界,從而實現(xiàn)虛擬世界與現(xiàn)實世界的接軌,這一過程最終會使人工智能具有實踐能力,并以此為基礎進一步拓展其思維。當代人工智能所具有的實踐能力并非僅僅來自于互聯(lián)網(wǎng)的模型與算法的提升,已經(jīng)有數(shù)據(jù)表明隨著ChatGPT服務的拓展,其問題處理能力正得到飛速的發(fā)展。當人工智能能夠脫離自然人的思維控制,便意味著其所具有的思維能力將與其實踐能力相結合形成新的主體結構。傳統(tǒng)的計算技術是自然人作為行為主體對輔助計算機工具的運用而實現(xiàn),本質上不能超越人類的邏輯范疇。人工智能的發(fā)展源于當代數(shù)學理論的進步,隨著標準邏輯、模糊數(shù)學的發(fā)展,人工智能可以實現(xiàn)從單純的邏輯運算轉向對不可測事件的處理,通過思維與實踐的統(tǒng)一實現(xiàn)自身的獨立。

      (三)基于互聯(lián)網(wǎng)所形成的群體智能使人工智能得以形成區(qū)別于傳統(tǒng)自然人智慧的群體性智慧

      人工智能通過遞歸網(wǎng)絡模型所實現(xiàn)的思維模式并不與傳統(tǒng)意義上的思維獨立完全一致,基于其大數(shù)據(jù)基礎而形成的網(wǎng)絡化思維能力甚至有超越自然人思維能力的潛力。與傳統(tǒng)軟件開發(fā)相區(qū)別,自從ChatGPT于2018年上線以來更強調其對信息的收集與處理能力,最初OpenAI團隊僅對其進行語言訓練,后逐步開始進行長序列數(shù)據(jù)輸入的培養(yǎng)。隨著功能的進化第二代的AI開始對其濫用進行規(guī)制,避免其造成不良的社會影響。第三代ChatGPT則進一步提升了對自然語言處理等技術,進而使系統(tǒng)可以分析用戶的言論和情感。通過不斷訓練與實踐,目前第四代ChatGPT已經(jīng)可以開始對圖像、聲音等進行理解運用,僅就其發(fā)展方向可以看出,該系統(tǒng)的學習能力已經(jīng)大大超過了普通人的學習能力。

      二、人格屬性規(guī)制下的制度成本

      在現(xiàn)行法律框架下人工智能服務提供者是人工智能治理的核心。雖然信息網(wǎng)絡早在20世紀90年代就引入了我國,但對于信息產業(yè)的立法規(guī)制從本世紀才開始。2000年頒布的《全國人民代表大會常務委員會關于維護互聯(lián)網(wǎng)安全的決定》更多從刑事犯罪的角度為各種網(wǎng)絡行為劃定了紅線,其所針對的是不特定主體的普通公民,沒有具體的網(wǎng)絡活動規(guī)制客體。2010年之后,隨著網(wǎng)絡的全面普及以及電子商務的快速發(fā)展,我國的網(wǎng)絡立法也進入了快車道。2012年頒布的《全國人民代表大會常務委員會關于加強網(wǎng)絡信息保護的決定》對網(wǎng)絡行為的規(guī)制重點從刑事角度轉向了民事、行政角度,更多地聚焦于普通公民的網(wǎng)絡使用行為。2016年出臺的《中華人民共和國網(wǎng)絡安全法》則側重于建立完善的網(wǎng)絡安全環(huán)境,明確了作為網(wǎng)絡運營核心主體網(wǎng)絡運營者的各項網(wǎng)絡安全義務。2018年出臺的《中華人民共和國電子商務法》更加具體地從電子商務經(jīng)營者、合同的訂立與履行以及電子商務爭議解決等角度開始對網(wǎng)絡安全問題進行細化規(guī)范,并在此基礎上出臺了《中華人民共和國密碼法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》,以完善上述商業(yè)活動中對普通公民合法權益的保護。上述規(guī)則所規(guī)制的對象分別是密碼管理主體、數(shù)據(jù)安全運維主體和個人信息收集主體。從趨勢上看,信息網(wǎng)絡的安全立法已經(jīng)逐步由泛社會性規(guī)制轉向了以商經(jīng)法為藍本的主體權利保護與社會責任架構,這一趨勢順應了當代法律制度發(fā)展的一般規(guī)律。

      社會規(guī)則由“自然人”向“對象性的人”的轉變架構成了現(xiàn)代法律制度規(guī)制對象的基石。作為生命活動是否應該被法律所約束本身并不應該基于其生命形式作為考量的基礎,而應該以其是否具有自身意識以及這一意識是否可能產生社會影響進行考量。由于人工智能具有比較高的智能化水平,因此,對其主體屬性的界定應早于規(guī)則的制定。而如果將人工智能視為能夠產生意識的主體,是否將其納入可被法律所規(guī)制的范圍就應審視其意識及由此表現(xiàn)的行為是否具有社會屬性。

      現(xiàn)行制度下對人工智能的管理主要針對人工智能提供者進行規(guī)范?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》將人工智能界定為一種由其提供者開發(fā)的服務功能,繼而以人工服務提供作為法律規(guī)制的對象對算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務等行為進行規(guī)制,這一規(guī)制模式將人工智能的服務提供者作為規(guī)制主體,在此思路下人工智能服務者承擔產品責任。之所以進一步根據(jù)我國現(xiàn)行的產品責任立法這一責任主要是確認責任,即作為人工智能服務的提供者只要人工智能造成了損害就應該承擔其責任,無論是否在開發(fā)行為中存在過錯。這一規(guī)定在現(xiàn)有法律框架下回避了ChatGPT的人工智能屬性,即將人工智能的行為視為一種工具性服務行為,從短期看能夠很好地和現(xiàn)有法律體系接軌并對現(xiàn)有的規(guī)則進行充分利用。我國以自然人為核心的產品責任體系已經(jīng)十分成熟,在這一規(guī)定之下所涉及的不僅包括《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等,還包括《民法典》《刑法典》《中華人民共和國消費者權益保護法》《中華人民共和國產品質量法》等一系列基礎法律關系。該規(guī)則通過對現(xiàn)有制度的充分利用能夠最大限度地降低制度的司法與執(zhí)法成本,且由于目前從功能上看以ChatGPT為代表的人工智能僅具有初步的文字編輯輸出功能,因此,將該服務的提供者作為責任主體來承擔主要責任是適當?shù)摹?/p>

      然而,從長期看,人工智能意識行為的社會屬性又有可能提高制度的運行成本。ChatGPT作為一種人工智能的集合體由專業(yè)的商業(yè)團隊實施開發(fā)最初定位,即面向信息網(wǎng)絡的不特定主體開放并解決各類問題。但任何一種新程序的導入都促使其能力得到快速提升,隨著人工智能產業(yè)的發(fā)展,這一過程將會形成規(guī)模效應,擴大的人工智能市場會有更多程序員參與到行業(yè)競爭,各種數(shù)據(jù)、模型、架構的匯聚最終會形成規(guī)模經(jīng)濟效益,其自身的學習速度與能力將以信息網(wǎng)絡為依托,遠遠超過在現(xiàn)有法律框架下普通“自然人”的成長速度。人工智能軟件發(fā)展本身即是一個與社會交互發(fā)展的過程。從其應用的角度看,ChatGPT雖然目前僅僅是一款文字編輯輸出功能的軟件,但從國內的使用現(xiàn)狀看已經(jīng)被應用于多領域,如:程序代碼編輯、設計金融模型、3D圖像制作等,未來勢必會有一些行業(yè)被人工智能所參與。隨著人工智能自主意識的提升與其所參與行業(yè)的發(fā)展,現(xiàn)有的以其提供者為權利義務核心的法律制度將產生邏輯上的悖論:雖然人工智能的提供者在一定程度上對其具有開發(fā)與運營具有責任,但在其實際運營過程中基于人工智能思維邏輯的社會性并不一定完全能夠根據(jù)開發(fā)者最初的設定發(fā)展,否則其只能被視為一種工具,甚至基于其驚人的大數(shù)據(jù)處理能力與自我意識能力,其運行很可能無法完全被開發(fā)者所控制,在這種情況下如果再將人工智能作為一種簡單的工具來界定就會導致規(guī)則上的權責不一。從服務提供者的角度看雖然人工智能由其提供,但基于產品自身的社會性思維并且同時會受到服務使用者的影響,由其完全承擔責任并不適當;而若將ChatGPT等人工智能產品視為獨立的法律責任主體,其擁有著超越普通人的智慧與信息收集能力在現(xiàn)有規(guī)則框架下卻完全無需對其行為承擔責任;從產品使用者的角度看,基于其與人工智能服務的人機交互關系亦不能完全排除其責任,對單一產品的使用很可能形成網(wǎng)絡效應而擴張其影響。

      三、人格屬性法人治理的審視

      除了通過現(xiàn)行法律制度對人工智能進行規(guī)制,亦可從法人制度的角度對人工智能的法律關系進行審視?,F(xiàn)代意義上的法人制度被廣泛應用于公司制度,但若對法人制度的發(fā)展進行考量不難發(fā)現(xiàn),法人制度的演進是一個制度與社會生產力發(fā)展相適應的過程。法人制度起源于古羅馬法,在最早期的《十二表法》中“羅馬共同體”以國家的形式成為了公法意義上的法人從而可以與公民相區(qū)分[2],之后伴隨著羅馬帝國社會的發(fā)展與生產力的進步,私人團體逐步擁有了作為私法人的法律地位[3],后隨著基督教的興起以教區(qū)為核心的政治團體在公法意義上更加明確了其對財產的所有權[4],后期的日耳曼法進一步形成了以土地所有制為基礎的馬爾克公社法人體制[5]。從中不難發(fā)現(xiàn),法人制度是為社會生產力的發(fā)展而服務的:當生產力的發(fā)展要求某種經(jīng)濟實體具有較為穩(wěn)定的社會地位從而使其能夠持續(xù)地創(chuàng)造社會財富時,通過賦予這一主體法人地位,一方面可以更好地處理該主體與社會各方的權利義務從而促使其發(fā)展;另一方面,也可使這一主體獨立出現(xiàn)行法律框架從而根據(jù)其自身特征創(chuàng)設規(guī)范。以公司法為例,通過賦予公司獨立的法人地位,一方面明確了公司內部權力架構與資本架構;另一方面,也通過破產法等相關制度明確了公司、股東、債權人之間的各類關系。從ChatGPT發(fā)展的歷史意義考量,當代社會是以信息技術作為生產力發(fā)展的核心,因此,若法人制度可以使人工智能的發(fā)展更加適應社會需求,就有其制度融合的可能性。

      若將以ChatGPT為代表的人工智能視為一種新的生產方式,首先應審視其自身的行為能力。從應然法的角度考量行為能力是判斷自然人行為能否被社會法所認同的標準之一,人工智能在人格屬性上與社會法意義上的自然人行為能力既存在著區(qū)別也存在著共性。現(xiàn)階段人工智能在智能程度、情感意識、自我意識等方面還無法與自然人相比,但由于其人工智能屬性,其在行為模式、決策模式等方面確實與自然人的行為模式有著相似之處,甚至在某些方面,如:數(shù)據(jù)處理、多線程運算等方面,已經(jīng)遠遠超越了自然人的行為能力。相比于行為能力更為重要的另一個標準則是責任能力,從實然法的角度責任能力是主體是否能夠在法律上具有獨立人格的關鍵。主體是否能夠創(chuàng)造收益并以此作為積累才是其能否形成獨立責任能力的關鍵。從ChatGPT作為一種人工智能的發(fā)展看,短期內不僅被廣泛使用,還產生了巨大的經(jīng)濟效益,而正是這一經(jīng)濟效益能夠很好地與現(xiàn)代法人制度相契合。在現(xiàn)行體制下人工智能不具有法人地位而無法擁有獨立的財產權利,因此,其社會責任完全由其服務提供者所承擔,人工智能的社會風險盡由其服務提供者所承擔。人工智能作為一種擁有獨立意識的個體在其創(chuàng)造財富的同時,如果能夠擁有與其社會責任相適應的財富,則可大大降低由于技術進步所帶來的潛在風險。

      對人工智能社會管理的法制化訴求亦是推動其實施法人制度的動因。人工智能的發(fā)展是計算機語言與人類語言逐步實現(xiàn)一致性的過程,與此相對應的是從“弱人工智能”向“強人工智能”的發(fā)展,這一標準更多地體現(xiàn)為人工智能自我意識的形成與獨立性,從趨勢上看未來人工智能的發(fā)展必定以人工智能自我意識獨立性的程度為標準,而現(xiàn)階段ChatGPT僅能夠與服務對象進行簡單交流,從而與我國對人工智能的管理思路相契合的。根據(jù)《生成式人工智能服務管理辦法(征求意見稿)》第六條人工智能本身應該實施注冊制度無可厚非,但其背后的法理性質值得商榷:作為一項服務而實施登記后該主體的法律地位如何界定?如何確定其準予登記的標準?又如何明確對其之后的管理規(guī)則?而在法人制度中上述問題的解決似乎變得相對簡單與合理化:將法人作為有法律賦予人格的組織,要求法人根據(jù)法律規(guī)定實施注冊登記制度[6],對人工智能的管理將基于其所擁有的獨立組織型人格結構進行管理,其中不僅涉及到關于人工智能的注冊制度,亦可涉及人工智能的財產與責任制度,甚至在極端情況下當人工智能造成比較大的危害亦可明確其破產制度,更重要的是,在公法與私法的界限上厘清了國家的管理責任與私人經(jīng)營責任。如此諸多問題涉及人工智能未來的發(fā)展幾乎都可以在法人制度中得以探討。

      四、責任法治理結構厘定

      人工智能法人制度要求明確各方之間的權利義務關系,基于高度獨立性的人工智能與人工智能法人制度所契合形成人工智能法人有著獨立的人格意涵獨立財產與獨立責任,繼而要求與其在經(jīng)營服務過程中的其他主體構成性的法律關系,人工智能服務提供者、以法人制度存在的人工智能法人以及人工智能服務的使用者,在私法責任與公法責任兩個維度架構形成不同的社會治理。

      從人工智能服務私法責任的角度看,人工智能服務提供者與人工智能法人共同向人工智能服務接受者承擔責任?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》人工智能服務提供者以產品責任的形式對服務提供者承擔責任,這是因為人工智能的本身排除了其法人屬性,而如果人工智能以人工智能法人形式存在,其就可以成為責任法上的主體。在此情況下,一方面,人工智能可以憑借其法人地位在其日常運營中通過運營服務積累一定的注冊資本向其服務提供者承擔責任,同時,這一責任形式還會因人工智能在日常運營中不斷創(chuàng)造價值所形成的收益權利得以不斷充實,即人工智能法人完全可以通過其自身服務實現(xiàn)其對服務接受者的完全責任。從司法實踐看,很多企業(yè)雖然資不抵債,但是并未被債權人申請破產,原因即在于債權人可以通過法人的未來收益獲償而非殺雞取卵。[7]另一方面,人工智能服務提供者對人工智能的升級、維護、管理等行為亦可作為法人內部的管理行為而獲得一定的報酬,而如果由于人工智能服務給其使用者造成損失,則可由人工智能作為法人的注冊資本先承擔無過錯責任,之后再根據(jù)人工智能服務者在其履行服務過程中是否存在過錯而承擔責任。在無過錯責任原則下,社會總成本與行為人自身所承擔的總成本是相等的,也就是說人工智能所造成的損失將由其自身的社會收益所抵消。

      從人工智能服務公法責任的角度看,基于法人社會責任所形成的社會治理關系要求通過私法主體通過支付其社會成本來抵消其行為所造成的社會成本,基于此,在人工智能服務過程中如果給社會或第三方造成損害,人工智能服務提供者、人工智能法人以及人工智能服務的使用者都應該根據(jù)自身的情況來承擔責任。人工智能作為科技創(chuàng)新所增加的社會福利應該同時被納入公法社會成本的考量,“分配的公平性涉及全部社會福利對社會不同主體配置的正當性”[8]。不同主體之間的責任劃分應根據(jù)其在這一社會生產中的價值進行區(qū)分。一是人工智能法人應從社會福利與社會成本的角度決定是否準許其注冊,繼而在其服務過程中依據(jù)其社會責任決定其所應該負擔的注冊資本額。二是在人工智能獨立法人的框架下服務者行為應該受到監(jiān)督形成其行為規(guī)則。根服務者對其行為是否具有認知能力以及如何認定將是其是否承擔責任的前提;作為人工智能服務的使用者由于其不合法的使用方式亦可能使人工智能成為其侵權工具。隨著信息網(wǎng)絡立法的完善,我國刑法已經(jīng)出臺了幫信罪的相關規(guī)定。人工智能在其服務過程中很有可能成為其使用者實施不當行為的工具而形成安全隱患。[9]因此,一方面,人工智能法人與人工智能服務提供者之間應建立防火墻與預警機制,避免、制止不當行為的發(fā)生;另一方面,應對人工智能服務使用者的使用行為進行約束,并以此確定其責任框架?,F(xiàn)階段,網(wǎng)絡安全主要依據(jù)人工對發(fā)布的信息進行審核[10],而對于信息用戶的各種評論則依然屬于盲區(qū),由此可以看出依然存在比較大的立法漏洞。

      綜上所述,關于ChatGPT的信息安全立法勢在必行。就目前來講,國家關于人工智能問題的立法還處于起步階段,雖然ChatGPT目前僅僅是一項人工智能聊天軟件,但基于其快速的自我學習能力已經(jīng)發(fā)展到了第四代。從最早的協(xié)助撰寫論文到目前已經(jīng)可以幫助編輯代碼甚至3D制圖,那么,隨著這一技術的快速發(fā)展以及所涉及到社會生活的領域擴大,是否有可能對人造成一定的侵害?因此,隨著ChatGPT在我國的本土化,對其的規(guī)制勢在必行。

      猜你喜歡
      服務提供者法人規(guī)制
      法人征訂(新)
      法人(2023年9期)2023-12-01 14:50:14
      法人形象廣告
      法人(2023年9期)2023-12-01 14:50:12
      完善法人治理結構 增強打造世界領先內生動力——中國石化完善法人治理結構的實踐與思考
      中國石化(2021年8期)2021-11-05 07:00:06
      主動退市規(guī)制的德國經(jīng)驗與啟示
      南大法學(2021年4期)2021-03-23 07:56:10
      網(wǎng)絡服務提供者的侵權責任研究
      法制博覽(2020年11期)2020-11-30 03:36:52
      非營利法人破產特殊制度安排研究
      研究生法學(2020年6期)2020-04-13 07:58:42
      論網(wǎng)絡服務提供者刑事責任的歸責模式一一以拒不履行網(wǎng)絡安全管理義務罪為切入點
      保護與規(guī)制:關于文學的刑法
      刑法論叢(2018年4期)2018-05-21 00:44:30
      論網(wǎng)絡服務提供者的侵權責任
      法制博覽(2017年16期)2017-01-28 00:01:59
      論《反不正當競爭法》的規(guī)制范疇
      法治研究(2016年4期)2016-12-01 03:41:40
      耿马| 扎赉特旗| 江陵县| 重庆市| 华池县| 延寿县| 奈曼旗| 图们市| 枝江市| 大连市| 中阳县| 辉南县| 清河县| 开鲁县| 富民县| 威信县| 长顺县| 从化市| 项城市| 修水县| 资源县| 闽侯县| 阿鲁科尔沁旗| 丹阳市| 桃园市| 宜良县| 阿荣旗| 焦作市| 阿拉善右旗| 张家口市| 琼结县| 齐齐哈尔市| 朔州市| 巫溪县| 磴口县| 闽清县| 益阳市| 科技| 长汀县| 绥江县| 丰宁|