• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      論免費開源的人工智能的立法化

      2024-12-28 00:00:00馬琛杰
      經(jīng)濟師 2024年12期

      摘 要:《中華人民共和國人工智能法(學者建議稿)》第九十五條規(guī)定了免費開源的人工智能不適用該法,意味著將其排除在“人工智能法”的規(guī)范之外。雖然免除其法律義務(wù)客觀上能推動人工智能技術(shù)的發(fā)展,但將其完全排除在法律適用的范圍外,將使該條款缺乏立法的合目的性和合規(guī)律性,在真正面臨問題時也缺乏操作性,這將為法律的穩(wěn)定埋下隱患。歐盟《人工智能法案》雖然同樣采取了大范圍免除免費開源的人工智能的義務(wù)的措施,但是在特定領(lǐng)域依舊保持對其適用法律規(guī)范的可能。將免費開源的人工智能納入“人工智能法”的規(guī)范對象之中,采取除外條款的方式進行規(guī)范,并置于第一章內(nèi)或許更具備科學性。

      關(guān)鍵詞:免費開源的人工智能 人工智能法 立法 風險

      中圖分類號:F062.6

      文獻標識碼:A

      文章編號:1004-4914(2024)12-076-03

      人工智能領(lǐng)域的快速發(fā)展需要開源人工智能的助推,尤其是免費開源的人工智能。同時,這也意味著中國人工智能的發(fā)展迫切需要一部規(guī)范性的法律,這不僅是面向現(xiàn)實的需要,也是響應(yīng)時代的號召。美國已經(jīng)在人工智能領(lǐng)域進行了一系列的立法,但始終未直接對免費開源的人工智能加以規(guī)范。2024年1月19日,歐盟委員會、歐洲議會和歐盟理事會共同完成了《人工智能法案》的定稿,該法案明確對免費開源的人工智能予以了規(guī)范。中國也做出相應(yīng)的立法嘗試,《中華人民共和國人工智能法(學者建議稿)》(以下簡稱“建議稿”)于2024年3月16日發(fā)布,邁出了中國人工智能立法的重要一步。在建議稿的第九十五條,將免費開源的人工智能排除在“人工智能法”規(guī)范之外,人工智能如今本身依舊存在諸多問題,即便免費開源的人工智能具有透明度更高、風險更小的特點,但在其他法律應(yīng)對人工智能均存在空白的情況下,不能輕易地放棄對其進行法律規(guī)范。

      一、免費開源的人工智能的風險考量

      (一)免費開源的人工智能的現(xiàn)實風險

      免費開源的人工智能(Open Source AI)是指那些源代碼公開、可供任何人自由查看、使用、修改和分發(fā)的人工智能技術(shù)或工具。相比于一般的人工智能模型,免費開源的人工智能的源代碼是公開的,任何人都可以查看、修改和使用這些代碼。這意味著開發(fā)者可以根據(jù)自己的需求進行定制和優(yōu)化,并且它可以建立社區(qū)支持與協(xié)作,開發(fā)者可以在社區(qū)中交流經(jīng)驗、解決問題,并共享自己的改進和優(yōu)化,從而推動人工智能領(lǐng)域的發(fā)展。

      2024年3月18日,馬斯克宣布將Grok-1免費開源,這意味著Grok-1成為了一款典型的免費開源的人工智能模型,但是Grok-1的智能性和安全性是有待商榷的。首先,該人工智能具有偏好性和情緒化的表達,這意味著此款人工智能模型帶有顯著的體現(xiàn)其開發(fā)人員意識形態(tài)和價值取向的傾向性,從而隱含著被操縱或成為輿論工具的風險;其次,人工智能存在傳授犯罪方法的風險。雖然它的回答尚不具體,但已經(jīng)表現(xiàn)出潛在的傳授犯罪方法的風險;此外,Grok-1還存在輸出內(nèi)容不真實的情況,有學者表示“人們把注意力集中于它似乎具有了自我意識,而忽視了它大量的虛假回答的情況”,還有研究表明,AI生成的回答不僅有虛假的部分,甚至經(jīng)常帶有欺騙性。這充分說明了免費開源的人工智能需要法律規(guī)范。

      (二)免費開源的人工智能具有潛在風險

      建議稿在第二條明確了適用范圍為“在中華人民共和國境內(nèi)從事人工智能開發(fā)、提供、使用活動及其監(jiān)督管理,適用本法。在中華人民共和國境外開展人工智能開發(fā)、提供、使用活動,可能影響中華人民共和國國家安全、公共利益或者個人、組織合法權(quán)益的,適用本法?!痹诘诰攀鍡l中寫到“免費開源的人工智能不適用本法”。這說明了在中國境內(nèi)的人工智能相關(guān)活動原則上適用人工智能法,而在中國境外的人工智能相關(guān)活動在影響國家安全、公共利益或個人、組織合法權(quán)益這樣嚴重情形下適用人工智能法。但即使免費開源的人工智能導(dǎo)致了嚴重的社會問題,也不對其適用人工智能法進行規(guī)范和懲戒,這樣似乎略顯武斷,也為治理免費開源的人工智能留下了隱患。

      免費開源的人工智能處于動態(tài)發(fā)展過程,通過法律進行規(guī)范存在必要性。開源人工智能致力于構(gòu)建一個協(xié)作社區(qū),召集社會人士共同推進人工智能的研究和發(fā)展,這意味著該人工智能依舊處于從研發(fā)走向成熟的階段,這必然是動態(tài)發(fā)展的過程,即使是免費允許多主體合作進行開發(fā)和使用,亦要注意在法律規(guī)范下進行并遵守人工智能開發(fā)者與提供者的義務(wù)規(guī)范,接受監(jiān)督管理,并在違法時相關(guān)人員承擔法律責任。

      (三)自動化下人工智能風險的擴張

      人工智能不僅當前存在現(xiàn)實風險,在未來亦具有潛在隱患,較之以往呈現(xiàn)新的法律問題。免費開源的人工智能中包含了大量的生成式人工智能,其風險超越了過往的判別式人工智能。生成式AI可以整合生產(chǎn)流程中的多個步驟,直接越過人類決策輸出結(jié)果,大大提高了自動化的過程。人工智能的自動化發(fā)展將在消費端和產(chǎn)業(yè)端產(chǎn)生變革式的影響,勢必會引起不可回避的問題。

      生成式人工智能加劇了數(shù)據(jù)隱私與安全問題。該問題集中體現(xiàn)于那些需要大量數(shù)據(jù)進行訓(xùn)練的模型,可能會面臨更高的數(shù)據(jù)隱私泄露風險。由于這些模型需要學習并生成與原始數(shù)據(jù)相似的新數(shù)據(jù),如果這些數(shù)據(jù)包含個人隱私信息,那么這些信息可能會在模型的使用過程中被不當?shù)乇┞?。獨立的信息記錄系統(tǒng)風險較弱,但是一旦通過自動化技術(shù)相互整合和鏈接,便對公民的個人隱私和安全帶來極大的威脅,并且可能導(dǎo)致科技企業(yè)濫用數(shù)據(jù)信息并在信息領(lǐng)域造成一定壟斷。

      生成式人工智能模型具有不透明性并且可解釋性相對難以實現(xiàn)。深度學習模型往往具有高度的復(fù)雜性和不透明性,這使得理解和解釋模型的決策過程變得困難,增加了誤用和濫用的風險。例如,模型可能生成一些看似合理但實際上錯誤或誤導(dǎo)性的結(jié)果。同時,人工智能在免費開源后并不意味著業(yè)界人士和監(jiān)管人員都可以順利解讀其模型和算法,這也就意味著免費開源的人工智能并非是無害且算法透明的狀態(tài)。

      二、歐盟立法中的免費開源的人工智能

      (一)歐盟立法的優(yōu)點

      歐盟《人工智能法案》并未使免費開源的人工智能免于監(jiān)管,而是為免費開源的人工智能劃定紅線。此種立法規(guī)定同現(xiàn)有的建議稿中“免費開源的人工智能不適用本法”具有明顯的區(qū)別。如果開源人工智能項目涉及高風險應(yīng)用或違反相關(guān)法規(guī),關(guān)聯(lián)方仍可能面臨法律責任。

      歐盟對免費開源的人工智能的立法采取審慎態(tài)度,并嘗試劃定邊界。歐盟并未因免費開源的人工智能在慣常情況下風險較小而樂觀,也承認其對社會發(fā)展的助推作用并設(shè)立特別的法律規(guī)定來免除相應(yīng)的義務(wù)。同時,將免費開源的人工智能的相關(guān)規(guī)定放置于第一編,并在符合所列舉情況時適用后文規(guī)定,使法律條文環(huán)環(huán)相扣,并且不顯得冗長。

      歐盟《人工智能法案》采用基于風險的分級動態(tài)監(jiān)管模式,清晰明確。歐盟按照風險級別制定相應(yīng)的監(jiān)管規(guī)則,這種監(jiān)管模式有助于確保對高風險人工智能系統(tǒng)的嚴格監(jiān)管,同時給予低風險系統(tǒng)更大的創(chuàng)新空間,實現(xiàn)了監(jiān)管與創(chuàng)新的平衡。但可以看出,歐盟并未將免費開源的人工智能歸入低風險人工智能,而是在條文中明確表示了,若某款免費開源的人工智能屬于高風險人工智能,則將適用法律對其進行規(guī)范,不再免除其相關(guān)的義務(wù)。

      歐盟立法具有全面性和綜合性?!度斯ぶ悄芊ò浮愤m用于所有非軍事用途的人工智能系統(tǒng),涵蓋了人工智能技術(shù)的開發(fā)、部署、使用等各個環(huán)節(jié),具有明顯的綜合性、全面性特征。這種全面性使歐盟不輕易放棄對某單一領(lǐng)域適用法律的可能性,即使是免費開源的人工智能,從而保證法律的有效覆蓋和社會問題的解決。這有助于從整體上規(guī)范人工智能技術(shù)的發(fā)展,確保其符合歐盟的價值觀和利益。

      (二)歐盟立法的不足

      歐盟立法存在過于自信地劃定邊界以及所劃定的邊界不明確的問題?!度斯ぶ悄芊ò浮访鞔_規(guī)定了在符合特定情況下,免費開源的人工智能依舊要適用第二三四編的規(guī)定。這說明了免費開源的人工智能的法律邊界的劃定依賴于此三編內(nèi)容的明確性和科學性,但是該三編所規(guī)定的內(nèi)容本身具有不明確性。例如,高風險人工智能的討論廣泛而持久,雖然已經(jīng)存在具有一定信服力的結(jié)論,但新問題和新情況依舊不斷涌現(xiàn),且還存在很大的討論空間。若高風險人工智能的范圍不能進行合理劃定,免費開源的人工智能便不能得到有效的規(guī)范,在風險層面亦沒有明確的范圍。

      免費開源的人工智能的潛在問題并不一定與三編的法律規(guī)定相契合。符合法定條件的人工智能并不一定和該三編所規(guī)定的人工智能存在同樣或者相似的問題,“免費”和“開源”意味著此人工智能和其他人工智能存在著明顯的差異性,而武斷地采用同樣的法律規(guī)范進行約束不具備科學性。同時,在免費開源的人工智能適用三編法條時,此三編所規(guī)定的內(nèi)容或許并不能完全覆蓋人工智能法所可能存在的問題,因為人工智能法是動態(tài)發(fā)展的,而歐盟立法所預(yù)留可解釋空間太過狹窄,將使法律存在明顯的僵硬性。

      三、免費開源的人工智能的立法構(gòu)思

      (一)繼續(xù)采用除外條款的模式

      或可將“免費開源的人工智能”從第九十五條中刪除,設(shè)立獨立條款對其進行規(guī)范,但依舊保持除外條款的模式。除外條款在立法中是一種重要的方式,通常用于明確界定在特定情況下,某些行為、活動或損失不被納入法律責任的范疇。由于人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用以及免費開源的人工智能的特殊性,不可避免地會產(chǎn)生一些新的法律問題和挑戰(zhàn)。通過設(shè)立除外條款,可以在一定程度上減輕技術(shù)創(chuàng)新者的法律壓力,鼓勵其更加積極地投入研發(fā)和創(chuàng)新活動。除外條款有助于明確法律責任的邊界,既預(yù)防了對免費開源的人工智能過度地干預(yù)和限制,也留下了具體化和針對性立法的空間。

      免費開源的人工智能因其法律風險較小的特點,更加適合除外條款的立法方式。在使用除外條款時,內(nèi)容可以更加簡單且靠近原則,因為立法的本意是不放棄對此類人工智能采取法律手段進行規(guī)范,而不是通過建立規(guī)則來約束其發(fā)展。歐盟的《人工智能法案》對其采取的是負面清單模式,通過大量列舉不免責的情形來對其進行規(guī)范,本質(zhì)上是更加具體地劃定法律規(guī)范的范圍,而面臨的問題是隨著技術(shù)的發(fā)展,新的問題容易導(dǎo)致立法列舉的負面清單無法適應(yīng)新的問題。因此,在對免費開源的人工智能進行規(guī)范時可以采取規(guī)定了原則性內(nèi)容的除外條款進行規(guī)范,并在今后面對問題時可以通過法律解釋進行負面清單式的列舉,這樣既不會破壞法律的穩(wěn)定性,也能合理地適應(yīng)技術(shù)的發(fā)展。

      (二)條款內(nèi)容的構(gòu)思與建議

      條款的內(nèi)容應(yīng)該包含“支持免費開源的人工智能發(fā)展”和“警惕免費開源的人工智能侵害法益”這兩方面的內(nèi)容。前者要求了法條的內(nèi)容不應(yīng)該明顯增加免費開源的人工智能的義務(wù),保證其較為寬松的發(fā)展環(huán)境。后者則應(yīng)體現(xiàn)底線思維,保障國家和社會的整體利益。

      或可以將“免費開源的人工智能”從第九十五條刪去后,增加條款“免費開源的人工智能不承擔本法所規(guī)定的義務(wù),但是可能嚴重影響中華人民共和國國家安全、公共利益或者個人、組織合法權(quán)益的除外?!毙薷暮蟮姆l依舊保留了免費開源的人工智能激發(fā)活力,促進人工智能行業(yè)發(fā)展的作用,但是保留了在必要時適用法律對其規(guī)范的可能。人工智能具有不可估量的潛力,所能適用的領(lǐng)域無法估計,做出原則性和概括性的規(guī)定,有助于未來下位法的出臺,在相關(guān)領(lǐng)域作進一步的規(guī)定。在必要時,亦可以通過法律解釋來及時應(yīng)對問題。

      法條限制行為的危害程度為“嚴重”,賦予免費開源的人工智能較大的自由空間。面對已經(jīng)出現(xiàn)的人工智能引起的問題,大多并不具有嚴重的危害性。例如,有學者提出,既然人工智能不能保證其輸出內(nèi)容的真實性,那么其輸出內(nèi)容就不當作事實內(nèi)容,而僅作為一種算法結(jié)果。這意味著人工智能本就可以在很大范圍內(nèi)不必為其輸出內(nèi)容的真實性負法律責任,免費開源的人工智能則可以在更廣闊的范圍內(nèi)免除法律責任。

      (三)條款位置的適當調(diào)整

      關(guān)于免費開源的人工智能的條款或可歸屬于第一章。免費開源的人工智能屬于規(guī)范的對象,雖然具有自身的特殊性,但應(yīng)屬于總則的內(nèi)容。法律的總則通常規(guī)定了法律的基本原則、基本制度以及基本規(guī)范等內(nèi)容,是整部法律的綱領(lǐng),對整部法律具有指導(dǎo)意義。免費開源的人工智能,屬于特殊的人工智能主體,若不放棄對其適用人工智能法,則其便成為法律規(guī)范的對象,處于總則部分更為適合。

      免費開源的人工智能涉及多個方面,對其進行規(guī)范的法條適合放于總則之中。免費開源的人工智能強調(diào)的是其免費開放源代碼,并未限制其應(yīng)用領(lǐng)域。事實上,其可能涉及知識產(chǎn)權(quán)、數(shù)據(jù)保護、算法責任與透明度、非歧視與公平性、安全性與隱私、出口管制與貿(mào)易、公共政策和倫理準則等多個領(lǐng)域,放在任何一編之中均有失偏頗。將法條置于總則之中,將使法律邏輯嚴謹,體系明確。

      四、結(jié)語

      人工智能領(lǐng)域的立法是世界諸國目前面臨的共同問題。免費開源的人工智能具有強大的激發(fā)能力和創(chuàng)造能力,為人工智能的發(fā)展起到助推作用。利用免費開源的資源并不是放任其發(fā)展,適當?shù)姆梢?guī)范可以使其走在法治軌道上。歐盟《人工智能法案》亦提供了參考,學習其中的合理內(nèi)容并結(jié)合中國具體國情,加以創(chuàng)造性轉(zhuǎn)化有利于探索出中國人工智能的法治發(fā)展道路。中國的人工智能發(fā)展情況正在呼喚一部屬于中國的“人工智能法”,希望我國的相關(guān)法律早日問世。

      參考文獻:

      [1] 左衛(wèi)民.數(shù)字司法的中國圖景[M].北京:法律出版社,2023:163-198.

      [2] 姜偉,龍衛(wèi)球,主編.數(shù)字法學原理[M].北京:人民法院出版社,2023:395-403.

      [3] 劉憲權(quán).生成式人工智能對數(shù)據(jù)法益刑法保護體系的影響[J].中國刑事法雜志,2023(04):20-34.

      [4] 裴煒.共建共治共享理念下數(shù)字社會治理的多主體協(xié)同.數(shù)字法治,2023(02)

      [5] 趙精武,王鑫,李大偉,等.ChatGPT:挑戰(zhàn)、發(fā)展與治理[J].北京航空航天大學學報(社會科學版),2023,36(02):188-192.

      [6] 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰(zhàn)[J].山東大學學報(哲學社會科學版),2023(03):127-143.

      [7] 胡敏潔.自動化行政的法律控制[J].行政法學研究,2019(02):56-66.

      [8] 孫建麗.算法自動化決策風險的法律規(guī)制研究[J].法治研究,2019(04):108-117.

      [9] 陳鳳仙,連雨璐,王娜.歐美人工智能監(jiān)管模式及政策啟示[J].中國行政管理,2024(01):77-88.

      [10] 宋華健.論生成式人工智能的法律風險與治理路徑.北京理工大學學報(社會科學版),2023(12)

      [11] Derek E. Bambauer & Mihai Surdeanu. Authorbots. Journal of Free Speech Law,2023,3(02): 375-388.

      [12] Jon M. Garon, An ai's picture paints thousand lies: designating responsibility for visual libel. Journal of Free Speech Law, 2023,3(02):425-454.

      [13] Eugene Volokh, Large libel models? liability for ai output. Journal of Free Speech Law, 2023,3(02):489-558.

      闸北区| 湘潭县| 定边县| 滨海县| 南郑县| 南皮县| 永福县| 彰化县| 梓潼县| 兴仁县| 罗城| 北辰区| 金山区| 松江区| 巴马| 枝江市| 建宁县| 武川县| 北辰区| 千阳县| 海南省| 军事| 石阡县| 博爱县| 十堰市| 静安区| 巴中市| 宝兴县| 天全县| 文化| 扶绥县| 宁化县| 礼泉县| 永嘉县| 长春市| 贞丰县| 南召县| 育儿| 水富县| 新余市| 阳江市|