• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能中的未成年人個人信息保護問題研究

      2024-07-18 00:00:00王文卓

      【摘 要】隨著AIGC(生成式人工智能)技術(shù)的發(fā)展和應(yīng)用,未成年人面臨新的機遇與挑戰(zhàn)。AIGC在為未成年人提供個性化服務(wù)的同時,也可能加劇對其個人信息的過度收集和濫用。我國已構(gòu)建起未成年人個人信息特殊保護制度,但在AIGC領(lǐng)域尚缺乏專門制度。立法應(yīng)當(dāng)對AIGC中未成年人個人信息的收集、存儲、使用等予以特殊規(guī)范,堅持未成年人最大利益原則,推動人工智能從“成年人為中心”走向“以未成年人為中心”,并探索“同意能力”內(nèi)涵,在保護與賦權(quán)之間尋求平衡,為未成年人營造安全、健康的智能化成長環(huán)境。

      【關(guān)鍵詞】AIGC;未成年人;個人信息;個人隱私;信息安全

      【中圖分類號】G434 【文獻標志碼】A

      【論文編號】1671-7384(2024)07-029-03

      生成式人工智能技術(shù)正在迅速發(fā)展,并日益融入我們的生活。它以大算力為基礎(chǔ),用強算法處理海量大數(shù)據(jù),創(chuàng)造出令人驚嘆的內(nèi)容和應(yīng)用。ChatGPT等語言模型不僅能與用戶進行流暢對話,還能撰寫郵件、生成代碼、創(chuàng)作小說;Midjourney和Stable Diffusion等繪畫工具則能根據(jù)用戶的文本描述生成圖片。而最近出現(xiàn)的Sora和Veo等工具,更是能直接將文本描述轉(zhuǎn)換為視頻??梢哉f,AIGC極大地豐富了人們的精神世界。

      AIGC數(shù)據(jù)驅(qū)動的底層邏輯,將進一步加劇信息的廣泛收集與利用,且加速信息濫用的進程。未成年人個人信息受侵害的風(fēng)險也將在人與算法的雙向交互模式下進一步放大。心智尚未成熟、世界觀尚未穩(wěn)定的未成年人,更加需要有相應(yīng)的監(jiān)督和支持,以保證其在與智能系統(tǒng)交互中保留“自主性”[1]。人工智能技術(shù)的飛速發(fā)展,給未成年人帶來了全新的機遇與挑戰(zhàn)。AIGC應(yīng)用在為未成年人創(chuàng)造個性化體驗的同時,也可能加劇對其個人信息的過度收集和濫用。面對這一復(fù)雜局面,我們有必要深入探討AIGC時代未成年人個人信息保護的諸多問題,尋求創(chuàng)新與規(guī)范、發(fā)展與安全的平衡良方。

      AIGC時代未成年人個人信息安全風(fēng)險

      當(dāng)家長疲于工作時,AI或被寄希望成為孩子的好伙伴,然而,這些看似無害的“虛擬朋友”卻可能給兒童的隱私帶來巨大風(fēng)險。意大利數(shù)據(jù)保護機構(gòu)Garante率先對Replika AI和ChatGPT等幾款備受兒童歡迎的AI聊天機器人采取了正式監(jiān)管行動。Garante認為,這些AI聊天機器人在收集和處理兒童個人信息方面存在諸多問題,如缺乏透明度、過度收集、非法處理等,嚴重侵犯了兒童的數(shù)據(jù)隱私權(quán)益。其中,AIGC訓(xùn)練數(shù)據(jù)的潛在泄露風(fēng)險、兒童認知能力局限導(dǎo)致的過度信息收集是最為突出的兩大問題。

      1.AIGC訓(xùn)練數(shù)據(jù)可能含有未成年人個人信息,存在泄露風(fēng)險

      AIGC的內(nèi)容生成依賴于海量數(shù)據(jù)的訓(xùn)練,而這些數(shù)據(jù)通常來自用戶抑或是互聯(lián)網(wǎng)數(shù)據(jù)挖掘,其中不可避免地包含了未成年人的個人信息。由于現(xiàn)行法律對此類數(shù)據(jù)采集行為的制度尚不完善,缺乏有效的監(jiān)管措施,AIGC開發(fā)者可能在未經(jīng)允許或告知的情況下,將涉及未成年人的數(shù)據(jù)納入訓(xùn)練集。

      這些包含未成年人個人信息的訓(xùn)練數(shù)據(jù),在后續(xù)的存儲、傳輸、使用等環(huán)節(jié)中,如果缺乏嚴格的安全防護措施,就極易發(fā)生泄露,并被不法分子非法獲取,用于各種違法違規(guī)用途。這不僅嚴重侵犯了未成年人的隱私權(quán),更可能危及其人身、財產(chǎn)安全。微軟旗下的Wiz Research在微軟的AI GitHub存儲庫發(fā)現(xiàn)了一起數(shù)據(jù)泄露事件,其中包括超過30 000條內(nèi)部微軟Teams的聊天消息,這些敏感信息是由一個錯誤配置的SAS令牌引起的。由于未成年人因其個性化學(xué)習(xí)、教育等需求對定制化人工智能的偏好更強,所需要提供的個人信息更豐富,一旦這些數(shù)據(jù)被人工智能企業(yè)非法收集,泄露的風(fēng)險性也更大,泄露的后果格外嚴重。

      2.未成年人認知能力不足,AIGC應(yīng)用可能過度收集其個人隱私

      由于AIGC應(yīng)用普遍采用自然語言交互,這種溝通方式容易讓未成年人放松警惕,在無形中降低其隱私保護意識。與此同時,AIGC應(yīng)用往往通過提供個性化、定制化的產(chǎn)品與服務(wù)來吸引未成年人用戶。為了享受這些量身打造的信息便利,未成年人可能在不經(jīng)意間泄露過多的個人信息。許多未成年人尤其是兒童,原本就對隱私保護意識比較淡薄,更容易在與AIGC互動時過度分享生活信息。一些AIGC應(yīng)用就利用了這一點,誘導(dǎo)或默許未成年人用戶提供大量的個人隱私數(shù)據(jù),如身份信息、位置信息、社交數(shù)據(jù)等,對其進行過度收集。

      由于認知能力有限,未成年人難以真正理解AIGC應(yīng)用的隱私條款,其“同意”往往流于形式。而這些被收集的隱私數(shù)據(jù),一旦被用于分析未成年人的行為偏好、社交關(guān)系等,進而影響算法推送和決策,就可能侵犯未成年人的自主權(quán),甚至導(dǎo)致歧視。如韓國初創(chuàng)公司Scatter Lab推出了對話分析服務(wù)“TextAt”和“戀愛科學(xué)”(Science of Love)服務(wù),廣受未成年人歡迎。2021年4月28日,韓國的個人信息保護委員會對Scatter Lab處以高達1.033億韓元的罰款,在諸多違法事實中,Scatter Lab嚴重違反了韓國《個人信息保護法》第22條對于未成年人信息的特殊保護,收集了20余萬條未成年人信息。

      未成年人個人信息特殊保護制度

      未成年人個人信息特殊保護制度是我國個人信息保護法律體系的重要組成部分。鑒于未成年人身心發(fā)展尚不成熟、自我保護意識和能力較弱的特點,應(yīng)立法對未成年人個人信息的收集、存儲、使用、傳輸和披露等處理行為予以特別規(guī)范。

      我國2020年修訂的《中華人民共和國未成年人保護法》增設(shè)“網(wǎng)絡(luò)保護”專章,從國家、學(xué)校、家庭、社會、網(wǎng)絡(luò)服務(wù)提供者等多方面明確了保護未成年人在網(wǎng)絡(luò)環(huán)境下合法權(quán)益的具體要求。

      進入2021年,我國《中華人民共和國個人信息保護法》出臺,將未成年人個人信息納入敏感個人信息范疇,從處理規(guī)則、同意機制、監(jiān)護人職責(zé)等方面予以特殊保護。2023年出臺的《未成年人網(wǎng)絡(luò)保護條例》在《中華人民共和國未成年人保護法》《中華人民共和國個人信息保護法》等上位法基礎(chǔ)上,對未成年人個人信息網(wǎng)絡(luò)保護作出更為細致的特別規(guī)定,同時加大對違法處理未成年人個人信息行為的處罰力度。

      在AIGC領(lǐng)域,2023年7月,國家網(wǎng)信辦等七部門聯(lián)合對外發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)?!掇k法》要求平臺提供者應(yīng)當(dāng)與使用者簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù),采取有效措施防范未成年人信息沉迷。同時,平臺提供者應(yīng)當(dāng)依法處置使用者的違法行為和內(nèi)容。在個人信息保護方面,辦法要求平臺提供者在數(shù)據(jù)訓(xùn)練和提供服務(wù)過程中,應(yīng)當(dāng)依法取得個人同意,不得收集非必要個人信息,不得非法留存、提供使用者的輸入信息和使用記錄。

      回顧我國未成年人個人信息保護制度的發(fā)展脈絡(luò),立法者堅持從未成年人利益出發(fā),以問題和風(fēng)險為導(dǎo)向,從一般到特殊構(gòu)建起未成年人信息安全的法律屏障,這充分彰顯了對未成年人的關(guān)愛之情。在AIGC這一新興領(lǐng)域,我國雖已出臺《生成式人工智能服務(wù)管理暫行辦法》對未成年人保護提出了原則性要求,但該辦法對未成年人個人信息在AIGC場景下的實際使用尚缺乏進一步的專門規(guī)定。

      應(yīng)立法對AIGC中未成年人個人信息進行特殊規(guī)范

      在AIGC快速發(fā)展和廣泛應(yīng)用的背景下,在立法上應(yīng)當(dāng)對AIGC場景下未成年人個人信息的收集、存儲、使用等行為予以特殊規(guī)范,進一步細化未成年人個人信息保護制度,壓實AIGC服務(wù)提供者責(zé)任,為未成年人營造安全、健康的智能化成長環(huán)境。具體而言,可從以下三個方面展開。

      1.立法原則:堅持未成年人最大利益原則

      AIGC未成年人保護應(yīng)當(dāng)以堅持未成年人最大利益為原則。聯(lián)合國《兒童權(quán)利公約》第3條第1款規(guī)定,“關(guān)于兒童的一切行動,不論是由公私社會福利機構(gòu)、法院、行政當(dāng)局或立法機構(gòu)執(zhí)行,均應(yīng)以兒童的最大利益為一種首要考慮。”確立了“兒童最大利益原則”,這是《兒童權(quán)利公約》所特有的一般性原則,也是兒童權(quán)利理論的核心觀點。我國《未成年人保護法》第4條也規(guī)定了,保護未成年人,應(yīng)當(dāng)堅持最有利于未成年人的原則。

      這意味著當(dāng)未成年人利益與其他利益相衡量的時候,在審視各不同層面的利益時,未成年人有權(quán)將他或她的最大利益列為一種首要的評判和考慮,且每當(dāng)一項決定涉及兒童時,都得保障這項權(quán)利。關(guān)于“最大利益”的涵義,兒童權(quán)利委員會從三個層面做出了闡釋,即兒童權(quán)利既是一項原則,也是一項行事規(guī)則,還是一項實體性權(quán)利[2]。作為一項行事規(guī)則,兒童最大利益原則應(yīng)當(dāng)成為AIGC平臺制定隱私政策和實施數(shù)據(jù)處理活動的基本遵循。作為一項實體性權(quán)利,兒童最大利益原則要求賦予未成年人更多參與個人信息決策的機會,提升其對AIGC服務(wù)的知情權(quán)、選擇權(quán)和控制權(quán)。

      2.立法路徑:以未成年人為中心的人工智能

      隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,其在教育、娛樂等領(lǐng)域?qū)ξ闯赡耆说挠绊懭找嫱癸@。然而,當(dāng)前人工智能的設(shè)計開發(fā)和應(yīng)用規(guī)則仍然“以成年人為中心”為主要考量,忽視了未成年人作為一個獨特群體的特殊需求和權(quán)益訴求。這種“以成年人為中心”的思維定勢,可能導(dǎo)致人工智能產(chǎn)品和服務(wù)在功能設(shè)置、交互方式、內(nèi)容推薦等方面脫離未成年人的實際需要,甚至對其身心發(fā)展產(chǎn)生負面影響[3]。

      因此,立法應(yīng)當(dāng)推動人工智能從“以成年人為中心”走向“以未成年人為中心”,引導(dǎo)人工智能行業(yè)樹立未成年人優(yōu)先的理念,充分考慮未成年人的身心特點和成長需求,形成有別于成年人的行為規(guī)則體系。

      一方面,法律應(yīng)當(dāng)鼓勵和支持開發(fā)專門面向未成年人的人工智能產(chǎn)品和服務(wù),從兒童視角出發(fā)優(yōu)化人機交互和功能體驗,嵌入有利于未成年人身心發(fā)展的倫理價值取向,為未成年人提供個性化、適齡化的智能化服務(wù)產(chǎn)品。

      另一方面,針對涉及未成年人個人信息收集、存儲、使用的人工智能系統(tǒng),應(yīng)當(dāng)制定獨特的數(shù)據(jù)處理規(guī)則,從數(shù)據(jù)源頭予以特殊保護。例如,建立未成年人與成年人相隔離的數(shù)據(jù)池,實行差異化的數(shù)據(jù)處理流程,采取更為嚴格的數(shù)據(jù)安全管理措施等。同時,可以考慮引入邊緣計算(Edge Computing)這一分布式計算框架[4],將未成年人個人信息的存儲、計算等處理行為下沉至本地設(shè)備,減少不必要的數(shù)據(jù)上傳和共享,降低未成年人個人信息泄露風(fēng)險。

      3.立法核心:從“保護”到“賦權(quán)”,以未成年人同意能力為出發(fā)點

      大數(shù)據(jù)時代,未成年人個人信息保護面臨著“賦權(quán)”與“保護”的平衡。目前立法實踐普遍偏重“保護”的一面。傳統(tǒng)民法理論中,“行為能力”是未成年人獲得權(quán)利的基礎(chǔ),但在個人信息保護領(lǐng)域,“同意能力”的概念開始興起。盡管行為能力與同意能力關(guān)系密切,但二者并非等同。同意能力應(yīng)當(dāng)具有區(qū)別于行為能力的獨特價值,成為未成年人在個人信息處理活動中行使自決權(quán)的關(guān)鍵要素[5]。因此,未來立法應(yīng)在堅持對不具備同意能力的未成年人實施監(jiān)護人同意規(guī)則的同時,進一步探索“同意能力”的內(nèi)涵。在具體判斷未成年人是否具備同意個人信息處理的能力時,不能單純依據(jù)年齡標準,而應(yīng)當(dāng)綜合考慮個人信息的種類與敏感程度、信息處理的目的以及處理方式等多重因素。唯有在個案中權(quán)衡各種考量,才能在充分保護未成年人合法權(quán)益的同時最大限度地尊重其意愿,引導(dǎo)其循序漸進地成長為獨立自主的個人信息權(quán)利主體,助力未成年人在信息社會中全面與健康發(fā)展。

      參考文獻

      倪琴,賀樑,王英英,等. 人工智能向善:面向未成年人的人工智能應(yīng)用監(jiān)管探研:面向未成年人的人工智能技術(shù)規(guī)范研究(三)[J]. 電化教育研究,2023,44(8): 33-41.

      王雪梅. 權(quán)利沖突視域下兒童最大利益原則的理解與適用[J]. 政法論壇,2022,40(6):125-135.

      郭勝男,吳永和. 以未成年人為中心的人工智能何以實現(xiàn)?:基于“兒童人工智能”項目的思考[J]. 現(xiàn)代教育技術(shù),2023,33(11): 29-37.

      施巍松,孫輝,曹杰,等. 邊緣計算:萬物互聯(lián)時代新型計算模型[J]. 計算機研究與發(fā)展,2017,54(5): 907-924.

      于海防. 個人信息處理同意的性質(zhì)與有效條件[J]. 法學(xué),2022,489(8): 99-112.

      永安市| 平顶山市| 桑植县| 兴隆县| 内乡县| 唐河县| 三原县| 宁波市| 合肥市| 璧山县| 汝阳县| 霸州市| 兰溪市| 金华市| 丘北县| 建阳市| 桦川县| 永新县| 左权县| 灵武市| 镇康县| 沙洋县| 金坛市| 集安市| 泸西县| 淮安市| 花莲县| 灌云县| 太和县| 海宁市| 旬邑县| 建宁县| 甘孜| 沽源县| 常熟市| 万盛区| 灵山县| 香河县| 高邮市| 湖南省| 鄂托克前旗|