先藕潔 劉胤衡
美國人工智能研究實驗室OpenAI推出的大型預訓練人工智能語言模型ChatGPT,正成為很多年輕人關注和熱議的焦點。
華中科技大學法學院副教授滕銳在接受采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓練出來的語言模型,無法確切對其內(nèi)在的算法邏輯進行分解,所以不能確保在使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險。”在他看來,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權。
北京京師(上海)律師事務所高級合伙人李陽律師分析,ChatGPT這類的AI軟件沒有獨立人格,不具備我國著作權法規(guī)范中“作者”的主體資格。AI軟件有可能使用未經(jīng)授權的作品作為素材,只要是網(wǎng)絡上公開的數(shù)據(jù)和信息,就有可能成為被AI學習的數(shù)據(jù)。李陽認為,作者很難查清楚自己的作品是否被AI用來“學習”了,“權利人如果要進行維權,在當前法律體系下難度很大”。
滕銳指出,ChatGPT的內(nèi)容本質(zhì),是基于它所擁有的數(shù)據(jù)進行表達意志的創(chuàng)作,不具備法律人格,不能承擔相應的法律責任,如果ChatGPT侵害了他人的著作權或泄露了他人隱私,由它的權利人或使用者來承擔相應的法律責任。
“推動構建人工智能治理體系,政府加強監(jiān)管和研發(fā)者保持自律尤為重要?!彪J說,要避免ChatGPT引發(fā)數(shù)據(jù)安全問題,如泄露商業(yè)秘密及違背保密義務,需從法律層面明確ChatGPT產(chǎn)品的應用范圍,推進數(shù)據(jù)的分類分級,規(guī)定不同種類數(shù)據(jù)的保護級別和措施。
在武漢大學法學院教授孫晉看來,在人工智能大數(shù)據(jù)的時代背景下,數(shù)據(jù)隱私泄露問題愈演愈烈,ChatGPT作為數(shù)字技術的應用,開發(fā)者和使用者都是第一責任人。他提醒,由于ChatGPT的算法和算力均很強大,如果開發(fā)者或使用者濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰(zhàn)。
滕銳認為,機器人走上更高智能階段的同時,人類利用機器人違法犯罪的現(xiàn)象也會出現(xiàn),從刑法的角度來看,人工智能不具有刑法意義上的辨認和控制自己行為的能力,但可對機器人背后的自然人進行處罰。
目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經(jīng)發(fā)出禁令,禁止學生在學校內(nèi)使用類似于ChatGPT的人工智能工具完成學習任務和考試?!斑@是警示年輕人,要明白人工智能技術是人類的輔助工具,并不能替代人類進行智力創(chuàng)作,如果年輕人完全依賴,會影響創(chuàng)新創(chuàng)作能力?!敝袊淖种鳈鄥f(xié)會總干事張洪波說。
在張洪波看來,人工智能工具可以幫助人類快速處理字數(shù)多、容量大的文本內(nèi)容,但最終的智力創(chuàng)作成果,還是要人類自己來完成。開發(fā)者開發(fā)設計人工智能工具的目的,應該是讓人類學習、生產(chǎn)、生活更方便、快捷、準確,而不是懶惰和消極。孫晉也提醒,年輕人要注意,網(wǎng)絡不是法外之地,利用新技術時,不要觸碰道德和法律底線。
(選自《中國青年報》2023年2月17日,有刪改)
●訓練
1.對上述材料的理解與分析,不正確的一項是(? )
A.AI軟件如果“學習”了未經(jīng)授權的作品,該作品的作者想在當前法律體系下進行維權難度很大。
B.ChatGPT如果侵害了他人的著作權或泄露他人隱私,不能承擔相應的法律責任,應由它的權利人或使用者來承擔相應的法律責任。
C.滕銳建議,在內(nèi)容保護上,要定期將算法合規(guī)納入大數(shù)據(jù)安全體系,對其使用情況進行安全審計、評估驗證等。
D.如果年輕人完全依賴人工智能技術,會變得懶惰和消極,會影響其創(chuàng)新創(chuàng)作能力。
2.結合文本,分析ChatGPT存在哪些“坑”?
答: