魏岳江
2022年11月30日,美國人工智能研究公司OpenAI推出ChatGPT聊天機器人程序。它可以與人類對話,就人類提出的問題作出回答。兩個月后,該程序在全球社交平臺火爆,甚至有媒體說它“上知天文下知地理,與人交流時能對答如流,能寫能編還能改錯……”,由此引發(fā)了關于未來的各個領域里AI是否會取代人類的大討論。
AI是由人類發(fā)明的,早期離不開人類控制。但是,從近年來全球上映的有關AI題材的科幻電影來看,那些曾經很遙遠的人工智能距離現實似乎越來越近。
從1997年5月IBM公司研制的計算機DeepBlue戰(zhàn)勝了國際象棋大師卡斯帕洛夫,到2022年9月一位年輕人用AI繪畫工具Midjourney生成的作品《太空歌劇院》在美國科羅拉多州博覽會獲數字藝術類別冠軍,近年來,AI被應用于制造、交通、醫(yī)療、金融、教育、物流等多個領域。尤其ChatGPT聊天機器人程序誕生后,AI走進直播間、會議現場,撰寫講話稿、新聞稿的能力正逐步重塑傳媒行業(yè)的格局,開啟“人機結合”的數字報道新時代。
2023年2月7日凌晨,谷歌發(fā)布了基于谷歌LaMDA大模型的下一代對話AI系統(tǒng)Bard。3月27日,百度研發(fā)的大模型類項目“文心一言”正式發(fā)布。
目前,不單單是谷歌,還有IBM、微軟、臉書、雅虎、亞馬遜等國外巨頭,國內的百度、騰訊、阿里巴巴,紛紛投資AI領域。不少媒體和資訊網站上加速布局寫稿機器人,采寫智能機器人已融入數字新聞報道行業(yè)領域。
人民日報社在2020年全國兩會前夕,成功發(fā)布上線“人民日報社AI智能編輯部”。在2021年的全國兩會上,人民日報社兩會記者使用“智能創(chuàng)作機器”現場拍攝并對錄制完成的視頻進行自動剪輯。新華社于2018年推出“媒體大腦·MAGIC短視頻智能生產平臺”,又在2019年全國兩會召開之際發(fā)布由電腦生成的全新升級站立式全球首個AI合成女主播,與新華社現有的AI合成男主播共同對兩會進行報道,再次引發(fā)全球媒體的高度關注。2021年的全國兩會上,由人民日報智慧媒體研究院研發(fā)的“智能創(chuàng)作機器人”,它集5G智能采訪+AI輔助創(chuàng)作+新聞追蹤多重本領于一身,讓兩會記者們如虎添翼。
此外,日本開發(fā)了一個能夠寫小說的人工智能機器人,通過學習已逝科幻小說家小松左京的文風和用詞,續(xù)寫了作者生前未完成的小說作品。韓國在2016年開發(fā)的寫稿機器人僅需0.3秒就快速完成了一篇關于股市行情的新聞報道。
任何事物都具有兩面性,AI也如此。不可否認,盡管“AI+”可以提高生產效率、降低生產成本,但同時也會給人類社會帶來負面影響,甚至產生一些麻煩。
相關專家預測,ChatGPT聊天機器人程序雖然是新一代聊天機器人的突破,但同時也會帶來學術造假、技術濫用、輿論安全、著作權問題等風險。
比如,目前,AI還未達到對抓取、搜集的資料進行深度分析思考后得出其自己的認知,AI的作品是不是原創(chuàng)?這個問題尚無定論。《現代漢語詞典》對“原創(chuàng)”的解釋為“最早創(chuàng)作;首創(chuàng)”,從理論上說,AI生成的作品并不能定義為原創(chuàng),倒不如說是“二手原創(chuàng)”,這就存在機器人侵權行為和版權糾紛問題。
騰訊寫作機器人
依照現行法律法規(guī),由AI創(chuàng)作的作品的版權歸屬不是人而是物,不能定義為法律意義上的“作品”,因此不受著作權法的保護。在知識產權這個問題上, AI既是“侵權者”,也是“被侵權者”。這方面的案例已經屢見報端。微軟機器人“小冰”的原創(chuàng)詩集《陽光失了玻璃窗》出版后一個月,網絡上就出現了這本詩集的電子盜版。前幾年轟動業(yè)界的小i機器人與蘋果Siri智能語音系統(tǒng)之間的糾紛就是由設計專利引發(fā)的。
騰訊公司曾開發(fā)了一款名為Dreamwriter的寫作機器人,可以自動寫稿。一家網站轉載了騰訊證券網站上由人工智能自動生成的文章,被騰訊公司以侵權為由告上法庭。案件由深圳市南山區(qū)人民法院審結。這是全國首例認定人工智能生成的文章構成作品的案件。
隨著AI技術的進一步發(fā)展,數字新聞(網絡)著作權案件呈現了由單一類型向復雜類型轉變的態(tài)勢,這既反映了如今人們的法律意識、維權意識不斷增強,也給法院的審判工作增加了難度。比如,機器人不是自然人,侵權案件中不可能直接接受法律裁決,那么該由誰來承擔責任?誰又是第一責任人呢?機器人、設計者、開發(fā)商、使用者單位、數據輸入者、所有者或許都難逃其責。
沒有規(guī)矩,不成方圓。媒體領域如此,其他領域也不例外,人類要想達成人機和諧共處的局面,就應盡快出臺有關AI技術研發(fā)、運用的法律法規(guī),確保AI安全、可靠、可控,使AI的運用有法可依、有章可循,預防它在發(fā)展過程中可能帶來的各種風險。