趙占領(lǐng)
“有圖有真相”,這是一句非常流行的網(wǎng)絡(luò)用語,也曾被網(wǎng)民幾乎視為一條定律。但是,如今眾所周知PS技術(shù)門檻很低,合成一張圖片非常容易。因此,有圖未必就有真相。
在“有圖有真相”被打破之后,多數(shù)人認(rèn)為相對于靜態(tài)、孤立的圖片,動態(tài)、連貫的視頻更難以造假,客觀性更容易得到認(rèn)可。一旦某個明星或官員的不雅視頻曝光,公眾的第一反應(yīng)通常是理所當(dāng)然地認(rèn)為這就是真相。
然而,AI技術(shù)的出現(xiàn),讓我們認(rèn)識到技術(shù)進(jìn)步引發(fā)的巨大改變。近期,國外一些女明星接受采訪的視頻,或者參演影片中的照片,被人輕易地通過AI技術(shù)學(xué)習(xí)其面部特征,然后合成到色情影片里的女演員的頭部,視頻逼真的程度讓人難以置信。所以,在“有圖未必就有真相”后,即使有視頻也未必就有真相。
AI技術(shù)出現(xiàn)之前,視頻也有造假現(xiàn)象,但通常是采用剪輯、拼接等方式進(jìn)行,即使普通網(wǎng)民也并非完全不能發(fā)現(xiàn)其中存在的破綻。而AI技術(shù)出現(xiàn)之后,造假的技術(shù)水平大幅提高,以假亂真的程度極其考驗網(wǎng)民的智慧。
更關(guān)鍵的是,這一技術(shù)被濫用,或者是被那些不法之徒及有惡意的人使用,便等于打開了潘多拉的魔盒。以后,我們可能會有更多機(jī)會看到某個公眾人物“出演”的色情電影、某個官員“發(fā)表”敏感言論的視頻、某個企業(yè)家“從事”違法犯罪行為的畫面……諸如此類的視頻可能不斷突破公眾的想象力。而令人擔(dān)憂的是,這些視頻一經(jīng)傳播,短時間內(nèi)會帶來極大的震撼,給相關(guān)受害人造成的傷害也將迅速擴(kuò)大,造成的社會影響有時又來不及迅速消除。
但是,利用AI技術(shù)偽造視頻所帶來的法律挑戰(zhàn)更多。以往,很多司法案件中,視頻都曾作為一方甚至雙方的證據(jù),而且證明效力比較高。但是,AI技術(shù)被濫用于偽造視頻之后,使得視頻的證明效力減弱,甚至存在著被完全推翻的可能。與此同時,作為違法或者犯罪證據(jù)的視頻,如何證明其屬于偽造,如何進(jìn)行技術(shù)鑒定,也給公安機(jī)關(guān)、司法鑒定機(jī)構(gòu)、當(dāng)事人提出了新的難題。
盡管AI技術(shù)如同其他新技術(shù)一樣,在帶來商業(yè)變革的同時,也帶來一系列的社會問題、法律問題,但是技術(shù)本身是中立的。因此,如何關(guān)上AI技術(shù)打開的潘多拉魔盒,關(guān)鍵不在于禁止新技術(shù),不是因噎廢食,而是要對濫用技術(shù)從事的違法犯罪行為進(jìn)行規(guī)制。
首先,對于這種新型的違法犯罪行為,需要及時完善現(xiàn)有法律規(guī)則。即如何定義這種犯罪行為,以及這種行為所帶來的巨大負(fù)面?zhèn)?。此外,還要規(guī)定對這種違法犯罪行為在懲罰時適用什么樣的標(biāo)準(zhǔn)。
其次,解決技術(shù)帶來的問題也離不開技術(shù),如何在技術(shù)上防止視頻被偽造,如何通過技術(shù)手段迅速、及時判斷視頻是否被偽造,也很大程度上影響著潘多拉魔盒能否關(guān)上。
第三,應(yīng)該通過更多的手段讓民眾知曉這種行為帶來的危害性和嚴(yán)重性,使這種技術(shù)得到善用。同時讓民眾更重視自己的隱私保護(hù),讓一些好事之徒?jīng)]有可乘之機(jī)?!?/p>
(作者是北京志霖律師事務(wù)所律師)