有一種AI詐騙形式是聲音合成。具體的操作是,騙子通過騷擾電話等錄音來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。谷歌就曾合成出可以假亂真的特朗普和奧巴馬的聲音。
最近,2019防范治理電信網絡詐騙論壇在中國互聯(lián)網大會期間舉行。據(jù)論壇內容顯示,機器學習、人工智能、大數(shù)據(jù)等熱點技術已被犯罪分子用于實施詐騙。
詐騙手段不斷翻新,四種形式防不勝防
論壇上,中國傳媒大學政法學院法律系副主任鄭寧總結了4種AI(人工智能)詐騙形式。
第一種是轉發(fā)微信語音。騙子通過盜取微信號,然后提出轉賬要求。如果有人要求語音回復,騙子便通過提取語音文件或者安裝增強版微信,實現(xiàn)轉發(fā)語音,從而獲取信任。
第二種騙術是聲音合成。具體的操作是,騙子通過騷擾電話等錄音來提取某人聲音,獲取素材后進行聲音合成,從而用偽造的聲音騙過對方。
鄭寧表示,通過神經網絡和機器學習技術可以達到合成聲音的效果。第一個利用神經網絡生成人類自然語音的,就是由倫敦人工智能公司深度指示器創(chuàng)建的波網。此技術通過使用真實語音記錄來直接模擬波形,能夠生成聽起來相對真實的類人聲音。
據(jù)了解,谷歌人工智能實驗室創(chuàng)立了七葉樹公司。在其網站上,可以聽到官方合成的可以假亂真的特朗普和奧巴馬的聲音。美國有一名記者曾用機器合成的句子和家里人打電話,他的家人完全分不清真假。
“合成的聲音有明顯的痕跡,但波網可以把合成痕跡明顯的機器語音,轉換成更加流暢自然的語音,與人類聲音之間的差異大幅降低。而七葉樹則更進一步,它可以基于音色、音調、音節(jié)、停頓等多種特征,來定義某個人的聲音,然后生成更加擬真的聲音?!编崒幷f。
第三種是AI換臉。視頻通話的可信度明顯高于語音和電話,但利用AI換臉,騙子可以偽裝成任何人。
第四種是通過AI技術篩選受騙人群,通過分析公眾發(fā)布在網上的各類信息,騙子會根據(jù)所要實施的騙術對人群進行篩選,從而選出目標人群。
例如實施情感詐騙時,可以篩選出經常發(fā)布感情信息的人群;實施金融詐騙時,可以篩選出經常搜集投資信息的人群。
我們該如何防止被騙
詐騙手法在不斷翻新,廣大群眾該如何防止被騙呢?
鄭寧提出了兩點建議。第一是驗證,在涉及錢款時,民眾要通過電話等方式確認對方是否為本人,在不能確定真實身份時,可將到賬時間設定為“2小時到賬”或“24小時到賬”,以預留處理時間。
此外,可以選擇向對方銀行匯款,避免通過微信等社交工具轉賬。因為微信等工具均會綁定銀行卡,而向對方銀行卡轉賬,一方面便于核實對方信息,確認錢款去向;另一方面,對方能通過短信通知得知轉賬信息。
第二是保護個人信息,注重隱私保護。社交平臺的發(fā)展加大了保護個人信息的難度,民眾將越多的個人信息暴露在網絡上,遭受詐騙的概率越高。由于實施詐騙需要獲取當事人的個人信息,網絡共享加上AI技術,讓騙子搜集當事人的個人信息更為便捷。因此,為避免騙子借用個人信息實施詐騙,民眾應當加強個人信息保護意識,以防止騙子利用AI技術掌握大量個人信息并對人物性格、需求傾向等進行刻畫,從而有針對性地實施詐騙。
在中國人民大學法學院教授劉俊??磥?,預防被騙的關鍵就是人們要提高自我保護意識。他指出,親戚朋友間要相互提示,相互宣傳。由于中老年人被騙較多,青年人要及時做好家中老人的宣傳防范工作,提醒、告誡老年人接到電話、收到短信,只要是不認識、不熟悉的人和事,均不要理睬,以免被騙。另外是拒絕誘惑,民眾應當避免占便宜心理,警惕陌生人提供的好處。
充分利用人工智能提升反詐騙精準度
對于這種利用新技術的詐騙,該如何整治?
劉俊海表示,消費者反映的最集中、最突出的問題,往往是監(jiān)管機關、司法機關在監(jiān)管和執(zhí)法當中的漏洞和盲區(qū)。規(guī)范監(jiān)管就應當致力于消除監(jiān)管漏洞、盲區(qū)以及真空地帶,真正打造一個信息共享、快捷高效、無縫對接、有機銜接的預防合作機制。
在鄭寧看來,AI技術可以被用于詐騙,也可以被用于反詐騙。利用技術的方式不同,帶來的影響也不同。因此,在面對一項技術時,不僅要關注技術本身,更要關注技術的用途,將技術用于提高生活質量。