Cade Metz Mike Issac
Facebook的首席技術官邁克·斯科洛普夫(Mike Schroepfer)流下了眼淚。
在Facebook總部的一間會議室,周圍是用藍色和紅色馬克筆寫滿了字的白板,斯科洛普夫談起了從社交網(wǎng)絡刪除不良內(nèi)容的技術難題,又談到了最近一次讓人感到這項工作困難重重的悲慘事件:新西蘭基督城槍擊案。
今年3月,一名犯罪分子持槍在基督城的兩座清真寺射殺51位平民,還在Facebook上全程直播。技術人員花了約一小時才將視頻從網(wǎng)站上刪除。那時,這段血腥視頻已經(jīng)在全網(wǎng)四處傳播。
斯科洛普夫沉默了。一分鐘以后,他試著恢復平靜,然后說:“我們現(xiàn)在正在解決這個問題,它顯然不是明天就能解決的。但我不想6個月以后還在跟你討論這個問題,我們可以做得更 好?!?p>
過去3年來,F(xiàn)acebook已經(jīng)因用戶在該平臺散布虛假、誤導和不實信息而接受了調(diào)查。作為回應,公司首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)調(diào)用了一款據(jù)說能夠刪除不良信息的技術:人工智能。
去年出席國會聽證時,扎克伯格的證詞是,F(xiàn)acebook正在研發(fā)一套基于機器的系統(tǒng)來“鑒別不良活動的等級”。他還宣稱,“未來5到10年,我們將用AI工具”來監(jiān)測和刪除仇恨言論。此后他還多次在媒體和華爾街的會議上,以及Facebook的活動上宣布了這一舉措。
斯科洛普夫正是Facebook利用自動工具來分析和刪除帖子的牽頭人。在近期接受的3次采訪中,他都表示,這項工作困難重重。
這是因為,每次斯科洛普夫和150多名工程師設計出針對某些不良內(nèi)容的AI解決方案后,AI系統(tǒng)又會碰到新的模糊信息—剛想出的方案會把它們漏掉。最困難的地方是,只有犯罪分子才知道什么是“有害活動”,普通人很難具備這種判斷力,更別提機器了。
斯科洛普夫承認,AI工具本身無法解決Facebook的頑疾?!拔矣X得最后會以殘局收場吧,不可能說到最后什么問題都能解決,大家就高高興興回家了?!?/p>
然而,壓力已經(jīng)來了。Facebook在面臨眾人對基督城視頻的指控后變更了政策,限制用戶使用直播功能。一個周三,在巴黎和法國總統(tǒng)馬克龍以及新西蘭總理杰辛達·阿德恩(Jacinda Ardern)會晤后,扎克伯格簽署承諾,會明確禁止傳播恐怖主義和暴力極端主義內(nèi)容。
44歲的斯科洛普夫硬著頭皮接下了這項重任。多年來,他的工作一直都是幫助Facebook搭建起全球領先的AI實驗室,招募頂尖人才來解決人臉識別等技術難題。他和扎克伯格想研發(fā)出能夠與Google競爭的AI系統(tǒng),因為Google擁有最前沿的AI研究員。為此,他從紐約大學、倫敦大學和巴黎第六大學招募了眾多博士。
不過一路下來,他的角色慢慢變成了內(nèi)容劊子手?,F(xiàn)在,他和團隊大部分時間都在研究怎么用AI來發(fā)現(xiàn)和刪除死亡恐嚇、自殺視頻、不實信息和謊言。
約翰·黎力(John Lilly)曾是Mozilla公司的首席執(zhí)行官,目前則是Greylock Partners公司的風險投資人。他曾在1990年代中期和斯科洛普夫一起學習計算機科學,他說:“我們都沒有預見到這些事,誰都不知道這個問題該怎么解決。”
斯科洛普夫在他的蘋果筆記本電腦上找到了兩張照片,一張是西蘭花,另一張則是一株大麻。會議室里的所有人也一起看了這兩張照片,有些人沒法判斷到底哪張是西蘭花,哪張是大麻。
斯科洛普夫是想通過照片來說明,雖然有人無法鑒別這兩者,F(xiàn)acebook的AI系統(tǒng)已經(jīng)可以通過上千萬張圖像找到規(guī)律,發(fā)現(xiàn)大麻。一旦AI標記出大麻照片,許多使用了這些照片在Facebook上貼出大麻廣告的帖子都會被刪除。
問題在于,“西蘭花還是大麻”的實驗不僅證明了進步,也反映出了Facebook的局限。斯科洛普夫的團隊搭建了能夠識別和刪除大麻照片、裸露照片和恐怖主義內(nèi)容的AI系統(tǒng)。但是這個系統(tǒng)永遠不能一網(wǎng)打盡,因為總會有漏網(wǎng)之魚。這也就意味著,有上千萬張裸露照片、大麻照片和大量恐怖主義內(nèi)容已經(jīng)被用戶看到了。
對于AI來說,識別不良圖像的任務很簡單,難處在于如何發(fā)現(xiàn)虛假新聞或仇恨言論。虛假新聞可以輕易偽裝成真新聞,而仇恨言論對于機器來說還很難甄別,因為機器無法識別細節(jié)性的語言。每個語言的細節(jié)性都有所不同,對話的展開也需要語境,而語境千變?nèi)f化,這對機器來說還沒法企及。
AI基金會(AI Foundation)是一家研究用AI打擊不實信息的非盈利性機構,其首席研究員德利普·拉奧(Delip Rao)表示,要拿下這項挑戰(zhàn),就好像是要贏一場“軍備競賽”。AI都是基于過去的體系搭建的,但過去完全沒有這樣的體系。行為總在變化,不法分子也總是會有新方法。這是場貓和老鼠的游戲。
“有時候你能先發(fā)制人,有時候反倒是人家有可乘之機。”拉奧表示。
斯科洛普夫表示,F(xiàn)acebook能夠自動識別和刪除有問題的直播內(nèi)容,但還是沒有發(fā)現(xiàn)3月的槍擊直播視頻,因為過去從來沒有這樣的視頻被傳到網(wǎng)站上,他們沒有什么先例可以參考。
版權聲明
本文內(nèi)容由《紐約時報》提供版權