丹尼爾·托馬斯
人臉識別技術正在變得越發(fā)成熟。一些公司聲稱,這一技術甚至能夠解讀我們的情緒并監(jiān)測到可疑行為。不過,這對隱私和公民自由會產(chǎn)生何種影響?
人臉識別技術已經(jīng)存在了超過10年,不過科技專家表示,近年來,隨著數(shù)碼視像和人工智能(AI)的進步,這種技術正在飛躍式發(fā)展。
現(xiàn)在,人臉識別技術正被用于鎖定過境人群,解鎖智能手機,偵測犯罪人士,以及授權銀行轉賬等等。
但是一些公司卻聲稱,這種技術同樣可以監(jiān)測我們的情緒狀態(tài)。
從20世紀70年代起,就有心理學家聲稱,他們能夠通過照片和視頻中人臉的“微表情”來探測其背后隱藏的情感。
科技公司表示,現(xiàn)今的運算法和高清攝像頭同樣可以準確甚至更快速地完成這一過程。
“我們看到,人臉識別技術正被用作商業(yè)用途?!睌?shù)據(jù)公司埃士信的視像監(jiān)控專家奧立弗·菲利波說。
“這種技術可能被用于超市走廊貨架,不是為了鎖定人,而是用來分析顧客的年齡和性別構成,以及他們的大體情緒。這能夠幫助超市制定對應的營銷策略和產(chǎn)品投放?!?/p>
市場調研機構明略行公司正在使用由美國初創(chuàng)公司Affectiva開發(fā)的技術,評估消費者對電視廣告的反應。
Affectiva會在經(jīng)允許的情況下錄下人們的臉,然后用代碼逐幀記錄他們的表情,從而評估他們的情緒。
明略行公司的創(chuàng)新部門管理總監(jiān)格拉姆·佩吉說:“我們會采訪一些人,但是通過監(jiān)察他們的表情,我們能得到更豐富的細微信息。你能準確地看到廣告的哪一部分是奏效的,以及勾起了什么樣的情緒反應?!?/p>
而更具有爭議性的是,一些初創(chuàng)企業(yè)正以安保為目的提供“情緒偵察”。
比如,英國公司W(wǎng)eSee就聲稱,他們的AT技術能夠通過解讀一些未經(jīng)訓練的肉眼看不出來的面部信息,來發(fā)現(xiàn)可疑行為。
比如,懷疑或者憤怒之類的情緒可能會隱藏在表情之下,并且和一個人當時所說的話不一致。
WeSee指,他們正在與一家“知名度高”的執(zhí)法機構合作,對被問話的人進行分析。
該公司首席執(zhí)行官大衛(wèi)·富爾頓表示:“哪怕只有低清晰度的視頻,我們的技術也能夠通過表情、姿勢和動作來確定一個人的情緒狀態(tài)或者行為意圖?!?p>
蘋果iPhone X通過人臉識別系統(tǒng)解鎖屏幕
情緒監(jiān)控系統(tǒng)能否準確找到人群可能制造麻煩的人
“在未來,地鐵站臺上的攝像頭可能會使用我們的技術來探測可疑行為,并將潛在的恐怖主義威脅報告給當局。”
“同樣的措施也可能用在像足球比賽或者政治游行之類的大型集會當中。”
不過,菲利波對于情緒偵測技術的準確性有所懷疑?!熬退阒皇侨四樧R別,都仍然有相當程度的誤差——最好的公司聲稱自己認人的準確率是90-92%。當你試圖去評估情緒的時候,誤差會更大。”
呼吁保護隱私權的活動人士對此感到擔憂,他們害怕人臉識別技術會出錯,或者導致偏見。
國際隱私組織的弗雷德里克·卡爾圖納說:“雖然我能想象,會有一些確實行之有效的使用方式,但是情緒監(jiān)控、人臉識別以及人臉檔案收集所帶來的隱私問題是前所未有的。”
單是人臉識別本身就足夠有爭議性了。
今年五月,在斯旺西參加周末音樂節(jié)的狂歡人群當中,很多人都不知道自己的臉被掃描識別。那是南威爾士警方的大規(guī)模監(jiān)控措施之一。
警方使用了自動人臉識別系統(tǒng)(AFR),通過閉路電視攝像頭以及一套NEC軟件來識別“值得關注的人”,將他們的臉與一個記錄受拘留人士的數(shù)據(jù)庫作對比。
南威爾士警方的AFR項目主管斯科特·羅伊德表示,一個警方正在搜捕的男子在“10分鐘內”就被識別出來并拘捕。
不過,英國人權組織“自由”指出,在其他的場合,比如去年在卡的夫進行的歐洲冠軍聯(lián)賽決賽上,就有過大量的錯誤配對。
7月,卡的夫居民艾德·布里吉斯(EdBridges)由“自由”組織代表,開始了對警方的法律行動。原告認為,AFR侵犯了人們的隱私權,并且缺乏適當?shù)谋O(jiān)督。案件將進入英國高等法院審理。
但是,開展人臉識別研究的美國聯(lián)邦機構國家標準技術研究所的生物識別項目主管帕特里克·格羅瑟表示,相關技術正在變得越來越可靠。
他將近期這方面的技術進步歸因于“卷積神經(jīng)網(wǎng)絡”的發(fā)展——那是一種機器學習的高級形式,能帶來比過去高得多的準確度。
他說:“這些運算法讓電腦能夠在不同的規(guī)模和角度上進行影像分析。”
“哪怕臉部可能被太陽眼鏡或者圍巾等物件部分遮蓋,你都能夠更準確地識別人臉。從2014年到現(xiàn)在,錯誤率已經(jīng)縮小了10倍,不過沒有一種運算法是完美的?!?/p>
WeSee的富爾頓表示,他的技術只不過是一種工具,幫助人們更智能地分析既有影像。
他還表示,WeSee對于面部情感的識別能力和人的肉眼是一樣有效的——“準確率在60%~70%左右”。
“目前,我們能夠通過偵測可疑的行為來避免一些壞事發(fā)生,但不能識別意圖。不過我認為,這正是我們要前進的方向,而我們已經(jīng)在這方面進行測試了。”
聽起來,這距離科幻電影《少數(shù)派報告》(Minority Report,另譯《關鍵報告》)里的“犯罪預知”概念又近了一步。在電影中,潛在的罪犯在他們犯罪之前就已經(jīng)被捕。這是否又是民權機構應該擔心的進一步問題?
國際隱私組織的卡爾圖納說:“我們總是問自己一個關鍵問題:這項技術是誰創(chuàng)建的,目的又是什么?它是用來幫助我們,還是審判、評估和控制我們?”(摘自英國廣播公司新聞網(wǎng))(編輯/華生)