李錚
在ChatGPT時代,計算機算法和人工智能越來越多地融入我們的生活,近日大家不斷地參與機器對話,不亦樂乎。對此德國波茨坦大學心理學家和行為科學家格爾德·吉仁澤認為:“這些算法可能正在以我們不完全理解的方式,改變我們的世界和行為?!备駹柕隆ぜ蕽稍文硞€人類發(fā)展研究所適應行為和認知中心主任,在他的最新著作《如何在智能世界中保持智能》中,他講述了許多關(guān)于算法如何塑造我們的未來的一些觀點。
如果你有一個定義明確的目的,且需要計算機來分析,那么深度神經(jīng)網(wǎng)絡(luò)等復雜算法肯定比人類表現(xiàn)更好。例如游戲中的國際象棋和圍棋,它們的出子效率和步驟成熟和穩(wěn)定,且還在不斷進化,已經(jīng)有先例證明,人類目前已經(jīng)在這兩個項目中落敗。
但是,如果你有一個不穩(wěn)定的問題——例如,你想預測一種病毒何時被清除,比如冠狀病毒,那么就不要寄望于算法可以幫我們解決這個問題。人類思維的方式相對比較簡單,識別一兩個重要的線索而忽略其余的,但機器不是,機器可以并行計算,但機器對于生物醫(yī)學的復雜性發(fā)展也是無能為力的。在定義不明確的問題中,算法數(shù)據(jù)沉積過多,不一定能帶來好的結(jié)果。
深度神經(jīng)網(wǎng)絡(luò)有“很多層”,但歸根到底它們?nèi)匀皇怯嬎銠C器。在ChatGPT技術(shù)的幫助下,它們可以做的比以往任何時候都多,比如繪畫,生成以假亂真的圖片,撰寫論文,但這并不意味著它們能像人類那樣理解文本,甚至也會涉及隱私泄露,比如我們用于生成圖片的素材可能會讓我們的自拍照被他人窺探。隨著系統(tǒng)復雜度的增長,機器也會暴露一些弱點,即便如同微軟這種老牌軟件公司,數(shù)據(jù)泄露的事件也屢見不鮮,攻擊者在其龐大的代碼庫中找尋嚴重的漏洞,這些都是短時間內(nèi)無法消除的。
雖然現(xiàn)在人類工程師為人工智能的行為做出了很多框架,但我覺得人工智能工作的透明度依然非常重要,程序員可以對算法技術(shù)進行修改,并引導它們具有“自己思考”的能力,但人類還沒到過度依賴它們的程度,我個人認為目前還沒有比一群低薪工人更好的算法。
比如神經(jīng)網(wǎng)絡(luò)算法最常見的“黑盒算法”中,因為人們無法從外部得知神經(jīng)網(wǎng)絡(luò)模型究竟是如何完成訓練的,使用了一個預測準確率為97%的貓臉識別模型,結(jié)果這個算法有時會將小狗的臉部照片歸納到小貓中。由于神經(jīng)網(wǎng)絡(luò)算法的這一不確定的特性,導致一些場景并不適合使用神經(jīng)網(wǎng)絡(luò)算法,比如銀行不會使用神經(jīng)網(wǎng)絡(luò)算法來評判用戶是否具備信用,因為一旦出現(xiàn)預測錯誤,銀行根本無法溯源找到評判錯誤的原因,也無法向客戶做出合理的解釋。
所以就人工智能的技術(shù)該如何管理,把它限制在我們認為靠譜的范圍內(nèi),現(xiàn)在還言之尚早。目前,互聯(lián)網(wǎng)大公司的算法皆為商業(yè)訴求所主導,互聯(lián)網(wǎng)產(chǎn)品以“使人上癮”為訴求,推送信息以“投其所好”為標準,倫理道德與社會責任幾乎完全缺席。
要想改變現(xiàn)狀,不再讓醫(yī)療搜索占坑、臉書泄密等事件再度發(fā)生,必須推動立法,對這些互聯(lián)網(wǎng)大公司的產(chǎn)品背后的算法進行“審計”和監(jiān)督——關(guān)于數(shù)據(jù)挖掘的算法,可以規(guī)定可供挖掘的數(shù)據(jù)類別和限度;關(guān)于個性化定制推薦的算法,可以規(guī)定要求“事實檢查”或者明確提醒用戶信息的真實性有待核實;關(guān)于過濾算法,可以規(guī)定特定行業(yè)(如醫(yī)療)的企業(yè)在使用社交媒體廣告服務時的資格檢查。
關(guān)注對算法的“審計”和監(jiān)管,而非對內(nèi)容的審核,才有利于在未來逐步建立一套有例可循的“算法法律”。
如果你的樓下有一家提供免費咖啡的咖啡館,每個人都去那里,其他咖啡館都破產(chǎn)了,其實是很悲哀的事情,你缺少了與人交流的機會。我們現(xiàn)在生活的任何公共場所,墻上有攝像機和麥克風,記錄你所說的每一個字,就像電影《全民公敵》里面,后臺有超算對你說的話和行為舉止進行分析,看你是否具有犯罪意圖,我相信大部分人對此感到反感。
我們已經(jīng)看到有過多基礎(chǔ)設(shè)施被互聯(lián)網(wǎng)所“裹挾”,但并非好事,事實上有些對我們的正常生活已經(jīng)構(gòu)成了困擾甚至威脅。就像電動車,主機廠在輔助駕駛還在完善的階段,就大吹特吹其為自動駕駛,自動二字讓相當部分的駕駛員放松了警惕,造成馬路上的一些車禍。
總的來說,我更希望人們意識到,將數(shù)據(jù)和自己的安全交給科技公司的算法并不是一個好主意,科技公司利用它從廣告商那里賺錢,但付出慘痛代價的卻是普通老百姓。