張?zhí)锟?/p>
瑞士巴塞爾大學生物醫(yī)學倫理研究所博士生馬塞羅·倫卡和其同事羅伯托·安多諾稱,隨著技術發(fā)展,未來的電腦或許能在你不知情的情況下收集、儲存或刪除你的思想,從而讓思想自由成為一句空話。
在生物倫理學家眼中,科技侵犯人的思想自由目前可能會在腦(人)機接口(交融)技術上首先獲得突破。
探究人類思維的奧秘一直是研究人員的理想,也是各國腦計劃的重要內(nèi)容之一,腦機接口的目標是讓電腦能接收和讀懂大腦的想法,以便用大腦直接指揮電腦,完成人腦和電腦單獨無法完成的工作和任務,以及產(chǎn)生創(chuàng)新思維,治療疾病等。例如,最新的人機接口已能讓電腦讀懂上肢癱瘓者大腦的指令,并把這一指令傳遞給機器臂,讓機器臂代替上肢完成吃飯的動作。
在腦機接口研發(fā)上,目前分出了兩大派別,一是侵入式,一是非侵入式。前者以特斯拉的CEO伊隆·馬斯克為代表,靠對大腦植入無數(shù)微小電極來收集大腦腦電波,并對其解碼,讓電腦讀懂大腦的想法;后者則以臉書的CEO扎克伯格為代表,使用傳感器探測和收集大腦各個中樞的腦電波和意識,并對腦電波解碼,以獲取人腦的想法。
這實際上是腦機融合的兩種技術的競爭,馬斯克的計劃預計在8~10年內(nèi)實現(xiàn)解讀并把人的內(nèi)心想法傳遞給電腦,而扎克伯格則計劃以少一倍的時間實現(xiàn)腦機融合。至于對大腦成像的解讀也有一些相當多的科技人員在研發(fā),隨著時間的推移,讀懂大腦成像的意圖和想法,并轉化和指揮機器也將成為現(xiàn)實。
當這些技術手段實施時,最為憂慮的當然是黑客入侵,由此可以篡改一個人的思想和真實意圖,更為極端的做法是通過黑客入侵提前知道某個人的思維和想法,讓讀心術成為現(xiàn)實,從而采取各種手段阻撓和擊敗對手,當然也包括提前阻止恐怖分子的襲擊行動。同時,這種入侵人機接口的方式也可以成為更為廣泛和實用的政治工具,即便不去改變?nèi)说乃枷?,也可以提前知道一群人的想法,尤其是在大選中,不用民調,采用黑客入侵人機接口的方法,就可以知道民意,從而采取各種措施,左右和操控大選。
面對這種危險,倫卡和安多諾提出要以立法來預防,以保護人們的思想自由不被剝奪,也即以四項法律來保護人們相應的權利,包括認知自由權、思想隱私權、保持思想完整的權利,以及保持心理上連續(xù)的權利。保護這四種權利概括地講,就是保護個人思想完整性的權利,其本質是,未來在人機交融技術廣泛使用時,要防止個人的思維、隱私或敏感信息在未授權的情況下被收集、儲存、使用甚至是以數(shù)字形式刪除。其實,這是一個非常困難的問題。思維或思想是人最隱私的部分,如果不能體現(xiàn)出來,就難以保護,即便人機接口的使用可以讓電腦和機器接收和讀懂人的想法,也僅僅是體現(xiàn)在大腦和機器中,而作者提出的是,要防止黑客入侵,避免在未授權的情況讓一個人的思想被收集和儲存。但事實是,黑客入侵并不需要任何授權。
對于這樣的保護思想自由,除了立法,其實需要更為嚴格和易于操作的技術和措施來完成。如果找不到適宜的技術來防止人機接口的被入侵和篡改,人機接口無異就是潘多拉的魔盒。當然,更應當立法防止的是,任何人都不能被強制接入和采用人機接口。