霍金2014年1月提出這一論斷時,一度震驚了科學(xué)界,因為這與他自己過去提出的理論相悖。1974年,霍金提出了著名的“霍金輻射”學(xué)說,該學(xué)說是霍金對天體物理學(xué)做出的最大貢獻之一。霍金在該學(xué)說中指出,黑洞在形成中質(zhì)量減少的同時,還不斷在以能量形式向外界發(fā)出輻射。但一旦黑洞濃縮并蒸發(fā)消失后,其中所有信息就隨之消失,與量子力學(xué)認(rèn)定該類物質(zhì)信息永不會完全消失的理論相矛盾。這就是所謂的“黑洞悖論”。很多年來,霍金試圖以各種推測來解釋這一矛盾觀點?;艚鹫J(rèn)為,至少以目前為止人類概念中的黑洞來衡量,黑洞是不存在的。他進而認(rèn)為所謂的“事件穹界”同樣也不存在。按照相關(guān)理論,“事件穹界”是一條無法觀測到的邊界,邊界內(nèi)可以留存包括光在內(nèi)的一切物質(zhì)。
希格斯玻色子又被稱為上帝粒子?;艚鹪c美國密歇根大學(xué)的一位教授打賭,認(rèn)為希格斯玻色子不會被找到。但此后,歐洲核子研究中心的科學(xué)家宣布發(fā)現(xiàn)了上帝粒子,霍金輸了100美元。但是霍金在事后表現(xiàn)出對上帝粒子的擔(dān)憂,并警告上帝粒子的出現(xiàn)可能會加快地球乃至宇宙毀滅的速度。
霍金曾多次表示,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”?;艚鹦Q,未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn)。2015年年初,霍金曾與特斯拉CEO伊隆·馬斯克共同發(fā)表公開信,他們認(rèn)為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機器無法保障安全,人類可能陷入黑暗的未來。信中警告科學(xué)家們警惕人工智能將抹殺人類。2017年12月,在中國某機構(gòu)舉辦的一個活動上,霍金再次表達了對人工智能無限制發(fā)展的隱憂。“人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位?!薄叭斯ぶ悄芤灿锌赡苁侨祟愇拿鞯慕K結(jié),除非我們學(xué)會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非人工智能系統(tǒng)需要按照人類的意志工作?!?h3>預(yù)言4:人類與外星人接觸是危險的事情
霍金十分確信在地球之外的其他世界存在著智慧生命,但他警告人類應(yīng)當(dāng)想盡一切辦法避免與這些外星生命接觸?;艚鹫f過:“在無限的茫茫宇宙中,一定存在著其他形式的生命。”“而真正的挑戰(zhàn)在于將外星人找出來?!被艚鸨硎荆骸拔覀冎恍枰纯醋约?,就知道智能生命是如何發(fā)展到無法自給自足的地步了。我設(shè)想他們現(xiàn)在就乘坐著一艘艘的大船,已經(jīng)耗盡了他們星球上的所有資源。他們可能已經(jīng)成為了游牧民族,伺機征服并殖民他們能夠抵達的任何星球。如果外星人來拜訪人類,我想其結(jié)果會變得與哥倫布到達新大陸時非常相似,那對美洲土著可并不有利?!?h3>預(yù)言5:千年內(nèi)人類須移民外星.否則“滅絕”
霍金預(yù)言未來千年將是人類的大限,到時地球?qū)㈦y以承受人類的消耗,人類只能選擇移民外星或者滅亡。霍金認(rèn)為,未來1000年內(nèi),基本可以確定的是地球會因某場大災(zāi)難而毀滅,如核戰(zhàn)爭或者溫室效應(yīng)。因此,他強調(diào)人類必須移居其他星球?;艚鸨硎荆骸叭祟悳缃^是可能發(fā)生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學(xué)技術(shù)的發(fā)展和進步最終可以帶人類沖出太陽系,到達宇宙中更遙遠(yuǎn)的地方。”
霍金不止一次地否定過生命在死后依然延續(xù)的觀點。他認(rèn)為,大腦就像一臺電腦,零件壞掉的時候就會停止運行。對于停止運行的電腦而言,死后既沒有天堂也沒有生命的延續(xù)。他認(rèn)為相信有天堂和來世,只是那些害怕死亡的人的一個“童話故事”。生命的最后時刻除了大腦的顫動以外,什么也不存在。