
整理 | 呂夢(mèng) 都保杰 馬麗
今日,英國著(zhù)名物理學(xué)家斯蒂芬·霍金去世,享年76歲?;艚鸺胰寺暶鳎核挠職馀c堅持鼓舞了全世界。

霍金生前曾患上肌肉萎縮性側索硬化癥,全身癱瘓,不能言語(yǔ)?;艚鸬暮⒆又隆缎l報》的聲明中寫(xiě)道,“他的勇氣、堅持以及他的杰出及幽默鼓舞了世界各地的人”。聲明中寫(xiě)道,“我們將永遠懷念他”。

霍金是英國著(zhù)名的天文物理學(xué)家和宇宙學(xué)家,21歲時(shí)就患上了盧伽雷式癥。絕大多數中國人是在讀了霍金寫(xiě)的科普著(zhù)作《時(shí)間簡(jiǎn)史》后,才知道他的。
世界級頂尖雜志《天文學(xué)》對他有這樣的評價(jià):“當20世紀物理學(xué)的成就被客觀(guān)地承認時(shí),史蒂芬·霍金的成就將被大書(shū)特書(shū)地載入科學(xué)史冊?!?/p>
霍金的成就就像他研究的黑洞一樣強力,令人傾倒。但是他卻幾次與“諾貝爾”失之交臂。
霍金的成就可以概括為:
第一,奇性定理。愛(ài)因斯坦創(chuàng )立的廣義相對論被科學(xué)界公認為最美麗的科學(xué)理論。但是霍金和彭羅斯一道證明了廣義相對論是不完備的。
他們指出,如果廣義相對論是普遍有效的,而宇宙間的物質(zhì)分布滿(mǎn)足非常一般的條件,那么宇宙時(shí)空中一定存在一些奇點(diǎn)。在奇點(diǎn)處經(jīng)典物理的定律失效。人們通常談?wù)摰钠纥c(diǎn)是宇宙產(chǎn)生元初的大爆炸奇點(diǎn)和黑洞中的奇點(diǎn)。愛(ài)因斯坦早先否認過(guò)奇點(diǎn)的存在,他甚至還寫(xiě)過(guò)論文以論證黑洞(那時(shí)還沒(méi)有這個(gè)生動(dòng)的稱(chēng)呼)的不可能性?;艚鸷团砹_斯的奇性定理表明了對引力的量子化是不可避免的。
第二,黑洞理論。人們知道,在經(jīng)典引力論的框架里,黑洞只能吞噬物質(zhì),而不能吐出物質(zhì)。黑洞的表面(視界)猶如地獄的入口,是一個(gè)有去無(wú)返的單向膜?;艚鹪?jīng)證明視界的面積是非減的。1974年霍金發(fā)表了《黑洞在bao'zha爆炸》一文。
這是20世紀引力物理在愛(ài)因斯坦之后的最偉大論文。在論文中,他把量子理論效應引進(jìn)了黑洞研究,證明了從黑洞視界附近會(huì )蒸發(fā)出各種粒子,這種粒子的譜猶如來(lái)自黑體的輻射。
隨之黑洞質(zhì)量降低,溫度就會(huì )升高,最終導致黑洞的爆炸。在這被稱(chēng)為霍金輻射的場(chǎng)景中,量子理論、引力理論和統計物理得到了完美的統一。黑洞理論是科學(xué)史上非常罕見(jiàn)的例子,它首先在數學(xué)形式上被詳盡的研究,后來(lái)才在天文學(xué)的許多觀(guān)測上證實(shí)了它的普遍存在?,F在,人們的共識是,每個(gè)星系的中心都是一顆極其巨大的黑洞。
第三,無(wú)邊界宇宙理論?;艚鹪?0年代初,創(chuàng )立了量子宇宙學(xué)的無(wú)邊界學(xué)說(shuō)。他認為,時(shí)空是有限而無(wú)界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始時(shí)的第一推動(dòng)。宇宙的演化甚至創(chuàng )生都單獨地由物理定律所決定。
這樣就把上帝從宇宙的事物中完全摒除出去。上帝便成了無(wú)所事事的“造物主”,它再也無(wú)力去創(chuàng )造奇跡。亞里士多德、奧古斯丁、牛頓等人曾在宇宙中為上帝杜撰的那個(gè)關(guān)于“第一推動(dòng)”的神話(huà),完全是虛幻的。
量子宇宙學(xué)的主要預言之一是關(guān)于宇宙結構的起源。若干年前,宇宙背景輻射探測者對太空背景溫度起伏的觀(guān)察證實(shí)了這個(gè)預言。
對于奇性定理、黑洞面積定理、黑洞霍金輻射和無(wú)邊界宇宙理論,一個(gè)人生前擁有其中的任何一項成就,就足以名垂不朽。而霍金卻擁有了這些理論的全部。

對于人工智能,霍金曾表示,AI的崛起可能是人類(lèi)文明的終結,除非我們學(xué)會(huì )如何避免危險。
“我曾經(jīng)說(shuō)過(guò),人工智能的全方位發(fā)展可能招致人類(lèi)的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統需要按照人類(lèi)的意志工作”。
“我認為人工智能的發(fā)展,本身是一種存在著(zhù)問(wèn)題的趨勢,而這些問(wèn)題必須在現在和將來(lái)得到解決。當下還無(wú)法判斷人工智能的崛起對人類(lèi)來(lái)說(shuō)到時(shí)是好事還是壞事,但我們應該竭盡所能,確保其未來(lái)發(fā)展對我們和我們的環(huán)境有利”。
霍金表示,人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn)。也許我們所有人都應該暫停片刻,把我們的研究重復從提升人工智能能力轉移到最大化人工智能的社會(huì )效益上面。
人類(lèi)未來(lái)是否會(huì )被人工智能代替?霍金表示,人類(lèi)無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔心聰明的機器將能夠代替人類(lèi)正在從事的工作,并迅速地消滅數以百萬(wàn)計的工作崗位。
在2017年全球移動(dòng)互聯(lián)網(wǎng)大會(huì )(GMIC)上,他曾通過(guò)視頻發(fā)表了《讓人工智能造福人類(lèi)及其賴(lài)以生存的家園》主題演講。
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。2017年3月,霍金向英國《獨立報》表示,人類(lèi)必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類(lèi)帶來(lái)的威脅進(jìn)一步上升。
霍金在會(huì )上表示,人工智能的威脅分短期和長(cháng)期兩種。短期威脅包括自動(dòng)駕駛、智能性自主武器,以及隱私問(wèn)題;長(cháng)期擔憂(yōu)主要是人工智能系統失控帶來(lái)的風(fēng)險,如人工智能系統可能不聽(tīng)人類(lèi)指揮。
他還認為,生物大腦和計算機在本質(zhì)上是沒(méi)有區別的。這與英國物理學(xué)家羅杰·彭羅斯的觀(guān)點(diǎn)恰恰相反,后者認為作為一種算法確定性的系統,當前的電子計算機無(wú)法產(chǎn)生智能。
不過(guò),霍金也表示,雖然他對人工智能有各種擔憂(yōu),但他對人工智能技術(shù)本身還是抱有樂(lè )觀(guān)的態(tài)度。他認為人工智能帶來(lái)的收益是巨大的,人類(lèi)或許借助這一強大的工具,可以減少工業(yè)化對自然的傷害?!暗覀儾淮_定我們是會(huì )被智能無(wú)限地幫助,還是被無(wú)限地邊緣化,甚至毀滅?!彼a充道。

霍金在演講的最后說(shuō)道:“這是一個(gè)美麗但充滿(mǎn)不確定的世界,而你們是先行者?!?/p>
讓我們共同緬懷這位人類(lèi)歷史上偉大的科學(xué)家!


聯(lián)系客服