
歡迎關(guān)注“創(chuàng )事記”的微信訂閱號:sinachuangshiji
文/陳根 微信公眾號:陳述根本
“世界上真的有上帝嗎?”科學(xué)家用顫抖的聲音問(wèn)道。
“現在有了?!笔澜缟献盥斆鞯娜斯ぶ悄茈娔X回答。語(yǔ)畢,一道電光閃過(guò)它的電源插頭。從此,人類(lèi)再也關(guān)不掉它了。
——這是在美國一檔脫口秀節目上,斯蒂芬·霍金給大家講的一個(gè)關(guān)于人工智能的故事。故事告訴我們:人類(lèi)一手創(chuàng )造的機器人,將成為“人類(lèi)最大的威脅”,甚至“終結者”。
近幾年,關(guān)于發(fā)展還是控制人工智能的“辯論”,在科技界不斷升溫,矛盾愈演愈烈。甚至,一批大腕“聯(lián)名上書(shū)”提倡控制人工智能的發(fā)展。這里不僅有斯蒂芬·霍金,還有微軟創(chuàng )始人比爾·蓋茨、特斯拉汽車(chē)公司與美國太空探索技術(shù)公司CEO伊隆·馬斯克等。
無(wú)論基于怎樣的行業(yè)發(fā)展考慮,也不管人類(lèi)對人工智是否將采取控制措施,毋庸置疑的是,人工智能的發(fā)展將是一種必然的趨勢。那么,人工智能發(fā)展到最后,到底會(huì )不會(huì )像大家所擔心的那樣,成為人類(lèi)的“終結者”呢?如果預言真的成為現實(shí),那又會(huì )是誰(shuí)決定了人工智能走上這條不歸路呢?
人工智能PK人類(lèi)智慧
不管你有多少懷疑,有多么不愿意承認,在將來(lái)的某一天,人工智能都有非常大的可能超越人類(lèi)智慧。這我們可以從人腦與機器在“硬件”和“軟件”兩個(gè)維度進(jìn)行比較分析:
一、 “硬件”:生理學(xué)上的腦容量
據研究表明:人的聰明程度跟大腦容量息息相關(guān)。美國弗吉尼亞州立大學(xué)的工業(yè)和組織心理學(xué)家邁克爾·麥克丹尼爾(Michael McDaniel)曾通過(guò)影像技術(shù)測量大腦,證明大腦越大或腦容量與體表面積的比例越高的人越聰明,當然,這當中必須排除個(gè)別因大腦變異或腦積水導致增大腦容量等特殊情況;而且這個(gè)結論適用于所有年齡和所有性別群體。我們且不論該說(shuō)法是否百分之百精準,有一點(diǎn)是明確的,那就是人的腦容量即便再大,在發(fā)展的一定時(shí)期都存在一定限度內的峰值。
在200萬(wàn)年前,人的腦容量大約為600毫升;到了早期直立人時(shí)期,人腦的腦容量達到了900毫升;而到了現如今,人類(lèi)的腦容量可以達到1500毫升左右。在這個(gè)過(guò)程中,隨著(zhù)大腦的逐步增大,人類(lèi)的聰明和智商呈跨躍式發(fā)展。我們有理由相信,如果給予足夠長(cháng)的時(shí)候,人類(lèi)大腦的智慧增長(cháng)還是有非常大的空間的。但是,基于目前的情況,囿固于當前的人類(lèi)本身這個(gè)載體,卻很難實(shí)現腦容量的無(wú)限大。
而且,從目前的現實(shí)狀況來(lái)看,人類(lèi)大腦面對當下海量的數據信息已經(jīng)顯得有點(diǎn)手足無(wú)措。一方面,資訊的更新速度在以人類(lèi)閱讀能力的幾何倍數級增長(cháng);另一方面,我們的大腦在已經(jīng)到來(lái)的物聯(lián)網(wǎng)、大數據時(shí)代,已經(jīng)難以招架海量的數據,更別說(shuō)準確地對這些數據進(jìn)行分析判斷從中尋找所要的答案。這必然致使人類(lèi)在發(fā)展的道路上,顯得越來(lái)越迷茫且焦慮。
基于機器設備的人工智能則可以突破人類(lèi)大腦的這個(gè)局限。從“硬件”容量來(lái)說(shuō),人工智能對信息數據的存儲可以趨近于無(wú)窮大,當然這也是一種相對理想狀態(tài)。而從記憶速度與提取效率來(lái)說(shuō),尤其在大數據的分析與測算基礎上,人工智能對所存儲信息的調取會(huì )越來(lái)越迅速,而且不存在“遺忘”一說(shuō)。
這讓我們有理由相信:?jiǎn)螁螐摹坝布狈矫鎭?lái)考慮,人工智能完全有可能比人類(lèi)更聰明。
二、“軟件”:思維能力共享
人腦除了具有信息的獲取和存儲能力之外,更重要的還是在所存儲信息的基礎上進(jìn)行推理、判斷、分析問(wèn)題等功能,也就是我們通常講的人的思維和主觀(guān)能動(dòng)性,人腦“聰明”的真正考量標準。這也是很多人爭議的焦點(diǎn):人工智能真的會(huì )有類(lèi)似于人類(lèi)的思維嗎?
去年的今天,英國媒體刊登的署名安賈娜·阿胡賈的文章稱(chēng),科學(xué)家已經(jīng)發(fā)明出擁有思考能力的機器,可以與人類(lèi)進(jìn)行文本會(huì )話(huà),其自然語(yǔ)言邏輯性之強,使得人類(lèi)已無(wú)法分辨自己是與人類(lèi)交談還是與一個(gè)機器。而且,艾倫·圖靈也曾提出,如果一臺機器的“交流”能力足以讓用戶(hù)以為自己是在與一個(gè)真正的人互動(dòng),那么這臺機器可以說(shuō)是擁有思考能力。而已經(jīng)有偽裝成烏克蘭少年的超級計算機通過(guò)了人工智能的圖靈基準測試。
異曲同工,我國的“百度大腦”已經(jīng)擁有200億個(gè)參數,構造起了世界上最大的深度神經(jīng)網(wǎng)絡(luò ),已經(jīng)具備了2~3歲孩子的智商。根據摩爾定律,百度大腦再繼續做十年、二十年的話(huà),很有可能就會(huì )比人腦還要聰明。因為技術(shù)的發(fā)展可以使得人的智力越來(lái)越大程度地被電腦所模仿,而融入了人工智能的電腦不僅可以達到人腦的智力,還可以具備人腦的邏輯能力。
人工智能,人類(lèi)的“終結者”?
今天,不斷發(fā)展的科技水平,越來(lái)越清晰地告訴人類(lèi):人工智能超越人類(lèi)智慧,即便還有相當漫長(cháng)的一段路要走,但它就在未來(lái)的某一天等著(zhù)我們。這從人類(lèi)已經(jīng)表現出來(lái)的,對于未來(lái)人工智能發(fā)展的擔憂(yōu)與恐懼中,也可見(jiàn)一斑。
去年年底,霍金在接過(guò)科幻作品接力棒的時(shí)候,就直接給出了一個(gè)警告:人工智能的發(fā)展可能意味著(zhù)人類(lèi)的末日。在今年的博鰲亞洲論壇上,比爾·蓋茨再次提醒,“人工智能方向是對的,但不能操之過(guò)急,不要輕易進(jìn)入未知的領(lǐng)域?!?/p>
人工智能的發(fā)展,真的會(huì )導致人類(lèi)的“終結”嗎?這種惡的想象,是必然的嗎?其實(shí),我覺(jué)得人類(lèi)關(guān)于人工智能發(fā)展控制的需求,與其說(shuō)是對機器人強大后對人類(lèi)“叛變”的焦慮,倒不如說(shuō)是人類(lèi)對于科技發(fā)展后,人類(lèi)心理所潛在的“惡”的恐懼。人類(lèi)糾結于有那么一天,機器人會(huì )反抗他們的“人類(lèi)”造物主,以致用他們超越人類(lèi)的能力將人類(lèi)趕盡殺絕。而事實(shí)上這反映出的,只是人類(lèi)對自身內心深處那一股“惡”的力量的不可控。
早在1942年,科幻作家艾薩克·阿西莫夫創(chuàng )造了著(zhù)名的“機器人三大定律”:機器人不得傷害人類(lèi)或坐視人類(lèi)受到傷害、機器人必須服從人類(lèi)的命令、在不違背第一和第二法則的前提下機器人必須保護自己?;诖?,人類(lèi)與機器人之間保持著(zhù)一定程度的“正能量”關(guān)系。但是,這個(gè)追求“人機和諧、社會(huì )和諧”的三大定律,更確切地說(shuō),只是人類(lèi)單方面的限令,希望以此讓機器人順理成章、理所當然地做人類(lèi)的奴役?;蛘哒f(shuō),人類(lèi)一方面希望擁有人工智能的機器人能夠非常聰明,并且幫助、替代我們完成一系列我們自身難以完成的事情;另外一方面又希望這個(gè)機器人很“老實(shí)”,永遠無(wú)條件忠誠于人類(lèi)的這樣一種矛盾的處境。
所以,一旦有人感覺(jué)到迅速發(fā)展的高科技超越了他們的可控范疇,那么焦慮和絕望的悲觀(guān)“科技恐懼”便油然而生。而這種心理,從本質(zhì)上來(lái)講,并不是來(lái)源于智能機器人的威脅,即使是,那也是基于人類(lèi)設定的前提之下的想象。真正的威脅,其實(shí)還是來(lái)自于人類(lèi)自身。就像《2001:太空漫游》中的HAL-9000,替人類(lèi)說(shuō)出了長(cháng)久以來(lái)三緘其口的信仰問(wèn)題:對造物主的質(zhì)疑,人類(lèi)是否可以反抗上帝。
人類(lèi)的明天,誰(shuí)來(lái)主載?
就人工智能本身而言,更多的就像是一個(gè)人類(lèi)的小孩,它的成長(cháng)與變化首先取決于人類(lèi)給予的環(huán)境。在影片《人工智能》中,未來(lái)世界人性泯滅,而機器男孩戴維則成為了“人性”的代表,他善良、真誠、渴望被愛(ài)。在《霹靂五號》中,Johnny5被雷擊后“活”了過(guò)來(lái),正直、幽默、熱愛(ài)生命的心靈讓人動(dòng)容。同時(shí),還有我們非常熟悉的哆啦A夢(mèng)、阿童木以及阿拉雷等卡哇伊的機器人形象。這些都是人類(lèi)的作品——“人工智能”的一種表現,它們傳達的是接受于人類(lèi)所傳遞給他們的信息。就如部分科學(xué)家所言,在未來(lái),人工智能會(huì )成為“人類(lèi)智慧的容器”;而人工智能的走向同樣受到人類(lèi)主觀(guān)能動(dòng)性的影響。
在《終結者》中,“天網(wǎng)”本身是一個(gè)超級武器,人類(lèi)給其灌輸了要消滅一切威脅的指令,它也堅決地執行了。而當“天網(wǎng)”發(fā)動(dòng)啟示錄戰爭要毀滅人類(lèi)的時(shí)候,其根本原因也是因為人類(lèi)感到害怕,要永遠關(guān)掉它,而這被“天網(wǎng)”認定為是一種威脅。在《復仇者聯(lián)盟:奧創(chuàng )紀元》中,人工智能奧創(chuàng )以“殺戮”的方式,忠實(shí)地履行著(zhù)創(chuàng )造者維護和平的意愿。因為在它看來(lái),這手段最行之有效。
同樣,在《超能查派》里,具有自我思維的機器人查派,剛被植入程序的時(shí)候就像一個(gè)新生兒,它的成長(cháng)與改變無(wú)不源于環(huán)境對于“人工智能”的影響。而在這個(gè)環(huán)境中起最大作用的,就是人類(lèi)。影片中,由迪恩研發(fā)控制的警用機器人很好地維護著(zhù)社會(huì )治安。而結果出問(wèn)題的,不是人工智能查派或警用機器人,是人類(lèi)自己文森特。如果有一天,人類(lèi)真的被人工智能所“終結”,那么,真正的罪魁禍首必將也是人類(lèi)自己的自私、貪婪與邪惡,人工智能充其量只是一種工具和手段。
就如中國幾千年文化中一直所爭論的:到底是“人之初,性本善”,還是“人之初,性本惡”,或許這還將會(huì )在人工智能領(lǐng)域再次延續著(zhù)。因為人工智能是善是惡,還是取決于人類(lèi)這個(gè)環(huán)境。同樣,人工智能最終是“融入”還是“叛變”人類(lèi),也取決于人類(lèi)自身。我認為:與其說(shuō)是人工智能對人類(lèi)的生存和發(fā)展構成威脅,還不如理解為,人工智能其實(shí)是對人類(lèi)人性的一種挑戰。
一言以蔽之:終結人類(lèi)者,必只有人類(lèi)自己!
聯(lián)系客服