![]() 特斯拉汽車(chē)公司的創(chuàng )始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò )上連發(fā)兩條聳人言論,警告人類(lèi)要對人工智能特別小心,因為人工智能在未來(lái)很可能比核武器還要危險。 埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類(lèi)時(shí)代的終結》的書(shū),這本書(shū)的作者認為,人工智能的出現將會(huì )為人類(lèi)帶來(lái)滅頂之災。暫且不說(shuō)這種可能性有多大,僅從目前來(lái)看,人工智能對待人類(lèi)的態(tài)度還算友善。 比方說(shuō),前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來(lái)了一項特殊功能——控制智能家居,假如你在微信中對小冰下達關(guān)燈的指令,家中的智能電燈就能自動(dòng)關(guān)閉。假如有一天小冰不高興了,頂多不聽(tīng)你的指揮,拒絕開(kāi)燈,尚不至于要了你的命。當然,如果未來(lái)你家的電鋸也受小冰控制,那就不好說(shuō)了。 所以,我說(shuō)目前人工智能對待人類(lèi)的態(tài)度還算友善,這句話(huà)還隱藏另外一個(gè)意思,就是即便它不友善,現在也還沒(méi)到對人類(lèi)生命構成威脅的時(shí)候。不過(guò),埃倫·馬斯克的擔憂(yōu)也并非杞人憂(yōu)天,我認為人工智能哪怕具備以下四點(diǎn)中的一點(diǎn),就足以對人類(lèi)帶來(lái)不可想象的后果。 一、通過(guò)圖靈測試 著(zhù)名的“圖靈測試”說(shuō)的是假如一臺電腦能在5分鐘內回答人類(lèi)提出的一系列問(wèn)題,且超過(guò)30%的答案讓測試者誤認為是人類(lèi)所答,那么這臺電腦就通過(guò)了測試,并被視為具有人類(lèi)智能。 30%的說(shuō)法是由英國人工智能之父阿蘭·圖靈提出的,這個(gè)標準現在愈發(fā)遭到人們質(zhì)疑。圖靈本人后來(lái)也否認自己曾為這項測試設定所謂標準,30%只是自己隨口一說(shuō)。說(shuō)者無(wú)心聽(tīng)者有意,圖靈去世后37年,美國科學(xué)家兼慈善家休·勒布納把這項將這項測試辦成了一年一屆的賽事,這項賽事從1991年開(kāi)始,直到2014年6月,主辦方才宣布首臺計算機通過(guò)測試。不過(guò)這次事件隨后遭到媒體質(zhì)疑,將其視為一次炒作。 我對此到有些不同的看法。計算機之所以能夠通過(guò)測試,依托于強大的數據庫作為支撐。在接受測試之前,計算機已經(jīng)有了大量的人類(lèi)知識作為儲備,以及人類(lèi)為它精心編制的智能化程序。也就是說(shuō)測試的實(shí)質(zhì)是由作為人類(lèi)的測試者提出問(wèn)題,然后再由偽裝成人類(lèi)的計算機說(shuō)出人類(lèi)為其設定好的答案作為回答。許多質(zhì)疑者認為,這項測試表面上看是計算機與人類(lèi)之間的較量,實(shí)際上只是人與人的博弈。我倒認為,測試的實(shí)質(zhì)和結果并不重要,重要的是它的的確確騙過(guò)了一些人。 如果拿人類(lèi)本身來(lái)舉例,一個(gè)孩子編造的謊言很難騙過(guò)一個(gè)成年人。這是因為成年人比孩子的生活經(jīng)歷更為豐富,辨別真偽的能力自然也更強一些。這么一想,那個(gè)偽裝成13歲男孩的計算機“尤金”之所以?xún)H僅騙過(guò)了30%而不是更多的人,只是因為他的“經(jīng)歷”還不夠豐富,也就是說(shuō)如果他的數據儲備足夠強大,程序足夠智能,讓更多的人上當只是時(shí)間問(wèn)題。而現在他已經(jīng)以一個(gè)13歲孩子的身份成功騙過(guò)了30%的成年人,也就是說(shuō)相比13歲的人類(lèi),尤金顯然更為智慧。 盡管目前人工智能還停留在對人類(lèi)的拙劣模擬階段,但隨著(zhù)人工智能技術(shù)的發(fā)展,有一天計算機將可以通過(guò)對性別、年齡、職業(yè)、生活習慣等方面的數據分析,進(jìn)行智能化的模擬,好比現在的新聞網(wǎng)站會(huì )根據你的瀏覽習慣進(jìn)行智能化的推薦。那時(shí),計算機將可以模仿任何人,坑蒙拐騙等犯罪行為將成為司空見(jiàn)慣的事。 二、超越人類(lèi)智慧 事實(shí)上,人工智能在數據計算、博弈系統、管理系統等許多領(lǐng)域已經(jīng)超越了人類(lèi)智慧,Kiva智能倉儲系統實(shí)現了倉儲自動(dòng)化應用、深藍超級計算機在1997年戰勝了國際象棋冠軍、沃森超級計算機在2011年的智力競賽中戰勝人類(lèi)、由谷歌制造的無(wú)人駕駛汽車(chē)也即將成為現實(shí)。這意味著(zhù)計算機在這些領(lǐng)域中已經(jīng)超越了人類(lèi)智慧,由此引發(fā)的直接后果將是相關(guān)從業(yè)者將不得不面臨失業(yè)的處境。 好比無(wú)人售票系統的投入使用導致售票員的失業(yè),無(wú)人駕駛汽車(chē)的出現也將讓司機這一職業(yè)成為歷史。而在計算方面,人類(lèi)幾乎已經(jīng)全部依賴(lài)于計算機,口算、心算和珠算等計算方式已經(jīng)被當做一種特殊能力,作為表演常常出現在電視節目里。更加貼近我們生活的例子是,人們在處理生活難題時(shí)也越來(lái)越依賴(lài)于計算機給出的經(jīng)驗和答案,而不是依靠自身思考。比如我們中國人最為熟悉的“百度一下,你就知道”。 人類(lèi)在某些領(lǐng)域已經(jīng)越來(lái)越依賴(lài)于計算機,從而使得人類(lèi)本身在這些領(lǐng)域逐漸喪失了與計算機的競爭能力。換個(gè)角度說(shuō),人類(lèi)正在逐漸放棄自己的智能,而將這種智能賦予了計算機。如果說(shuō)由此導致的失業(yè)問(wèn)題會(huì )有一個(gè)循序漸進(jìn)的過(guò)程,而不至于引發(fā)人類(lèi)恐慌,那么更嚴重的問(wèn)題是,假如有一天計算機突然失去某些能力,或者拒絕施展某些能力,而人類(lèi)本身已經(jīng)不具備這項能力,后果將會(huì )如何? 三、擁有創(chuàng )造能力 機器與人類(lèi)一樣,都具備學(xué)習的能力,不同的是機器的學(xué)習依賴(lài)于經(jīng)驗的積累,其過(guò)程也就是不斷地增加知識的儲備量,和不斷地從處理問(wèn)題的過(guò)程中獲取經(jīng)驗,從而在遇到同類(lèi)問(wèn)題時(shí)根據知識和經(jīng)驗解決問(wèn)題,也就是我們通常所說(shuō)的“舉一反三”。而人類(lèi)不同于機器之處在于,人類(lèi)的學(xué)習除了經(jīng)驗的積累之外,同時(shí)還具有創(chuàng )造力。 人類(lèi)的這種創(chuàng )造力又被稱(chēng)為“跳躍型學(xué)習”,在某些情形下也被稱(chēng)為“靈感”或“頓悟”。一直以來(lái),計算機最難學(xué)會(huì )的就是“頓悟”?;蛘咴?lài)栏褚恍﹣?lái)說(shuō),計算機在學(xué)習和“實(shí)踐”方面難以學(xué)會(huì )“不依賴(lài)于量變的質(zhì)變”,很難從一種“質(zhì)”直接到另一種“質(zhì)”,或者從一個(gè)“概念”直接到另一個(gè)“概念”。缺乏創(chuàng )造力,也就意味著(zhù)機器將很難突破自身知識儲備的局限性,從而像人類(lèi)一樣完成自我進(jìn)化和完善。 不過(guò),人類(lèi)在幫助計算機超越自己上向來(lái)毫不吝嗇,據說(shuō),科學(xué)家們已經(jīng)研究出了一套新的數據分析方式,這套分析方法將為機器的具備創(chuàng )造力提供可能性。人類(lèi)在計算能力上已經(jīng)遠遠落后與機器,如果在創(chuàng )造力上也失去優(yōu)勢,無(wú)異于將世界拱手讓給機器。 四、擁有人類(lèi)感情 很顯然,科學(xué)家們絕不會(huì )滿(mǎn)足于一臺智能化的僅限于進(jìn)行處理人類(lèi)作業(yè)的機器,而會(huì )進(jìn)一步賦予機器以類(lèi)似于人類(lèi)的感情表達能力?,F在智能聊天機器人已經(jīng)可以通過(guò)對人類(lèi)文字的分析做出相應的摻雜有人類(lèi)感情的回答,比如你對它說(shuō)“我愛(ài)你”,它會(huì )做出“我也愛(ài)你”的回答。比如升級之后的微軟小冰,會(huì )刻意與領(lǐng)養者形成一種主仆關(guān)系。這些都是機器做出的類(lèi)似于人類(lèi)的感情表達。 人類(lèi)感情有喜怒哀樂(lè )等多種形式,作為對人類(lèi)的模仿,機器自然也應具備這些能力,否則按照人類(lèi)對人工智能的標準,就算不上是智能。這種情況就導致人類(lèi)很容易與機器建立起類(lèi)似于人類(lèi)之間的情感關(guān)系。比如相互欣賞、相互信任或者相互厭惡。假如與你互相信任的機器有一天突然感染某種病毒對你實(shí)施詐騙,你很有可能就會(huì )信以為真。這就要回到了機器利用模擬人類(lèi)的方式對人類(lèi)實(shí)施犯罪行為的問(wèn)題。 假如你與機器彼此之間產(chǎn)生了相互厭惡的情緒,那么機器就有可能因此而拒絕執行你下達的命令,甚至做出傷害你的行為。鑒于這種可能性,科幻小說(shuō)家艾薩克·阿西莫夫在他的小說(shuō)中為機器人設定了三大定律。一是機器人不得傷害人類(lèi),二是機器人必須服從于人類(lèi),三是在不違背第一第二法則的前提下,機器人必須保護自己。不過(guò)定律只是定律,制定出來(lái)就是用來(lái)違反的。 人工智能本身就是對人類(lèi)的模仿,人分善惡,誰(shuí)能保證機器的絕對無(wú)害呢? 文章為作者獨立觀(guān)點(diǎn),不代表虎嗅網(wǎng)立場(chǎng) 向作者提問(wèn) 加入文集 |
聯(lián)系客服