來(lái)源: AI科技大本營(yíng)
整理:琥珀
近日《連線(xiàn)》雜志發(fā)表了一篇文章,記錄了與“深度學(xué)習之父” Geoffrey Hinton 圍繞人工智能倫理、技術(shù)、學(xué)術(shù)等領(lǐng)域的采訪(fǎng)實(shí)錄。當被問(wèn)到如今人工智能是否將走進(jìn)寒冬時(shí),Hinton 的回答非常堅決:“不會(huì )有‘人工智能寒冬’。因為 AI 已經(jīng)滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現在它是了?!?/span>
在 20 世紀 70 年代早期,一位名叫 Geoffrey Hinton(杰弗里·辛頓)的英國研究生開(kāi)始構建簡(jiǎn)單的數學(xué)模型,以說(shuō)明人類(lèi)大腦中的神經(jīng)元是如何在視覺(jué)上理解世界的?!叭斯ど窠?jīng)網(wǎng)絡(luò )”,正如其名,幾十年來(lái)仍被視為一種不切實(shí)際的技術(shù)。但在 2012 年,Hinton 和他在多倫多大學(xué)的兩名研究生 Alex Krizhevsky、Ilya Sutskever 通過(guò)人工神經(jīng)網(wǎng)絡(luò )來(lái)提高計算機識別照片中物體的準確性,他們設計的深層卷積神經(jīng)網(wǎng)絡(luò ) AlexNet,也一舉奪得了當年 ImageNet LSVRC 的冠軍。僅僅半年后,Google 公司收購了這三位研究人員創(chuàng )立的創(chuàng )業(yè)公司。至此,卷積神經(jīng)網(wǎng)絡(luò )(CNN)也由此將深度學(xué)習推進(jìn)了新的歷史階段。
在此之前,人工智能不為多數人知曉,而今卻已是硅谷炙手可熱的話(huà)題。
在上周蒙特利爾舉辦的 G7 人工智能會(huì )議上,《連線(xiàn)》雜志采訪(fǎng)了 Hinton,此次會(huì )議的主要參講嘉賓來(lái)自世界領(lǐng)先的工業(yè)化經(jīng)濟體,他們共同討論了鼓勵人工智能發(fā)展的益處,以及如何減少失業(yè)和偏見(jiàn)學(xué)習算法的缺陷問(wèn)題。
以下采訪(fǎng)經(jīng)過(guò)編輯整理如下:
Wired:加拿大總理 Justin Trudeau 在七國集團會(huì )議上表示,人工智能帶來(lái)的道德挑戰問(wèn)題需要更好的得到解決。對此您怎么看?
Geoffery Hinton:我一直擔心致命的自主武器可能會(huì )被濫用。我認為應該像《日內瓦公約》禁止化學(xué)武器那樣禁止它們。即使不是每個(gè)人都簽署這項協(xié)議,但它實(shí)際上扮演著(zhù)的是一種道德象征。你會(huì )注意到誰(shuí)沒(méi)有簽署。
Wired:據了解,有 4500 多名 Google 的員工簽署了一封抗議五角大樓合約的信件,其中涉及了將機器學(xué)習應用于無(wú)人機圖像。Google 聲稱(chēng)這并非用于攻擊性用途。您當時(shí)簽署了這封信嗎?
Geoffery Hinton:作為一名 Google 高管,我不認為這是我能公開(kāi)投訴的地方,所以我私下會(huì )抱怨這個(gè)問(wèn)題。我沒(méi)有簽署這封信,但我與 Google 的聯(lián)合創(chuàng )始人謝爾蓋·布林談過(guò)。他說(shuō)他對此也有點(diǎn)不太高興,他們也不會(huì )追求這樣的事情。
Wired:Google 的領(lǐng)導者決定完成但不續簽合同。他們發(fā)布了一些有關(guān)使用人工智能的指導方針,其中包括不使用該技術(shù)制造武器的承諾。
Geoffery Hinton:我認為 Google 做出了正確的決定。會(huì )有各種各樣的問(wèn)題需要云計算解決,所以很難能劃分出一個(gè)比較清晰的界限,從某種意義上這也是隨機的??吹?Google 最后制定的底線(xiàn)我還是尤為高興的。這種原則對我來(lái)說(shuō)很有意義。
Wired:人工智能也可以在日常情況下出現道德問(wèn)題。例如,當軟件在用于社會(huì )服務(wù)或醫療保健中給出判斷時(shí),我們應該注意些什么?
Geoffery Hinton:我是一名試圖將技術(shù)發(fā)揮作用的專(zhuān)家,不是社會(huì )政策方面的專(zhuān)家。在這方面,從我技術(shù)的角度來(lái)看,監管機構應該決定是否堅持:你可以解釋你的 AI 系統是如何工作的。我認為這是一場(chǎng)徹底的災難。
對于自己所做的大多事情,人們根本是無(wú)法解釋的。當你聘請某人,你將取決于各種可以量化的事情進(jìn)行判斷,然后才是你的直覺(jué)。人們不清楚自己是如何完成這個(gè)決策的。如果你非要他們解釋這個(gè)原因,那你就是在強迫他們編造一個(gè)故事。
神經(jīng)網(wǎng)絡(luò )同樣也有類(lèi)似的問(wèn)題。當你訓練神經(jīng)網(wǎng)絡(luò )時(shí),它將學(xué)習十億個(gè)數字,這些數字代表著(zhù)它從訓練數據中提取的知識。如果你輸入一張圖片,做出正確的判斷如“這是一個(gè)行人”。但如果你問(wèn)“為什么會(huì )這么想?”如果有任何簡(jiǎn)單的規則來(lái)判斷圖像是否包含行人,那么這個(gè)問(wèn)題早就被解決了。
Wired:那我們怎么能知道何時(shí)能信任這些系統呢?
Geoffery Hinton:你應該根據系統的表現進(jìn)行規范,即運行幾組實(shí)驗看看這個(gè)系統是否存在偏差。對于自動(dòng)駕駛汽車(chē),我想現在人們開(kāi)始接受了這一概念。即使你不太了解自動(dòng)駕駛汽車(chē)是如何做到這一點(diǎn)的,但如果事故發(fā)生的次數遠遠少于人類(lèi)駕駛汽車(chē)的次數,那這是一件好事。我認為我們必須像對待人們那樣去做:你只看到它們的表現,如果反復出現問(wèn)題,那就說(shuō)明它們不那么好了。
Wired:您之前提到,思考大腦的工作方式可以激發(fā)你對人工神經(jīng)網(wǎng)絡(luò )的研究。我們的大腦通過(guò)感覺(jué)器官突觸連接的神經(jīng)元網(wǎng)絡(luò )獲取信息;人工神經(jīng)網(wǎng)絡(luò )則通過(guò)數學(xué)神經(jīng)元網(wǎng)絡(luò )提供數據,并通過(guò)“權重”進(jìn)行連接。在此前發(fā)表的一篇論文中,您和幾位共同作者認為應該做更多的工作來(lái)解釋大腦工作的學(xué)習算法。為什么?
鏈接:https://arxiv.org/abs/1807.04587
Geoffery Hinton:這套算法解決的問(wèn)題與我們大多數神經(jīng)網(wǎng)絡(luò )有很大不同。人腦大約有 100 萬(wàn)億個(gè)突觸。人工神經(jīng)網(wǎng)絡(luò )擁有的數量通常至少小 1 萬(wàn)倍。人腦使用大量的突觸從而盡可能多地從幾個(gè)片段中學(xué)習。深度學(xué)習擅長(cháng)在神經(jīng)元之間使用更少的“連接”進(jìn)行學(xué)習。我認為大腦并不關(guān)心將大量知識壓縮到幾個(gè)“連接”中,它關(guān)注的是通過(guò)大量“連接”快速提取知識。
Wired:我們如何構建功能更強大的機器學(xué)習系統?
Geoffery Hinton:我認為我們需要轉向另一種計算。幸運的是,我這里就有一個(gè)。(這是一款來(lái)自英國初創(chuàng )公司 Graphcore 的原型芯片,用于加速機器學(xué)習、深度學(xué)習算法實(shí)現。)
幾乎我們運行神經(jīng)網(wǎng)絡(luò )模型的所有計算機系統,甚至包括 Google 的特殊硬件,都使用 RAM 存儲。從 RAM 中獲取神經(jīng)網(wǎng)絡(luò )的權重需要耗費大量的計算資源,所以處理器可以幫忙解決。一旦每個(gè)系統都確保獲得了權重,處理器就會(huì )不斷計算。這是一項巨大的成本,也就是說(shuō)你根本無(wú)法改變你為每個(gè)訓練樣本耗費的資源。
在 Graphcore 的芯片上,權重存儲在處理器中的高速緩存中,而不是存儲在 RAM 中,也不需要移動(dòng),因此,事情就變得比較簡(jiǎn)單了??赡芪覀儠?huì )得到一個(gè)系統,比如一萬(wàn)億個(gè)權重。這更像是人腦的規模。
Wired:最近人工智能和機器學(xué)習的興趣和投資熱潮意味著(zhù)研究資金比以往任何時(shí)候都多。該領(lǐng)域的快速增長(cháng)也是否帶來(lái)了新的挑戰?
Geoffery Hinton:社區面臨的一個(gè)巨大挑戰是,如果你想發(fā)表一篇機器學(xué)習的論文,那么論文中就一定要有劃分了不同數據集的數據表格做支撐,還要有不同的方法,且方法必須看起來(lái)最優(yōu)。如果不是這樣的話(huà),那么這篇論文有可能很難發(fā)表。我不認為這種方式鼓勵了人們可以大膽思考。
如果你有一篇全新觀(guān)點(diǎn)的論文,那么就不一定能有機會(huì )評審通過(guò)。因為一些年輕的評審員并不理解這篇論文觀(guān)點(diǎn)。再或者,放在資深評審員面前,他又會(huì )因為評審了太多論文,一時(shí)意識不到這篇論文究竟是不是無(wú)稽之談。任何有悖于大腦(常理)的事情都不會(huì )被接受。所以,我認為這非常糟糕。
我們應該做的,特別是在基礎科學(xué)會(huì )議上,是誕生一個(gè)全新的想法。因為從長(cháng)遠來(lái)看,我們知道一個(gè)全新的想法會(huì )比一個(gè)細微的改進(jìn)更有影響力。我認為現在出現這一本末倒置的原因,就是因為有了一大批年輕人和一小部分資深人士構成的評審隊伍。
Wired:那么這會(huì )損害該領(lǐng)域的進(jìn)展嗎?
Geoffery Hinton:只需要等幾年,這種不平衡將自行糾正。這也是暫時(shí)的。企業(yè)正忙著(zhù)教育用戶(hù),大學(xué)正忙著(zhù)教育學(xué)生,大學(xué)將最終聘請該領(lǐng)域更多的學(xué)者教授,一切將走向正規。
Wired:一些學(xué)者警告說(shuō),目前的炒作可能會(huì )像 20 世紀 80 年代那樣進(jìn)入“人工智能寒冬”,當時(shí)是用于研究進(jìn)展不符合預期,而人們對 AI 的興趣以及資金支持枯竭了。
Geoffery Hinton:不,不會(huì )有“人工智能寒冬”。因為 AI 已經(jīng)滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現在它是了。
參考鏈接:https://www.wired.com/story/googles-ai-guru-computers-think-more-like-brains/
未來(lái)智能實(shí)驗室是人工智能學(xué)家與科學(xué)院相關(guān)機構聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機構。
未來(lái)智能實(shí)驗室的主要工作包括:建立AI智能系統智商評測體系,開(kāi)展世界人工智能智商評測;開(kāi)展互聯(lián)網(wǎng)(城市)云腦研究計劃,構建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。
聯(lián)系客服