文章來(lái)源:《自然辯證法研究》2019年05期;
作者單位:閆坤如,華南理工大學(xué)馬克思主義學(xué)院;
基金項目:國家社科一般項目“現代技術(shù)風(fēng)險的認識論問(wèn)題研究”(18ZXB047)。
內容摘要:人工智能機器是否具有道德以及是否構成道德主體引發(fā)學(xué)者思考,這涉及到對于道德主體的界定、對道德主體標準的思考,更涉及到對于智能機器與人類(lèi)的區別的反思,我們在對道德主體標準分析的基礎上,對道德嵌入的人工道德主體進(jìn)行倫理建構,在智能機器設計之初把"善"的理念嵌入到人工智能機器中,促進(jìn)與引導人工智能的發(fā)展。
關(guān)鍵詞:道德主體;準道德主體;道德物化;分布式道德;
人工智能先驅圖靈( Alan Turing) 在論文《計算機器與智能》中提出“機器是否能夠思維?”的疑問(wèn),同時(shí)提出機器可能具有智能的特征?!耙慌_沒(méi)有肢體的機器所能執行的命令,必須像上述例子( 做家庭作業(yè)) 那樣,具有一定的智能特征”〔1〕。強人工智能就是讓機器實(shí)現人類(lèi)智能,并且機器不僅僅是實(shí)現人類(lèi)智能的工具,機器具有人類(lèi)智能,那么計算機或者機器是否能夠成為像人類(lèi)一樣的道德主體呢? 這引發(fā)學(xué)者思考。我們通過(guò)學(xué)者對道德主體研究的嬗變以及對于道德主體標準的界定來(lái)分析。
一、道德主體的研究嬗變
1.道德主體從人到生命體的拓展。人工智能是否具有道德主體地位涉及到對道德主體研究的溯源。道德主體( Moral agent) 法律術(shù)語(yǔ)譯為“道德代理人”,指的是能夠具有主觀(guān)判斷且能夠承擔法律責任的人。道德主體指的是具有自我意識,能夠進(jìn)行道德認知、能夠進(jìn)行推理并形成自我判斷、能夠進(jìn)行道德選擇與實(shí)施道德行為且承擔道德責任的道德行為體。從這個(gè)意義來(lái)講,只有具有理性思維能力的人類(lèi)才具有道德主體地位。嬰幼兒、精神病患者等理性有限的人群雖然具有某些基本的道德能力,但不能完全對自己的行為負責,不能稱(chēng)其為道德主體??档? Kant) 把道德看作是理性當事人之間的關(guān)系,因此,嬰幼兒、精神病患者以及其它動(dòng)物應排除在道德主體的范疇之外。動(dòng)物倫理學(xué)家彼得·辛格( Peter Singer)反對這樣的觀(guān)點(diǎn),辛格提倡動(dòng)物解放,認為動(dòng)物具有與人同樣的主體地位; 在費因伯格( Joel Feinburg) 看來(lái),動(dòng)物與人都是生物進(jìn)化的結果,動(dòng)物具有人類(lèi)的意識與欲望,應該享有人類(lèi)主體一樣的生存權與自主權,應該賦予動(dòng)物與人類(lèi)一樣的道德主體地位。植物因為不具備動(dòng)機、意識、沖動(dòng)等,所以植物不可能具有人類(lèi)權益與道德身份。環(huán)境倫理學(xué)之父羅爾斯頓( Holmes Rolston)主張自然內在價(jià)值的合理性,環(huán)境包括動(dòng)物、植物在內都具有道德主體地位。自然界的自然屬性中包含的一切生命體都具有道德主體地位。
2.道德主體從生命體到技術(shù)人工物的轉變。1992年,拉圖爾( Bruno Latour) 提出技術(shù)人工物可以執行人類(lèi)道德,且執行道德規則的方式與人類(lèi)相似,技術(shù)人工物可以看作道德主體。比如,人工設計的道路減速帶作為一種道德媒介執行道德規則,對汽車(chē)駕駛員的道德行為產(chǎn)生影響,從而避免車(chē)輛超速駕駛,這樣,調節主體行為的技術(shù)人工物具有潛在的道德主體地位。2004年,維貝克( Pe-ter - paul Verbeek)提出“道德物化( materialization of morality)”的觀(guān)點(diǎn),所謂“道德物化”指的是把抽象的道德理念通過(guò)恰當的設計,在人工物的結構和功能中得以體現,從而對人的行為產(chǎn)生道德意義上的引導和規范作用。維貝克承認了技術(shù)人工物具有道德主體地位,人工物與人一樣成為道德主體。技術(shù)不能簡(jiǎn)單地被看成是人與世界中介的工具,人工物在人與世界的關(guān)系中發(fā)揮著(zhù)主動(dòng)性作用。技術(shù)的調節具有道德維度,技術(shù)物是道德承載者。技術(shù)人工物等技術(shù)裝置也顯示出道德意蘊,應該把客體的道德維度以及客體對主體道德的調節都納入道德范疇。阿特胡斯( Hans Achterhuis)主張“將裝置道德化”,比如,驗票閘門(mén)規范逃票行為,人工物的行為影響人類(lèi)行為主體的道德自主性,可以看作是道德主體。人工物不是道德中立的,它們可以引導人類(lèi)的道德行為以及影響人類(lèi)的道德結果,技術(shù)人工物可以通過(guò)使人類(lèi)行為合乎道德來(lái)促進(jìn)或加強道德。例如,如果一輛汽車(chē)在駕駛員不系安全帶的情況下發(fā)出警告,它就會(huì )觸發(fā)駕駛員的“系安全帶”這一個(gè)道德行為。在這個(gè)意義上來(lái)講,技術(shù)人工物具有道德主體地位。
3.道德主體從人工物到智能人工物的轉變。機器是否具有道德主體地位涉及到機器與人的區別問(wèn)題,2006年約翰遜( Deborah G.Johnson)在《計算機系統:道德實(shí)體非道德主體》〔2〕一文中圍繞意向性展開(kāi)對于道德主體的討論。意向性是人區別于機器的根本特征之一,即使機器與人具有同樣的行為,但機器不具有意向性,人具有意向性。如果智能機器不具有意向性,那么人工系統能否成為道德主體呢? 1978 年,斯洛曼( Aaron Sloman)在《哲學(xué)中的計算機革命———哲學(xué)、科學(xué)與心靈模式》〔3〕一書(shū)中論述了“未來(lái)機器人能夠思考和具有感知力”的可能性場(chǎng)景,因此,應該把機器納入道德主體的范疇,關(guān)注機器的倫理地位。丹尼爾森( Pe-ter Denielson) 在其著(zhù)作《人工道德:虛擬游戲的道德機器人》〔4〕和霍爾(Josh Storrs hall) 在其著(zhù)作《超越AI:讓機器產(chǎn)生良知》〔5〕都承認智能機器具有道德主體地位,關(guān)注設計道德機器??屏帧ぐ瑐? ColinAllen)、瓦納( Gary Varner)與澤欣爾( Jason Zinser)在文章《未來(lái)的人工道德主體原型》〔6〕引入“人工道德主體( Artificial Moral agents,簡(jiǎn)稱(chēng) AMAs)”這個(gè)術(shù)語(yǔ),直接承認了技術(shù)人工物的道德主體地位。機器與人對比是獨立的道德主體,機器能夠自我推理與自我決策,能夠觸犯人類(lèi)的利益,就如同一個(gè)人可以觸犯到另外一個(gè)人利益一樣。因此,可以把機器作為道德主體來(lái)看待。人工智能專(zhuān)家福斯特( Heinz von Foerster)認為現有的機器人不僅僅是倫理規則的被動(dòng)中轉者,還在現有道德生態(tài)中與其他施事者互動(dòng),應該把智能機器作為道德主體來(lái)規范。智能機器這種高度進(jìn)化的技術(shù)人工物具有自主行為和智能信息處理能力的,可以稱(chēng)為之道德智能主體。按照這種觀(guān)點(diǎn),道德主體的類(lèi)別除了人類(lèi)之外,還包括自主機器人和軟件主體。
縱觀(guān)學(xué)者對于道德主體的研究,經(jīng)歷了從具有自由意志的人類(lèi)到生命體、然后到不具有生命體征的人工物最后到智能人工物的研究范疇的轉變過(guò)程。
二、智能機器的道德主體標準分析
按照博施特羅姆( Nick Bostrom) 和尤德科夫斯基( Eliezer Yudkowsky) 的觀(guān)點(diǎn):“制造會(huì )思考的機器的可能性可能引發(fā)一系列的倫理問(wèn)題,這些問(wèn)題既與確保機器不傷害人類(lèi)有關(guān),也與其他道德上關(guān)聯(lián)的存在者有關(guān),也與機器本身的道德地位有關(guān)?!?〕”機器是不是具有道德主體地位,這涉及到對于道德主體標準的界定。
瓦拉赫( Wendell Wallach)與科林·艾倫在《道德機器:如何讓機器人明辨是非》〔8〕一書(shū)中專(zhuān)門(mén)花一章的筆墨討論機器的道德主體地位問(wèn)題,他們認為應該對道德主體進(jìn)行不同層次的劃分,他們提出三種不同類(lèi)型的道德主體:操作性道德( operational morality)、功能性道德( functional morality)與完全道德主體( full moral agency)。所謂操作性道德指的是工程師意識到自身的價(jià)值觀(guān)對于設計的影響以及他們對他人價(jià)值的敏感度。就像裝有防止兒童使用的安全設置的槍支,這種機器雖然缺乏自主性與敏感性,但在設計中包含了美國國家專(zhuān)業(yè)工程師學(xué)會(huì )( National Society of Professional Engineers,簡(jiǎn)稱(chēng)NSPE) 道德準則以及其他的行業(yè)規范所包含的價(jià)值理念。功能性道德指的是能夠評估自身行為的道德意義的智能系統,這種機器是具有倫理敏感性的機器。完全道德主體指的是具有自主決策系統及其情感交互能力的機器系統。
在笛卡爾看來(lái),機器智能的想法在形而上學(xué)上是荒謬的,因為心靈與身體是不同的物質(zhì),機器是實(shí)物,是人類(lèi)身體的延伸,在空間與時(shí)間上有廣延性,心靈則是有意識的精神原子。具有實(shí)物的機器不能具有心靈的智能特征。按照人工智能先驅鈕厄爾( Allen Newell)與西蒙( Herbert Simon)的觀(guān)點(diǎn),計算機程序是一系列的形式化符號,人工智能的符號進(jìn)路趨向于把機器學(xué)習當成是對一套預先確定的概念重新組合的過(guò)程,除非工程師有意去設計系統,否則,計算機智能就是建立在一個(gè)沒(méi)有欲望、動(dòng)機與目標的邏輯平臺上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主體地位,這種觀(guān)點(diǎn)遭到機器倫理學(xué)家的反對。例如,阿薩羅( Peter Asaro) 在智能機器倫理中提到三點(diǎn):“首先,如何設計機器人的行為倫理;其次,人類(lèi)如何在人工智能倫理中承擔責任;再次,從理論上講,機器人能成為完全的道德主體嗎?”〔9〕阿薩羅的第三點(diǎn)涉及到對于機器的道德主體地位的思考。如果技術(shù)人工物想成為道德主體,需要滿(mǎn)足以下兩個(gè)條件:首先,技術(shù)人工物必須具有道德身份;第二,技術(shù)人工物具有道德判斷,具有道德選擇、行為以及承擔責任的能力。按照阿薩羅的觀(guān)點(diǎn),理性人具有道德主體地位,人工物只是具有道德調節作用,還不具有完全的道德主體地位。泰勒( Paul Tailor)認為道德主體的必備條件要滿(mǎn)足以下五點(diǎn):“第一,判斷道德上正確或錯誤的能力;第二,權衡贊成和反對某些選擇的道德理?yè)哪芰?第三,依據這種權衡的結果做出決定的能力;第四,擁有實(shí)現這些決定所需的意志和能力;第五,為自己那些未能履行義務(wù)的行為做出解釋的能力等等?!薄?0〕按照泰勒對于道德主體的界定,機器不具有道德主體地位。塞爾( John Searle)設計著(zhù)名的“中文屋( Chinese Room)”思想實(shí)驗,顯示計算機可以在沒(méi)有理解與智能的情況下通過(guò)“圖靈測試”。荷蘭特溫特理工大學(xué)的布瑞( Philip Brey)提出“準道德主體( quasi - moral a-gents)”概念,他認為智能機器是準道德主體,作為道德主體應該符合以下三個(gè)特征:“有能力根據對與錯進(jìn)行推理、判斷和行動(dòng)的生物;對自己的行為應當遵守道德規范;對自己的行為負責,對自己的后果負責?!薄?1〕這三個(gè)特征共同構成了道德主體的界定標準。只有理性的人才有能力進(jìn)行道德推理,只有理性的人才有道德行為,只有理性的人才有道德責任感。不能分辨是非的成年人通常不被認為具有道德主體能力,智能機器可能具有道德決策能力,但大多數智能主體不具備道德思考的能力,因此,智能機器只能算“準道德主體”,不具有完全道德主體地位。塞拉斯( John Sullins)提出人工道德主體的必要條件是機器具有自主性、意向性與責任。如果機器具有人類(lèi)一樣的自主性、意向性,并且能夠像人類(lèi)一樣承擔責任,就具有道德主體地位。
從上述道德主體的界定標準來(lái)看,只有具有理性思維決策能力、能夠獨立的承擔責任的理性主體才具有道德主體地位,而現在人工智能的發(fā)展只處于弱人工智能階段,人類(lèi)還不能設計出具有人類(lèi)情感、具有獨立意識、選擇自由以及能夠獨立承擔責任的機器。所以,機器不具有道德主體地位。這種思路是以人是唯一道德主體的思路來(lái)分析的,但目前學(xué)者對于道德主體的研究已經(jīng)從人類(lèi)拓展到動(dòng)物甚至是技術(shù)人工物,對于道德主體應該具有新的界定與發(fā)展。
弗洛里迪( Luciano Floridi)與桑德斯( Sanders)直接承認智能機器的道德主體地位,進(jìn)一步給出了人工道德主體的標準。按照弗洛里迪與桑德斯的觀(guān)點(diǎn)人工道德主體應該具有交互性( interactivity)、自主性( autonomy)與適應性( adaptability)的特征。弗洛里迪與桑德斯提出對于所有X,X是一個(gè)道德主體,當且僅當X具有以下內容屬性:“第一,X及其環(huán)境能夠相互作用(交互性)屬性;第二,X能夠在沒(méi)有與外部世界交互的刺激的情況下改變其狀態(tài)(自主性);第三X能夠改變其轉換規則(屬性)‘適應性’;第四,X能夠起作用,例如道德上對世界的重大影響?!薄?2〕機器如果在沒(méi)有刺激的情況下具有改變狀態(tài)的能力、具有改變“轉換規則”的能力,就可能具有道德主體地位。按照這種說(shuō)法,強人工智能機器符合這些條件,因此可以稱(chēng)之為人工道德主體。弗洛里迪與桑德斯認為道德主體的概念并不一定表現出人類(lèi)主體的自由意志、精神狀態(tài)或責任,機器可能具有道德主體地位。
通過(guò)以上分析,關(guān)于道德主體的標準是不一致的,關(guān)于機器是否具有道德主體地位也有不同意見(jiàn),考慮到機器具有自主學(xué)習能力、可能具有自我意識、自由意志、人類(lèi)情感與人類(lèi)智能,因此,必須在智能機器的設計之初嵌入道德,設計者不能袖手旁觀(guān),應該關(guān)注機器的道德模型的構建,“賦予機器人倫理原則或者促進(jìn)機器人解決可能預見(jiàn)的倫理困境,在機器人自主做決定的時(shí)候,提高他們的道德考量比重?!薄?3〕
三、人工道德主體模型的構建
瓦拉赫與艾倫提出“道德圖靈測試”,關(guān)注機器設計中的道德嵌入,他們提出“道德圖靈測試”的兩種進(jìn)路,即“自上而下進(jìn)路( top - down approach) ”與“自下而上進(jìn)路( bottom - up approach) ”,所謂自上而下進(jìn)路就是把德性論( virtue theory)、義務(wù)論(deontological theory)、功利主義( utilitarian theory)、正義論( justice as fairness theory)等倫理學(xué)理論的倫理標準、規范與原則嵌入到人工智能體的設計中,在此基礎上,構建人工道德主體模型。阿西莫夫三定律是“自上而下”道德主體模型的模板,“任何討論‘自上而下’式的機器人道德設計不能不談阿西莫夫三定律?!薄?4〕“自下而上進(jìn)路”立足于創(chuàng )造一種環(huán)境能夠讓智能機器摸索自我判斷的行為模式,比如,像“電車(chē)難題”思想實(shí)驗就是根據不同的情境做出不同的道德選擇?!白韵露线M(jìn)路”與“自上而下進(jìn)路”的道德主體模型構建都堅持道德上“善”的行為標準,不同之處在于“自上而下進(jìn)路”關(guān)注普遍性倫理學(xué)理論基礎上的道德構建,而“自下而上進(jìn)路”獲得道德的方法是把規范化的價(jià)值當作機器隱含的內容。
弗洛里迪與桑德斯在承認機器的道德主體地位的基礎上,提出人工道德主體構建的前提是區分道德問(wèn)題與責任問(wèn)題。人類(lèi)能夠避免“責任+道德行為=規定行為”和“沒(méi)有責任就沒(méi)有道德行為,所以就沒(méi)有規定行為”的二分法。沒(méi)有責任,只有道德行動(dòng)的能力也是道德主體,環(huán)境與動(dòng)物也可以具有道德主體地位,智能機器聰明、自主、能夠獨立于人類(lèi)之外執行與道德相關(guān)的行為,因此存在“善的人工智能”與“惡的人工智能”的區別。所以道德主體構建要區分人類(lèi)、智能機器、動(dòng)物以及環(huán)境,這種道德主體的構建方式稱(chēng)之為人工智能的“分布式道德( distributed morality)”。
美國計算機學(xué)家邁克爾·安德森( Michael An-derson)、哲學(xué)家蘇珊·安德森(Susan Anderson)夫婦與克里斯·阿爾曼(Chris Arman)從經(jīng)典倫理學(xué)理論提出道德主體構建模型,他們認為機器倫理不同于計算機倫理,機器倫理關(guān)注的是機器對人類(lèi)用戶(hù)及其他機器的行為,因此,必須為機器添加道德維度,為了給機器增加道德維度,需要可操作的道德理論與道德原則,在此基礎上,他們給出兩個(gè)道德主體模型:基于邊沁(Bentham)的功利主義的倫理主體模型和基于羅斯(Ross)義務(wù)論直覺(jué)主義倫理學(xué)的倫理主體模型。行為功利主義道德主體模型基于邊沁的道德算術(shù)構建比人類(lèi)規范的模型,把倫理原則編程為算術(shù),讓機器像人一樣遵循行為功利主義理論。直覺(jué)主義者羅斯滿(mǎn)足于將決策權交給決策者的直覺(jué),但羅斯的理論強調表面責任,他認為沒(méi)有義務(wù)是絕對的,也沒(méi)有給出義務(wù)的明確等級,因此,在羅斯的理論下,如何做出道德決策是不清楚的。安德森夫婦與阿爾曼立足于為機器倫理奠定理論基礎,他們基于行動(dòng)的道德理論開(kāi)發(fā)計算機系統,他們結合行為功利主義與義務(wù)論直覺(jué)主義的理論構建機器學(xué)習決策程序,他們的計算機模型克服了羅斯模型的不確定性,使用一種學(xué)習算法來(lái)調整對責任的判斷,既考慮了表面責任,也考慮了過(guò)去對涉及這些責任的類(lèi)似或不相似案例的直覺(jué)。
為了構建人工智能的道德主體模型,哲學(xué)家與倫理學(xué)家積極嘗試,致力于在機器中嵌入人類(lèi)“善”的道德。不同于悲觀(guān)主義者認為人工智能將不可避免地制造出擁有巨大力量、行為不道德的機器人的觀(guān)點(diǎn)。樂(lè )觀(guān)主義者堅持用倫理學(xué)方法來(lái)排除惡意機器人的產(chǎn)生以及發(fā)揮作用。例如,鮑爾斯( Thomas Powers)在《康德機器的前景》〔15〕中意欲制造出康德式機器( Kantian machine)確保機器人行為符合道德規范;阿寇達斯( Konstantine Arkoudas)和布林斯喬德( Selmer Bringsjord)在《機械化道義邏輯向倫理機器人邁進(jìn)〔16〕中論證了道義邏輯應用于制造道德機器的可能性;格勞( Christopher Grau)在論文《“機器人”中沒(méi)有“我”:機器人功利主義者和功利主義機器人》〔17〕中討論了功利主義模式下的機器人,格勞運用邏輯學(xué)理論或者倫理學(xué)理論在人工智能的設計之初嵌入人類(lèi)道德?!袄硇詸C器嵌入了道德元素,如程序規則的行為,可能構成人工道德主體所需的理性?!薄?8〕智能機器設計者應該在設計之初保持設計理性,對所設計的智能機器可能存在的倫理問(wèn)題提前預判與評估,雖然有的學(xué)者反對智能機器具有意向性或者具有道德主體地位但均未否認技術(shù)物具有道德調節作用,也不否認技術(shù)可以通過(guò)設計改變人類(lèi)的道德行為。
總之,智能機器具有不確定性,不管智能機器是否具有人類(lèi)的道德主體地位,都應該對人工智能可能帶來(lái)的危害做出防范,人類(lèi)在智能機器設計之初把“善”的理念嵌入到人工智能中,使得人工智能操作系統不僅要遵守法律,還要遵守社會(huì )的道德規范,減少智能機器危害人類(lèi)的可能性,發(fā)揮其對人類(lèi)進(jìn)步以及社會(huì )發(fā)展的作用。
聯(lián)系客服