作者簡(jiǎn)介:埃里克·希爾根多夫,德國尤里烏斯—馬克西米安—維爾茨堡大學(xué)刑法學(xué)、刑事訴訟法學(xué)、法理學(xué)、信息法學(xué)與法律信息學(xué)教授以及大學(xué)機器人法律研究中心主任;黃笑巖,德國尤里烏斯—馬克西米安—維爾茨堡大學(xué)刑法學(xué)博士研究生,刑法學(xué)、刑事訴訟法學(xué)、法理學(xué)、信息法學(xué)與法律信息學(xué)教席科研助理。
文章來(lái)源:《法治現代化研究》2019年第1期
內容提要
數字化革命尤其是人工智能的廣泛應用不僅引發(fā)了人類(lèi)工作生活的巨大變革,也對法律職業(yè)以及刑法學(xué)工作產(chǎn)生了跨時(shí)代的影響。鮑納塔爾案、阿沙芬堡案、自動(dòng)駕駛的悖論問(wèn)題和“Tay”案已經(jīng)預示著(zhù)人工智能并不是百分之百的安全,人類(lèi)在未來(lái)遭受其損害的概率會(huì )顯著(zhù)提升。即使如此,法律的演進(jìn)仍應謹慎、適度,嘗試以現有的法律教義學(xué)方法解決人工智能所帶來(lái)的新的法律問(wèn)題。
關(guān)鍵詞
數字化革命;人工智能;法律教義學(xué)方法;被允許的風(fēng)險
一、數字化革命
我們是當今這場(chǎng)史無(wú)前例的技術(shù)、經(jīng)濟以及社會(huì )變革的見(jiàn)證人。數字化革命——一些人甚至將其稱(chēng)為“世界的數字化轉變”——涵蓋了我們的生活和工作的方方面面。它們造成改變的速度和沖擊力可以媲美工業(yè)革命。如果法學(xué)不想僅僅作為邏輯嚴謹的文字游戲存在的話(huà),就需要面對界定數字化轉化范圍以及捍衛我們法律以人為本的任務(wù)。
為了應對這一挑戰,我們需要首先了解數字化革命的特點(diǎn)??蓪底只斫鉃閷⑷我庑畔⒄故緸?和1的序列。它可以在計算機中實(shí)現無(wú)與倫比的快速有效的信息處理和存儲,這些數據可以實(shí)時(shí)地在全球范圍內被使用,幾乎不會(huì )浪費任何時(shí)間。此外,數字化實(shí)現了信息“可塑性”的新維度:在數字化的基礎上,文本可以以音頻、圖像和視頻的形式展示。在不久的將來(lái)應該會(huì )出現觸覺(jué)脈沖。這一步驟在某一時(shí)候將被用來(lái)創(chuàng )建與人腦的直接接口。
數字化的另一成果使得物體和進(jìn)程虛擬成為可能,也就是說(shuō)在計算機中形成真實(shí)世界的虛擬對應物。虛擬化的趨勢已經(jīng)涵蓋了我們大部分的通信交流,并且正在擴展到我們的工作以及閑暇生活中。厘清“虛擬現實(shí)”帶來(lái)的機遇以及風(fēng)險可能是未來(lái)技術(shù)引導的最大挑戰之一。
另外兩個(gè)與數字化密切相關(guān)的主要技術(shù)趨勢是人工——或者更好的表述為——機械的智能和機器人的發(fā)展?,F在難以定義這兩個(gè)概念。如果我們將人類(lèi)作出的某一行為視為“智能的”,那么也往往將由機器作出的同樣的行為視為“智能的”(或者“聰明的”)。鑒于我們對人類(lèi)智能存在巨大的理解和定義困難,所以這個(gè)定義并不是很有說(shuō)服力。智能需要具備獨立解決較為復雜的任務(wù),并適應不斷變化的環(huán)境的能力。從錯誤中學(xué)習的分析能力可能是理解智能的關(guān)鍵。今日的機器也都具有這些能力。
導致人們對“人工智能”理解復雜化的一個(gè)因素是人類(lèi)的擬人化傾向(Anthropomorphisierung),以及對獨特性的需求。我們試圖類(lèi)推人類(lèi)的能力來(lái)解釋機器的能力,同時(shí)又嫉妒性地認為機器只是在“模仿”我們。這兩種趨勢似乎都存在問(wèn)題:一方面,機器的能力在可預見(jiàn)的未來(lái)會(huì )越來(lái)越專(zhuān)精于特定領(lǐng)域;另一方面,人類(lèi)的潛力在“它們”的領(lǐng)域正日益落后。很長(cháng)時(shí)間以來(lái),國際象棋的電腦程序已經(jīng)能夠擊敗所有的人類(lèi)玩家,甚至包括國際象棋的世界冠軍。然而玩“連珠棋”、剝雞蛋殼以及咖啡服務(wù)對于這種程序而言又過(guò)于苛求。若認為國際象棋程序“不是真的”下國際象棋,這種論點(diǎn)難以成立——如何將根據游戲規則移動(dòng)棋子,力圖讓對手“損失”的能力理解成不是“下國際象棋”?一些程序的卓越成績(jì)引發(fā)了機器具有自我愿望和自我意識的設想。這在目前看來(lái)(仍然?)不被認可。
除了擬人化傾向,還有一個(gè)明顯的強烈需求是為人類(lèi)保留特定的能力。只有人類(lèi)才能具有“真正的智能”。因此,“人工智能”的概念是一種“界限概念”。隨著(zhù)機器在迄今為人類(lèi)預留的領(lǐng)域中越來(lái)越多的推廣,該概念就不斷地回縮。國際象棋游戲仍可作為這方面一個(gè)很好的范例:它被視為人類(lèi)智能和創(chuàng )造性的頂峰,直到國際象棋程序被設計出來(lái),這種程序的游戲技巧可與人類(lèi)相媲美。從國際象棋程序“深藍”在1996年擊敗國際象棋世界冠軍卡斯帕羅夫以來(lái),很多棋類(lèi)活動(dòng)就不再被認為需要什么特殊的智力能力,而只是需要在最短的時(shí)間內計算無(wú)數的比賽選項。這樣的程序也因而不被認為具有“真正的智能”。
以上所提到的困難恰恰證明了應該命名為“機械的智能”或者“機器智能”,而非“人工智能”,并且對此不再理解為一種普遍解決領(lǐng)域特定的問(wèn)題的特殊能力以及與此相關(guān)的獨立從錯誤中學(xué)習的能力。它無(wú)論如何必須是一種對復雜問(wèn)題進(jìn)行數據處理的功能。
類(lèi)似問(wèn)題也出現在機器人制造技術(shù)領(lǐng)域(Robotik)。工程技術(shù)科學(xué)中并沒(méi)有統一定義機器人的概念。對于法學(xué)目的而言,可暫且將“機器人”理解為一種具有執行功能(Aktuator)并對“世界”產(chǎn)生實(shí)體影響的機械智能。在特定情形下也可以將機器人固定在某領(lǐng)域(例如工業(yè)機器人),并且它不一定要具有人形樣式。然而,可以設想未來(lái)會(huì )出現許多人形機器人,因為只有這樣才能使機器在人類(lèi)預設的環(huán)境中靈活移動(dòng),成為我們的助手、陪伴者和工作伙伴。
沒(méi)有其他技術(shù)像機械智能和機器人那樣在文獻中醞釀了百年之久?!皺C器人”概念最早出現于1920年捷克作家凱勒爾·凱佩克的幻想劇《羅莎姆的萬(wàn)能機器人》中。值得注意的是,劇中的機器人不是由金屬制成,而是由生物材料制成。從那時(shí)起,機器人和機械智能就成為大眾文化不可分割的一部分,例如,1968年的電影《2001:太空漫游》中的超智慧電腦“HAL9000”;1984年的電影《終結者》系列以及1999年的電影《黑客帝國》中的“史密斯特工程序”。值得注意以及對法律討論而言非常重要的是,人工智能和機器人的發(fā)展總被視為對人類(lèi)的威脅。最知名的例外是美國科幻小說(shuō)家艾薩克·阿西莫夫將機器人視為人類(lèi)的仆人和朋友,而非敵人。
02
二、數字化與刑法
之前粗略描述了數字化、機械智能和機器人的發(fā)展,這對于刑法意味著(zhù)什么?為了回答這個(gè)問(wèn)題,應該區分以下三個(gè)問(wèn)題范圍。
(1)第一個(gè)主題范圍是在刑法領(lǐng)域出現了數字化的新現象。這就包括互聯(lián)網(wǎng)犯罪的新形式。為了應對這些問(wèn)題,在30年前就形成了計算機和互聯(lián)網(wǎng)刑法,已被證明其具有非常強的適應能力。
(2)第二個(gè)主題范圍涉及數字化對法律職業(yè),包括刑事追訴機關(guān)、刑事辯護以及刑法學(xué)工作的潛在影響。例如,使用數據庫、新的出版形式以及提供新的技術(shù)輔助工具(透過(guò)科技協(xié)助法律服務(wù)),傳統法律工作形式在它們的影響下不得不作出改變。
(3)第三個(gè)主題范圍是信息處理系統作為新的參與者(客體)甚至可能作為新的刑法主體出現。這一主題范圍中的基礎和應用問(wèn)題緊密相連。本文就致力于探討這個(gè)主題。
首先是進(jìn)行方法論上的初步考慮。法律的核心任務(wù)之一是規制沖突,并且防止出現新的沖突。解決這項任務(wù)的前提在于法律判決基本上是一致的。人類(lèi)存在一個(gè)根深蒂固的需求,即應被一視同仁地對待。除此之外,還需要一個(gè)透明、明確以及合理的判決證成。當人們考慮到刑事判決可以深深地影響當事人的法權領(lǐng)域(Rechtssph?re)時(shí),這一點(diǎn)就尤其明顯。這種干預的基礎是現有的法律,應在現有法律的框架下探討新的現象。
因此,我們應在現有(刑事)法律的基礎上探討數字化革命。法律人自然應當參與其中。然而在公眾和大眾傳媒中時(shí)常出現這樣一種設想,即必須馬上制定新的法規來(lái)應對新的技術(shù)現象。這對于理性的法政策而言是一個(gè)沉重的負擔。相反,應提出這樣的命題,即技術(shù)革命應當受到法律進(jìn)化的制約。
03
三、案例
接下來(lái)本文將通過(guò)五個(gè)案例從刑法角度分析新型的技術(shù)參與。
1.鮑納塔爾案
2015年6月,大眾汽車(chē)位于德國鮑納塔爾的工廠(chǎng)發(fā)生了一起意外事故,工人A在工作時(shí)被一個(gè)未放置在安全籠中的機器人手臂抓起并擠向一塊金屬板,最終導致死亡。工人B出于失誤過(guò)早地開(kāi)啟了機器。這起事故很快傳遍了世界,甚至美國有線(xiàn)電視新聞網(wǎng)(CNN)也對此進(jìn)行了報道。
我們面對的是機器人殺死人類(lèi)的問(wèn)題。在案情中明顯沒(méi)有出現特別的法律問(wèn)題,由于排除了故意殺人,若能證明工人B違反了注意義務(wù),就存在成立依據《德國刑法典》第222條規定的過(guò)失犯罪的主能。這種情況很可能是因為多年來(lái)機器人不再在安全籠中工作,而是直接與工人接觸。還可考慮第三方的責任,比如部門(mén)負責人或者公司的安全專(zhuān)員,只要他們對工人而言具有保證人地位??偠灾?,這個(gè)案件不會(huì )帶來(lái)新的挑戰。這表明與新型科技相關(guān)的損害事故部分可在傳統法律的框架下輕易得到解決。
這個(gè)案件引起高度關(guān)注的原因主要在于自動(dòng)機器人——一臺機器殺死了一個(gè)人。這顯然引發(fā)了對能夠傷害人類(lèi)的“人工生命體”的深層恐慌和幻想。數字化使得這種生命體成為現實(shí)。對這些案件的理性法律探討是以認識到倉促擬人化所帶來(lái)的危險為前提。
2.阿沙芬堡案
2012年春天,一輛配備有功能強大的車(chē)道保持輔助系統的汽車(chē)駛入阿沙芬堡市附近的阿爾策瑙村。在駛入口處,車(chē)上60歲的司機突然中風(fēng)并失去了意識。他向右扭轉方向盤(pán),在正常情況下汽車(chē)會(huì )停在駛入口前的灌木叢中。然而車(chē)道保持輔助系統又將汽車(chē)駛回馬路上,車(chē)輛高速駛入阿爾策瑙村并撞死了一位年輕女子和她的孩子,孩子的父親因為及時(shí)跳開(kāi)躲閃,只是腿部受了傷。
這是自動(dòng)系統給人類(lèi)造成損害的第一個(gè)案例。自動(dòng)系統意味著(zhù)在具體情況下不依靠人類(lèi)指令能夠作出適當反應的技術(shù)系統,對此的最佳范例是火星探測器。它可以在另一個(gè)星球上面對不可預見(jiàn)的困難“聰明地”作出反應,并不需要來(lái)自地球的指令。就這方面而言,“自動(dòng)”和哲學(xué)或神學(xué)意義上的“自治”并不是同一個(gè)概念。
鑒于《德國道路交通法》第7條規定的嚴格責任,這個(gè)案例不會(huì )在民法上產(chǎn)生特別的問(wèn)題,問(wèn)題在于刑法評價(jià)。首先想到的責任主體是肇事車(chē)輛的司機,但是事實(shí)上他更應是受害人而不是行為人,他并沒(méi)有過(guò)失地引起這個(gè)致命的事故。鑒于造成兩死一傷的結果,可以依據《德國刑法典》第222條、第229條的規定考慮制造商的責任。
造成這起事故的是自動(dòng)系統,它讓車(chē)輛保持在馬路上行駛,否則汽車(chē)就會(huì )停在駛入口前。問(wèn)題在于是否可以對該系統的制造商給予違反注意義務(wù)的非難(可以肯定的是未來(lái)會(huì )時(shí)常提及這樣的問(wèn)題,因為那時(shí)自動(dòng)系統幾乎普及。因此,阿沙芬堡案意義重大)。很明顯,發(fā)生在阿爾策瑙村的交通事故原則上是可預見(jiàn)的,只是不需要預見(jiàn)每一個(gè)細節。若生產(chǎn)商放棄安裝車(chē)道保持輔助系統,就可避免年輕女子和她的孩子的死亡。鑒于潛在的損害程度,對于制造商注意義務(wù)的要求將會(huì )非常高。這種像在阿爾策瑙村發(fā)生的事件的概率確實(shí)很低。然而這種場(chǎng)景描述得越普遍,它發(fā)生的可能性就越大。特別是考慮到不是一輛汽車(chē),而是很多輛汽車(chē)裝配有這樣的車(chē)道保持輔助系統。由于樣本數量巨大,在統計學(xué)上幾乎可以肯定,該系統將會(huì )造成人身傷害或死亡。所有這一切都贊成認可對注意義務(wù)的違反。
這就產(chǎn)生了是否要對制造商注意義務(wù)進(jìn)行限制的問(wèn)題,使得繼續生產(chǎn)以及安裝車(chē)道保持輔助系統成為可能。本該在公路交通中發(fā)揮核心作用的信賴(lài)原則在這里并不適用,因為并不存在他人的不當行為。但是這里可以考慮被允許的風(fēng)險。這種形態(tài)是在批量生產(chǎn)可能會(huì )產(chǎn)生危險的,但是在社會(huì )倫理上可接受并且有益于社會(huì )的產(chǎn)品的背景下被人熟知。沒(méi)有任何產(chǎn)品是百分之百安全的,因此很早就出現了限制注意義務(wù)的法律規則:生產(chǎn)社會(huì )倫理上可接受并且有益于社會(huì )的產(chǎn)品,即使其創(chuàng )設了可識別的風(fēng)險,而且這種風(fēng)險只有通過(guò)停止生產(chǎn)才能避免,那么制造商在生產(chǎn)過(guò)程中以及之后能夠采取所有措施盡可能地減少這種風(fēng)險,他們就不違反注意義務(wù)。
部分觀(guān)點(diǎn)認為,“被允許的風(fēng)險”的概念已經(jīng)在所謂的客觀(guān)歸責的背景下加以考慮。然而客觀(guān)歸責的范疇過(guò)于模糊,無(wú)法對本文的問(wèn)題提供足夠精準的幫助。將行為歸責于制造商“自己的行為”并不具有爭議,顯而易見(jiàn),制造商將繼續承擔民事產(chǎn)品賠償責任。這也不是對太過(guò)寬泛的因果關(guān)系的限制,而是對制造商承擔的注意義務(wù)的限制??蓪⑦@種考量定位于“客觀(guān)歸責”的框架下,但是很明顯可以將絕大部分的事物都定位于“客觀(guān)歸責”的背景下??陀^(guān)歸責理論越來(lái)越像一個(gè)偽教義學(xué)“黑洞”,它很可能吸食、拉平以及最終吞噬數十年來(lái)艱難取得的大量刑法教義學(xué)分殊化成果。
制造自動(dòng)的車(chē)道保持輔助系統就像制造安全氣囊和安全帶一樣,符合上述被允許的風(fēng)險的前提:即便對該系統的批量生產(chǎn)與特定的危險情形相關(guān)聯(lián),但被絕大多數人視為有利于社會(huì )。一旦制造商傾全力將自動(dòng)系統產(chǎn)生的危險限制在合理范圍內,對該系統的生產(chǎn)就屬于“被允許的風(fēng)險行為”。但是制造商應在生產(chǎn)以及產(chǎn)品進(jìn)入市場(chǎng)時(shí)注意技術(shù)的現有水平。很多觀(guān)點(diǎn)都認為,制造商在銷(xiāo)售產(chǎn)品后還應承擔產(chǎn)品注意義務(wù),就像從民事賠償責任中為人熟知的那樣。通過(guò)無(wú)線(xiàn)網(wǎng)絡(luò )進(jìn)行改進(jìn)(升級、補?。?huì )變得越來(lái)越普遍。
這里概述的“被允許的風(fēng)險概念”包含了一個(gè)動(dòng)態(tài)元素,因為制造商有義務(wù)監控他所投入使用的技術(shù),并且在銷(xiāo)售產(chǎn)品后盡可能將產(chǎn)品風(fēng)險降到最低程度,這樣一種寬泛的產(chǎn)品注意義務(wù)看來(lái)十分適當,因為制造商一方面從產(chǎn)品銷(xiāo)售中直接受益;另一方面相比產(chǎn)品的最終用戶(hù),他具有更高程度的評估風(fēng)險以及事后將其降低到最低程度的能力。
3.自動(dòng)駕駛的悖論問(wèn)題
一個(gè)裝配自動(dòng)駕駛系統的車(chē)輛快要臨近一個(gè)事故地點(diǎn),此處的兩名重傷者意識全無(wú)地躺在馬路上,第三名傷者爬向道路邊緣抱住道路指示公告牌。設想車(chē)輛車(chē)速太快,要停車(chē)已經(jīng)來(lái)不及了,回避已然不可能,要么碾過(guò)兩名躺在路上的重傷者,要么向左偏轉撞向抱住道路指示公告牌的第三名傷者。對此,駕駛系統該如何選擇?
諸如上述緊急避險的情形近年來(lái)引起了公眾的極大關(guān)心。這可能是因為一方面緊急避險問(wèn)題一直以來(lái)都十分引人注目;另一方面,這個(gè)主題的重要性在于在公路交通的緊急避險情況中要處理以下問(wèn)題,即在未來(lái)以機器為基礎的環(huán)境中人類(lèi)居于何種地位,機器具有多大范圍的決定權限,允許機器殺害人類(lèi)嗎?
為了回答以上問(wèn)題,德國聯(lián)邦交通和基礎設施部在2016年夏天特別成立了道德委員會(huì ),他們認為,對于自動(dòng)駕駛而言,在上述案例中向左偏轉并撞死一個(gè)無(wú)辜者并不合法。這與從“扳道工案”的爭論中發(fā)展而來(lái)的古典法學(xué)觀(guān)點(diǎn)一致。在以下案件中極難作出選擇:一輛汽車(chē)高速駛來(lái),在經(jīng)過(guò)的道路上突然跳出來(lái)三個(gè)小孩,一個(gè)位于車(chē)左前方,兩個(gè)位于車(chē)右前方。停車(chē)已經(jīng)來(lái)不及了,回避也已無(wú)可能。汽車(chē)向左轉向就要碾過(guò)一個(gè)小孩,向右轉向就要碾過(guò)兩個(gè)小孩,繼續向前行駛就要撞上所有的小孩,會(huì )導致他們三個(gè)重傷或者死亡。
通常無(wú)須思索的說(shuō)法是人類(lèi)間的生命不容衡量,但以上情景使其陷入嚴峻考驗。從敘述的角度來(lái)看,關(guān)于不能衡量的命題明顯是錯誤的——對人與人之間的生命進(jìn)行衡量是可能的。問(wèn)題更多在于,依據我們的道德認識或者我們的法秩序,是否允許彼此間的衡量,比如說(shuō)殺害一個(gè)人相比殺害兩個(gè)人或者更多人而言,更易被接受。通說(shuō)迄今為止都否定這樣一種衡量權限。這一觀(guān)點(diǎn)原則上仍然值得贊同:在一個(gè)擔負著(zhù)人文主義價(jià)值的法秩序中不允許使任何人擔負容忍義務(wù),為他人犧牲自己的生命。
這個(gè)基本決定將會(huì )導致在初始案件中否定車(chē)輛的偏轉,因為若車(chē)輛偏轉就會(huì )給馬路邊上本沒(méi)有危險的第三名傷者造成嚴重危害,他生還的概率將會(huì )明顯降低。第二個(gè)案件則有所不同,汽車(chē)在不改變行駛方向的情況下會(huì )給所有小孩造成嚴重危害,向左偏轉則位于車(chē)左側的小孩的生還概率和向右偏轉則位于車(chē)右側的兩個(gè)小孩的生還概率都沒(méi)有發(fā)生任何改變;而向左偏轉,位于車(chē)右側的兩個(gè)小孩生還概率就會(huì )提高,反之亦然。若遵循通常作為緊急避險評價(jià)基礎的更輕損害原則,就可主張向左偏轉碾過(guò)一個(gè)小孩,另外兩個(gè)小孩就可得救,這至少在道德上是可取的。如何在法學(xué)上解決這個(gè)案例是另一個(gè)還未最終澄清的問(wèn)題。
此外,這個(gè)案例還表明了自動(dòng)駕駛的出現,或者更廣泛地說(shuō),案情中涉及的數字化常常迫使我們要準確地抓住特定問(wèn)題,以便更為清晰地識別其結構。數字化將法律和法學(xué)置于一種巨大的解釋需求之下。但是這并不是一件壞事,而是一個(gè)挑戰。
還有其他重要問(wèn)題:一個(gè)結果出現的概率具有怎樣的作用?具體而言,若保持行駛方向不變,車(chē)輛只會(huì )以一定的概率碾過(guò)兩個(gè)躺在馬路上的重傷者;若向左偏轉,車(chē)輛肯定撞上在路邊的第三名傷者導致其重傷或死亡,這樣的問(wèn)題會(huì )給衡量過(guò)程造成什么影響?此外的問(wèn)題則涉及司機的地位以及他可能負有的刑事責任,畢竟他參與交通的行為是風(fēng)險情境發(fā)生的原因。對這個(gè)以及其他問(wèn)題的學(xué)術(shù)討論才剛剛開(kāi)始。
最后,判斷制造商的責任也是困難重重。若認為在以上兩個(gè)案例中的緊急避險情況下的殺害行為是違法的(即所有可能的決定下都是如此),那么,制造商就造成了一個(gè)符合構成要件的違法結果。他是否負有刑事上的責任只取決于是否能以違反注意義務(wù)對他進(jìn)行非難。作者在其他文章中也試圖通過(guò)可允許的風(fēng)險的法律形態(tài)回答這個(gè)問(wèn)題。如果自動(dòng)駕駛系統不能避免在極少數例外情況下造成人類(lèi)死亡或重傷,那么對它的生產(chǎn)和投放市場(chǎng)不違反注意義務(wù)。在作者看來(lái),應當像處理安全氣囊、安全帶或者車(chē)道保持輔助系統造成損害的案件那樣處理自動(dòng)系統造成損害的案件。
這就為一個(gè)中間結論掃清了障礙:在新興科技的背景下,刑法理論的古典問(wèn)題有時(shí)會(huì )以新形態(tài)出現,比如,生命對生命的可衡量性問(wèn)題。在這里,解決新問(wèn)題也應與傳統的教義學(xué)基礎保持一致。值得注意的是,數字化顯然迫使我們對許多迄今沒(méi)有明確作出的假設進(jìn)行解釋。在衡量時(shí)需要大量額外的差別化嘗試。這可以幫助我們分析、評估以及檢驗自動(dòng)系統的決定行為,并賦予其結構化。
4.“Tay”案
2016年3月,微軟在推特平臺推出了一個(gè)人工智能聊天機器人“Tay”。它可以與任意第三人進(jìn)行對話(huà)。但是Tay推出的當天微軟就不得不關(guān)閉了Tay的推特賬號,為什么呢?因為T(mén)ay開(kāi)始有一些仇視女性和種族歧視之類(lèi)的偏激言論,而這些言論明顯是和網(wǎng)絡(luò )上一些有偏激言論的人互動(dòng)后被刻意教導而出現的。對此,微軟別無(wú)選擇,只能將它從推特平臺上撤下。
這個(gè)案件富有幾個(gè)方面的啟發(fā)性。設想依據《德國刑法典》第185條規定的檢驗侮辱行為,那么應考慮哪些責任主體?那些刻意教導系統出現偏激言論的人或可觸犯《德國刑法典》第185條的規定而構成侮辱罪。然而,前提條件是他們要具有一個(gè)相應的故意,但這看上去似乎難以證明,至少教導者對于可能的受害人身份和對受害人造成損害的時(shí)間點(diǎn)的認識是模糊的。進(jìn)一步可考慮系統制造商或程序員的責任,然而該系統沒(méi)有出現任何錯誤,它按照預期進(jìn)行學(xué)習。此外,制造商和程序員也都不具有侮辱故意。原則上似乎可以考慮系統本身的責任。這很可能出自大多數人的直覺(jué)。然而這在法學(xué)上是不成立的,當下的刑法并不將一個(gè)由運算法則組成的計算機系統視為責任主體。這樣一種系統不是自然人,嚴格上來(lái)說(shuō)它都不是一個(gè)物。
如案例所示,對具有自我學(xué)習能力的系統進(jìn)行刑事規制就出現了相當的困難。雖然刑法學(xué)中的絕大部分意見(jiàn)認為,刑法無(wú)須無(wú)漏洞地保護法益。另一方面可以設想,若進(jìn)一步推廣具有自我學(xué)習能力的系統,系統本身總會(huì )造成損害,而如果人類(lèi)以同樣的方式造成了損害就會(huì )被課以刑罰。這就產(chǎn)生了一個(gè)問(wèn)題,即法秩序如何對待原則上合法的公民的預期刑度(Straferwartungen)。
無(wú)論如何,可達成的共識是,具有自我學(xué)習能力的系統的制造商必須預先對系統的學(xué)習可能性進(jìn)行一定的限制,以便它們不能學(xué)習到危害人的東西。也就是說(shuō),制造商從一開(kāi)始就要限縮系統學(xué)習成果的可能空間,這在民法上可通過(guò)擴大《德國產(chǎn)品責任法》中的嚴格責任來(lái)達到。迄今為止,產(chǎn)品責任只適用于(移動(dòng)的)有體標的(物),即《德國產(chǎn)品責任法》第2條所規定的,然而人工智能聊天機器人“Tay”不是一個(gè)物,而是一個(gè)程序。消費者權益保護者主張應將產(chǎn)品責任擴展到這樣的程序上。此外也應包括通過(guò)無(wú)線(xiàn)網(wǎng)絡(luò )的程序變更的安裝或升級。
在刑法上,由于罪責原則而排除引入與罪責無(wú)關(guān)的嚴格責任,但是可以考慮對可自主造成損害的自動(dòng)系統引入抽象或者具體危險犯,可以考慮設置發(fā)售危險產(chǎn)品的抽象危險犯,可以將損害結果的出現作為可罰性的客觀(guān)前提。通過(guò)這種方式可以在刑法上給相應系統的制造商提供一個(gè)強有力的動(dòng)機,使他們從一開(kāi)始就限制系統的可能空間以及阻止具有風(fēng)險的學(xué)習過(guò)程。
總之,“Tay”案表明了具有自我學(xué)習能力的系統對法學(xué)特別是刑法學(xué)構成了巨大挑戰。應然之,法除了立法者的想象外,還需要考慮實(shí)踐知識以及跨學(xué)科的合作。目前仍難以預測數字化革命的實(shí)際影響,這就意味著(zhù)對于新的立法提案應當持保留態(tài)度。
5.“感知心”——鑒于科學(xué)幻想
為了得到技術(shù)和社會(huì )發(fā)展方向的大致印象,我們可以閱讀科幻小說(shuō)??茖W(xué)幻想可以窺見(jiàn)未來(lái),此外,科學(xué)幻想也對技術(shù)發(fā)展產(chǎn)生了明顯的影響。盡管科學(xué)幻想在很多時(shí)候體現了特定的威脅感,但是也體現了技術(shù)主導的藍本功能——可以這樣說(shuō),科學(xué)幻想是技術(shù)發(fā)展的前導。
在伊恩·M.班克斯《文明》系列的科幻小說(shuō)中,早已超過(guò)人類(lèi)水準的人工超級智能作為人類(lèi)的合作伙伴、保衛者(以及主人?),是社會(huì )的支柱。這一系列科幻小說(shuō)是建立在人之條件(conditio humana)急劇變化的基礎上:人類(lèi)生活充沛,借助無(wú)所不能的機器幾乎可以實(shí)現每一個(gè)愿望,不再需要金錢(qián),人類(lèi)生活完全致力于自我實(shí)現。值得注意的是,人工智能實(shí)體知道“好”和“壞”的范疇并受其引導。這一系列科幻小說(shuō)致力于討論這樣的問(wèn)題:生物實(shí)體和機械實(shí)體到底存在怎樣的根本差異?個(gè)人自決是否有一個(gè)界限?一個(gè)在技術(shù)和道德上處于優(yōu)勢的(或者只是自命不凡的優(yōu)越)文明是否應該干預其他文明的發(fā)展?
這些問(wèn)題具有一個(gè)間離功能,它們觸動(dòng)了看似不證自明的真理以及打破了迄今無(wú)可置疑的思維習慣。這些影響促進(jìn)了刑法理論的反思。這里就不僅僅涉及通過(guò)對虛構場(chǎng)景的探討來(lái)進(jìn)一步發(fā)展刑法的術(shù)語(yǔ)庫。聯(lián)系伊恩·M.班克斯的科幻小說(shuō)就會(huì )提出以下問(wèn)題:人工智能實(shí)體是否可能承擔道德或者法律義務(wù);或者是否可以存在“屬于機器的倫理”,而不是“為機器設計的倫理”。
這些問(wèn)題遠比與現實(shí)的距離看上去近。正如上面討論具有自我學(xué)習能力的系統問(wèn)題那樣,迫切需要限制具有自我學(xué)習能力的系統的“可能空間”,即確保這種系統不會(huì )大量學(xué)習具有社會(huì )危害性甚至要面臨刑法處罰的行為。為實(shí)現這一目標,可以賦予機器“良知”,即在軟件中確定規范和價(jià)值,然后借助它們校正和監督系統的學(xué)習過(guò)程。顯然,這不僅是一項技術(shù)任務(wù),更是對法理學(xué)和法哲學(xué)構成了一個(gè)挑戰:如何準確表達和運作像“規范”和“價(jià)值”這樣的概念,以便它們可以被機器理解?我們希望給我們的技術(shù)產(chǎn)物,就是“我們的智力后裔”,提供什么樣的規范和價(jià)值?
04
四、總結
本文將以上明顯概略的闡述總結為以下核心論點(diǎn)。
第一,數字化革命不應由立法者的臆想孤注一擲地應對,而應伴隨著(zhù)謹慎、適度的法律演進(jìn)一同發(fā)展。
第二,數字化經(jīng)常產(chǎn)生迫切的法律解釋需求,特別對諸如(法益)衡量那樣的方法論程序必須準確化和體系化。這體現在對自動(dòng)化駕駛的悖論問(wèn)題的討論上。
第三,許多新的問(wèn)題可以在現有法律的框架下得到解決。這也恰恰適用于責任法以及刑事責任法領(lǐng)域。若沒(méi)有令人信服的理由,就不應放棄已被證明可靠的教義學(xué)結構。
第四,沒(méi)有技術(shù)系統是百分之百安全的。為了在教義學(xué)上掌控剩余風(fēng)險,就出現了被允許的風(fēng)險形態(tài),可將它理解為對制造商注意義務(wù)的限制。它可能是一個(gè)有意義的責任規則以及技術(shù)系統的制造商和用戶(hù)之間風(fēng)險分擔的關(guān)鍵。
第五,具有自我學(xué)習能力的系統對法律構成了特別的挑戰。在民法上應擴大嚴格責任,在刑法上可考慮引入新的危險犯構成要件。當然前提是從實(shí)證角度對風(fēng)險情勢進(jìn)行更強有力的解釋。
第六,科幻場(chǎng)景可以觸發(fā)間離效應,從而有助于提出新的問(wèn)題并制定可能的答案。因此,“機器倫理”的主題對于研究數字化影響的法律專(zhuān)業(yè)人員而言具有重要意義。
聯(lián)系客服