關(guān)于人工智能和法律,前美國國家安全顧問(wèn)和國務(wù)卿基辛格在近日發(fā)表于 《大西洋月刊》的文章中曾談及一個(gè)自動(dòng)駕駛汽車(chē)版本的 “電車(chē)難題”:如果自動(dòng)駕駛汽車(chē)因突發(fā)情況,被迫在殺害老人和殺害孩子之間作出選擇,它會(huì )選擇誰(shuí)?為什么?再進(jìn)一步思考,如果這輛汽車(chē)撞死撞傷了人,誰(shuí)又該為此負刑事責任?是這輛車(chē),還是這輛車(chē)的設計者?
這個(gè)假設的場(chǎng)景只是人工智能面對法律問(wèn)題的一個(gè)縮影。伴隨著(zhù)人工智能和大數據技術(shù)的迅速發(fā)展,一系列類(lèi)似的問(wèn)題也接踵而來(lái):人類(lèi)生產(chǎn)生活方式的深刻變革將會(huì )給法律制度和社會(huì )治理帶來(lái)哪些挑戰?現行法治體系又該如何調整和應對?近日,由華東政法大學(xué)人工智能與大數據指數研究院主辦,上海市大數據社會(huì )應用研究會(huì )和律新社協(xié)辦的“人工智能、國家治理與法治論壇”在華東政法大學(xué)舉行,與會(huì )專(zhuān)家們針對上述問(wèn)題展開(kāi)了討論,為我們勾勒了人工智能時(shí)代下法治世界的圖景。
人工智能如何實(shí)現未來(lái)的精準法治
在美劇《西部世界》中,主角福特有一句著(zhù)名臺詞:“我們給機器編碼,是為了解碼人類(lèi)?!痹谌斯ぶ悄軙r(shí)代,隨著(zhù)越來(lái)越多的社會(huì )活動(dòng)轉移到互聯(lián)網(wǎng)上進(jìn)行,人們在互聯(lián)網(wǎng)上留下海量數據,使得原本不可預測和追蹤的社會(huì )行為變得可以被計算。無(wú)論是對企業(yè)的經(jīng)營(yíng)還是政府的管理來(lái)說(shuō),這種“社會(huì )的計算化”都意義重大:企業(yè)可以通過(guò)分析客戶(hù)數據、投放定制化廣告來(lái)兜售自己的產(chǎn)品,政府可以利用海量數據對個(gè)人進(jìn)行分類(lèi)、評分和社會(huì )信用評級來(lái)實(shí)現預測性執法,從而更好地進(jìn)行精準化治理。
但是,由于如今的“社會(huì )計算化”主要由商業(yè)力量推動(dòng)和控制,這給政府的治理工作帶來(lái)了新的問(wèn)題。上海交通大學(xué)凱原法學(xué)院教授鄭戈就指出,傳統上人們認為,政府掌握了最充分的個(gè)人數據,從出生、入學(xué)、就業(yè)、婚姻、生育到死亡,但這些數據都是靜止的,它并不能生成對一個(gè)人動(dòng)態(tài)的行為模式的分析?,F在,由于人的大部分線(xiàn)上活動(dòng)不是在政府平臺上進(jìn)行,而是在搜索引擎、購物平臺、社交網(wǎng)絡(luò )等由私人企業(yè)運營(yíng)的商業(yè)平臺進(jìn)行,因此大量的數據實(shí)際是掌握在私人企業(yè)手里。政府雖然可以在行政、司法和執法的過(guò)程中要求企業(yè)提供特定的個(gè)人數據,但這種要求只能在具體個(gè)案中針對特定人物,不能成為可供機器學(xué)習的大數據。而且,也可能遭到企業(yè)以保護商業(yè)秘密或合同關(guān)系為由的拒絕。
鄭戈的擔憂(yōu)并非空穴來(lái)風(fēng)。在近日發(fā)生的“女孩坐滴滴順風(fēng)車(chē)遇害案”中,滴滴公司就以保護司機隱私為由,未在第一時(shí)間向警方提供車(chē)牌、駕駛人信息,致使救援行動(dòng)延誤。更為“諷刺”的是,滴滴一方面拒絕與政府合作披露用戶(hù)信息,另一方面又偷偷地濫用用戶(hù)的個(gè)人信息,典型的例子即是前不久因“空姐遇害案”引發(fā)爭議而下線(xiàn)的順風(fēng)車(chē)用戶(hù)標簽和車(chē)主評價(jià)功能。
“從法律的角度來(lái)看,我們在考慮人工智能在所謂的精準治理中的應用時(shí),首先要面對的就是政府和企業(yè)的關(guān)系問(wèn)題——政府既需要與企業(yè)合作來(lái)獲取數據、購買(mǎi)產(chǎn)品和服務(wù),又需要作為企業(yè)與消費者之間的中立第三方來(lái)對企業(yè)進(jìn)行監管,保護消費者的個(gè)人數據?!痹卩嵏昕磥?lái),基本公共服務(wù)領(lǐng)域的公、私權力關(guān)系是未來(lái)治理需要解決的首要問(wèn)題:“一方面,要將透明、公開(kāi)、程序合法、說(shuō)明理由等對公權力行使者的要求延伸到實(shí)際上行使著(zhù) ‘準公權力’的企業(yè),使算法等技術(shù)化的監控和決策手段不再是無(wú)法被問(wèn)責的‘黑箱’;另一方面,要調整傳統的公法概念和規制手段,以應對現時(shí)代公私合作、公私共治的普遍現象?!?/span>
人工智能可以替代法律工作者嗎
如今,“智慧司法”已然是大勢所趨:已在上海市全面推廣應用、覆蓋上海刑事案件的90%以上的“刑事案件智能輔助辦案系統”,就是人工智能新科技和司法改革深度融合的典范。在對上海幾萬(wàn)份刑事案件的卷宗、文書(shū)數據進(jìn)行“深度學(xué)習”后,該系統已具備初步的證據信息抓取、校驗和邏輯分析能力。今年8月,一場(chǎng)法律界的“人機大賽”在重慶舉行,由重慶研發(fā)的人工智能法律機器人“大?!迸c從全國公開(kāi)招募的6名資深律師進(jìn)行了法律服務(wù)比拼,比賽結果令人瞠目結舌——“大?!钡牡梅诌h遠高于這6位資深律師。
上述這些例子都表明,法律從業(yè)人員的許多具體工作可以被人工智能所取代,這是否意味著(zhù)人工智能會(huì )全面取代法律工作者?答案顯然是否定的?!叭斯ぶ悄芩w現的技術(shù)理性有明顯的化約主義傾向,我們可以借助它來(lái)提高效率,取代一部分無(wú)需創(chuàng )造性和價(jià)值判斷的工作,比如闖紅燈罰款,但不能由它來(lái)做出事關(guān)人類(lèi)福祉的最終決策。在涉及事實(shí)爭議和價(jià)值選擇的復雜問(wèn)題上,人工智能只能被用來(lái)強化人類(lèi)智能,而由人來(lái)作出最終的選擇和判斷?!编嵏赀@樣說(shuō)。
上海市法學(xué)會(huì )黨組書(shū)記崔亞?wèn)|則進(jìn)一步指出:“在未來(lái)的法律人才培養上,一方面要在高校設立法律人工智能研究中心,開(kāi)設相關(guān)法律科技等方面的課程,培養法律和科技的復合高端人才。另一方面,我們也要明確在人工智能時(shí)代,法學(xué)教育的主業(yè)仍然是法律,人工智能的引入應該是輔助法律從業(yè)人員更加高效、便捷、公正公開(kāi)地處理法律事務(wù),至于這個(gè)證據能不能用、怎么用,如何量刑等問(wèn)題,最終的決定權仍在法官、檢察官手中,這一點(diǎn)決不能走偏?!?/span>
人工智能偏離人類(lèi)的預設怎么辦
美國波士頓動(dòng)力公司曾設計出一款可以 “隨機應變”的機器人:給它設定一個(gè)“搬箱子”的任務(wù),無(wú)論實(shí)驗人員怎么妨礙它 (把箱子移到別處,或者直接把機器人推倒),它還是會(huì )“頑強地”爬起來(lái)完成任務(wù)。但是,有學(xué)者擔心,給機器人植入一個(gè) “排查妨礙”的程序,如果它突然產(chǎn)生意識、學(xué)會(huì )自我學(xué)習,它發(fā)現每次害自己完不成任務(wù)的人是這個(gè)實(shí)驗人員,那它會(huì )不會(huì )為了完成任務(wù)直接把這個(gè)實(shí)驗人員撂倒?可見(jiàn),當智能機器人被設定為一種由程序編碼而成并由此產(chǎn)生深度學(xué)習能力的物體時(shí),它完全有可能超越人類(lèi)對它的預設,獨立實(shí)施某些犯罪行為,這就對現有的刑罰體系產(chǎn)生了沖擊。
美國波士頓公司設計的機器人
對此,華東政法大學(xué)刑事法學(xué)研究院院長(cháng)劉憲權教授在他的新書(shū)《人工智能時(shí)代刑事責任的演變》中指出,人工智能已經(jīng)遠遠不是作為犯罪工具那么簡(jiǎn)單,它影響著(zhù)刑事責任的分配。他這樣說(shuō):“現在一般將人工智能時(shí)代分為三類(lèi):前人工智能時(shí)代、弱人工智能時(shí)代、強人工智能時(shí)代。前人工智能時(shí)代中的機器人,我們稱(chēng)之為普通機器人,比較典型的是ATM機和工業(yè)機械手。如果ATM機出了問(wèn)題,我們不太可能去追究它的研發(fā)者和使用者。但在我們正處于的弱人工智能時(shí)代中,在自動(dòng)駕駛技術(shù)日益普及的當下,我們對研發(fā)者和使用者的責任定義就有了很大變化。比如,委內瑞拉無(wú)人駕駛的炸藥,還有韓國的殺人機器,從法律的角度來(lái)看,這應當是研發(fā)者的責任。未來(lái),如果強人工智能時(shí)代到來(lái),機器人擁有了自由意志,就需要獨立承擔刑事責任?!北M管目前在“強人工智能時(shí)代是否會(huì )到來(lái)”這一問(wèn)題仍有很大的爭議,但劉教授認為法律工作者的態(tài)度應是寧可信其有、不可信其無(wú):“我們必須預先設定一些應對的法律,否則一旦強人工智能時(shí)代到來(lái),關(guān)于人類(lèi)的顛覆性問(wèn)題就會(huì )出現,甚至到時(shí)候,不是人類(lèi)制定法律規制它,而是它制定法律規制人類(lèi),這并不是天方夜譚?!?/span>
類(lèi)似地,《華東政法大學(xué)學(xué)報》主編馬長(cháng)山教授也強調了要對現有法學(xué)理論進(jìn)行顛覆性創(chuàng )新來(lái)應對眼下的這場(chǎng)人工智能革命,他指出:“這個(gè)重建分為以下幾個(gè)方面:一是研究理念的轉向。我們傳統的研究理念是建立在以羅馬法學(xué)為基礎的法律體系,羅馬體系是以人和人、人和物的關(guān)系為重要基礎,但隨著(zhù)生產(chǎn)關(guān)系的變化,當下的智能社會(huì )是以數據、信息、算法為基礎,這意味著(zhù)整個(gè)生產(chǎn)管理和人們的生活方式都發(fā)生了巨大變化,沿用傳統的理念可能無(wú)法解決許多問(wèn)題。二是知識譜系的更新?,F代法律體系是建立在理性主義和個(gè)人主義的基礎之上,但現在社會(huì )發(fā)展的去中心化、扁平化趨勢使得原先的‘理性人假設’等基礎理論被顛覆。此外,如果將來(lái)機器人產(chǎn)生意識,我們還需重新考慮主客體關(guān)系。三是理論與邏輯的重建。我們現在處理一些網(wǎng)絡(luò )信息、人工智能的案件是完全套用原本物理空間的邏輯而進(jìn)行,但存在許多問(wèn)題,比如網(wǎng)絡(luò )賭博案件,很難找到合適的管轄范圍,因此必須重建適用于智能互聯(lián)網(wǎng)時(shí)代的新邏輯?!?/span>
由此可見(jiàn),不論是弱人工智能時(shí)代,還是強人工智能時(shí)代,人工智能與大數據對法學(xué)和法律實(shí)踐所造成的變革都已是不爭的事實(shí)。法學(xué)研究回應人工智能時(shí)代提出的新課題,將會(huì )為司法實(shí)踐贏(yíng)得主動(dòng)權。未來(lái)已來(lái),法律工作者們將手執正義女神朱斯提提亞的長(cháng)劍,用法治為人工智能的健康發(fā)展護航。
聯(lián)系客服