昨日(4月12日),中國(guó)首個(gè)自動(dòng)駕駛公交車項(xiàng)目在重慶市永川區(qū)正式投入運(yùn)營(yíng),3臺(tái)L4級(jí)自動(dòng)駕駛公交車(百度巴士)上路載客,標(biāo)志著中國(guó)自動(dòng)駕駛商業(yè)化落地迎來重大突破。隨著自動(dòng)駕駛愈發(fā)深入大眾生活,人們不禁要問:自動(dòng)駕駛安全嗎?萬一出車禍該誰負(fù)責(zé)?
撰文 | 劉凱(渤海大學(xué)教育科學(xué)學(xué)院、渤海大學(xué)通用人工智能研究所)
自動(dòng)駕駛現(xiàn)已來到關(guān)鍵的歷史局點(diǎn)。從百度Robotaxi到宇通WITGO,從鄭東新區(qū)到重慶永川,我國(guó)裝備L3-L4高等級(jí)自動(dòng)駕駛技術(shù)的商用車及開放道路漸成規(guī)模;但與此同時(shí),L2級(jí)自動(dòng)駕駛事故在耳畔警響,何況還有惡劣天氣、臨時(shí)管制、交通路口、路面落物或反光等更大挑戰(zhàn)。在應(yīng)對(duì)全天候全場(chǎng)景行駛工況時(shí),自動(dòng)駕駛?cè)杂休^長(zhǎng)的路要走。
據(jù)《汽車之心》2019年總結(jié):
2016年1月20日,京港澳高速河北邯鄲段,23歲的高雅寧駕駛2014款白色特斯拉ModelS撞車身亡,后被確認(rèn)為全球首例“自動(dòng)駕駛”致死車禍;
2016年5月7日,美國(guó)佛羅里達(dá)州 Wiliston 27 號(hào)高速上,40歲的Joshua Brown駕駛2015 款黑色特斯拉 Model S撞車身亡;
2018年3月1日,美國(guó)佛羅里達(dá)州棕櫚灘,50歲的Jeremy Banner駕駛紅色特斯拉 Model 3撞車身亡;
2018年3月18日,美國(guó)亞利桑那州坦佩市,一臺(tái)Uber 自動(dòng)駕駛測(cè)試車在自動(dòng)駕駛模式下撞上正推著自行車橫穿馬路的白人女性 Elaine Herzberg ,并致其死亡,這是全球首例自動(dòng)駕駛測(cè)試車撞死行人事故;
2018年3月23日,美國(guó)加州山景城 101 高速,38歲的黃偉倫駕駛2017 款藍(lán)色特斯拉 Model X P100D加速撞上隔離帶身亡。
“擁抱”還是“排斥”?這是個(gè)難題。事實(shí)上,盡管大眾當(dāng)前對(duì)自動(dòng)駕駛的諸多憂慮都是“技術(shù)可解”,即,通過改進(jìn)技術(shù)方案或強(qiáng)制人工介入的方式妥當(dāng)解決,但技術(shù)問題之外的相關(guān)領(lǐng)域卻聚訟不斷,并以倫理為最。2020年8月,國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)、中央網(wǎng)信辦、國(guó)家發(fā)展改革委、科技部、工業(yè)和信息化部等五部門聯(lián)合印發(fā)《國(guó)家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,指南中也明確設(shè)立“H安全/倫理”類,意圖規(guī)范人工智能服務(wù)對(duì)傳統(tǒng)道德倫理和法律秩序產(chǎn)生的沖擊。
圖片截選自《國(guó)家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》
然而,人工智能內(nèi)部有著不同的技術(shù)路線,總體上可分為專用人工智能與通用人工智能兩類(詳情參見返樸文章《人工智能與心理學(xué)的迷思》)。二者具有不同的前提假設(shè)和理論依據(jù),對(duì)相同問題便有不同的解讀和回答,因此需要區(qū)別對(duì)待。在自動(dòng)駕駛領(lǐng)域,專用人工智能路線對(duì)應(yīng)L1-L4級(jí),而通用人工智能則對(duì)應(yīng)L5級(jí)。本文將針對(duì)專用人工智能路線下自動(dòng)駕駛的倫理問題進(jìn)行討論,首當(dāng)其沖的便是經(jīng)典的“電車難題”。
讓我們?cè)O(shè)想一輛疾駛的電車,前方是兩條支線,每條支線上都站有數(shù)量不等的無辜平民,電車駛?cè)肴魏我粭l支線都會(huì)導(dǎo)致平民死亡。請(qǐng)問司機(jī)如何抉擇?
這是“電車難題”經(jīng)典卻絕非唯一的表述方式,后續(xù)相繼出現(xiàn)了各種變體。在方向選擇矛盾的基礎(chǔ)上,自動(dòng)駕駛又疊加了另一個(gè)兩難之選:
高速行駛的自動(dòng)駕駛汽車,避讓行人就會(huì)導(dǎo)致主駕身亡,不避讓便會(huì)導(dǎo)致行人死亡。自動(dòng)駕駛汽車該怎么做?
實(shí)際上,自動(dòng)駕駛的“電車難題”背后,就是兩個(gè)倫理沖突的算法設(shè)定問題:如果相撞不可避免,犧牲自己還是他人;如果犧牲他人不可避免,犧牲多些還是少些。說巧不巧,二者同時(shí)也是構(gòu)筑倫理學(xué)大廈的兩大基石:主體性及客體價(jià)值。
專用人工智能以解決特定領(lǐng)域問題為出發(fā)點(diǎn),通過技術(shù)迭代,漸進(jìn)提升智能化程度。由于其技術(shù)路線本身的局限性,解決電車難題存在著以下困難:
專用人工智能對(duì)于封閉問題友好,對(duì)開放問題十分頭疼。專用人工智能其實(shí)并不能“思考”,而只能“計(jì)算”?!坝?jì)算”的模式是直接或間接由人工實(shí)現(xiàn)的:前者對(duì)應(yīng)的是“人工算法”,即由領(lǐng)域?qū)<抑苯哟_定算法規(guī)則;后者對(duì)應(yīng)的是“數(shù)據(jù)算法”,即規(guī)則不由人工給出,而從真實(shí)數(shù)據(jù)間接提煉獲得。但無論哪種算法,都無法確保對(duì)開放問題的涵蓋性足夠廣闊和豐盈。
進(jìn)一步說,如果放松限制,使得人力和數(shù)據(jù)的豐富程度得到足夠滿足,但規(guī)則本身卻依舊有可能因證據(jù)來源差異而產(chǎn)生內(nèi)部沖突。類似“親媽和媳婦同時(shí)落水,先救誰?”這樣的問題,不同回答皆有正面與反面證據(jù),判別的前提出發(fā)點(diǎn)不同,結(jié)論也必然各異。因此,倫理問題屬于經(jīng)驗(yàn)問題,但經(jīng)驗(yàn)問題并不等同于計(jì)算問題。于是,“電車難題”不可能在專用人工智能框架下直接給出穩(wěn)定的最優(yōu)解。
間接的方式是否可行呢?事實(shí)上,窮舉就是這類最典型的方式。其標(biāo)準(zhǔn)做法是:采集自動(dòng)駕駛各種環(huán)境條件、司機(jī)和行人的行為和心理特征,以及汽車的各種參數(shù),繼而窮舉可能空間的組合,并根據(jù)已知“合理”的先驗(yàn)知識(shí)、時(shí)間序列特征來調(diào)整權(quán)重網(wǎng)絡(luò)模型。
這是目前主流人工智能領(lǐng)域深度學(xué)習(xí)的核心方法。不過,即便自動(dòng)駕駛汽車的硬件設(shè)備足夠先進(jìn),其計(jì)算能力在某一特定時(shí)刻依舊是相對(duì)不足的,如果離開規(guī)范的自動(dòng)駕駛路段而駛?cè)腴_放路段,窮舉式無法確保在有限時(shí)間內(nèi)總能順利地感知、運(yùn)算并返回結(jié)果。這體現(xiàn)了專用人工智能所謂“感知智能和計(jì)算智能”的根本局限之一——將智能與計(jì)算相等同。人類擁有智能,但人類不是電腦,我們不靠升級(jí)大腦物理設(shè)施提升智力水平。
退一步而言,即使窮舉總可執(zhí)行并返回結(jié)果,開放環(huán)境的內(nèi)容仍然是不可能窮盡的,因此自動(dòng)駕駛系統(tǒng)對(duì)開放環(huán)境的經(jīng)驗(yàn)準(zhǔn)備也總是相對(duì)不足的。這體現(xiàn)了專用人工智能另一個(gè)根本局限——知識(shí)工程黑洞,即,開放環(huán)境的可能空間無法窮盡,總會(huì)遇到意外的棘手情況,這意味著程序員無法完備地將倫理規(guī)范價(jià)值量化后的“道德代碼”置入汽車駕駛軟件。
再退一步,假如處于理想世界,窮舉的方法和內(nèi)容都能逐一枚舉,但此時(shí)系統(tǒng)最終決策也會(huì)受到巨大挑戰(zhàn)。盡管有“大算力”“大模型”“大數(shù)據(jù)”的加持,仍然無法避免“解釋黑箱”的問題——我們無法解釋系統(tǒng)是怎樣做出決策的。當(dāng)前自動(dòng)駕駛路線大多基于統(tǒng)計(jì)學(xué)習(xí),決策依據(jù)更多來自概率而非邏輯模型,決策的信度和效度并不透明,令自動(dòng)駕駛事故判定變得難度更高。
再退一萬步,即使決策的有效性和解釋也不是問題,最優(yōu)化也依舊無解!因?yàn)橄到y(tǒng)會(huì)不可避免地陷入“目標(biāo)悖論”——如果摩托車手知道自動(dòng)駕駛汽車會(huì)優(yōu)先保護(hù)生存概率最低者,他就只能選擇不戴頭盔,因?yàn)榕宕黝^盔會(huì)提高他的生存概率,結(jié)果頭盔之類的安全措施反而會(huì)讓他成為高危的移動(dòng)犧牲者。最終結(jié)果便是“劣幣驅(qū)逐良幣”:遵規(guī)守紀(jì)的人反而會(huì)面臨更高的事故風(fēng)險(xiǎn)。
因此,在人工智能的語境下,并不總能將倫理沖突轉(zhuǎn)化為合理的經(jīng)濟(jì)等價(jià)式去進(jìn)行形式化價(jià)值計(jì)算,結(jié)果導(dǎo)致所有嵌入“道德律令”的做法也永遠(yuǎn)無法滿足開放條件下自動(dòng)駕駛多樣問題的解決。說到底,倫理本質(zhì)上是價(jià)值的“判斷”,而非價(jià)值的“估算”!專用人工智能沒有主體性,無法自主進(jìn)行價(jià)值判斷,所以在專用人工智能框架內(nèi)不存在倫理沖突“技術(shù)解”的可能性。
那我們是否就此對(duì)自動(dòng)駕駛宣判“死刑”了呢?不僅不是,而且恰好相反。問題的要害在于,理論層面的倫理與應(yīng)用層面的責(zé)任是兩個(gè)相關(guān)、但不同的問題,很容易被隱蔽地混淆。
“道路千萬條,安全第一條”,有科學(xué)證據(jù)表明,自動(dòng)駕駛系統(tǒng)比人類駕駛員具有更高的安全性,這種安全性還體現(xiàn)為規(guī)模的指數(shù)化,即自動(dòng)駕駛越多,交通的整體通暢和安全水平越好。因此,自動(dòng)駕駛出行方式是大勢(shì)所趨。
學(xué)界的焦慮主要來自對(duì)自動(dòng)駕駛事故責(zé)任的認(rèn)定??紤]到專用人工智能技術(shù)本身的技術(shù)特點(diǎn),L1-L4級(jí)自動(dòng)駕駛的責(zé)任問題可分類討論:
(1)封閉路段。
滿足自動(dòng)駕駛的封閉路段,道路服務(wù)商必須能夠提供下述基本服務(wù):確保路面暢通、無雜物堆積、標(biāo)記線和指示牌清晰無誤,為重要地點(diǎn)設(shè)立智能樞紐,提供異常天氣、地質(zhì)災(zāi)害等的預(yù)警等。如果道路工況不達(dá)標(biāo),道路服務(wù)商應(yīng)對(duì)自動(dòng)駕駛事故承擔(dān)主要責(zé)任。
如果道路工況達(dá)標(biāo),則應(yīng)檢視自動(dòng)駕駛是否存在硬件或軟件故障,部件有問題則由相關(guān)廠商承擔(dān)責(zé)任,部件整合搭配問題則有整車制造商承擔(dān)責(zé)任。特別地,如在滿足自動(dòng)駕駛條件下,在車輛前行方向出現(xiàn)了橫穿馬路的行人或動(dòng)物,如果是行人違規(guī),則由行人承擔(dān)責(zé)任,如果穿行者是動(dòng)物,則由道路服務(wù)商承擔(dān)責(zé)任。這類似現(xiàn)在的高速公路,汽車可以高速行駛的預(yù)設(shè)前提是道路服務(wù)商為車輛提供必要的全程封閉管制,不允許非機(jī)動(dòng)車或行人在高速公路上穿行。此時(shí),自動(dòng)駕駛汽車駕駛員不承擔(dān)事故責(zé)任,自動(dòng)駕駛汽車應(yīng)該優(yōu)先保護(hù)駕駛員。
(2)開放路段。
在不滿足完全自動(dòng)駕駛條件的開放路段進(jìn)行自動(dòng)駕駛,其行為本身已經(jīng)包含了發(fā)生潛在交通危險(xiǎn)的可能性。此時(shí),駕駛員如果仍然開啟自動(dòng)駕駛模式前行,不論有意或無意,都已在事實(shí)層面實(shí)施了自動(dòng)駕駛行為。如果發(fā)生交通事故:
① 我方和對(duì)方都遵守交通規(guī)則。由駕駛員承擔(dān)主要責(zé)任,由自動(dòng)駕駛部件或整車制造商承擔(dān)次要責(zé)任。此種情況下,自動(dòng)駕駛汽車應(yīng)優(yōu)先保護(hù)駕駛員。
② 我方遵守交通規(guī)則,對(duì)方違反交通規(guī)則。由對(duì)方承擔(dān)主要責(zé)任,由駕駛員承擔(dān)次要責(zé)任。此種情況下,自動(dòng)駕駛汽車應(yīng)優(yōu)先保護(hù)駕駛員。
③ 我方違反交通規(guī)則,對(duì)方遵守交通規(guī)則。如果因破解系統(tǒng)造成與廠商版本不同,則由駕駛員承擔(dān)全部責(zé)任,否則由自動(dòng)駕駛部件或整車制造商承擔(dān)主要責(zé)任。此種情況下,自動(dòng)駕駛汽車應(yīng)優(yōu)先保護(hù)行人。
④ 我方和對(duì)方都違反交通規(guī)則。如果因破解系統(tǒng)造成與廠商版本不同,則由駕駛員和對(duì)方共同承擔(dān)責(zé)任,否則由自動(dòng)駕駛部件或整車制造商與對(duì)方共同承擔(dān)責(zé)任。此種情況下,自動(dòng)駕駛汽車應(yīng)優(yōu)先保護(hù)行人。
綜上幾種情況,基于專用人工智能技術(shù)的自動(dòng)駕駛系統(tǒng)不存在“機(jī)器道德主體地位”問題,機(jī)器不能作為法律懲戒對(duì)象而必須由責(zé)任人來承擔(dān)責(zé)任后果。
事實(shí)上,自動(dòng)駕駛事故責(zé)任認(rèn)定問題,也并未超越現(xiàn)行法律體系的有效調(diào)控范圍。也就是說,應(yīng)將自動(dòng)駕駛系統(tǒng)也視為車輛專用系統(tǒng)的一個(gè)基本部分。比如,如果輪胎有缺陷,在正常使用情境下出了問題,則應(yīng)該由相應(yīng)的產(chǎn)品提供商負(fù)責(zé)。但駕駛員明知冰雪路面不該使用普通車胎,卻依舊駕駛造成事故的,責(zé)任便由本人承擔(dān)。自動(dòng)駕駛事故的責(zé)任認(rèn)定也亦如此。
最后,從計(jì)算問題、法律問題再回歸到倫理問題。在計(jì)算層面,自動(dòng)駕駛沒有技術(shù)的“倫理解”。但在法律層面,自動(dòng)駕駛的實(shí)際應(yīng)用沒有倫理障礙。
專用人工智能框架下,自動(dòng)駕駛的核心特征強(qiáng)調(diào)工具的自動(dòng)化(L1-L4)而非自主化(L5)。工具性意味著,只能確保在既定使用范圍內(nèi)正常工作,這是理解自動(dòng)駕駛合法性和有效性的前提。而在倫理層面的“電車難題”及其變種,本質(zhì)上都是前提為一對(duì)互斥矛盾、且前提必須成立的情況下,尋求化解矛盾的方案。換言之,雖在倫理空間無法突破給定的矛盾預(yù)設(shè),但可以試圖在法律空間內(nèi)用經(jīng)濟(jì)手段尋求倫理解。因此,不論電車疾駛向哪一條支線,電車司機(jī)在法律上都是無責(zé)的,負(fù)責(zé)的反而應(yīng)該是明知不該、卻執(zhí)拗聚在鐵軌上的“無辜”行人。
倫理問題未必都有合理解,有合理解也未必有最優(yōu)解,這反映了開放世界價(jià)值判斷的多元化。而多元的價(jià)值判斷,必然導(dǎo)致很多情況下不存在最優(yōu)解,而只有可行解甚至無奈解。這意味著,在“元倫理學(xué)”范疇內(nèi),倫理學(xué)系統(tǒng)的“公理化”理論假設(shè)本身就面臨“非公理化”現(xiàn)實(shí)的無情挑戰(zhàn)與深刻詰責(zé)。因此,盡管我們至今仍在爭(zhēng)論電車司機(jī)該選擇哪條支線,卻并不妨礙地鐵、汽車、火車、飛機(jī)、輪船等各種交通工具的使用越來越多、智能化程度越來越高。
歸根到底,在專用人工智能框架下,L1-L4級(jí)的自動(dòng)駕駛倫理難題“不足為懼”:倫理難題既非自動(dòng)駕駛所專有,也無須自動(dòng)駕駛技術(shù)來終結(jié),更不會(huì)成為其應(yīng)用推廣的阻礙。
作者簡(jiǎn)介
劉凱,博士,華中師范大學(xué)心理學(xué)博士后,渤海大學(xué)教育科學(xué)學(xué)院教師,教育技術(shù)學(xué)及心理健康教育碩士生導(dǎo)師,中國(guó)通用人工智能(AGI)協(xié)會(huì)(籌)召集人,機(jī)器認(rèn)知(北京)科技有限公司創(chuàng)始人,研究方向?yàn)椋和ㄓ萌斯ぶ悄埽ˋGI)、機(jī)器教育、計(jì)算精神病學(xué)。