隨著人工智能(AI)技術(shù)突飛猛進的發(fā)展,現(xiàn)在許多無須人工操控的自動化系統(tǒng)如雨后春筍般出現(xiàn),大大豐富和改善了人們的物質(zhì)文化生活。當(dāng)然,這項技術(shù)也不可避免地會進入軍事領(lǐng)域,催生多種自動化武器裝備,如無人駕駛的飛機、艦艇、戰(zhàn)車以及人形超級智能作戰(zhàn)機器人等。這些武器裝備在激活后無須人類干預(yù),即可自動選擇目標(biāo)和采取行動,這就不能不引起人們的憂慮——它們會不分青紅皂白地濫殺無辜,從而改變戰(zhàn)爭的性質(zhì),使人類遭受重大傷害。
于是,一個問題出現(xiàn)了:有沒有辦法讓機器人恪守人類道德?
“殺人機器人”引出的爭論
美國是最早開始研發(fā)和使用這種自動化武器(俗稱“殺人機器人”)的國家,英、日、德、俄、韓和以色列等國家緊隨其后,也相繼研發(fā)出各自的系統(tǒng)。其中數(shù)量最多的,是美國的無人機。
以色列的“哈比”無人機
據(jù)悉,美軍現(xiàn)有各種無人機7 000 架,其型號涵蓋了從手掌大小的微型機到翼展超過波音737的“全球鷹”巨型機,它們普遍配有攝像頭和圖像處理器,可以在沒有任何通信和控制系統(tǒng)的情況下被派去摧毀目標(biāo)。據(jù)報道,美軍曾在阿富汗大量使用無人機,造成許多無辜者傷亡。
美國的大型無人偵察機RQ-4“全球鷹”
2020 年3 月,在利比亞內(nèi)戰(zhàn)的戰(zhàn)場上,一架土耳其生產(chǎn)的自殺型無人機甚至在完全自主模式下,攻擊了一名參戰(zhàn)士兵。聯(lián)合國安理會發(fā)布的相關(guān)報告震撼了國際輿論,更引發(fā)了深刻的道德和法律爭論。支持者認為,戰(zhàn)場機器人如果使用得當(dāng),可以有效降低士兵的傷亡率,挽救生命。但科學(xué)界的普遍看法是,戰(zhàn)場機器人是一種威脅,這不單單是指它具有自主能力,而是指它掌握著生殺大權(quán)。為此,聯(lián)合國發(fā)文呼吁,“殺人機器人”的問世,動搖了關(guān)于戰(zhàn)爭行為的國際公約,必須“凍結(jié)”相關(guān)技術(shù)的研發(fā),最終目標(biāo)是永久性地禁止這種武器的使用,不能把生殺大權(quán)交給一個機器人。
一項有趣的試驗
聯(lián)合國這么呼吁的理由是:機器人無法對自己的行為負責(zé)——它可以判斷對方是人還是機器,但是要識別對方是士兵還是平民,幾乎不可能。士兵可以用常識判斷眼前的女子是懷孕還是身藏炸藥,機器人恐怕不大可能。如果恐怖分子利用“殺人機器人”取代自殺式襲擊,就如同打開了現(xiàn)代“潘多拉魔盒”,后果不堪設(shè)想。
那么,有沒有辦法通過程序設(shè)計,讓機器人具有“道德觀念”和“法律意識”,做一個具有仁愛之心的“好人”呢?或者說,是否可以將機器人的所作所為限定在一個合法的范疇之內(nèi)呢?
這是一個饒有興味的問題,激發(fā)了一批頂尖科學(xué)家的靈感,并有一些人進行了實際試驗。例如,英國布里斯托機器人實驗室的艾倫·溫菲爾德及其同事,為機器人設(shè)計了這樣一個程序:阻止其他擬人機器人掉進洞里。這是根據(jù)美國著名科幻作家艾薩克·阿西莫夫提出的“機器人三定律”設(shè)計的。
試驗一開始,機器人還能順利完成任務(wù):當(dāng)擬人機器人向洞口移動時,機器人會沖上去將其推開,防止其掉進洞里。隨后,研究人員又添加了一個擬人機器人,兩個擬人機器人同時向洞口移動,救人機器人則要被迫進行選擇。有時,它成功地救了其中一“人”,而另一“人”掉進了洞里;有幾次,它甚至想兩個“人”都救。然而,在33 次測試中,它有14 次因為在救哪一個的問題上不知所措而浪費了時間,以致兩個“人”都掉進了洞里。這項試驗公開展示后,得到了世人的高度關(guān)注。事后,溫菲爾德說,雖然根據(jù)設(shè)定的程序,救人機器人是可以對他人施救的,但它根本不理解這種行為背后的原因,因而實際上是一具“道德僵尸”。
隨著機器人日益融入人們的生活,這類問題需要有一個明確的答案。例如,一輛自動駕駛的汽車,某一天或許要在“保證車內(nèi)人員安全”和“給其他駕駛員或行人造成傷害”之間進行權(quán)衡。解決這個問題可能非常困難。然而,可喜的是,某些機器人或許能夠提供一個初步答案:美國佐治亞理工學(xué)院的計算機專家羅納德·阿金專門為一個名為“道德監(jiān)督員”的軍事機器人研發(fā)了一套運算法則,在模擬戰(zhàn)斗測試中,它可以幫助機器人在戰(zhàn)場上作出明智的抉擇。例如,不得在學(xué)校和醫(yī)院等受保護目標(biāo)附近開槍,要盡量減少人員傷亡。不過,這是相對簡單的情形,如果遇到復(fù)雜情況,結(jié)果往往會大不一樣。看來,要回答機器人能否作出道德倫理選擇這個問題,不是短時間內(nèi)能夠做到的,這中間涉及一系列極其尖端復(fù)雜的人工智能技術(shù),要取得實質(zhì)性進展,還有很長的路要走。
讓機器人“講道德”的難度
這是人工智能技術(shù)在發(fā)展過程中遇到的一個重大問題。要正確地回答和解決這個問題,首先要弄清一個關(guān)鍵:需要掌握道德標(biāo)準的是人工智能本身,還是人類?
一個多世紀前,有人曾發(fā)出警告說,電力特別是電報的發(fā)明會對人的智力帶來不利影響,由于人們不停地用電訊傳遞信息而很少有時間思考,因而將削弱人的思考能力,甚至最終會導(dǎo)致大腦癱瘓。100 多年后,也有人對谷歌發(fā)出類似的警告——當(dāng)他們有時看到社交網(wǎng)絡(luò)充斥著大量廢話后,就誤認為上面說的“思考能力的弱化”已經(jīng)成為現(xiàn)實。但是,即便上述情況屬實,而將其原因歸之為電力的發(fā)展,這是不公平的。因為要對大量廢話負主要責(zé)任的,顯然不應(yīng)是電力技術(shù),而應(yīng)是作為行為者的人的本性。
如今,人工智能的發(fā)展也面臨著類似情況:人們一方面在高度評價它給各行各業(yè)帶來的無與倫比的巨大推動作用,同時對它可能存在的某些弊端又不無憂慮,“殺人機器人”的問世便是典型案例之一。
人工智能的巨大威力,主要是通過它那卓越的圖靈識別模式來工作的。例如,在新冠肺炎疫情大流行的背景下,它可以識別出無癥狀感染者,從而避免疾病的傳播;它可以通過皮毛上的斑點來識別和分類瀕危動物,有利于對其進行監(jiān)控,從而降低物種滅絕的風(fēng)險;它還能識別出古代文字的痕跡并確定作者數(shù)量;它甚至能通過智能算法判斷出考場中的異常行為,將作弊者識別出來……
但是,盡管如此,人工智能技術(shù)并非萬能的,當(dāng)它的發(fā)展逐漸接觸到人類的意識、情感、意志和道德層面的問題時,便會相形見絀,有時甚至完全無能為力。這是因為,戰(zhàn)爭法則已有數(shù)千年的歷史,人類往往會受到情感等因素的影響而打破規(guī)矩,機器人則不會。這種情況已成為與哲學(xué)和倫理學(xué)有關(guān)的一部分了。因此,要解決人工智能中的道德倫理問題,不能單純從技術(shù)角度著眼,必須考慮哲學(xué)、倫理學(xué)的因素,這就不可避免地會增加解決問題的難度。
怎樣讓機器人恪守人類道德
這種難度主要可歸納為兩個方面:其一,難以處理一些抽象概念,例如“造成傷害”的概念。殺人顯然是一種傷害,但是接種疫苗也會引起疼痛,個別的甚至?xí)斐伤劳?,那么,達到何種程度才能界定為“傷害”呢?其二,來自對可能傷害的評估,以及必須避免對人類造成傷害。如果一個智能系統(tǒng)遇到兩個具有相同傷害可能性的目標(biāo)就無所適從,不知道該把目標(biāo)鎖定在哪個身上,就不能被認為是一個成熟的系統(tǒng)。
盡管這一問題解決起來難度很大,甚至被認為“根本無法解決”,但是科學(xué)家并未因此放緩探索未知、攻堅克難的步伐。圍繞著怎樣讓機器人恪守人類道德這一目標(biāo),他們費盡心思,提出了許多思路、建議和方案,其中有些已經(jīng)在進行試驗,概括起來就是:
第一,參照科幻大師艾薩克·阿西莫夫提出的“機器人三定律”,嚴格限定智能機器人不能傷害人類,不能因不作為而使人類遭受傷害;如有違反,相關(guān)的研發(fā)人員或機構(gòu)將會受到懲罰。
第二,采取訴諸多數(shù)的觀點。一般而言,大多數(shù)人的利益往往能決定什么是對的、什么是錯的。例如,假設(shè)在涉及行人、立即發(fā)生且不可逆轉(zhuǎn)的事故時,我們必須決定自動駕駛車輛應(yīng)該做什么:到底是救乘員還是救行人?美國曾用一種道德機器來分析這些可能的決定,結(jié)論是如果一種行為能為最大數(shù)量的人帶來最大的幸福度,那它就是一件值得做的好事。在這里,幸福度是一個主要的預(yù)期目標(biāo)。
第三,在未來的戰(zhàn)場上,真正的困境出現(xiàn)在面對未來士兵的時候。要想讓未來士兵具有戰(zhàn)斗力,他們必須在可感知的威脅消滅他們之前把威脅消滅掉。這可以通過編程的方式,讓機器人遵守一些“道德規(guī)則”來實現(xiàn),尤其是涉及戰(zhàn)斗環(huán)境中的士兵時。但指揮員可能會發(fā)現(xiàn),如果為機器人內(nèi)置的“道德”限制將會危及本部隊?wèi)?zhàn)斗人員時,這種編程就會干擾任務(wù)的遂行。例如,人工智能系統(tǒng)會鎖死士兵的槍,以防止平民被殺,而這個平民其實是對方的戰(zhàn)斗人員或恐怖分子。從這個角度講,在城市恐怖事件中,似乎永遠也不可能弄清楚誰是平民、誰不是。因此,這里的編程就是一項極其復(fù)雜的技術(shù),需要各方面的頂尖專家集思廣益、通力合作,才有可能取得突破。
綜上所述,能否讓機器人受道德約束是一個大目標(biāo),實現(xiàn)這個目標(biāo)的根本途徑不是如何使人工智能技術(shù)符合道德規(guī)范,而是人類在研發(fā)和使用人工智能時要遵守道德規(guī)范。如果說有道德的機器人目前還是一個神話,那么,有道德的人卻完全不是。因此,完全有可能和絕對有必要敦促全世界的科學(xué)家、軍事指揮員采取有道德的行動,即只有在自身安全受到傷害的必要情況下才動用自動化武器。在這方面。人類是可以大有作為的。正如人工智能之父阿蘭·麥席森·圖靈所言:“我們的目光所及,只能在不遠的前方,但是可以看到那里有大量需要去做的工作?!币虼耍熬笆枪饷鞯?。
美國的“密集陣”自動武器系統(tǒng)
文/王瑞良