無人駕駛首條道德準(zhǔn)則終于出爐 無人駕駛的混亂不曾減少

時(shí)間:2017-09-01

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:自動(dòng)駕駛的道德悖論之所以出現(xiàn)是因?yàn)檫@一問題在自動(dòng)駕駛時(shí)代本質(zhì)是一個(gè)算法問題。

自動(dòng)駕駛的道德悖論之所以出現(xiàn)是因?yàn)檫@一問題在自動(dòng)駕駛時(shí)代本質(zhì)是一個(gè)算法問題。是背后的編程人員根據(jù)現(xiàn)實(shí)經(jīng)濟(jì)收益與成本考量的理性選擇。也即意味著編程人員需要為無人駕駛的各種問題承擔(dān)責(zé)任。而事實(shí)是,無人駕駛能否被人類接受,其核心障礙是人類是否可以接受一個(gè)可能犯錯(cuò)的機(jī)器。如果人類接受無人駕駛,或者日后出現(xiàn)的智能機(jī)器人,并允許他們進(jìn)入人類社會(huì)與我們共處,我們?cè)诮邮芩麄兲峁┑谋憷耐瑫r(shí),也必須接受它們可能的犯錯(cuò)。

文丨AutoR智駕小語吳鵬飛

無人駕駛在推動(dòng)一個(gè)產(chǎn)業(yè)成長的同時(shí),對(duì)于無人駕駛?cè)绾芜M(jìn)入人類社會(huì)正在成為一個(gè)變得迫切的問題。

如果我們把具有無人駕駛功能的汽車稱之為輪式機(jī)器人的話,對(duì)于這樣新進(jìn)入人類出行的新生物種,引發(fā)的將不止是法律適用的問題,同時(shí)會(huì)牽涉不少的倫理與道德問題。

而其中的一項(xiàng)道德悖論是當(dāng)無人駕駛汽車在沒有選擇只能選擇一方碰撞時(shí),到底如何選擇。

在這個(gè)月末的8月23日,繼美國對(duì)無人駕駛出臺(tái)首部法規(guī)一年之后,德國交通運(yùn)輸與數(shù)字基礎(chǔ)建設(shè)部下屬的道德委員會(huì)公布了一套被稱為世界上首部的自動(dòng)駕駛道德準(zhǔn)則,供國內(nèi)發(fā)展自動(dòng)駕駛技術(shù)的車商參考。道德委員會(huì)經(jīng)過評(píng)估報(bào)告,由科學(xué)家和法律專家共同提出15條自駕系統(tǒng)的駕駛決策道德準(zhǔn)則,準(zhǔn)則的核心原則是:生命應(yīng)該始終優(yōu)先于財(cái)產(chǎn)或動(dòng)物。

德國運(yùn)輸部長亞歷山大·多布林德(DanDobrindt)在一份聲明中說:"人與人之間的相互作用在數(shù)字化和自主系統(tǒng)的時(shí)代引起了新的道德問題,倫理委員會(huì)已經(jīng)開展了開創(chuàng)性的工作,并制定了世界上第一個(gè)自動(dòng)駕駛準(zhǔn)則,我們正在實(shí)施這些指引"。

準(zhǔn)則規(guī)定無人駕駛汽車的系統(tǒng)必須要不惜一切代價(jià)的考慮把人的生命放在首位,也就是說當(dāng)事故已經(jīng)無法避免時(shí),無人駕駛汽車可能就要選擇撞向建筑等障礙物,而有著車體的保護(hù),這樣的判斷更容易獲得兩全的結(jié)果。另外規(guī)定監(jiān)視系統(tǒng),如黑盒子,應(yīng)該記錄活動(dòng),以便以后確定事故中誰處于錯(cuò)誤的方面:司機(jī)或技術(shù)。

報(bào)告規(guī)定的軟件設(shè)計(jì)人員的15條規(guī)則,雖然這些準(zhǔn)則涵蓋了簡(jiǎn)單的決定,比如把司機(jī)的生活優(yōu)先于松鼠或郵箱,但還有其他更細(xì)微的問題仍然留給人的職權(quán)范圍。報(bào)告說:"真正的困境決定,例如人與人之間的決定,取決于實(shí)際的具體情況,納入受影響的各方的"不可預(yù)測(cè)的"行為。"因此,他們不能被明確地標(biāo)準(zhǔn)化,也不能被編程,使他們?cè)趥惱砩鲜遣蝗葜靡傻摹?

這些規(guī)范以安全、人性尊嚴(yán)、人身選擇自由及數(shù)據(jù)自主性為重點(diǎn)。

其中明確,人類生命一定是首要任務(wù),在事故無可避免的情況下,人的生命要比其他動(dòng)物、建物都還重要。另外,當(dāng)碰到"直走會(huì)撞死1個(gè)老人,但救2個(gè)小孩;急轉(zhuǎn)彎會(huì)撞死2個(gè)小孩,但救一個(gè)老人"這種著名的道德難題時(shí),規(guī)范中指出,自駕系統(tǒng)不得以任何年齡、性別、種族、是否殘疾等條件,作為"犧牲"和"獲救"的判斷選擇標(biāo)準(zhǔn)。因?yàn)槿祟惖纳际瞧降鹊摹?/p>

事實(shí)上這一人類的生命都是平等的判斷,將會(huì)加劇自動(dòng)駕駛系統(tǒng)的選擇難度。

同時(shí)這部規(guī)則意味著它可能事實(shí)上無法解決自動(dòng)駕駛的道德悖論,還會(huì)導(dǎo)到更多沖突的發(fā)生。

這一原則并沒有解決問題。

因?yàn)樵诂F(xiàn)實(shí)世界,不僅僅是中國,同命不同價(jià)其實(shí)是一個(gè)普遍現(xiàn)象,這是現(xiàn)實(shí)世界殘酷的一面。

一個(gè)簡(jiǎn)單的事例是,在保險(xiǎn)公司眼中,一個(gè)九旬老人與一個(gè)二十歲的青壯年價(jià)值是完全不同的。

在不同的主體看來,生命的價(jià)值具有不對(duì)等的經(jīng)濟(jì)價(jià)值。

2015年,谷歌自動(dòng)駕駛項(xiàng)目的負(fù)責(zé)人當(dāng)時(shí)表示,谷歌的汽車將無法決定誰是一個(gè)更好的人,在道德上,有不可避免的碰撞損失。相反,該公司正在努力保護(hù)最脆弱的人。

而保護(hù)脆弱的人意味著必須對(duì)人,不同的人作出劃分,對(duì)一個(gè)人的生命價(jià)值與一群人的生命價(jià)值作出比對(duì)。

這也即是早已存在的由哲學(xué)家PhilippaFoot提出的"電車難題"。

這一難是是用來批判倫理哲學(xué)中的主要理論,特別是功利主義,它的內(nèi)容是這樣的:

五個(gè)無辜的人被綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車開到另一條軌道上。但是在那另一條軌道上也綁了一個(gè)人。你有兩個(gè)選擇:1.不拉桿,五人死于你手下。2.拉桿,一人死亡。你會(huì)怎么做呢?

PhilippaFoot所批判的功利主義,其實(shí)也是很多人自認(rèn)為正確的,即大部分道德決策都是根據(jù)"為最多的人提供最大的利益"的原則。

這一難題即以一個(gè)功利主義者的觀點(diǎn)來看,明顯的選擇應(yīng)該是拉拉桿,拯救五個(gè)人只殺死一個(gè)人。

但是功利主義的批判者認(rèn)為,一旦拉了拉桿,你就成為一個(gè)不道德行為的同謀--你要為另一條軌道上單獨(dú)的一個(gè)人的死負(fù)部分責(zé)任。

然而,其他人認(rèn)為,你身處這種狀況下就要求你要有所作為,你的不作為將會(huì)是同等的不道德??傊?,不存在完全的道德行為,這就是重點(diǎn)所在。

這一難題在不同的時(shí)代有不同的演化版本,在自動(dòng)駕駛時(shí)代,美國弗吉尼亞州交通創(chuàng)新與研究中心科學(xué)家諾亞·古道爾曾提出一種場(chǎng)景:假設(shè)一輛自動(dòng)駕駛汽車馬上就要撞到障礙物,它可以選擇向左邊或右邊急轉(zhuǎn)彎,但一邊"目標(biāo)"是戴頭盔的摩托車,另一邊的"目標(biāo)"是不敢戴頭盔的摩托車手。

按照撞擊優(yōu)化算法的原則,無人駕駛汽車會(huì)選擇撞向戴頭盔的摩托車手,因?yàn)閺慕y(tǒng)計(jì)數(shù)據(jù)來看,不戴頭盔的車手更有可能死于車禍。

不過這一算法明顯存在歧視,遵守規(guī)則的戴頭盔車手卻遭到了懲罰,這一定程度上還是違反了自動(dòng)駕駛的道德準(zhǔn)則。根據(jù)德國給出的道德準(zhǔn)則,這個(gè)問題似乎得到了答案:無人駕駛汽車撞向障礙物。

然而,新的問題又來了,車內(nèi)人的安全就一定能夠得到保障嗎?萬一車內(nèi)不止一人,并且還有兒童,相對(duì)于騎摩托的車手,誰的安全更重要?從辯證的角度來看,"同命不同價(jià)"是無人駕駛需要考慮的重要一點(diǎn),而非一句生命第一位就能含糊概括的。多條生命之間該選誰?德國這條道德準(zhǔn)則并沒有給出答案。

自動(dòng)駕駛的道德悖論之所以出現(xiàn)是因?yàn)檫@一問題在自動(dòng)駕駛時(shí)代本質(zhì)是一個(gè)算法問題。

是背后的編程人員根據(jù)現(xiàn)實(shí)經(jīng)濟(jì)收益與成本考量的理性選擇。

也即意味著編程人員需要為無人駕駛的各種問題承擔(dān)責(zé)任。

但如何規(guī)避這一悖論,對(duì)不同人的生命做出排序是一個(gè)無法避免的問題,而目前建立在駕駛行為數(shù)據(jù)上的UBI保險(xiǎn),其背后考量的也是如此,并已經(jīng)做為一種商業(yè)模式開始運(yùn)轉(zhuǎn)。

在政治正確層面,生命至高無尚,每個(gè)人的生命都是不可替代的,但一個(gè)殘酷的現(xiàn)實(shí)是同命不同價(jià)是現(xiàn)實(shí)存在的。

即便不單純指出在中國遇到車禍因城市戶口與農(nóng)村戶口的不同,導(dǎo)致的賠償金額不同,即便在西方法治社會(huì),撞向老人和兒童,所遭遇的賠償也是不同的。

但是在自動(dòng)駕駛程序設(shè)計(jì)中,如果將賠償金額不同做為一種被動(dòng)碰撞的選擇設(shè)定,則無異于一種預(yù)先設(shè)計(jì)的謀殺,其面對(duì)的社會(huì)質(zhì)疑無疑是巨大的。

一方面程序的設(shè)計(jì)者與無人駕駛汽車的擁有者都將承擔(dān)巨大的道德壓力。

那么機(jī)器人三原則可以解決這一困境嗎?

1940年,科幻作家阿西莫夫提出為保護(hù)人類,對(duì)機(jī)器人做出了三項(xiàng)規(guī)定。

第一條:機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀;

第二條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾;

第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。

按照可無人駕駛的汽車其實(shí)就是輪式機(jī)器人的判斷,這三原則似乎符合無人駕駛的系統(tǒng)設(shè)定。

機(jī)器人三原則其實(shí)暗含了這樣的思維,如果情況緊急,為了保護(hù)人類可以犧牲自己。

不過與一般的機(jī)器人不同,為了保護(hù)行人,無人駕駛汽車可以犧牲自己會(huì)產(chǎn)生一個(gè)更大的悖論:坐在車內(nèi)的司機(jī)可能也會(huì)受到傷害,做為一件商品,做為理性人誰會(huì)去購買一件可能傷害購買者本身的汽車?

奔馳在這一問題上立場(chǎng)確是十分鮮明:優(yōu)先保護(hù)車內(nèi)乘客安全,為此甚至可以傷害弱小的兒童。

2016年,德國梅賽德斯-奔馳公司澳大利亞分公司高管戴維·麥卡錫的話報(bào)道,按照無人駕駛汽車的編程思路,如果在行駛途中面臨一個(gè)道德困境,要么撞到馬路上的一名兒童,要么急打方向盤以避免撞到兒童、但可能撞到其他車道的汽車以致本車人員傷亡,那么無人駕駛汽車會(huì)"果斷"選擇優(yōu)先保護(hù)車內(nèi)人員、寧愿撞到兒童。

麥卡錫說,一般人遇到這種情況,會(huì)立即作出踩剎車、打方向盤以避免撞人的反應(yīng),"我們的系統(tǒng)也是如此,但還會(huì)考慮更多因素,例如其他車道是否有汽車行駛?如果本車采取避讓舉動(dòng),有可能會(huì)撞上其他車道的汽車,結(jié)果導(dǎo)致本車偏離方向、反而沖向路人"。

按照麥卡錫的說法,無人駕駛汽車能在危急關(guān)頭瞬間判斷出"最佳選擇",從而將損傷降至最低。

奔馳的選擇在一定程度上與2016年美國的一項(xiàng)調(diào)查有某種程度上的契和之處。在這一調(diào)查中,受訪者普遍認(rèn)為無人駕駛汽車不應(yīng)為拯救一名路人而犧牲車內(nèi)人員。

但當(dāng)問卷中被拯救的路人數(shù)量增多,愿意犧牲車內(nèi)人員以拯救路人的受訪者比例隨之升高。

當(dāng)被拯救的路人數(shù)量增至10人,受訪者普遍贊同應(yīng)優(yōu)先拯救路人。但與此同時(shí),這些受訪者表示自己更加不愿意購買無人駕駛汽車。

自動(dòng)駕駛的這一道德悖論無論將生命放在第一位還是第二位,在現(xiàn)實(shí)世界看來都將是一個(gè)無解的問題。

而其實(shí)這一問題如何設(shè)定,一個(gè)前提即是不能由生產(chǎn)廠商自行設(shè)定,無人駕駛的算法設(shè)定既不可違背法律,也必須建立在公序良俗之上,而由政府設(shè)定某些原則是必須的。

德國交通部出臺(tái)的首部無人駕駛道德準(zhǔn)則是及時(shí)的,也是負(fù)責(zé)任的,盡管目前他可能會(huì)催生更多的混亂,類似于正確的廢物話。

事實(shí)上,無人駕駛的道德準(zhǔn)則僅憑一句生命第一還遠(yuǎn)遠(yuǎn)不夠。程序沒有思想,只能執(zhí)行,所以無人駕駛車遇到的突發(fā)情況都需要工程師進(jìn)行理性的分析,通過收集數(shù)據(jù)和軟件算法給出最安全的方案,保證最大的存活率。

也許大數(shù)據(jù)最終會(huì)給無人駕駛一個(gè)在道德選擇時(shí)最合理的結(jié)果。

不過在探討這一看似無解的悖論時(shí),它其實(shí)體現(xiàn)了人類的內(nèi)心有一個(gè)無妄之念,即希望人類可以通過窮盡一切可能,讓機(jī)器不犯錯(cuò),零犯錯(cuò)。

而事實(shí)是,無人駕駛能否被人類接受,其核心障礙是人類是否愿意接受一個(gè)可能犯錯(cuò)的機(jī)器。

如果人類接受無人駕駛,或者日后出現(xiàn)的智能機(jī)器人,并允許他們進(jìn)入人類社會(huì)與我們共處,我們?cè)诮邮芩麄兲峁┑谋憷耐瑫r(shí),也必須接受它們可能的犯錯(cuò)。

手機(jī)都可能死機(jī),機(jī)器人怎么可能不犯錯(cuò)呢?

如果我們可以接受一個(gè)可能會(huì)犯錯(cuò)的無人駕駛汽車,這背后其實(shí)就是一個(gè)責(zé)任問題了。

這也意味著無人駕駛汽車的擁有者將承擔(dān)因道德選擇而導(dǎo)致最終后果的責(zé)任。

也即解決無人駕駛道德選擇的問題,不再使之是一個(gè)算法問題而是一個(gè)經(jīng)濟(jì)賠償問題。

而為此那些宣揚(yáng)無人駕駛時(shí)代是零傷亡的生產(chǎn)商們應(yīng)該更改一下他們向人類許下的空頭支票。雖然90%的車禍歸咎于人為失誤,但無人駕駛并不代表完全沒有車禍,零傷亡是一個(gè)虛妄的想像,現(xiàn)實(shí)世界誰都會(huì)犯錯(cuò),即便是一臺(tái)比人類還要聰明的機(jī)器。

更多資訊請(qǐng)關(guān)注汽車制造頻道

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動(dòng)網(wǎng)(www.treenowplaneincome.com)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0