傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

無人駕駛首條道德準則終于出爐 無人駕駛的混亂不曾減少

時間:2017-09-01

來源:網絡轉載

導語:自動駕駛的道德悖論之所以出現是因為這一問題在自動駕駛時代本質是一個算法問題。

自動駕駛的道德悖論之所以出現是因為這一問題在自動駕駛時代本質是一個算法問題。是背后的編程人員根據現實經濟收益與成本考量的理性選擇。也即意味著編程人員需要為無人駕駛的各種問題承擔責任。而事實是,無人駕駛能否被人類接受,其核心障礙是人類是否可以接受一個可能犯錯的機器。如果人類接受無人駕駛,或者日后出現的智能機器人,并允許他們進入人類社會與我們共處,我們在接受他們提供的便利的同時,也必須接受它們可能的犯錯。

文丨AutoR智駕小語吳鵬飛

無人駕駛在推動一個產業成長的同時,對于無人駕駛如何進入人類社會正在成為一個變得迫切的問題。

如果我們把具有無人駕駛功能的汽車稱之為輪式機器人的話,對于這樣新進入人類出行的新生物種,引發的將不止是法律適用的問題,同時會牽涉不少的倫理與道德問題。

而其中的一項道德悖論是當無人駕駛汽車在沒有選擇只能選擇一方碰撞時,到底如何選擇。

在這個月末的8月23日,繼美國對無人駕駛出臺首部法規一年之后,德國交通運輸與數字基礎建設部下屬的道德委員會公布了一套被稱為世界上首部的自動駕駛道德準則,供國內發展自動駕駛技術的車商參考。道德委員會經過評估報告,由科學家和法律專家共同提出15條自駕系統的駕駛決策道德準則,準則的核心原則是:生命應該始終優先于財產或動物。

德國運輸部長亞歷山大·多布林德(DanDobrindt)在一份聲明中說:"人與人之間的相互作用在數字化和自主系統的時代引起了新的道德問題,倫理委員會已經開展了開創性的工作,并制定了世界上第一個自動駕駛準則,我們正在實施這些指引"。

準則規定無人駕駛汽車的系統必須要不惜一切代價的考慮把人的生命放在首位,也就是說當事故已經無法避免時,無人駕駛汽車可能就要選擇撞向建筑等障礙物,而有著車體的保護,這樣的判斷更容易獲得兩全的結果。另外規定監視系統,如黑盒子,應該記錄活動,以便以后確定事故中誰處于錯誤的方面:司機或技術。

報告規定的軟件設計人員的15條規則,雖然這些準則涵蓋了簡單的決定,比如把司機的生活優先于松鼠或郵箱,但還有其他更細微的問題仍然留給人的職權范圍。報告說:"真正的困境決定,例如人與人之間的決定,取決于實際的具體情況,納入受影響的各方的"不可預測的"行為。"因此,他們不能被明確地標準化,也不能被編程,使他們在倫理上是不容置疑的。"

這些規范以安全、人性尊嚴、人身選擇自由及數據自主性為重點。

其中明確,人類生命一定是首要任務,在事故無可避免的情況下,人的生命要比其他動物、建物都還重要。另外,當碰到"直走會撞死1個老人,但救2個小孩;急轉彎會撞死2個小孩,但救一個老人"這種著名的道德難題時,規范中指出,自駕系統不得以任何年齡、性別、種族、是否殘疾等條件,作為"犧牲"和"獲救"的判斷選擇標準。因為人類的生命都是平等的。

事實上這一人類的生命都是平等的判斷,將會加劇自動駕駛系統的選擇難度。

同時這部規則意味著它可能事實上無法解決自動駕駛的道德悖論,還會導到更多沖突的發生。

這一原則并沒有解決問題。

因為在現實世界,不僅僅是中國,同命不同價其實是一個普遍現象,這是現實世界殘酷的一面。

一個簡單的事例是,在保險公司眼中,一個九旬老人與一個二十歲的青壯年價值是完全不同的。

在不同的主體看來,生命的價值具有不對等的經濟價值。

2015年,谷歌自動駕駛項目的負責人當時表示,谷歌的汽車將無法決定誰是一個更好的人,在道德上,有不可避免的碰撞損失。相反,該公司正在努力保護最脆弱的人。

而保護脆弱的人意味著必須對人,不同的人作出劃分,對一個人的生命價值與一群人的生命價值作出比對。

這也即是早已存在的由哲學家PhilippaFoot提出的"電車難題"。

這一難是是用來批判倫理哲學中的主要理論,特別是功利主義,它的內容是這樣的:

五個無辜的人被綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。但是在那另一條軌道上也綁了一個人。你有兩個選擇:1.不拉桿,五人死于你手下。2.拉桿,一人死亡。你會怎么做呢?

PhilippaFoot所批判的功利主義,其實也是很多人自認為正確的,即大部分道德決策都是根據"為最多的人提供最大的利益"的原則。

這一難題即以一個功利主義者的觀點來看,明顯的選擇應該是拉拉桿,拯救五個人只殺死一個人。

但是功利主義的批判者認為,一旦拉了拉桿,你就成為一個不道德行為的同謀--你要為另一條軌道上單獨的一個人的死負部分責任。

然而,其他人認為,你身處這種狀況下就要求你要有所作為,你的不作為將會是同等的不道德。總之,不存在完全的道德行為,這就是重點所在。

這一難題在不同的時代有不同的演化版本,在自動駕駛時代,美國弗吉尼亞州交通創新與研究中心科學家諾亞·古道爾曾提出一種場景:假設一輛自動駕駛汽車馬上就要撞到障礙物,它可以選擇向左邊或右邊急轉彎,但一邊"目標"是戴頭盔的摩托車,另一邊的"目標"是不敢戴頭盔的摩托車手。

按照撞擊優化算法的原則,無人駕駛汽車會選擇撞向戴頭盔的摩托車手,因為從統計數據來看,不戴頭盔的車手更有可能死于車禍。

不過這一算法明顯存在歧視,遵守規則的戴頭盔車手卻遭到了懲罰,這一定程度上還是違反了自動駕駛的道德準則。根據德國給出的道德準則,這個問題似乎得到了答案:無人駕駛汽車撞向障礙物。

然而,新的問題又來了,車內人的安全就一定能夠得到保障嗎?萬一車內不止一人,并且還有兒童,相對于騎摩托的車手,誰的安全更重要?從辯證的角度來看,"同命不同價"是無人駕駛需要考慮的重要一點,而非一句生命第一位就能含糊概括的。多條生命之間該選誰?德國這條道德準則并沒有給出答案。

自動駕駛的道德悖論之所以出現是因為這一問題在自動駕駛時代本質是一個算法問題。

是背后的編程人員根據現實經濟收益與成本考量的理性選擇。

也即意味著編程人員需要為無人駕駛的各種問題承擔責任。

但如何規避這一悖論,對不同人的生命做出排序是一個無法避免的問題,而目前建立在駕駛行為數據上的UBI保險,其背后考量的也是如此,并已經做為一種商業模式開始運轉。

在政治正確層面,生命至高無尚,每個人的生命都是不可替代的,但一個殘酷的現實是同命不同價是現實存在的。

即便不單純指出在中國遇到車禍因城市戶口與農村戶口的不同,導致的賠償金額不同,即便在西方法治社會,撞向老人和兒童,所遭遇的賠償也是不同的。

但是在自動駕駛程序設計中,如果將賠償金額不同做為一種被動碰撞的選擇設定,則無異于一種預先設計的謀殺,其面對的社會質疑無疑是巨大的。

一方面程序的設計者與無人駕駛汽車的擁有者都將承擔巨大的道德壓力。

那么機器人三原則可以解決這一困境嗎?

1940年,科幻作家阿西莫夫提出為保護人類,對機器人做出了三項規定。

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

按照可無人駕駛的汽車其實就是輪式機器人的判斷,這三原則似乎符合無人駕駛的系統設定。

機器人三原則其實暗含了這樣的思維,如果情況緊急,為了保護人類可以犧牲自己。

不過與一般的機器人不同,為了保護行人,無人駕駛汽車可以犧牲自己會產生一個更大的悖論:坐在車內的司機可能也會受到傷害,做為一件商品,做為理性人誰會去購買一件可能傷害購買者本身的汽車?

奔馳在這一問題上立場確是十分鮮明:優先保護車內乘客安全,為此甚至可以傷害弱小的兒童。

2016年,德國梅賽德斯-奔馳公司澳大利亞分公司高管戴維·麥卡錫的話報道,按照無人駕駛汽車的編程思路,如果在行駛途中面臨一個道德困境,要么撞到馬路上的一名兒童,要么急打方向盤以避免撞到兒童、但可能撞到其他車道的汽車以致本車人員傷亡,那么無人駕駛汽車會"果斷"選擇優先保護車內人員、寧愿撞到兒童。

麥卡錫說,一般人遇到這種情況,會立即作出踩剎車、打方向盤以避免撞人的反應,"我們的系統也是如此,但還會考慮更多因素,例如其他車道是否有汽車行駛?如果本車采取避讓舉動,有可能會撞上其他車道的汽車,結果導致本車偏離方向、反而沖向路人"。

按照麥卡錫的說法,無人駕駛汽車能在危急關頭瞬間判斷出"最佳選擇",從而將損傷降至最低。

奔馳的選擇在一定程度上與2016年美國的一項調查有某種程度上的契和之處。在這一調查中,受訪者普遍認為無人駕駛汽車不應為拯救一名路人而犧牲車內人員。

但當問卷中被拯救的路人數量增多,愿意犧牲車內人員以拯救路人的受訪者比例隨之升高。

當被拯救的路人數量增至10人,受訪者普遍贊同應優先拯救路人。但與此同時,這些受訪者表示自己更加不愿意購買無人駕駛汽車。

自動駕駛的這一道德悖論無論將生命放在第一位還是第二位,在現實世界看來都將是一個無解的問題。

而其實這一問題如何設定,一個前提即是不能由生產廠商自行設定,無人駕駛的算法設定既不可違背法律,也必須建立在公序良俗之上,而由政府設定某些原則是必須的。

德國交通部出臺的首部無人駕駛道德準則是及時的,也是負責任的,盡管目前他可能會催生更多的混亂,類似于正確的廢物話。

事實上,無人駕駛的道德準則僅憑一句生命第一還遠遠不夠。程序沒有思想,只能執行,所以無人駕駛車遇到的突發情況都需要工程師進行理性的分析,通過收集數據和軟件算法給出最安全的方案,保證最大的存活率。

也許大數據最終會給無人駕駛一個在道德選擇時最合理的結果。

不過在探討這一看似無解的悖論時,它其實體現了人類的內心有一個無妄之念,即希望人類可以通過窮盡一切可能,讓機器不犯錯,零犯錯。

而事實是,無人駕駛能否被人類接受,其核心障礙是人類是否愿意接受一個可能犯錯的機器。

如果人類接受無人駕駛,或者日后出現的智能機器人,并允許他們進入人類社會與我們共處,我們在接受他們提供的便利的同時,也必須接受它們可能的犯錯。

手機都可能死機,機器人怎么可能不犯錯呢?

如果我們可以接受一個可能會犯錯的無人駕駛汽車,這背后其實就是一個責任問題了。

這也意味著無人駕駛汽車的擁有者將承擔因道德選擇而導致最終后果的責任。

也即解決無人駕駛道德選擇的問題,不再使之是一個算法問題而是一個經濟賠償問題。

而為此那些宣揚無人駕駛時代是零傷亡的生產商們應該更改一下他們向人類許下的空頭支票。雖然90%的車禍歸咎于人為失誤,但無人駕駛并不代表完全沒有車禍,零傷亡是一個虛妄的想像,現實世界誰都會犯錯,即便是一臺比人類還要聰明的機器。

更多資訊請關注汽車制造頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.siyutn.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0