誰會被自動駕駛汽車殺死? 機器,拯救盡可能多的人,但最重要的是,拯救我!
技術

誰會被自動駕駛汽車殺死? 機器,拯救盡可能多的人,但最重要的是,拯救我!

如果出現這樣一種情況,即汽車的自主系統必須快速選擇在即將發生事故時犧牲誰,它應該如何反應? 犧牲乘客救行人? 如有必要,殺死一個行人以備不時之需,例如,一家四口乘車旅行? 或者,也許他應該始終首先保護自己?

雖然僅在加利福尼亞就有 1 多家公司已經獲得了個人測試許可,但很難說該行業已準備好面臨道德困境。 目前,他正在努力解決更基本的問題——系統的操作和導航效率,以及簡單地避免碰撞和意外事件。 在最近在亞利桑那州謀殺一名行人或隨後發生的事故(XNUMX)等情況下,到目前為止,這只是系統故障,而不是汽車的某種“道德選擇”。

拯救富人和年輕人

做出這些決定的問題不是抽象的問題。 任何有經驗的司機都可以證明這一點。 去年,麻省理工學院媒體實驗室的研究人員分析了他們在 2014 年啟動的研究過程中收集的來自世界各地的超過 XNUMX 萬份回复。他們稱之為“道德機器”的民意調查系統顯示,在世界各地世界上,類似的問題被問到不同的答案。

最普遍的結論是可以預見的。 在極端情況下 人們更喜歡救人而不是照顧動物,旨在拯救盡可能多的生命,並且往往比老年人年輕(2)。 在拯救女性而不是男性、地位較高的人而不是窮人、行人而不是汽車乘客方面,也有一些但不太明顯的偏好。.

2、汽車應該救誰?

由於近 XNUMX 萬受訪者填寫了人口統計問卷,因此可以將他們的偏好與年齡、性別和宗教信仰聯繫起來。 研究人員得出結論,這些差異並沒有“顯著影響”人們的決定,但注意到了一些文化影響。 例如,法國人傾向於根據估計的死亡人數來權衡決策,而日本人的重視程度最低。 然而,在旭日之國,老人的生命比西方更受重視。

“在我們允許我們的汽車做出自己的道德決定之前,我們需要就此進行一場全球辯論。 當致力於自主系統的公司了解我們的偏好時,他們將在基於這些偏好的機器中開發道德算法,而政客們可以開始引入適當的法律規定,”科學家們在 2018 年 XNUMX 月的《自然》雜誌上寫道。

參與道德機器實驗的一名研究人員讓-弗朗索瓦·邦內方特發現,對拯救地位較高的人(例如高管而不是無家可歸者)的偏好令人擔憂。 在他看來,這與 特定國家的經濟不平等程度. 在不平等更大的地方,人們優先考慮犧牲窮人和無家可歸者。

之前的一項研究特別表明,根據受訪者的說法,自動駕駛汽車應該保護盡可能多的人,即使這意味著失去乘客。 然而,與此同時,受訪者表示他們不會購買以這種方式編程的汽車。 研究人員解釋說 雖然人們發現拯救更多人更符合道德,但他們也是自利的,這可能向製造商發出信號,表明客戶將不願購買配備利他系統的汽車。. 前段時間,奔馳公司的代表說,如果他們的系統只救了一個人,他們會選擇司機,而不是行人。 一波公眾抗議迫使該公司撤回其聲明。 但研究清楚地表明,這種神聖的憤慨有很多虛偽。

這已經在一些國家發生。 法律監管的首次嘗試 在領域。 德國通過了一項法律,要求無人駕駛汽車不惜一切代價避免受傷或死亡。 該法律還規定,算法永遠不能根據年齡、性別、健康或行人等特徵做出決定。

奧迪負責

設計師無法預測汽車運行的所有後果。 現實總是可以提供以前從未測試過的變量組合。 這完全破壞了我們對“合乎道德地編程”機器的可能性的信心。 在我們看來,在“由於汽車故障”而出現錯誤和悲劇發生的情況下,責任應該由系統的製造商和開發商承擔。

也許這個推理是正確的,但也許不是因為它是錯誤的。 相反,因為允許進行的運動並非 2019% 沒有實現它的可能性。 這似乎是原因,該公司並沒有推卸共同責任,該公司最近宣布將對使用自動交通堵塞飛行員 (8) 系統時涉及 3 歲 AXNUMX 的事故負責。

3. 奧迪堵車導航界面

另一方面,有數以百萬計的人駕駛汽車並且也會犯錯誤。 那麼,為什麼機器,在統計上比人類犯的錯誤要少得多,正如許多錯誤所證明的那樣,在這方面要受到歧視呢?

如果有人認為自動駕駛汽車世界中的道德和責任困境很簡單,請繼續思考......

添加評論