? ? ? ? 當(dāng)你的無人駕駛汽車在高速行進(jìn)中,前方突然出現(xiàn)一個(gè)橫過馬路的小孩。如果要避開他就必須要撞向兩邊的水泥墻,乘客受傷可能性極高。如果不避讓車輛一定會撞上小孩。
? ? ? ? 這種情況下,無人駕駛汽車系統(tǒng)會做出什么選擇?或者說,你希望無人車作出什么選擇?
? ? ? ?據(jù)The Verge報(bào)道,《Science》雜志最近做了一個(gè)無人駕駛汽車道德困境的社會調(diào)查,了解人們對無人駕駛汽車在事故中的行動方式的態(tài)度。
? ? ? ? 調(diào)查結(jié)果顯示,受訪者認(rèn)為無人駕駛汽車車主應(yīng)該選擇最小化對他人的傷害,即使會致使自己受傷。但當(dāng)問及會選擇購買“車主保護(hù)優(yōu)先”還是“行人保護(hù)優(yōu)先”的無人駕駛汽車,受訪者更傾向于購買“車主保護(hù)優(yōu)先”的。

(圖自:inhabitat)
? ? ? ? 調(diào)查者之一、美國加州大學(xué)歐文分校的心理學(xué)副教授 Azime Chariff 認(rèn)為,著名的道德悖論“電車悖論”即將無數(shù)次在現(xiàn)實(shí)中上演。
? ? ? ? 電車悖論容是:一輛失控的電車前方有五個(gè)無法避開的行人,片刻后電車就要碾壓到他們。駕駛員可以拉一個(gè)拉桿,讓電車開到另一條軌道上,但另一個(gè)電車軌道上有一個(gè)無法避開電車的人。這種狀況下,駕駛員是否應(yīng)該拉拉桿?

(圖自:nybooks)
? ? ? ? 無人駕駛汽車系統(tǒng)的開發(fā)者,正是握有這個(gè)“拉桿”的人。在無人駕駛汽車面臨交通事故時(shí),它的回避動作很可能決定乘客和行人的生死。而究竟讓誰的傷害最小化,車輛顯然是根據(jù)事先的系統(tǒng)設(shè)置行動的。
? ? ? ?盡管這是一個(gè)虛構(gòu)的場景,但也是無人駕駛技術(shù)在全面推廣之前無法回避的問題。
(圖自:wired)
? ? ? ? 從功利主義角度看,電車難題根本不算難題:犧牲 1 個(gè)人比犧牲 5 個(gè)人付出的數(shù)量上的代價(jià)要低。但結(jié)果上看,駕駛員拉拉桿的行為確實(shí)導(dǎo)致了另一條車道上那個(gè)無辜的人的死亡。而有了人為參與,就會有責(zé)任歸屬。
? ? ? ? 據(jù) Google 自動駕駛項(xiàng)目公布的試乘結(jié)果,大部分的 Google 自動駕駛汽車事故都是被追尾。在這個(gè)場景下,如果把無人駕駛汽車系統(tǒng)設(shè)置為“傷害人數(shù)最小化”的話,無人駕駛汽車可能會為了規(guī)避后方車輛而沖上人行道。
(圖自:datamanager)
? ? ? ? 去年圖盧茲經(jīng)濟(jì)學(xué)院的 Jean-Francois Bonnefon 與同事們也做過類似的調(diào)查。比起《Science》的社會調(diào)查,他們更重視對無人駕駛汽車開發(fā)者的調(diào)查。
? ? ? ? 令他們感到悲觀的是,他們發(fā)現(xiàn)開發(fā)者希望其他人坐在“行人保護(hù)優(yōu)先”的無人駕駛汽車中,而自己不會購買這樣的無人駕駛汽車。
? ? ? ? 無人駕駛汽車上路意味著我們把判斷權(quán)轉(zhuǎn)移給了計(jì)算機(jī)系統(tǒng),但道德責(zé)任和法律責(zé)任無法轉(zhuǎn)移。Chariff 希望人們能重視這個(gè)問題,在技術(shù)上和法律上能有更為明確清晰的標(biāo)準(zhǔn)。
? ? ? ? 不同于一般的電車悖論,無人駕駛汽車的道德困境的特別之處在于:它造成的結(jié)果,很可能一開始就被我們設(shè)置的指令決定了。
文章摘自:http://digi.163.com/16/0625/10/BQDBCL0E00162Q5T.html