據(jù)CNET報道,谷歌工程總監(jiān)Ray Kurzweil最近在奇點大學(xué)(Singularity University)演講時表示,關(guān)于無人駕駛汽車在面臨道德困境時如何做選擇,這個問題目前沒有答案。
人們有時會遇到道德困境,從而不得不面對兩難選擇。在人工智能越來越發(fā)達的今天,機器也會遇到同樣的問題。
最近,Uber在美國賓夕法尼亞州匹茲堡推出無人駕駛汽車,這是一個令人興奮的消息。
但是,如果無人駕駛汽車面臨一種道德困境,它會如何選擇,設(shè)計者是否已經(jīng)為它們設(shè)計好了應(yīng)對方式?
例如,假使無人駕駛汽車快要撞上另一輛汽車,那輛車里坐著三個人。它可以轉(zhuǎn)彎閃開,但這樣它就會撞上人行道上的三個孩子。
它會如何選擇?
巧合的是,谷歌的工程總監(jiān) Ray Kurzweil本周在奇點大學(xué)演講時為這個問題提供了一個答案:我們不知道。
Ray Kurzweil解釋說,“不可殺人”的戒律過于簡單。他說,如果有人將要炸毀一幢建筑物或一個城市,那么除掉這個人就是符合道德的。
就無人駕駛汽車來說,他認為有必要進行“道德設(shè)計”。他說,艾薩克阿西莫夫(Isaac Asimov)的機器人三法則(Three Rules of Robotics )是一個很好的示范。
這三條法則是:
機器人不得傷害人類,也不得因為不作為而使人類受到傷害。
機器人必須服從人類的命令,除非這樣做違背第一條法則。
在不違背第一條和第二條法則的情況下,機器人必須保護自己。
Ray Kurzweil不知道,不作為——你可以挽救某人的生命卻沒有這樣做——是否等同于殺戮。
他承認,在無人駕駛汽車的道德品性方面,他現(xiàn)在完全沒有現(xiàn)成的答案。
“我要考慮更長的時間。我還沒有做過這種分析?!彼f。
谷歌的首席工程師Andrew Chatham認為,當無人駕駛汽車面臨兩難選擇時,“答案差不多總是‘踩剎車’?!?/p>
他承認,這可能并不總是正確的答案。但他表示,如果連踩剎車都不是一種正確的應(yīng)對,那就是面臨極端情形了。
但是,這個世界上不是充滿了極端情況嗎?
美國麻省理工學(xué)院的研究人員最近創(chuàng)建了一個名為道德機器(Moral Machine)的調(diào)查平臺。此舉意在調(diào)查人們希望無人駕駛汽車在面臨道德困境時如何選擇。
“研究人員不僅想知道人類會做出怎樣的選擇。他們也希望‘清楚地了解人類如何看待在道德困境下作出了某種選擇的機器智能’。”
這似乎是相當明智的。
Uber沒有回復(fù)記者的置評請求,因此目前還不清楚該公司是怎樣處理無人駕駛汽車的“道德設(shè)計”問題的。