人們有時會遇到道德困境,從而不得不面對兩難選擇。在人工智能越來越發(fā)達的今天,機器也會遇到同樣的問題。

無人駕駛汽車如何應(yīng)對道德困境 谷歌也沒有答案

據(jù)CNET報道,谷歌工程總監(jiān)Ray Kurzweil最近在奇點大學(xué)(Singularity University)演講時表示,關(guān)于無人駕駛汽車在面臨道德困境時如何做選擇,這個問題目前沒有答案。

人們有時會遇到道德困境,從而不得不面對兩難選擇。在人工智能越來越發(fā)達的今天,機器也會遇到同樣的問題。

最近,Uber在美國賓夕法尼亞州匹茲堡推出無人駕駛汽車,這是一個令人興奮的消息。

但是,如果無人駕駛汽車面臨一種道德困境,它會如何選擇,設(shè)計者是否已經(jīng)為它們設(shè)計好了應(yīng)對方式?

例如,假使無人駕駛汽車快要撞上另一輛汽車,那輛車里坐著三個人。它可以轉(zhuǎn)彎閃開,但這樣它就會撞上人行道上的三個孩子。

它會如何選擇?

巧合的是,谷歌的工程總監(jiān) Ray Kurzweil本周在奇點大學(xué)演講時為這個問題提供了一個答案:我們不知道。

Ray Kurzweil解釋說,“不可殺人”的戒律過于簡單。他說,如果有人將要炸毀一幢建筑物或一個城市,那么除掉這個人就是符合道德的。

就無人駕駛汽車來說,他認為有必要進行“道德設(shè)計”。他說,艾薩克阿西莫夫(Isaac Asimov)的機器人三法則(Three Rules of Robotics )是一個很好的示范。

這三條法則是:

機器人不得傷害人類,也不得因為不作為而使人類受到傷害。

機器人必須服從人類的命令,除非這樣做違背第一條法則。

在不違背第一條和第二條法則的情況下,機器人必須保護自己。

Ray Kurzweil不知道,不作為——你可以挽救某人的生命卻沒有這樣做——是否等同于殺戮。

他承認,在無人駕駛汽車的道德品性方面,他現(xiàn)在完全沒有現(xiàn)成的答案。

“我要考慮更長的時間。我還沒有做過這種分析?!彼f。

谷歌的首席工程師Andrew Chatham認為,當無人駕駛汽車面臨兩難選擇時,“答案差不多總是‘踩剎車’?!?/p>

他承認,這可能并不總是正確的答案。但他表示,如果連踩剎車都不是一種正確的應(yīng)對,那就是面臨極端情形了。

但是,這個世界上不是充滿了極端情況嗎?

美國麻省理工學(xué)院的研究人員最近創(chuàng)建了一個名為道德機器(Moral Machine)的調(diào)查平臺。此舉意在調(diào)查人們希望無人駕駛汽車在面臨道德困境時如何選擇。

“研究人員不僅想知道人類會做出怎樣的選擇。他們也希望‘清楚地了解人類如何看待在道德困境下作出了某種選擇的機器智能’。”

這似乎是相當明智的。

Uber沒有回復(fù)記者的置評請求,因此目前還不清楚該公司是怎樣處理無人駕駛汽車的“道德設(shè)計”問題的。

[責(zé)任編輯:趙卓然]

免責(zé)聲明:本文僅代表作者個人觀點,與電池網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本網(wǎng)證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性,本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關(guān)內(nèi)容。涉及資本市場或上市公司內(nèi)容也不構(gòu)成任何投資建議,投資者據(jù)此操作,風(fēng)險自擔(dān)!

凡本網(wǎng)注明?“來源:XXX(非電池網(wǎng))”的作品,凡屬媒體采訪本網(wǎng)或本網(wǎng)協(xié)調(diào)的專家、企業(yè)家等資源的稿件,轉(zhuǎn)載目的在于傳遞行業(yè)更多的信息或觀點,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。

如因作品內(nèi)容、版權(quán)和其它問題需要同本網(wǎng)聯(lián)系的,請在一周內(nèi)進行,以便我們及時處理、刪除。電話:400-6197-660-2?郵箱:119@itdcw.com

電池網(wǎng)微信
谷歌
無人駕駛汽車