你可能怎么也想不到伊隆?馬斯克(Elon Musk)和斯蒂芬?霍金(Stephen Hawking)會被認(rèn)為是“反對科技進(jìn)步的人”。畢竟,馬斯克的特斯拉汽車開辟了新的電動車市場,而霍金則是萬物理論的提出者。
然而,這兩位偉大的天才均獲得了信息科技和創(chuàng)新基金(Information Technology & Innovation Foundation)頒發(fā)的“盧德獎”(Luddite award),成了評委眼中的“杞人憂天者”。此外,讓電腦走進(jìn)千家萬戶的功臣比爾?蓋茨(Bill Gates)也被提名。
為什么像這些令人敬畏的、在過去30年中大大推動科學(xué)技術(shù)進(jìn)步的公司會被認(rèn)為是反對新科技的盧德分子呢?因為他們警告稱人工智能可能會變得無法控制,最終反過來會傷害人類。這“激起了人們的恐慌和狂躁情緒”。信息科技和創(chuàng)新基金的第二屆年度盧德獎被提名人選總共有10位,馬斯克和霍金在其中脫穎而出,從3680張選票中斬獲了27%的選票,最終被封為“杞人憂天者”。
盧德一詞來源于19世紀(jì)英國,當(dāng)時編織工和紡織工群情激奮,激烈抗議強(qiáng)大的織布機(jī)和其他節(jié)省勞動力的機(jī)器。后來,《韋氏詞典》將盧德定義為反對科技進(jìn)步的人。
馬斯克“應(yīng)該算是盧德分子的反面。但是,我認(rèn)為他給了盧德分子們幫助和安慰?!毙畔⒖萍己蛣?chuàng)新基金總裁羅布?阿特金森(Rob Atkinson)說,“馬斯克、霍金和人工智能專家說,人工智能是人類現(xiàn)在面臨的最大威脅。如果你想從國會那里給國家科學(xué)基金弄到研發(fā)人工智能的錢,那么他們說的這番話可就不中聽了?!?/p>
特斯拉公司和霍金本人未就此發(fā)表評論。
馬斯克從不隱瞞自己對于人工智能潛在威脅的看法。他擔(dān)心,被賦予人類智能水平的機(jī)器可能會傷害到人類的利益。在2014年,他在Twitter上發(fā)帖稱,人工智能“可能比核武器還危險?!痹谌ツ?月,霍金與人一起為《獨立報》(The Independent)撰寫了一篇文章,聲稱“人工智能的短期影響取決于誰在控制它,長期影響則取決于它是否能被控制?!?/p>
去年1月,馬斯克和霍金聯(lián)合簽署了一封由Future of Life研究機(jī)構(gòu)發(fā)布的公開信,承諾人工智能領(lǐng)域的發(fā)展將不會超出人類的控制。在去年7月,他們又簽署了另一份公開信,呼吁禁止“無需人為干預(yù)即可選擇和射殺目標(biāo)”的自動化武器。Future of Life研究機(jī)構(gòu)致力于研究減少人工智能潛在危害的方法。它是由一群數(shù)學(xué)家和電腦科學(xué)專家創(chuàng)立的,包括網(wǎng)絡(luò)電話Skype聯(lián)合創(chuàng)始人讓?塔林(Jaan Tallinn)和麻省理工學(xué)院教授馬克思?泰格馬克(Max Tegmark)。
去年,蓋茨表示認(rèn)同馬克斯的觀點?!霸谌斯ぶ悄芊矫妫屹澇梢谅?馬斯克和其他人的看法。我不明白為什么有些人一點兒也不擔(dān)心?!彼谏缃恍侣劸W(wǎng)站Reddit上說。
信息科技和創(chuàng)新基金總裁阿特金森說,問題的關(guān)鍵不在于馬斯克和其他人說了什么,而在于他們是怎么說的。
“他們提出以安全負(fù)責(zé)的方式來開發(fā)人工智能并無不妥?!卑⑻亟鹕f,“但問題是,他們說話的語氣驚嚇到了公眾?!?/p>