6月29日,據(jù)英國《每日郵報》報道,英國物理學(xué)家史蒂芬·霍金(Stephen Hawking)日前在接受美國王牌脫口秀主持人拉里·金(Larry
King)的采訪時稱,披著數(shù)字助手和無人駕駛汽車外衣的人工智能(AI)已經(jīng)開始站穩(wěn)腳跟,終究會帶來人類的末日。他還表示,機(jī)器人的進(jìn)化速度可能比人類更快,且它們的終極目標(biāo)將不可預(yù)測。
在采訪中,霍金一如既往地表現(xiàn)出對人類未來的擔(dān)憂。他說:“我不認(rèn)為人工智能的進(jìn)化必然是良性的。一旦機(jī)器人達(dá)到能夠自我進(jìn)化的關(guān)鍵階段,我們無法預(yù)測它們的目標(biāo)是否與人類相同。人工智能可能比人類進(jìn)化速度更快,我們需要確保人工智能的設(shè)計符合道德倫理規(guī)范,保障措施到位。”
這不是霍金第一次警告機(jī)器人將會起來反抗。去年,霍金警告稱,隨著技術(shù)不斷發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類的生存前途未卜。
今年早些時候,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,也有可能是最后一個。
他認(rèn)為,數(shù)字個人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年競賽將更加激烈。
霍金并非唯一擔(dān)心人工智能的科技界名人。特斯拉和SpaceX創(chuàng)始人伊隆·馬斯克(Elon
Musk)曾經(jīng)把開發(fā)人工智能比作“召喚魔鬼”,并警告稱人工智能技術(shù)給人類帶來的傷害可能超過核武器。
但霍金也承認(rèn)人工智能帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。他認(rèn)為人類面臨的兩大威脅是我們自身的貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和人口膨脹,自從那以來這些都變得更加嚴(yán)重。以當(dāng)前速度持續(xù)下去,到2100年,全球人口將達(dá)到110億。在過去5年間,空氣污染也在加劇,二氧化碳排放量在不斷增長。”