本篇文章687字,讀完約2分鐘

【科技在線】

據(jù)英國(guó)《每日郵報(bào)》報(bào)道,英國(guó)物理學(xué)家斯蒂芬·霍金( stephen hawking )日前在美國(guó)脫口秀主持人拉里·金( larry king )的采訪中表示,他與數(shù)位助理 他還說,機(jī)器人的進(jìn)化速度比人類快,目標(biāo)無法預(yù)測(cè)。

在采訪中,霍金一如既往地表達(dá)了對(duì)人類未來的擔(dān)憂。 他說:“我不認(rèn)為人工智能的進(jìn)化必然是良性的。 一旦機(jī)器人到達(dá)可以自我進(jìn)化的關(guān)鍵階段,就無法預(yù)測(cè)目標(biāo)是否與人類相同。 人工智能的進(jìn)化速度可能比人類快。 我們需要確保人工智能的設(shè)計(jì)符合道德倫理規(guī)范,并且有完善的對(duì)策。

這已經(jīng)不是霍金第一次警告要反抗機(jī)器人了。 去年,霍金警告說,隨著技術(shù)迅速發(fā)展,學(xué)習(xí)自我思考和環(huán)境適應(yīng),人類生存的未來還不清楚。

今年早些時(shí)候,霍金也表示,人工智能的創(chuàng)造成功可能是人類歷史上偉大的事情,但遺憾的是也可能是后者。

他認(rèn)為,數(shù)字助理siri、谷歌now、cortana都是it軍備競(jìng)賽的前兆,未來幾十年競(jìng)爭(zhēng)將加劇。

霍金并不擔(dān)心人工智能科技界的名人。 特斯拉和spacex的創(chuàng)始人埃隆·馬斯克( elon musk )曾經(jīng)將人工智能的研發(fā)比喻為惡魔的召喚,警告說人工智能技術(shù)給人類帶來的傷害有可能超過核武器。

但是霍金承認(rèn),人工智能帶來的其他好處很明顯,有助于消除戰(zhàn)爭(zhēng)、疾病和貧困。 他認(rèn)為人類面臨的兩大威脅是我們自己的貪婪和愚蠢。 他說。 “我們的貪婪和愚蠢沒有減少。 六年前,我警告過污染和人口膨脹,但從那以后,這些更嚴(yán)重了。 以現(xiàn)在的速度持續(xù)下去,到2100年,世界人口將達(dá)到110億人吧。 在過去的五年中,空氣體污染也在加劇,二氧化碳排放量在不斷增加。

標(biāo)題:“霍金:機(jī)器人進(jìn)化比人類快 警惕它們起來反抗”

地址:http://www.kungfu-fish.com//xwdt/39719.html