霍金再談:人工智能陰謀論,超強AI將毀滅人類

時間:2017-05-02

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:據(jù)國外媒體報道,斯蒂芬·霍金警告稱,技術(shù)的發(fā)展需要得到控制,以阻止其毀滅人類。在此之前,這位世界知名的物理學(xué)家就曾警告過人工智能的危險。

據(jù)國外媒體報道,斯蒂芬·霍金警告稱,技術(shù)的發(fā)展需要得到控制,以阻止其毀滅人類。在此之前,這位世界知名的物理學(xué)家就曾警告過人工智能的危險。他認為,人類必須找到一種方法,在重大破壞造成之前迅速發(fā)現(xiàn)所面臨的威脅。

“從文明開始之時,侵略就一直是很有用處,因為它有著絕對的生存優(yōu)勢,”霍金說,“通過達爾文式的演化過程,侵略性深深根植于我們的基因之中。然而,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,使這種侵略性可能會以核戰(zhàn)爭或生物戰(zhàn)爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能?!?/p>

不過,霍金也表示,盡管人類面臨著各種各樣的問題,但依然有希望存活下去,而這需要我們所有人都一起努力。“我們需要更快地認識這些威脅,并在它們失去控制之前采取行動。這可能意味著需要建立某種形式的世界政府,”霍金說道。

世界政府可能也會產(chǎn)生各種各樣的問題?!埃ㄊ澜缯┛赡軙兂梢环N暴政,”霍金說,“所有這些聽起來似乎是在說人類已經(jīng)在劫難逃,但我是一個樂觀主義者。我認為人類將奮起應(yīng)對這些挑戰(zhàn)?!?/p>

在2015年的一次網(wǎng)絡(luò)問答中,霍金就曾指出人工智能可能會成長到非常強大的程度,甚至可能在完全無意的情況下毀滅人類。“人工智能的真正威脅并不在于它們的惡意,而是它們所具有的能力,”霍金說,“一個超級聰明的人工智能在完成目標時具有極強的能力,而一旦這些目標與我們?nèi)祟惒灰恢拢俏覀兙陀新闊┝??!?/p>

他繼續(xù)說道:“你可能并不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責一個水力發(fā)電的綠色能源項目,項目所在的區(qū)域內(nèi)也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處于這些螞蟻的境地。”

特斯拉公司的首席執(zhí)行官伊隆·馬斯克也提出了類似的觀點,他曾警告稱,人工智能的發(fā)展必須受到控制?!半S著時間推移,我認為我們可能會看到生物智能和數(shù)字智能出現(xiàn)更加密切的融合,”馬斯克說道。他還提出,人類在未來可能會與機器實現(xiàn)結(jié)合,以跟上人工智能的發(fā)展步伐。

更多資訊請關(guān)注工業(yè)機器人頻道

中傳動網(wǎng)版權(quán)與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0