3月25日,蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(SteveWozniak)日前接受《澳大利亞金融評論》采訪,承認(rèn)科技,特別是人工智能,可能在未來30年內(nèi)威脅到人類生存。
多年來,沃茲尼亞克都駁斥上述觀點。但在最近接受采訪時,他承認(rèn)許多預(yù)言正在成真,類人計算機可能成為危險的現(xiàn)實。他甚至打趣地稱:“我們是神嗎?我們會成為機器人的家庭寵物嗎?亦或是被踩在腳下的螞蟻?我不知道。”
沃茲尼亞克還稱:“毫無疑問,計算機正取代人類。如果我們建立這些設(shè)備幫助照料我們的一切,最終它們的思維速度將比人類更快,它們將擺脫人類,以更高效的方式管理公司。”
沃茲尼亞克還直接援引伊隆·馬斯克(ElonMusk)與史蒂芬·霍金(StephenHawking)有關(guān)人工智能威脅人類生存的警告。馬斯克和霍金都是志愿者組織“生命未來研究所”(FutureofLifeInstitute)成員,該組織近來發(fā)布公開信,呼吁科學(xué)家應(yīng)阻止可能毀滅人類的危險。
公開信的作者們稱,他們已經(jīng)達(dá)成共識,人工智能研究正確的良好進(jìn)展,對社會產(chǎn)生的影響將越來越大。但他們發(fā)出嚴(yán)厲警告,任何有關(guān)人工智能的研究必須避免可能帶來的潛在威脅。比如短期來看,人工智能可能導(dǎo)致數(shù)以百萬計的人失業(yè)。
3月初時,電動汽車公司特斯拉的首席執(zhí)行官馬斯克說,未來數(shù)年內(nèi),人類可能被禁止駕車,所有汽車可能被機器人控制。馬斯克還稱,將來有一天,計算機的駕駛技術(shù)將比人類更好,人類駕車可能過于危險。
機器人研究人員塞斯·本澤爾(SethBenzell)在《機器人可能導(dǎo)致經(jīng)濟崩潰》中警告稱:“無論是轟炸敵人、駕駛飛機、搓背、用吸塵器打掃地板、開出租車,還是在益智問答游戲節(jié)目《危險邊緣》擊敗我們,很難想像智能機器人還有什么不能或在不久的將來無法勝任的人類工作。”
有鑒于此,本澤爾及其國家經(jīng)濟研究局的同事提出問題:“人類被取代”是否會產(chǎn)生經(jīng)濟烏托邦,抑或是導(dǎo)致人類收入劇減,甚至最終買不起機器人制造的商品?利用模擬經(jīng)濟,本澤爾等人發(fā)現(xiàn),隨著智能機器需求的增加,編碼員和開發(fā)者的價值也會增加。而隨著工藝的提高和技術(shù)的進(jìn)步,生產(chǎn)這些機器的成本將會下降,這會導(dǎo)致出現(xiàn)“科技泡沫”,促使新代碼的需求增加。
但是此后,所謂的“遺留代碼”將增加,因為許多人都在從事這一項目,代碼將出現(xiàn)冗余。這些代碼最后將促使機器變得更加聰明,甚至自己就能學(xué)會如何使用“遺留代碼”。這將導(dǎo)致新代碼需求增加,意味著高科技產(chǎn)業(yè)工人減少,最終被機器人雇員取代。
本澤爾等人的研究以Junior為例,它是世界計算機國際象棋衛(wèi)冕冠軍。Junior能夠擊敗當(dāng)前所有人,甚至未來地球上的任何人。在很大程度上,它的舊代碼已經(jīng)導(dǎo)致新的棋牌程序員失業(yè)。高科技產(chǎn)業(yè)工人下降,低收入人群的收入也會受限。這意味著,未來數(shù)代人可流通資本減少,隨著時間推移產(chǎn)品產(chǎn)量就會下降,盡管實際上機器人可更高效地生產(chǎn)更多產(chǎn)品。
這種更替結(jié)果會導(dǎo)致高科技產(chǎn)業(yè)工人進(jìn)入低技術(shù)領(lǐng)域,從而迫使低技術(shù)工人失業(yè)。一旦人們失去工作,福利成本就會大幅上漲,帶給經(jīng)濟的壓力就會激增。最后,人們不得不瘋狂存錢。本澤爾說:“從長期來看,這種情況下不會出現(xiàn)科技烏托邦。代碼將會冗余,但資本日益珍貴。每個人都有工作,但收入?yún)s不會太多??傊?,當(dāng)智能機器取代人類時,它們最終會對人類恩將仇報!”
更多資訊請關(guān)注工業(yè)機器人頻道