八大現(xiàn)象論證人工智能威脅論真的存在

時(shí)間:2018-08-31

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:如今人工智能發(fā)展火熱,機(jī)器學(xué)習(xí)預(yù)見成熟,智能化未來似乎指日可待。表面上似乎一切都在按部就班的進(jìn)行,但背后也不乏暴露出很多問題。就像近期人工智能威脅論就引發(fā)了不少的言論激戰(zhàn),揪其根源還是人工智能是否能夠有意識違背人類意愿操控事務(wù)的問題。

【中國傳動網(wǎng) 行業(yè)動態(tài)】 如今人工智能發(fā)展火熱,機(jī)器學(xué)習(xí)預(yù)見成熟,智能化未來似乎指日可待。表面上似乎一切都在按部就班的進(jìn)行,但背后也不乏暴露出很多問題。就像近期人工智能威脅論就引發(fā)了不少的言論激戰(zhàn),揪其根源還是人工智能是否能夠有意識違背人類意愿操控事務(wù)的問題。

因此,我們或許想問:人工智能機(jī)器人究竟有多強(qiáng)大?機(jī)器人真的會“反噬”人類嗎?《終結(jié)者》里的Skynet(天網(wǎng))會真的發(fā)生在現(xiàn)實(shí)生活中嗎?

強(qiáng)弱AI

首先我們應(yīng)該區(qū)分兩個(gè)概念:強(qiáng)AI和弱AI。強(qiáng)AI是指一種能夠思考并可以感知自身存在的假想機(jī)器。它不僅可以解決人類為其定制的任務(wù),還可以學(xué)習(xí)新事物。

弱AI目前很常見,它是一種用于解決特定問題的應(yīng)用程序,例如圖像識別、汽車駕駛、playingGo(圍棋)等,也就是我們常說的“機(jī)器學(xué)習(xí)”。

目前,我們還無法預(yù)測強(qiáng)AI什么時(shí)候能夠真正被研發(fā)出來。專家們經(jīng)過調(diào)研推斷的結(jié)果也是“有朝一日”。

相比強(qiáng)AI,弱AI目前已經(jīng)存在,很多領(lǐng)域都可以看到弱AI的身影,并且應(yīng)用范圍每年都在增長。通過實(shí)例學(xué)習(xí),機(jī)器學(xué)習(xí)幾乎可以讓我們在無需編程的情況下處理實(shí)際任務(wù)。

人工智能威脅論真的存在嗎?

我們通過建立數(shù)學(xué)模型(“學(xué)習(xí)”算法),教會機(jī)器人解決具體問題。機(jī)器人會按照我們規(guī)劃好的模型法去執(zhí)行任務(wù),也就是說機(jī)器學(xué)習(xí)的一切行為都是基于我們的操控,我們似乎不用擔(dān)心電影《終結(jié)者》天網(wǎng)的發(fā)生。但如果我們抱有這樣天真的想法,我們就錯(cuò)了,因?yàn)闄C(jī)器學(xué)習(xí)仍然可能違背人類的意愿去執(zhí)行錯(cuò)誤的任務(wù)。

1.不良企圖

如果我們教一個(gè)無人機(jī)軍隊(duì)使用機(jī)器學(xué)習(xí)去殺人,那么結(jié)果是否符合道德行為標(biāo)準(zhǔn)?

基于這個(gè)話題還發(fā)生過一場鬧聞。2017年,谷歌正在開發(fā)一款用于軍事項(xiàng)目的軟件,名為Maven。該項(xiàng)目涉及到無人機(jī),以及未來完全自主武器系統(tǒng)的制造。因此,谷歌的12名員工辭職以示抗議,另外有4000名員工簽署了一份請?jiān)笗蠊痉艞壟c軍方的合同。與此同時(shí),人工智能、倫理學(xué)領(lǐng)域的1000多名知名科學(xué)家一起寫了一封致谷歌的公開信,要求該公司放棄該項(xiàng)目并支持禁止自主武器的國際協(xié)議。

2.開發(fā)者偏見

即使機(jī)器學(xué)習(xí)算法開發(fā)人員沒有惡意,但他們中的很多人還是金錢價(jià)值觀,他們的最終目的還是為了賺錢。也就是說,他們的算法是為了使自己受益而創(chuàng)建的,并非是為了社會利益。例如,一些醫(yī)療算法會推薦昂貴的治療方法,卻很少推薦最佳患者治療方案。

實(shí)際生活中算法的道德規(guī)范問題似乎也沒有很大體現(xiàn)。例如,交通速度和車禍死亡率之間是可以存在折中方案的。我們可以將自動駕駛汽車的最高行駛速度限制在15英里\小時(shí)以下,這樣幾乎可以將車禍死亡率降到零,但這樣卻損失了汽車的其他優(yōu)勢。

3.違背邏輯規(guī)范

電腦系統(tǒng)在默認(rèn)的情況下,對邏輯規(guī)范一無所知。一種算法可以將國家預(yù)算與“最大化GDP/勞動生產(chǎn)率/預(yù)期壽命”的目標(biāo)結(jié)合起來,但如果沒有在模型中編制限制,它可能會取消學(xué)校、收容所和環(huán)境的預(yù)算,因?yàn)樗鼈儾粫苯釉黾覩DP。

為了一個(gè)目標(biāo),我們可以讓機(jī)器學(xué)習(xí)執(zhí)行任何一個(gè)復(fù)雜任務(wù),但前提是要融入相關(guān)的邏輯規(guī)范。

4.改變?nèi)祟惼?/p>

機(jī)器學(xué)習(xí)給我們的生活帶來了很多便利,但無形之中也在改變我們的生活常態(tài)甚至個(gè)人行為偏好。例如智能電影推薦,機(jī)器學(xué)習(xí)會根據(jù)您對電影的評分,將您的偏好與其他用戶進(jìn)行對比,然后向您推薦電影。長期下來,您的偏好將因?yàn)殡娪巴扑]系統(tǒng)而被改變,興趣范圍也會被縮小。

但可怕的是,我們并沒有意識到這種改變的發(fā)生,沒有意識到計(jì)算機(jī)對我們的操控。

5.錯(cuò)誤的相關(guān)性

當(dāng)完全彼此獨(dú)立的事物表現(xiàn)出非常相似的行為時(shí),就會產(chǎn)生一種虛假的關(guān)聯(lián),這就會造成一種錯(cuò)覺,認(rèn)為它們之間存在某種聯(lián)系。例如,你會認(rèn)為美國的人造黃油消費(fèi)與緬甸州的離婚率密切相關(guān)嗎?

我想任何一個(gè)有點(diǎn)學(xué)識的人都不會認(rèn)為二者是相關(guān)的。但數(shù)學(xué)模型不具備這樣的經(jīng)驗(yàn)學(xué)識,它只是用來學(xué)習(xí)和數(shù)據(jù)概括的工具,在它的邏輯系統(tǒng)里,這樣相似性的曲線變化表明二者之間一定有著某種聯(lián)系。

6.反饋循環(huán)

相比錯(cuò)誤相關(guān)性,反饋循環(huán)影響更大。反饋循環(huán)是指算法決策影響現(xiàn)實(shí)的情況,反過來又使算法確信其結(jié)論是正確的。

例如,加利福尼亞的一項(xiàng)預(yù)防犯罪計(jì)劃表明,警察應(yīng)該根據(jù)當(dāng)?shù)氐陌讣?shù)量斷定犯罪率,然后根據(jù)犯罪率派遣相應(yīng)的警官。但最終會陷入到這樣一個(gè)循環(huán)里:一個(gè)街區(qū)的警察增加,當(dāng)?shù)鼐用竦膱?bào)警次數(shù)就會增多,從而增高犯罪率,按照預(yù)防犯罪計(jì)劃就要派遣更多的警察,警察數(shù)量增多,人們的報(bào)案數(shù)量就又增多,報(bào)案率上升,便又增加警察數(shù)量······

7.“被污染”的參考數(shù)據(jù)

算法學(xué)習(xí)的結(jié)果很大程度上取決于參考數(shù)據(jù),它們構(gòu)成了學(xué)習(xí)的基礎(chǔ)。然而,數(shù)據(jù)很有可能會因?yàn)槟撤N偶然的情況或是個(gè)人意圖而發(fā)生扭曲,即數(shù)據(jù)“被污染”。

一個(gè)經(jīng)典的例子就是2016年微軟推出的聊天機(jī)器人Tay,微軟將這款機(jī)器人視為“對話理解”的實(shí)驗(yàn)。微軟表示,與Tay進(jìn)行的聊天越多,它就會越聰明。但是微軟的此次聊天實(shí)驗(yàn)卻只進(jìn)行了24小時(shí)就不得不停止,因?yàn)闊o辜的聊天機(jī)器人竟然在24小時(shí)內(nèi)被教會了大量種族歧視、性別歧視的用語。Tay的案例為機(jī)器學(xué)習(xí)的研發(fā)工作敲了警鐘,反應(yīng)了“被污染”數(shù)據(jù)的嚴(yán)重性。

8.機(jī)器欺騙

即便是一個(gè)功能、數(shù)據(jù)都良好的模型,它工作原理的泄露也會讓惡人鉆了空子。例如,有一組研究人員研發(fā)了一種可以欺騙面部識別算法的特殊眼鏡,這種眼鏡會在圖像中引入最小的失真,從而改變面部識別結(jié)果。

怎樣解決?

2016年,奧巴馬政府的大數(shù)據(jù)工作組發(fā)布了一份報(bào)告,警告:“在自動化決策中可能存在編碼歧視”。該報(bào)告還呼吁創(chuàng)建遵循平等原則的算法。

但將報(bào)告完全落實(shí)應(yīng)用就很難了。

首先,機(jī)器學(xué)習(xí)數(shù)學(xué)模型很難測試和修復(fù)。因?yàn)樵跈C(jī)器學(xué)習(xí)中,一切都取決于學(xué)習(xí)樣本的大小,樣本的數(shù)量是有限的。

舉一個(gè)經(jīng)典的例子:早在2015年,軟件工程師JackyAlciné曾指出谷歌照片中的圖像識別算法將他的黑人朋友歸類為“大猩猩”。谷歌對此錯(cuò)誤感到震驚,并向Alciné表示歉意,承諾修復(fù)該錯(cuò)誤。然而三年后,谷歌除了禁止在圖像標(biāo)記中使用“大猩猩”等類似詞語外,并沒有其他更好的解決方案。

其次,機(jī)器學(xué)習(xí)算法的決策很難被理解和解釋。神經(jīng)網(wǎng)絡(luò)會在其內(nèi)部安排加權(quán)系數(shù)來得到答案。但其過程是怎樣的呢?錯(cuò)誤答案如何被修正呢?

舉兩個(gè)例子:2015年的一項(xiàng)研究顯示,谷歌廣告高薪工作的瀏覽次數(shù),男性高于女性。亞馬遜當(dāng)天免費(fèi)送貨服務(wù),非洲裔美國人社區(qū)(黑人社區(qū))卻享受不到。基于這兩種情況,兩家公司均表示無法解釋這些由算法做出的決定。

基于這些算法決策,沒有人應(yīng)用受到責(zé)備。因此我們需要對機(jī)器人制定出一套法律法規(guī)來規(guī)定機(jī)器人的行為決策。2018年5月,德國人邁出了第一步,他們發(fā)布了世界上第一個(gè)自動駕駛汽車指南。部分內(nèi)容為:

與一切財(cái)產(chǎn)相比,人類生命至上。

不可避免性事故,不得有歧視,不得有任何區(qū)別性因素存在。

如果自動駕駛比人類駕駛造成的事故少,那么自動駕駛系統(tǒng)將成為道德要求。

很明顯,機(jī)器學(xué)習(xí)在個(gè)別任務(wù)的管理能力上確實(shí)比人類強(qiáng),導(dǎo)致我們對機(jī)器學(xué)習(xí)的依賴程度越來越高。因此記住這些機(jī)器學(xué)習(xí)缺陷就顯得尤為重要,研發(fā)人員應(yīng)該在開發(fā)階段測試好所有可能存在的問題,并設(shè)置好算法的監(jiān)控措施。

 

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運(yùn)動控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0