人工智能芯片與CPU比較到底有何不同?

時(shí)間:2018-01-15

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:不管這種危機(jī)是否存在,但必須認(rèn)識(shí)到人工智能芯片在架構(gòu)和功能特點(diǎn)上與傳統(tǒng)的CPU是有著非常大的區(qū)別。

2018年1月9日,全球規(guī)模最大的2018北美消費(fèi)電子產(chǎn)品展在美國拉斯維加斯拉開帷幕。本次參展的科技企業(yè)超過4000家,包括高通、英偉達(dá)、英特爾、LG、IBM、百度在內(nèi)的業(yè)界科技巨頭紛紛發(fā)布了各自最新的人工智能芯片產(chǎn)品和戰(zhàn)略,作為本屆展會(huì)的最大看點(diǎn),人工智能芯片產(chǎn)品無疑受到了最為廣泛的關(guān)注。

與CPU比較,人工智能芯片有何不同?

2017年,當(dāng)AlphaGo在圍棋大戰(zhàn)中完勝柯潔后,各大媒體對人工智能的討論就不絕于耳,甚至有人擔(dān)心機(jī)器會(huì)具備自主思維,終有一天會(huì)像電影《終結(jié)者》中的場景一樣對人類造成生存威脅。不管這種危機(jī)是否存在,但必須認(rèn)識(shí)到人工智能芯片在架構(gòu)和功能特點(diǎn)上與傳統(tǒng)的CPU是有著非常大的區(qū)別。

傳統(tǒng)的CPU運(yùn)行的所有的軟件是由程序員編寫,完成的固化的功能操作。其計(jì)算過程主要體現(xiàn)在執(zhí)行指令這個(gè)環(huán)節(jié)。但與傳統(tǒng)的計(jì)算模式不同,人工智能要模仿的是人腦的神經(jīng)網(wǎng)絡(luò),從最基本的單元上模擬了人類大腦的運(yùn)行機(jī)制。它不需要人為的提取所需解決問題的特征或者總結(jié)規(guī)律來進(jìn)行編程。

人工智能是在大量的樣本數(shù)據(jù)基礎(chǔ)上,通過神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練數(shù)據(jù),建立了輸入數(shù)據(jù)和輸出數(shù)據(jù)之間的映射關(guān)系,其最直接的應(yīng)用是在分類識(shí)別方面。例如訓(xùn)練樣本的輸入是語音數(shù)據(jù),訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的功能就是語音識(shí)別,如果訓(xùn)練樣本輸入是人臉圖像數(shù)據(jù),訓(xùn)練后實(shí)現(xiàn)的功能就是人臉識(shí)別。

人工智能芯片到底有何不同?

通常來說,人工智能包括機(jī)器學(xué)習(xí)和深度學(xué)習(xí),但不管是機(jī)器學(xué)習(xí)還是深度學(xué)習(xí)都需要構(gòu)建算法和模式,以實(shí)現(xiàn)對數(shù)據(jù)樣本的反復(fù)運(yùn)算和訓(xùn)練,降低對人工理解功能原理的要求。因此,人工智能芯片需要具備高性能的并行計(jì)算能力,同時(shí)要能支持當(dāng)前的各種人工神經(jīng)網(wǎng)絡(luò)算法。傳統(tǒng)CPU由于計(jì)算能力弱,支撐深度學(xué)習(xí)的海量數(shù)據(jù)并行運(yùn)算,且串行的內(nèi)部結(jié)構(gòu)設(shè)計(jì)架構(gòu)為的是以軟件編程的方式實(shí)現(xiàn)設(shè)定的功能,并不適合應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)算法的自主迭代運(yùn)算。傳統(tǒng)CPU架構(gòu)往往需要數(shù)百甚至上千條指令才能完成一個(gè)神經(jīng)元的處理,在AI芯片上可能只需要一條指令就能完成。

解讀主流的人工智能芯片

人工智能的高級階段是深度學(xué)習(xí),而對于深度學(xué)習(xí)過程則可分為訓(xùn)練和推斷兩個(gè)環(huán)節(jié):訓(xùn)練環(huán)節(jié)通常需要通過大量的數(shù)據(jù)輸入或采取增強(qiáng)學(xué)習(xí)等非監(jiān)督學(xué)習(xí)方法,訓(xùn)練出一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。訓(xùn)練過程由于涉及海量的訓(xùn)練數(shù)據(jù)和復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),需要的計(jì)算規(guī)模非常龐大,通常需要GPU集群訓(xùn)練幾天甚至數(shù)周的時(shí)間,在訓(xùn)練環(huán)節(jié)GPU目前暫時(shí)扮演著難以輕易替代的角色。推斷環(huán)節(jié)指利用訓(xùn)練好的模型,使用新的數(shù)據(jù)去“推斷”出各種結(jié)論,如視頻監(jiān)控設(shè)備通過后臺(tái)的深度神經(jīng)網(wǎng)絡(luò)模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環(huán)節(jié)的計(jì)算量相比訓(xùn)練環(huán)節(jié)少,但仍然涉及大量的矩陣運(yùn)算。

在推斷環(huán)節(jié),除了使用CPU或GPU進(jìn)行運(yùn)算外,F(xiàn)PGA以及ASIC均能發(fā)揮重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及類腦芯片為主。

1.FPGA

即專用集成電路,一種集成大量基本門電路及存儲(chǔ)器的芯片,可通過燒入FPGA配置文件來來定義這些門電路及存儲(chǔ)器間的連線,從而實(shí)現(xiàn)特定的功能。而且燒入的內(nèi)容是可配置的,通過配置特定的文件可將FPGA轉(zhuǎn)變?yōu)椴煌奶幚砥?,就如一塊可重復(fù)刷寫的白板一樣。FPGA有低延遲的特點(diǎn),非常適合在推斷環(huán)節(jié)支撐海量的用戶實(shí)時(shí)計(jì)算請求,如語音識(shí)別。由于FPGA適合用于低延遲的流式計(jì)算密集型任務(wù)處理,意味著FPGA芯片做面向與海量用戶高并發(fā)的云端推斷,相比GPU具備更低計(jì)算延遲的優(yōu)勢,能夠提供更佳的消費(fèi)者體驗(yàn)。在這個(gè)領(lǐng)域,主流的廠商包括Intel、亞馬遜、百度、微軟和阿里云。

2.ASIC

即專用集成電路,不可配置的高度定制專用芯片。特點(diǎn)是需要大量的研發(fā)投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學(xué)習(xí)方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風(fēng)險(xiǎn)。但ASIC作為專用芯片性能高于FPGA,如能實(shí)現(xiàn)高出貨量,其單顆成本可做到遠(yuǎn)低于FPGA。

谷歌推出的TPU就是一款針對深度學(xué)習(xí)加速的ASIC芯片,而且TPU被安裝到AlphaGo系統(tǒng)中。但谷歌推出的第一代TPU僅能用于推斷,不可用于訓(xùn)練模型,但隨著TPU2.0的發(fā)布,新一代TPU除了可以支持推斷以外,還能高效支持訓(xùn)練環(huán)節(jié)的深度網(wǎng)絡(luò)加速。根據(jù)谷歌披露的測試數(shù)據(jù),谷歌在自身的深度學(xué)習(xí)翻譯模型的實(shí)踐中,如果在32塊頂級GPU上并行訓(xùn)練,需要一整天的訓(xùn)練時(shí)間,而在TPU2.0上,八分之一個(gè)TPUPod(TPU集群,每64個(gè)TPU組成一個(gè)Pod)就能在6個(gè)小時(shí)內(nèi)完成同樣的訓(xùn)練任務(wù)。

3.GPU

即圖形處理器。最初是用在個(gè)人電腦、工作站、游戲機(jī)和一些移動(dòng)設(shè)備上運(yùn)行繪圖運(yùn)算工作的微處理器,可以快速地處理圖像上的每一個(gè)像素點(diǎn)。后來科學(xué)家發(fā)現(xiàn),其海量數(shù)據(jù)并行運(yùn)算的能力與深度學(xué)習(xí)需求不謀而合,因此,被最先引入深度學(xué)習(xí)。2011年吳恩達(dá)教授率先將其應(yīng)用于谷歌大腦中便取得驚人效果,結(jié)果表明,12顆英偉達(dá)的GPU可以提供相當(dāng)于2000顆CPU的深度學(xué)習(xí)性能,之后紐約大學(xué)、多倫多大學(xué)以及瑞士人工智能實(shí)驗(yàn)室的研究人員紛紛在GPU上加速其深度神經(jīng)網(wǎng)絡(luò)。

GPU之所以會(huì)被選為超算的硬件,是因?yàn)槟壳耙笞罡叩挠?jì)算問題正好非常適合并行執(zhí)行。一個(gè)主要的例子就是深度學(xué)習(xí),這是人工智能(AI)最先進(jìn)的領(lǐng)域。深度學(xué)習(xí)以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)是巨大的網(wǎng)狀結(jié)構(gòu),其中的節(jié)點(diǎn)連接非常復(fù)雜。訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),很像我們大腦在學(xué)習(xí)時(shí),建立和增強(qiáng)神經(jīng)元之間的聯(lián)系。從計(jì)算的角度說,這個(gè)學(xué)習(xí)過程可以是并行的,因此它可以用GPU硬件來加速。這種機(jī)器學(xué)習(xí)需要的例子數(shù)量很多,同樣也可以用并行計(jì)算來加速。在GPU上進(jìn)行的神經(jīng)網(wǎng)絡(luò)訓(xùn)練能比CPU系統(tǒng)快許多倍。目前,全球70%的GPU芯片市場都被NVIDIA占據(jù),包括谷歌、微軟、亞馬遜等巨頭也通過購買NVIDIA的GPU產(chǎn)品擴(kuò)大自己數(shù)據(jù)中心的AI計(jì)算能力。

4.類人腦芯片

類人腦芯片架構(gòu)是一款模擬人腦的新型芯片編程架構(gòu),這種芯片的功能類似于大腦的神經(jīng)突觸,處理器類似于神經(jīng)元,而其通訊系統(tǒng)類似于神經(jīng)纖維,可以允許開發(fā)者為類人腦芯片設(shè)計(jì)應(yīng)用程序。通過這種神經(jīng)元網(wǎng)絡(luò)系統(tǒng),計(jì)算機(jī)可以感知、記憶和處理大量不同的情況。

IBM的TrueNorth芯片就是其中一個(gè)。2014年,IBM首次推出了TrueNorth類人腦芯片,這款芯片集合了54億個(gè)晶體管,構(gòu)成了一個(gè)有100萬個(gè)模擬神經(jīng)元的網(wǎng)絡(luò),這些神經(jīng)元由數(shù)量龐大的模擬神經(jīng)突觸動(dòng)相連接。TrueNorth處理能力相當(dāng)于1600萬個(gè)神經(jīng)元和40億個(gè)神經(jīng)突觸,在執(zhí)行圖象識(shí)別與綜合感官處理等復(fù)雜認(rèn)知任務(wù)時(shí),效率要遠(yuǎn)遠(yuǎn)高于傳統(tǒng)芯片。

中傳動(dòng)網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動(dòng)網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動(dòng)網(wǎng)(www.treenowplaneincome.com)獨(dú)家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來源“中國傳動(dòng)網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運(yùn)動(dòng)控制公眾號(hào)獲取更多資訊

關(guān)注直驅(qū)與傳動(dòng)公眾號(hào)獲取更多資訊

關(guān)注中國傳動(dòng)網(wǎng)公眾號(hào)獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運(yùn)動(dòng)控制
  • 伺服系統(tǒng)
  • 機(jī)器視覺
  • 機(jī)械傳動(dòng)
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機(jī)界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機(jī)器人
  • 低壓電器
  • 機(jī)柜
回頂部
點(diǎn)贊 0
取消 0