為了在人工智能市場搶占更大的份額,英偉達和Alphabet這兩家公司結成了意想不到的對手。到目前為止,Alphabet一直在谷歌云平臺使用英偉達的GPU加速其各種AI應用,但現(xiàn)在看來,這家巨頭很是有意自己單獨切入這塊有著巨額利潤的空間。
就讓我們仔細看看英偉達和谷歌在人工智能上的淵源,以及可能產(chǎn)生的影響。
谷歌揭幕TPU第二代,在谷歌云平臺構建機器學習超級計算機
Alphabet在去年谷歌I/O大會上推出了自己的AI芯片——張量處理器TPU。TPU被廣泛用于各種應用,包括優(yōu)化搜索和語音識別的結果,在Alphabet的數(shù)據(jù)中心里也有使用。
與此同時,谷歌也在云計算平臺使用英偉達的TeslaGPU,幫助用戶訓練模型。例如,2016年11月,英偉達就對外公布了,谷歌選擇使用英偉達的TeslaP100GPU和K80加速器為谷歌計算引擎(GoogleComputeEngine)和谷歌云機器學習用戶提供AI服務。
但是,在今年5月I/O大會上,谷歌推出第二代TPU,并且通過云服務供用戶使用,此舉震驚了科技界。在今年4月發(fā)布的一篇官方博文中,谷歌表示TPU比當前的CPU/GPU速度快15~30倍。
第一代TPU只加速推理,但現(xiàn)在第二代TPU新增了訓練的功能。不僅如此,谷歌的用戶還能通過專門的網(wǎng)絡,在云端利用TPU構建機器學習的超級計算機。
事實上,谷歌宣布自己已經(jīng)成功將某些AI模型的訓練時間縮短到幾個小時,以前這樣的模型用市售GPU需要一天時間來訓練。
到今年年底,當谷歌TPU推出時,這可能意味著谷歌和英偉達在AI芯片上關系的終結。
英偉達:用開源來反擊
英偉達的回應是,谷歌在比較TPU相對于GPU的速度時,沒有與最新的Pascal架構比較,而是選擇了較早的KeplerGPU。
此外,英偉達也沒有閑著,宣稱即將上市的VoltaGPU加速深度學習的性能會更好。
實際上,英偉達不僅僅定位于硬件供應商,這家公司正在開發(fā)一個名叫英偉達GPU云(NVIDIAGPUCloud,NGC)的服務,將配套提供GPU(比如英偉達基于Volta的TeslaV100)和英偉達深度學習庫。
英偉達采取了與谷歌不同的方式,專注將AI計算力作為平臺即服務(platform-as-a-service)來提供。
谷歌不會對外出售TPU,而是用TPU驅(qū)動自己的GoogleCompute平臺。因此,英偉達目前還無需擔憂失去谷歌這一客戶。另一方面,VoltaGPU平臺已經(jīng)開始具有商業(yè)吸引力,亞馬遜已確定在今年晚些時候V100芯片上市后立即購入。
英偉達的另一個優(yōu)勢在于,谷歌還沒有決定要開源AI框架,因此TPU的用戶被鎖定在谷歌的平臺上。而英偉達支持各種不同的云平臺,包括亞馬遜、微軟、谷歌、IBM,給了用戶在云服務供應商(CSP)方面更多的選擇。
此外,英偉達CEO黃仁勛還出了一個狠招,他在公司官方博文中寫道,要開源英偉達的深度學習加速器?!安恍枰賮砣送顿Y打造會推理的TPU,我們這里免費提供——由世界上最好的芯片設計師設計?!?/p>
相對于局限在谷歌云服務中的TPU,英偉達的開源讓其產(chǎn)品成了CSP巨頭,比如亞馬遜和微軟的選擇。同時,谷歌云平臺還不如亞馬遜和微軟的云平臺那么成功,而這也將限制谷歌云平臺的發(fā)展。