機器視覺有望超越人類的極限

時間:2014-10-22

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:隨著視覺網(wǎng)絡(luò)成為互聯(lián)網(wǎng)越來越重要的一部分,我們正看到圖像學(xué)習的使用率在增加。Pinterest收購了VisualGraph,這是一家致力于機器視覺的企業(yè),可以將圖片中的衣服和手袋提取并分類。

ImageNet大型視覺識別挑戰(zhàn)賽,是一項為那些試圖開發(fā)視覺機器人的科學(xué)家舉辦的年度比賽。參賽者必須針對那些具有特定圖像的物體開發(fā)出相應(yīng)的算法,而這個比賽很好的證明了這一趨勢。

到目前為止,無法識別圖像的計算機很難對數(shù)以百萬計的圖像進行解析和提取。但自2012年以來,參加這個挑戰(zhàn)賽的人數(shù)在逐年增加,并且很有可能在近幾年超過我們現(xiàn)有的這一部分。

那么,2012年發(fā)生了什么改變?一個來自加拿大多倫多大學(xué)的團隊提出了一個叫做“監(jiān)督”的算法,可以通過深卷積神經(jīng)網(wǎng)絡(luò)將圖像劃分為1,000個獨立的類。

發(fā)明于1980年代初的深卷積神經(jīng)網(wǎng)絡(luò),由多層排列的人工神經(jīng)元組成,它們反映出了人類大腦處理視覺的方法。隨著摩爾定律推動著計算機技術(shù)越來越強大,這些網(wǎng)絡(luò)能夠更好的模仿神經(jīng)網(wǎng)絡(luò)的實際運作方式。

如今的深卷積神經(jīng)網(wǎng)絡(luò)更加強大。今年ImageNet挑戰(zhàn)賽的贏家是GoogLeNet,來自谷歌的工程師團隊發(fā)明的算法只有6.65%的錯誤率,在相同任務(wù)中已經(jīng)接近人類的錯誤率。

隨著視覺網(wǎng)絡(luò)成為互聯(lián)網(wǎng)越來越重要的一部分,我們正看到圖像學(xué)習的使用率在增加。Pinterest收購了VisualGraph,這是一家致力于機器視覺的企業(yè),可以將圖片中的衣服和手袋提取并分類。

來自谷歌GoogLeNet項目團隊的工程師ChristianSzegedy,對于機器視覺的技術(shù)應(yīng)用,可能遠遠超過我們?nèi)祟愂褂醚劬Φ姆绞?。他寫道?/p>

這些技術(shù)的進步將是我們更好的理解圖像,這些進展也直接的將谷歌的產(chǎn)品,例如照片搜索,圖片搜索,YouTube,汽車自動駕駛,以及任何需要圖像識別的地方。

中傳動網(wǎng)版權(quán)與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

娓娓工業(yè)

廣州金升陽科技有限公司

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0