AI機器人經(jīng)典學(xué)習(xí)與深度學(xué)習(xí)的優(yōu)缺點

時間:2018-04-09

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:近年來,深度學(xué)習(xí)已成為大多數(shù)AI問題的首選技術(shù),使得經(jīng)典機器學(xué)習(xí)相形見絀。原因很明顯,深度學(xué)習(xí)在語音、自然語言、視覺和游戲等許多任務(wù)上都表現(xiàn)出卓越的性能。然而,盡管深度學(xué)習(xí)具有如此好的性能,經(jīng)典機器學(xué)習(xí)方法仍有一些優(yōu)勢。

近年來,深度學(xué)習(xí)已成為大多數(shù)AI問題的首選技術(shù),使得經(jīng)典機器學(xué)習(xí)相形見絀。原因很明顯,深度學(xué)習(xí)在語音、自然語言、視覺和游戲等許多任務(wù)上都表現(xiàn)出卓越的性能。然而,盡管深度學(xué)習(xí)具有如此好的性能,經(jīng)典機器學(xué)習(xí)方法仍有一些優(yōu)勢,而且在一些特定情況下最好使用經(jīng)典機器學(xué)習(xí)方法,例如線性回歸或決策樹,而不是使用一個大型深度網(wǎng)絡(luò)。

本文將對比深度學(xué)習(xí)和經(jīng)典機器學(xué)習(xí),分別介紹這兩種技術(shù)的優(yōu)缺點以及它們在哪些問題/如何得到最佳使用。

深度學(xué)習(xí)優(yōu)于經(jīng)典機器學(xué)習(xí)

一流的性能:在許多領(lǐng)域,深度網(wǎng)絡(luò)已經(jīng)取得了遠遠超過經(jīng)典ML方法的精度,包括語音、自然語言、視覺、游戲等。在許多任務(wù)中,經(jīng)典的ML方法甚至無法與深度學(xué)習(xí)比較。例如,下圖顯示了ImageNet數(shù)據(jù)集上不同方法的圖像分類精度;藍色表示經(jīng)典ML方法,紅色表示深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法。深度學(xué)習(xí)方法的分類錯誤率遠遠低于經(jīng)典ML方法。

用數(shù)據(jù)進行有效的擴展:與經(jīng)典ML算法相比,如果有更多的數(shù)據(jù),深度網(wǎng)絡(luò)可以更好地擴展。下圖是一個簡單的例子。很多時候,用深度網(wǎng)絡(luò)來提高準確性的最佳建議就是使用更多的數(shù)據(jù)!但使用經(jīng)典ML算法時,這種快速簡單的方法幾乎沒有效果,通常需要更復(fù)雜的方法來提高精度。

不需要特征工程:經(jīng)典的ML算法通常需要復(fù)雜的特性工程。通常,需要先在數(shù)據(jù)集上執(zhí)行探索性數(shù)據(jù)分析。然后,可以降低維度以便于處理。最后,必須仔細選擇最佳的特征,以傳遞給ML算法。在使用深度學(xué)習(xí)時,不需要這樣的特征工程,因為只需將數(shù)據(jù)直接傳遞給網(wǎng)絡(luò),通常就可以立即實現(xiàn)良好的性能。這完全消除了整個過程中繁重而且很有挑戰(zhàn)性的特征工程階段。

適應(yīng)性強,易于遷移:與經(jīng)典的ML算法相比,深度學(xué)習(xí)技術(shù)可以更容易地適應(yīng)不同的領(lǐng)域和應(yīng)用。首先,遷移學(xué)習(xí)可以使預(yù)訓(xùn)練的深度網(wǎng)絡(luò)對同一領(lǐng)域的不同應(yīng)用生效。例如,在計算機視覺中,預(yù)訓(xùn)練的圖像分類網(wǎng)絡(luò)通常用作目標檢測和分割網(wǎng)絡(luò)的特征提取前端。將這些預(yù)訓(xùn)練的網(wǎng)絡(luò)作為前端,可以簡化整個模型的訓(xùn)練,并且通常有助于在更短的時間內(nèi)實現(xiàn)更高的性能。

此外,不同領(lǐng)域使用深度學(xué)習(xí)的基本思想和技術(shù)往往是可以轉(zhuǎn)移的。例如,一旦了解了語音識別領(lǐng)域的深度學(xué)習(xí)基礎(chǔ)理論,那么學(xué)習(xí)如何將深度網(wǎng)絡(luò)應(yīng)用于自然語言處理就不太困難了,因為兩者所需的基礎(chǔ)知識非常相似。但對于經(jīng)典ML來說,情況并非如此,因為構(gòu)建高性能ML模型需要特定領(lǐng)域和特定應(yīng)用的ML技術(shù)和特征工程。對于不同的領(lǐng)域和應(yīng)用,經(jīng)典ML的知識基礎(chǔ)是非常不同的,并且往往需要在每個單獨的領(lǐng)域進行廣泛的專門研究。

經(jīng)典機器學(xué)習(xí)優(yōu)于深度學(xué)習(xí)

在小數(shù)據(jù)上能更好地工作:為了實現(xiàn)高性能,深度學(xué)習(xí)需要非常大的數(shù)據(jù)集。之前提到的預(yù)訓(xùn)練的網(wǎng)絡(luò)在120萬張圖像上進行了訓(xùn)練。對于許多應(yīng)用來說,這樣大的數(shù)據(jù)集是不容易獲得的,花費昂貴而且耗時。對于較小的數(shù)據(jù)集,經(jīng)典的ML算法通常優(yōu)于深度學(xué)習(xí)。

財務(wù)和計算上都更便宜:有大量的數(shù)據(jù),又需要在合理時間內(nèi)訓(xùn)練完,深度學(xué)習(xí)要求使用高端GPU。這些GPU非常昂貴,但是如果沒有它們,就很難實現(xiàn)高性能的深度網(wǎng)絡(luò)。要有效地使用這樣的高端GPU,還需要一個快速的CPU、SSD存儲、快速而且容量大的RAM。經(jīng)典的ML算法只需要一個像樣的CPU就可以訓(xùn)練得很好,并不需要最好的硬件。因為它們的計算成本不高,因此可以在較短的時間里更快地迭代,并嘗試多種不同的技術(shù)。

更容易解釋:由于經(jīng)典ML涉及直接的特征工程,這些算法很容易解釋和理解。此外,由于我們對數(shù)據(jù)和底層算法有了更深入的了解,調(diào)參和更改模型設(shè)計也更簡單。另一方面,深層學(xué)習(xí)是一個“黑盒子”,即使是現(xiàn)在,研究人員也不能完全了解深層網(wǎng)絡(luò)的“內(nèi)部”。由于缺乏理論基礎(chǔ),超參數(shù)和網(wǎng)絡(luò)設(shè)計也是一個很大的挑戰(zhàn)。

中傳動網(wǎng)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0