資料內(nèi)容:
深度學(xué)習(xí)是啥
在人工智能領(lǐng)域,有一個方法叫機器學(xué)習(xí)。在機器學(xué)習(xí)這個方法里,有一類算法叫神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)如下圖所示:
上圖中每個圓圈都是一個神經(jīng)元,每條線表示神經(jīng)元之間的連接。我們可以看到,上面的神經(jīng)元被分成了多層,層與層之間的神經(jīng)元有連接,而
層內(nèi)之間的神經(jīng)元沒有連接。最左邊的層叫做輸入層,這層負責(zé)接收輸入數(shù)據(jù);最右邊的層叫輸出層,我們可以從這層獲取神經(jīng)網(wǎng)絡(luò)輸出數(shù)據(jù)。
輸入層和輸出層之間的層叫做隱藏層。
隱藏層比較多(大于2)的神經(jīng)網(wǎng)絡(luò)叫做深度神經(jīng)網(wǎng)絡(luò)。而深度學(xué)習(xí),就是使用深層架構(gòu)(比如,深度神經(jīng)網(wǎng)絡(luò))的機器學(xué)習(xí)方法。
那么深層網(wǎng)絡(luò)和淺層網(wǎng)絡(luò)相比有什么優(yōu)勢呢?簡單來說深層網(wǎng)絡(luò)能夠表達力更強。事實上,一個僅有一個隱藏層的神經(jīng)網(wǎng)絡(luò)就能擬合任何一個函
數(shù),但是它需要很多很多的神經(jīng)元。而深層網(wǎng)絡(luò)用少得多的神經(jīng)元就能擬合同樣的函數(shù)。也就是為了擬合一個函數(shù),要么使用一個淺而寬的網(wǎng)
絡(luò),要么使用一個深而窄的網(wǎng)絡(luò)。而后者往往更節(jié)約資源。
深層網(wǎng)絡(luò)也有劣勢,就是它不太容易訓(xùn)練。簡單的說,你需要大量的數(shù)據(jù),很多的技巧才能訓(xùn)練好一個深層網(wǎng)絡(luò)。這是個手藝活。
感知器
看到這里,如果你還是一頭霧水,那也是很正常的。為了理解神經(jīng)網(wǎng)絡(luò),我們應(yīng)該先理解神經(jīng)網(wǎng)絡(luò)的組成單元——神經(jīng)元。神經(jīng)元也叫做感知
器。感知器算法在上個世紀(jì)50-70年代很流行,也成功解決了很多問題。并且,感知器算法也是非常簡單的。