Recurrent Neural Networks在RNN中,神經元的輸出可以在下一個時間點直接作用回到自己身上,換個方式說就是第i層的神經元在m時刻的輸出,除了(i-1)層神經元在該時刻輸出外,還包括其自身在(m-1)時刻的輸出,有點類似於雙重迴圈的概念,化作圖片來解釋的話。 如果把單一神經元以時間展開,得到的結果如圖 (t+1)時刻的最終結果為前兩項(t-1)和(t)共同作用的結果,則透過RNN可以解決有關於時間序列上的問題,例如:語音識別、手寫辨識等等……
在RNN中,神經元的輸出可以在下一個時間點直接作用回到自己身上,換個方式說就是第i層的神經元在m時刻的輸出,除了(i-1)層神經元在該時刻輸出外,還包括其自身在(m-1)時刻的輸出,有點類似於雙重迴圈的概念,化作圖片來解釋的話。 如果把單一神經元以時間展開,得到的結果如圖 (t+1)時刻的最終結果為前兩項(t-1)和(t)共同作用的結果,則透過RNN可以解決有關於時間序列上的問題,例如:語音識別、手寫辨識等等……