top of page
尚無標記。

SEARCH BY TAGS: 

RECENT POSTS: 

FOLLOW ME:

  • Facebook Clean Grey
  • Twitter Clean Grey
  • Instagram Clean Grey

Recurrent Neural Networks

在RNN中,神經元的輸出可以在下一個時間點直接作用回到自己身上,換個方式說就是第i層的神經元在m時刻的輸出,除了(i-1)層神經元在該時刻輸出外,還包括其自身在(m-1)時刻的輸出,有點類似於雙重迴圈的概念,化作圖片來解釋的話。

如果把單一神經元以時間展開,得到的結果如圖

(t+1)時刻的最終結果為前兩項(t-1)和(t)共同作用的結果,則透過RNN可以解決有關於時間序列上的問題,例如:語音識別、手寫辨識等等……


bottom of page