Recurrent Neural Network

2024. 3. 23. 15:32·인공지능/기초
반응형

RNN?

이전의 hidden state를 가지면서 이전 출력을 입력으로 사용가능하도록 하는 신경망(이전 시점을 고려)

각 timestep t 마다, activation(hidden state)와 output이 나타남을 볼 수 있다.

 

관련 수식

1. hidden state : $$ a^{<t>} = g_1\left(W_{aa}a ^{t-1} + W_{ax}x^{t}+b_a \right)  $$

2. output state : $$ y^{<t>} = g_{2}\left ( W_{ya}a^{<t>} + b_y  \right )$$

RNN의 내부

 

장점(Advantages) 단점(Cons)
  • 임의의 길이의 입력 처리 가능
  • 입력 크기에 따라 모델 크기가 증가하지 않음
  • 과거 정보를 활용하여 계산
  • 가중치는 시간 축 상에서 공유
  • 계산 속도가 느림
  • 오래 전 정보에 대한 접근이 어려움
  • 현재 상태에 대한 향후 입력을 고려할 수 없음

 

Loss function

$$ \mathcal{L}\left ( \hat{y}, y \right ) = \sum_{t=1}^{T_y} \mathcal{L}\left ( \hat{y}^{<t>} ,y^{<t>} \right ) $$

Backpropagtion throught time(BPTT)

 

Reference : 

[1] Afshine Amidi, Shervine Amidi, "CS 230 - Deep Learning", https://stanford.edu/~shervine/teaching/cs-230/cheatsheet-recurrent-neural-networks

반응형
저작자표시 비영리 변경금지 (새창열림)

'인공지능 > 기초' 카테고리의 다른 글

LSTM & GRU  (0) 2024.05.07
(Scaled) Dot-Product Attention  (0) 2024.04.28
Sequence-to-sequence(seq2seq) & Teacher-forcing  (0) 2024.04.27
Applications of RNNs  (0) 2024.03.23
'인공지능/기초' 카테고리의 다른 글
  • LSTM & GRU
  • (Scaled) Dot-Product Attention
  • Sequence-to-sequence(seq2seq) & Teacher-forcing
  • Applications of RNNs
태현IT
태현IT
MLOps 직무를 위해 공부하고 있는 박사수료 연구원입니다
    반응형
  • 태현IT
    THyunIT
    태현IT
    • 분류 전체보기
      • MLOps
        • 이론
        • 개발
      • 인공지능
        • 기초
        • Python
      • 개발과정
        • Database
        • AWS
  • 링크

    • Github
  • 공지사항

  • 인기 글

  • hELLO· Designed By정상우.v4.10.0
태현IT
Recurrent Neural Network
상단으로

티스토리툴바