300x250
Recurrent Neural Network
순환과 관련된 것 : 시간과 관련되어 있다.
ex, 구글 검색창에 앞 단어만 입력해도 자동입력 되는 거
이전의 기억 : short_term_memory
직전의 기억을 얼만큼 적용할 지 학습시키는 것.
DNN 구조에다가 직전 처리 구조만 더하기로
RNN과 RNN 연결
RNN을 2번 쓰고 싶을 때
Stacked_SimpleRNN 사용
return_sequences = True
#Stacked, 쌓아놓으려면 return_sequenced = True여야함. Hidden State로 출력을 내보내겠다.
#마지막엔 False로 하나로 내보내도록 함.
LSTM - Input Gate
과거 정보에 새로운 정보(Dogs)를 추가하는 기능
g 중요도 : tanh
i 반영비율 : sigmoid 를 학습하면서 기억을 더해주게 됨.
LSTM - Output Gate
LTM은 바뀌지 않고, 다음 Memory cell에 전달함.
ht 중요도 : tanh
O 반영비율 : sigmoid
300x250
'코딩' 카테고리의 다른 글
Generative Adversarial Network < GAN > (0) | 2023.02.07 |
---|---|
DT Digital Transformation직무 (0) | 2023.02.07 |
CNN Animal(Dogs and Cats) Categorical GPU (0) | 2023.01.31 |
Small Dataset (cf. Convolutional Neural Network) (0) | 2023.01.30 |
docker container commit 실습하기 (0) | 2023.01.27 |
댓글 0