GRU(Gated Recurrent Unit) 네트워크 기초이번 강의에서는 GRU(Gated Recurrent Unit)를 학습합니다. GRU는 LSTM과 마찬가지로 RNN의 장기 의존성(Long-Term Dependency) 문제를 해결하기 위해 고안된 구조지만, 조금 더 단순하고 계산 효율적인 모델입니다. 따라서 텍스트 분석, 시계열 데이터 예측 등 다양한 분야에서 많이 사용됩니다.1) 왜 GRU인가?기존의 RNN은 입력이 길어질수록 앞부분의 정보를 잊어버리는 문제(기울기 소실, vanishing gradient)가 발생합니다.이를 해결하기 위해 LSTM이 등장했지만, 구조가 복잡하고 계산 비용이 크다는 단점이 있습니다.GRU는 LSTM에서 셀 상태(Cell State)를 없애고, 은닉 상태(Hidd..