어텐션 메커니즘 기초 – 딥러닝에서 ‘집중하기’ 배우기이번 강의에서는 자연어 처리(NLP)와 딥러닝에서 혁신을 일으킨 어텐션 메커니즘(Attention Mechanism)을 다룹니다."모든 단어를 똑같이 다루는 것이 아니라, 중요한 단어에 더 집중한다"는 개념을 이해하는 것이 핵심입니다.1. 왜 어텐션이 필요한가?전통적인 RNN, LSTM, GRU 같은 순환 신경망은 문장이 길어질수록 앞부분의 정보를 잊어버리는 한계가 있습니다.예를 들어, 다음 문장을 생각해봅시다."나는 어제 친구와 영화를 보고, 집에 와서 저녁을 먹고, 책을 읽었다. 그 영화는 정말 재미있었다."마지막에 나오는 "그 영화"라는 단어를 이해하려면 앞부분에 나온 "영화" 정보와 연결해야 합니다.RNN은 이런 긴 문맥을 다 기억하기 어렵지만..