반응형

bert 3

AI 프로젝트 기획과 응용 사례 정리

AI 프로젝트 기획과 응용 사례 정리1. 들어가며앞선 19차시에 걸쳐 우리는 AI 기초부터 트랜스포머, 멀티모달 모델까지 학습했습니다.이제 마지막 강의에서는 실제 AI 프로젝트를 어떻게 기획하고 적용할 것인지에 대해 정리하겠습니다.2. AI 프로젝트 기획 단계AI 프로젝트는 단순히 모델을 학습하는 것에 그치지 않습니다.비즈니스 문제 정의 → 데이터 확보 → 모델 설계 및 학습 → 배포/운영으로 이어지는 전체 사이클을 고려해야 합니다.단계별 요약문제 정의 (Business Understanding)어떤 문제를 해결할 것인가?예: 고객 문의 자동 응답, 재고 수요 예측, 번역 서비스데이터 확보 및 정제 (Data Collection & Cleaning)모델의 성능은 데이터 품질에 크게 의존텍스트, 이미지, ..

AI 2025.08.29

BERT 구조와 사전학습(Pretraining) 이해하기

BERT 구조와 사전학습(Pretraining) 이해하기1. 들어가며이제부터는 트랜스포머 기반의 대표 모델을 본격적으로 다룹니다.그 첫 번째가 바로 **BERT(Bidirectional Encoder Representations from Transformers)**입니다.BERT는 2018년 구글에서 발표한 모델로, 기존 자연어 처리 모델들의 성능을 크게 뛰어넘으며 다양한 벤치마크에서 새로운 기준을 세웠습니다.2. BERT의 핵심 아이디어양방향성(Bidirectional)기존의 언어 모델은 왼쪽 → 오른쪽, 혹은 오른쪽 → 왼쪽으로만 문맥을 이해했습니다.BERT는 양방향으로 동시에 문맥을 파악합니다.사전학습(Pretraining)대규모 말뭉치(Corpus)에서 먼저 언어 구조를 학습이후 특정 작업(분류,..

AI 2025.08.25

트랜스포머(Transformer) 구조 이해하기

트랜스포머(Transformer) 구조 이해하기1. 들어가며앞 강의에서 어텐션 메커니즘을 배웠습니다.트랜스포머(Transformer)는 이 어텐션 개념을 기반으로 만들어진 모델로, 현재의 GPT, BERT, LLaMA와 같은 최신 언어 모델의 뼈대가 됩니다.트랜스포머는 RNN이나 LSTM처럼 순차적으로 데이터를 처리하지 않고, 병렬적으로 문장을 한 번에 학습할 수 있어 속도와 성능 면에서 혁신을 가져왔습니다.2. 트랜스포머의 기본 아이디어트랜스포머는 크게 두 가지 블록으로 구성됩니다.인코더(Encoder) – 입력 문장의 의미를 추출디코더(Decoder) – 의미를 바탕으로 출력 문장을 생성하지만 번역과 같은 작업이 아니고 분류, 문서 임베딩 같은 경우에는 인코더만 사용하기도 합니다.3. 트랜스포머의 핵..

AI 2025.08.24
반응형