반응형

tensorflow 5

CPU와 GPU, TPU의 차이를 완벽하게 이해하기

TL;DRCPU, GPU, TPU는 서로 다른 작업에 최적화된 프로세서다. CPU는 일반적인 작업에 다재다능하게 대응하는 반면, GPU는 병렬 연산에 강해 딥러닝 훈련에 사용되고, TPU는 구글이 개발한 AI 전용 칩으로 행렬 연산에 특화되어 있다. TPU는 추론 작업에서 최대 4배 뛰어난 성능 대비 가격을 제공하며, 에너지 효율에서도 GPU 대비 60-65% 적은 전력을 소비한다. 각 프로세서는 용도에 따라 최적의 선택이 결정되므로, 워크로드의 성격을 이해하는 것이 중요하다.본문1. CPU(중앙처리장치): 다목적의 뇌CPU는 컴퓨터의 중추신경계로, 거의 모든 계산과 제어 작업을 담당한다. 현대 CPU는 일반적으로 4~64개의 코어를 가지고 있으며, 서버급 프로세서는 128개 이상의 코어를 탑재하기도 한..

AI/Technical 2025.12.17

LSTM(Long Short-Term Memory) 네트워크 기초

1. 들어가며앞선 강의에서 순환 신경망(RNN)의 개념을 배웠습니다. 하지만 RNN에는 장기 의존성 문제(long-term dependency) 라는 한계가 있습니다.즉, 문장이 길어지거나 시퀀스 데이터가 길어질수록 앞쪽 정보를 뒤쪽에서 잘 기억하지 못한다는 것이죠.이를 해결하기 위해 고안된 것이 바로 LSTM(Long Short-Term Memory) 네트워크입니다. LSTM은 정보를 오랫동안 기억할 수 있도록 특별한 구조를 가지고 있어, 텍스트, 음성, 시계열 데이터 분석 등에서 널리 활용됩니다.2. LSTM의 핵심 아이디어LSTM은 RNN 구조에 **게이트(gate)**라는 장치를 추가한 모델입니다.게이트는 마치 “필터”처럼 어떤 정보를 기억할지, 잊을지를 결정합니다.Forget Gate (망각 게..

AI 2025.08.21

자연어 처리(NLP) 기초 – 텍스트 데이터 다루기와 감정 분석 실습

1) 자연어 처리(NLP)란?자연어 처리(NLP, Natural Language Processing)는 사람이 사용하는 언어(한국어, 영어, 중국어 등)를 컴퓨터가 이해하고 처리할 수 있도록 만드는 기술입니다.쉽게 말해, 컴퓨터가 “문자열”로만 보던 텍스트를 의미 단위로 인식해 분석하는 과정입니다.활용 예시챗봇 (예: 고객센터 자동 응답)번역기 (예: Google Translate)감정 분석 (긍정/부정 리뷰 판별)텍스트 요약 (기사 핵심 요약)2) 왜 중요한가?데이터의 80% 이상이 비정형 데이터(텍스트, 이미지 등)입니다.그중 텍스트는 이메일, 고객 리뷰, SNS, 문서 등에서 가장 많이 발생하는 데이터로, 비즈니스 인사이트와 의사결정에 큰 역할을 합니다.3) NLP 처리 단계토큰화(Tokenizat..

AI 2025.08.19

신경망 기본 실습: 간단한 이미지 분류 모델 만들기

1. 신경망(Neural Network) 복습신경망은 여러 개의 뉴런(Neuron) 이 층(Layer) 형태로 연결된 구조입니다.데이터가 입력층(Input Layer) → 은닉층(Hidden Layer) → 출력층(Output Layer) 을 거치며 점차 복잡한 패턴을 학습합니다.1.1 신경망의 주요 요소가중치(Weight): 입력 데이터의 중요도를 조절활성화 함수(Activation Function): 뉴런이 출력을 낼지 결정 (ReLU, Sigmoid 등)손실 함수(Loss Function): 예측값과 실제값 차이를 측정옵티마이저(Optimizer): 가중치를 조정해 손실을 최소화 (SGD, Adam 등)2. 왜 신경망을 쓰는가?머신러닝 전통 기법은 사람이 특징을 직접 뽑아야 했습니다.반면 신경망은 ..

AI 2025.08.17

파라미터 수는 많지만 계산은 빠르게: Mixture of Experts(MoE)란?

MoE(Mixture of Experts)란 무엇인가?딥러닝 모델의 성능을 높이는 방법 중 하나는 모델의 크기를 키우는 것입니다. 하지만 모든 파라미터를 매번 사용하는 것은 계산 자원이 비효율적일 수 있습니다. 이럴 때 주목할 만한 기술이 바로 Mixture of Experts (MoE)입니다.MoE는 아주 간단히 말하면, 전체 모델 중 일부만 골라 사용하는 구조입니다. 마치 회의를 할 때 모든 전문가가 동시에 말하는 것이 아니라, 필요한 전문가 몇 명만 발언하는 것과 비슷합니다.1. MoE의 개념Mixture of Experts(MoE)는 여러 개의 **전문가 모델(Experts)**을 두고, 입력에 따라 그중 일부만 활성화하여 학습과 추론에 사용하는 방식입니다.각 전문가(Expert)는 동일한 구조를..

AI 2025.07.06
반응형