반응형

GPU 8

Nvidia–Groq 비독점 라이선스·인재 영입, 추론 전쟁의 신호탄

TL;DR2025-12-24, Groq는 Nvidia와 비독점(non-exclusive) 추론(inference) 기술 라이선스 계약을 체결했다고 발표했다.계약과 함께 Groq 창업자 Jonathan Ross, 사장 Sunny Madra 등 핵심 인력이 Nvidia로 합류한다.Groq는 독립 운영을 유지하며, GroqCloud도 중단 없이 운영된다고 밝혔다.금액은 공개되지 않았고, 일부 보도에서 '인수/자산 매입'처럼 표현된 부분은 공식 발표(비독점 라이선스·독립 운영)와 구분해 해석해야 한다.본문1) 사건 정리: “인수”가 아니라, 비독점 라이선스 + 핵심 인재 영입이번 이슈의 핵심은 한 문장으로 정리됩니다.Nvidia는 Groq를 인수했다고 발표한 것이 아니라, Groq의 추론 기술을 비독점으로 라이..

AI/Trend 2025.12.26

Nvidia H200 중국 출하(2026-02)와 미국 수출 규제 변화 정리

TL;DR로이터(2025-12-22) 보도에 따르면, Nvidia는 중국 고객에게 H200을 2026년 2월 중순(춘절 전)부터 출하하겠다는 계획을 공유했다.초기 물량은 재고 기반 5,00010,000 모듈(칩 4만8만 개 규모)로 언급됐고, 중국 당국의 승인이 전제 조건으로 제시됐다.이 움직임은 미국의 대중(對中) 첨단 컴퓨팅 수출 통제(2022-10, 2023-10 개정) 흐름 속에서, 정책 조건이 바뀌고 있음을 시사한다.특히 2025-12-08(로이터) 보도처럼, H200의 중국 수출을 조건부로 허용하고 25% '정부 수수료/부과금'을 붙이는 방식이 공개되며 "공급 재개"의 제도적 문이 열린 것으로 해석된다.본문1) 사건 요약: "2026년 2월 중순까지 H200 출하"의 구체 내용로이터(2025-..

AI/Trend 2025.12.25

CPU와 GPU, TPU의 차이를 완벽하게 이해하기

TL;DRCPU, GPU, TPU는 서로 다른 작업에 최적화된 프로세서다. CPU는 일반적인 작업에 다재다능하게 대응하는 반면, GPU는 병렬 연산에 강해 딥러닝 훈련에 사용되고, TPU는 구글이 개발한 AI 전용 칩으로 행렬 연산에 특화되어 있다. TPU는 추론 작업에서 최대 4배 뛰어난 성능 대비 가격을 제공하며, 에너지 효율에서도 GPU 대비 60-65% 적은 전력을 소비한다. 각 프로세서는 용도에 따라 최적의 선택이 결정되므로, 워크로드의 성격을 이해하는 것이 중요하다.본문1. CPU(중앙처리장치): 다목적의 뇌CPU는 컴퓨터의 중추신경계로, 거의 모든 계산과 제어 작업을 담당한다. 현대 CPU는 일반적으로 4~64개의 코어를 가지고 있으며, 서버급 프로세서는 128개 이상의 코어를 탑재하기도 한..

AI/Technical 2025.12.17

메타의 구글 AI 칩 채택 선언: 엔비디아 GPU 시대의 변곡점이 오다

TL;DR메타 플랫폼은 2027년부터 구글의 커스텀 AI 칩(TPU)을 자체 데이터센터에 배포하고, 2026년부터 구글 클라우드를 통해 TPU 컴퓨팅을 임차하는 방안을 추진 중이다. 이 소식으로 엔비디아 주가는 2025년 11월 25일 6.8% 급락했고, AMD도 최대 9% 하락하며 반도체 부문 전반에 충격파가 발생했다. 이는 단순한 공급업체 변경이 아니라 AI 인프라 생태계의 근본적인 변화를 의미한다.본문AI 칩 시장의 독점 체제 균열지난 2025년 11월 24~25일, 더 인포메이션(The Information)의 보도는 과거 5년간 구축된 AI 칩 시장의 판도를 흔들었다. 메타가 구글의 텐서 프로세싱 유닛(Tensor Processing Unit, TPU)을 멀티 빌리언달러(수십억 달러) 규모로 채..

AI/Trend 2025.11.29

PyTorch를 활용한 딥러닝 모델 개발: 핵심 특징과 실무 적용

PyTorch는 Meta(구 Facebook) 가 개발한 딥러닝 프레임워크로, Define-by-Run(동적 계산 그래프) 방식을 채택하여 모델을 직관적으로 개발하고 디버깅하기 쉽습니다. 핵심은 Tensor 객체를 중심으로 한 GPU 가속 지원과 Autograd를 통한 자동 미분 기능입니다. 2025년 10월 현재 최신 안정 버전은 PyTorch 2.9.0이며, 지속적인 성능 최적화와 TorchScript, ONNX 등 프로덕션 환경을 위한 배포 도구를 제공하여 연구부터 실무 배포까지 전 과정을 지원하는 Python 중심의 강력한 생태계를 구축하고 있습니다.PyTorch의 핵심 아키텍처 및 특징PyTorch는 유연성과 속도를 위해 설계된 오픈소스 머신러닝 라이브러리입니다. 특히 연구 커뮤니티에서 가장 선..

AI 2025.10.31

Ubuntu에서 `nvidia-smi` 설치 및 CUDA 테스트 가이드

Ubuntu에서 nvidia-smi 설치 및 CUDA 테스트 가이드설명: Ubuntu에서 NVIDIA 드라이버 설치로 nvidia-smi를 사용 가능하게 만들고, CUDA Toolkit 설치 후 nvcc와 간단한 커널 및 deviceQuery로 테스트하는 방법을 단계별로 정리합니다. Jammy(22.04), Noble(24.04) 기준으로 동작하며, 20.04도 유사합니다.개요 (Introduction)이 글은 “ubuntu에서 nvidia-smi 설치 및 cuda 테스트” 방법을 처음부터 끝까지 안내합니다. 기본 흐름은 다음과 같습니다.GPU 인식 확인 → 2) 권장 NVIDIA 드라이버 설치(nvidia-smi 포함) → 3) CUDA Toolkit 설치 → 4) 환경변수 설정(필요 시) → 5) 샘..

AI/Infrastructure 2025.09.01

AI 개발 환경 구성: Anaconda, Jupyter Notebook, GPU 설정하기

1. 왜 AI 개발 환경 구성이 중요한가?AI 프로젝트를 시작하기 전, 개발 환경을 올바르게 설정하는 것은 모델 학습만큼 중요합니다.환경 구성이 잘못되면 다음과 같은 문제가 발생할 수 있습니다.라이브러리 버전 충돌GPU가 인식되지 않아 학습 속도 저하코드 실행 환경이 다른 팀원과 달라 재현 불가능1.1 환경 구성 목표독립된 Python 실행 환경 구성필수 라이브러리 설치GPU(CUDA) 설정코드 작성과 실행을 편리하게 하는 도구 준비2. 필수 도구 개요2.1 AnacondaPython 환경과 패키지 관리를 한 번에 할 수 있는 툴프로젝트별 가상환경을 만들어 라이브러리 충돌 방지2.2 Jupyter Notebook웹 브라우저에서 Python 코드를 작성·실행할 수 있는 대화형 환경데이터 분석과 실험 기록에..

AI/Infrastructure 2025.08.13

NVIDIA-SMI 완전 정복: GPU 상태 확인 및 리소스 모니터링 가이드

1. NVIDIA-SMI란?nvidia-smi는 NVIDIA에서 제공하는 GPU 관리 및 모니터링 CLI 도구입니다.주로 다음 목적에 사용됩니다:GPU 사용률 확인VRAM(메모리) 사용량 확인실행 중인 프로세스 확인GPU 드라이버 및 CUDA 버전 확인GPU 온도 및 전력 소비 확인대부분의 딥러닝/AI 개발 환경에서 필수적으로 활용되는 명령어입니다.2. 기본 명령어와 출력 해석nvidia-smi실행 시 다음과 같은 형식의 출력이 나타납니다:+-----------------------------------------------------------------------------+| NVIDIA-SMI 545.23.08 Driver Version: 545.23.08 CUDA Version: 12..

AI 2025.06.14
반응형