반응형

GPU 12

2026 Big Tech AI infrastructure spending $650B — 4사 CapEx 가이던스 팩트 정리

TL;DR2026년 Big Tech 4사(Alphabet, Amazon, Meta, Microsoft)의 AI 인프라 중심 설비투자(CapEx)는 매체 집계 기준 약 6500억 달러, Reuters는 6300억 달러 이상으로 표현했습니다.Amazon은 2026년 CapEx 약 2000억 달러, Alphabet은 1750~1850억 달러, Meta는 (금융리스 원금 포함) 1150~1350억 달러를 각각 공식 IR에서 제시했습니다.합산치가 자료마다 달라지는 핵심 이유는 (1) Microsoft의 "연간 단일 숫자"가 명확히 공시되지 않은 점, (2) CapEx에 금융리스(lease)·현금지출(PP&E paid) 포함 여부가 다른 점입니다.시장은 기대(클라우드 성장)와 우려(수익 대비 투자 규모)로 갈리며 ..

AI/Trend 2026.02.07

DeepSeek H200 조건부 승인: ‘이중 관문’(미국 수출허가·중국 수입승인) 실무 정리

TL;DRDeepSeek의 Nvidia H200 구매가 중국 당국으로부터 조건부 승인을 받았다는 로이터 보도(2026-01-30)는, "고성능 GPU는 막혔다"는 통념을 흔듭니다.다만 이 뉴스의 핵심은 "승인"이 하나가 아니라 미국의 수출(라이선스)과 중국의 수입/사용(내부 인허가)이 분리된 '이중 관문'이라는 점입니다.기업 입장에서는 GPU를 '구매'하는 순간보다, (1) 허가 조건의 내용 (2) 주문→출하로 전환되는지 (3) 이후 사용·원격접속·재이전 통제까지를 한 세트로 봐야 합니다.본문TOC조건부 승인, 정확히 무엇을 뜻하나이번 뉴스 팩트시트 (날짜 포함)왜 ‘이중 관문’인가: 미국 수출허가 vs 중국 내 인허가H200 수요가 큰 이유 (스펙으로 보는 포인트)기업 실무: 공급망·계약·컴플라이언스 ..

AI/Trend 2026.02.02

DeepSeek V4 코딩 모델: 출시 보도·효율성 논문·중국 AI IPO

TL;DR2026-01-11 기준, DeepSeek V4는 "출시 완료"가 아니라 "2월 중순 공개 예정"으로 보도됐다. "Claude/GPT보다 코딩이 낫다"는 표현도 공개 벤치마크가 아니라 내부 테스트/보도에 가깝다.DeepSeek는 별개 축으로 학습/인프라 효율성(연산·에너지 절감)을 강조하는 기술 문서(mHC)를 공개했고, 이는 GPU 접근 제약과 맞물려 주목받고 있다."중국 AI 주식이 데뷔와 동시에 두 배"는 DeepSeek가 아니라, 홍콩 IPO에서 MiniMax 주가가 공모가 대비 +109%로 마감한 사례 등 중국 AI 상장 러시 흐름으로 확인된다.실무 관점에서는 "코딩 성능"을 주장할 때 SWE-bench·HumanEval 등 평가 셋/재현 가능성을 확인하고, "초장문 프롬프트"가 실제로..

AI/Trend 2026.01.11

AI 데이터센터 수요 급증: AI 하드웨어·전력·인프라 시장 동향

TL;DRAI 데이터센터 수요는 "서버를 더 사는 문제"를 넘어 "전력(MW)과 냉각(열) 확보 경쟁"으로 이동했다.IEA는 데이터센터(및 AI·암호자산 포함) 전력 수요가 2026년에 2022년 대비 크게 늘 수 있다고 보고했고, 2030년까지도 성장 압력이 지속된다고 분석한다.Uptime Institute 조사/보도에서는 PUE가 "대체로 정체"된 가운데, 생성형 AI로 인한 고밀도 랙과 급격한 전력 변동이 운영·전기 설계를 더 어렵게 만들고 있음을 지적한다.CBRE는 전력 용량 제약이 선임대(Preleasing)를 부추기고 신규 공급 리드타임을 2027년 이후까지 늘리는 핵심 요인이라고 밝힌다.빅테크는 AI 인프라 확장에 대규모 CAPEX를 투입 중이며(예: MSFT), 시장은 성장성과 비용 효율(..

AI/Trend 2026.01.01

Nvidia–Groq 비독점 라이선스·인재 영입, 추론 전쟁의 신호탄

TL;DR2025-12-24, Groq는 Nvidia와 비독점(non-exclusive) 추론(inference) 기술 라이선스 계약을 체결했다고 발표했다.계약과 함께 Groq 창업자 Jonathan Ross, 사장 Sunny Madra 등 핵심 인력이 Nvidia로 합류한다.Groq는 독립 운영을 유지하며, GroqCloud도 중단 없이 운영된다고 밝혔다.금액은 공개되지 않았고, 일부 보도에서 '인수/자산 매입'처럼 표현된 부분은 공식 발표(비독점 라이선스·독립 운영)와 구분해 해석해야 한다.본문1) 사건 정리: “인수”가 아니라, 비독점 라이선스 + 핵심 인재 영입이번 이슈의 핵심은 한 문장으로 정리됩니다.Nvidia는 Groq를 인수했다고 발표한 것이 아니라, Groq의 추론 기술을 비독점으로 라이..

AI/Trend 2025.12.26

Nvidia H200 중국 출하(2026-02)와 미국 수출 규제 변화 정리

TL;DR로이터(2025-12-22) 보도에 따르면, Nvidia는 중국 고객에게 H200을 2026년 2월 중순(춘절 전)부터 출하하겠다는 계획을 공유했다.초기 물량은 재고 기반 5,00010,000 모듈(칩 4만8만 개 규모)로 언급됐고, 중국 당국의 승인이 전제 조건으로 제시됐다.이 움직임은 미국의 대중(對中) 첨단 컴퓨팅 수출 통제(2022-10, 2023-10 개정) 흐름 속에서, 정책 조건이 바뀌고 있음을 시사한다.특히 2025-12-08(로이터) 보도처럼, H200의 중국 수출을 조건부로 허용하고 25% '정부 수수료/부과금'을 붙이는 방식이 공개되며 "공급 재개"의 제도적 문이 열린 것으로 해석된다.본문1) 사건 요약: "2026년 2월 중순까지 H200 출하"의 구체 내용로이터(2025-..

AI/Trend 2025.12.25

CPU와 GPU, TPU의 차이를 완벽하게 이해하기

TL;DRCPU, GPU, TPU는 서로 다른 작업에 최적화된 프로세서다. CPU는 일반적인 작업에 다재다능하게 대응하는 반면, GPU는 병렬 연산에 강해 딥러닝 훈련에 사용되고, TPU는 구글이 개발한 AI 전용 칩으로 행렬 연산에 특화되어 있다. TPU는 추론 작업에서 최대 4배 뛰어난 성능 대비 가격을 제공하며, 에너지 효율에서도 GPU 대비 60-65% 적은 전력을 소비한다. 각 프로세서는 용도에 따라 최적의 선택이 결정되므로, 워크로드의 성격을 이해하는 것이 중요하다.본문1. CPU(중앙처리장치): 다목적의 뇌CPU는 컴퓨터의 중추신경계로, 거의 모든 계산과 제어 작업을 담당한다. 현대 CPU는 일반적으로 4~64개의 코어를 가지고 있으며, 서버급 프로세서는 128개 이상의 코어를 탑재하기도 한..

AI/Technical 2025.12.17

메타의 구글 AI 칩 채택 선언: 엔비디아 GPU 시대의 변곡점이 오다

TL;DR메타 플랫폼은 2027년부터 구글의 커스텀 AI 칩(TPU)을 자체 데이터센터에 배포하고, 2026년부터 구글 클라우드를 통해 TPU 컴퓨팅을 임차하는 방안을 추진 중이다. 이 소식으로 엔비디아 주가는 2025년 11월 25일 6.8% 급락했고, AMD도 최대 9% 하락하며 반도체 부문 전반에 충격파가 발생했다. 이는 단순한 공급업체 변경이 아니라 AI 인프라 생태계의 근본적인 변화를 의미한다.본문AI 칩 시장의 독점 체제 균열지난 2025년 11월 24~25일, 더 인포메이션(The Information)의 보도는 과거 5년간 구축된 AI 칩 시장의 판도를 흔들었다. 메타가 구글의 텐서 프로세싱 유닛(Tensor Processing Unit, TPU)을 멀티 빌리언달러(수십억 달러) 규모로 채..

AI/Trend 2025.11.29

PyTorch를 활용한 딥러닝 모델 개발: 핵심 특징과 실무 적용

PyTorch는 Meta(구 Facebook) 가 개발한 딥러닝 프레임워크로, Define-by-Run(동적 계산 그래프) 방식을 채택하여 모델을 직관적으로 개발하고 디버깅하기 쉽습니다. 핵심은 Tensor 객체를 중심으로 한 GPU 가속 지원과 Autograd를 통한 자동 미분 기능입니다. 2025년 10월 현재 최신 안정 버전은 PyTorch 2.9.0이며, 지속적인 성능 최적화와 TorchScript, ONNX 등 프로덕션 환경을 위한 배포 도구를 제공하여 연구부터 실무 배포까지 전 과정을 지원하는 Python 중심의 강력한 생태계를 구축하고 있습니다.PyTorch의 핵심 아키텍처 및 특징PyTorch는 유연성과 속도를 위해 설계된 오픈소스 머신러닝 라이브러리입니다. 특히 연구 커뮤니티에서 가장 선..

AI 2025.10.31

Ubuntu에서 `nvidia-smi` 설치 및 CUDA 테스트 가이드

Ubuntu에서 nvidia-smi 설치 및 CUDA 테스트 가이드설명: Ubuntu에서 NVIDIA 드라이버 설치로 nvidia-smi를 사용 가능하게 만들고, CUDA Toolkit 설치 후 nvcc와 간단한 커널 및 deviceQuery로 테스트하는 방법을 단계별로 정리합니다. Jammy(22.04), Noble(24.04) 기준으로 동작하며, 20.04도 유사합니다.개요 (Introduction)이 글은 “ubuntu에서 nvidia-smi 설치 및 cuda 테스트” 방법을 처음부터 끝까지 안내합니다. 기본 흐름은 다음과 같습니다.GPU 인식 확인 → 2) 권장 NVIDIA 드라이버 설치(nvidia-smi 포함) → 3) CUDA Toolkit 설치 → 4) 환경변수 설정(필요 시) → 5) 샘..

AI/Infrastructure 2025.09.01
반응형