반응형

분류 전체보기 798

Alphabet 2026 CapEx 2배 전망, AI 인프라 투자 신호 읽기

TL;DRAlphabet은 2026년 CapEx(자본지출) 1750~1850억 달러를 제시했고, 이는 2025년 설비투자(구매 기준) 914억 달러 대비 약 1.9~2.0배 수준입니다.같은 발표에서 Alphabet은 2025년 매출 4028억 달러, Q4 매출 1138억 달러, Q4 순이익 345억 달러를 공시했습니다.발표 문맥상 CapEx 증가는 "고객 수요 대응 + AI 인프라 확장"에 초점이 맞춰져 있습니다.시장은 성장 기대와 동시에 "투자 대비 수익(ROI), 현금흐름 압박"을 함께 평가합니다(시간외 주가 변동 언급 포함).실무자는 "클라우드 용량 확대"만 보지 말고, 쿼터/예약용량, 비용 통제(FinOps), 보안/IAM, 운영 관측성까지 같이 준비해야 합니다.본문TOCCapEx 정의와 이번 뉴..

AI/Trend 08:17:23

Nscale IPO: Nvidia 지원 ‘네오클라우드’의 상장 준비가 의미하는 것

TL;DRNscale IPO는 "상장 확정"이 아니라, Goldman Sachs·JPMorgan을 고용해 IPO 준비(프리-IPO 단계)에 들어갔다는 의미입니다.Nscale은 NVIDIA와의 파트너십/생태계 편입, 그리고 Microsoft·OpenAI 수요를 겨냥한 데이터센터 확장을 성장 스토리로 내세우는 구조입니다.다만, 네오클라우드 IPO는 CAPEX(설비투자)·전력/부지·고객 집중·공급망(NVIDIA) 의존이 리스크의 중심이라 "AI 붐"만 보고 판단하면 실패합니다. (CoreWeave S-1이 그 리스크를 매우 노골적으로 보여줍니다.)본문TOC1. Nscale IPO를 이해하기 위한 최소 정의(네오클라우드란?)2. 팩트시트: 이번 뉴스에서 “확인된 것/아직 아닌 것”3. Nscale 사업 구조 요..

AI/Trend 01:44:16

vibe coding과 ADHD: 생산성 올리고 사고 줄이는 운영법

TL;DRvibe coding은 “AI에게 원하는 걸 말하고, 코드 내부를 깊게 이해하지 않은 채 결과물을 만드는 방식”에 가깝습니다.ADHD는 주의·조직화·충동성 조절 같은 실행기능(Executive function) 영역에서 업무 수행 난이도를 올릴 수 있습니다.두 개가 만나면 “빠르게 만들고(생산성) 빠르게 망가뜨릴(사고)” 가능성도 같이 커집니다. 연구에선 AI 코딩 보조가 보안 취약 코드와 과신을 늘릴 수 있었습니다.해결책은 ‘의지’가 아니라 운영 설계입니다: 프로토타입-프로덕션 분리, 작은 diff, 자동 검증 게이트, 사람 책임 명시로 굴리면 됩니다.본문TOC사전 요구사항단계별 절차검증 방법(관찰 포인트/로그/명령)트러블슈팅(증상→원인→해결)운영 팁FAQ사전 요구사항1) 개념 정리(정의/범위..

AI/Technical 2026.02.04

vibe coding과 ADHD: 잘 맞는 지점과 위험 구간

TL;DRvibe coding은 자연어로 요구사항을 말하면 LLM이 코드를 만들고, 사용자는 결과를 실행/수정 지시로 반복하는 방식입니다. (X (formerly Twitter))ADHD는 부주의/과잉행동/충동성의 지속 패턴이 핵심이며, 성인에서도 조직화·계획·시간관리(집행 기능) 어려움이 흔히 문제로 나타납니다. (nimh.nih.gov)둘의 “연관성”은 의학적 인과가 아니라, 업무 방식(피드백 루프·검증 부담·주의 전환)이 ADHD 특성과 상호작용할 수 있다는 수준에서 이해하는 게 정확합니다.AI 코딩 보조에 과의존하면 보안적으로 더 취약한 코드가 나올 가능성이 실험 연구로 보고되어 있어, vibe coding은 품질 게이트가 없으면 특히 위험합니다. (arXiv)본문TOCvibe coding(바이브..

AI/Technical 2026.02.04

OpenClaw 바이럴 AI 에이전트, 무엇이 달라졌고 무엇이 위험한가

TL;DROpenClaw는 개인 PC에서 실행되는 오픈소스 AI 에이전트로, 메신저를 “명령 입력 채널”로 삼아 이메일·캘린더 같은 실작업을 처리하는 쪽에 초점을 둡니다. (GitHub)바이럴의 핵심은 “말만 하는 챗봇”이 아니라 권한을 받아 실제로 실행한다는 점인데, 그만큼 권한·비밀(키)·플러그인(스킬) 관리 실패가 곧 사고로 이어집니다. (가디언)실제로 Moltbook 관련 노출(자격증명/키/이메일)과, 스킬 레지스트리 기반 공급망 위험, OpenClaw 자체 취약점(CVE/권고)이 연달아 보고되었습니다. (1password.com)결론: 써도 됩니다. 다만 “내 본계정 + 본PC + 무제한 권한 + 검증 안 된 스킬” 조합이면 언제든 터질 구조입니다. 이 글의 체크리스트대로 샌드박싱/최소권한/비밀..

AI/Trend 2026.02.03

AI spending 2.52조 달러 — Gartner 2026 AI 지출 전망 해설

TL;DRGartner는 2026년 전 세계 AI spending을 2.52조 달러, 전년 대비 44% 증가로 전망했습니다.2026년 지출의 절반 이상(약 54%)이 AI 인프라(서버·가속기·데이터센터 기반)로 잡혀 있습니다.“AI는 환멸의 골짜기(Trough of Disillusionment)에 있다”는 진단과 함께, 신규 ‘문샷’보다 기존 벤더 제품에 AI 기능이 붙으며 비용이 스며드는 형태가 더 흔해질 수 있다고 봅니다.기업은 ‘AI 프로젝트 예산’만 볼 게 아니라 인프라/운영비(특히 추론·서빙) + 보안 + 거버넌스까지 포함한 총비용(TCO) 체계로 전환해야 합니다.본문TOCGartner가 말하는 AI spending 정의숫자로 보는 2025–2027 전망 (표)왜 인프라가 절반 이상을 차지하나기..

AI/Trend 2026.02.03

DeepSeek H200 조건부 승인: ‘이중 관문’(미국 수출허가·중국 수입승인) 실무 정리

TL;DRDeepSeek의 Nvidia H200 구매가 중국 당국으로부터 조건부 승인을 받았다는 로이터 보도(2026-01-30)는, "고성능 GPU는 막혔다"는 통념을 흔듭니다.다만 이 뉴스의 핵심은 "승인"이 하나가 아니라 미국의 수출(라이선스)과 중국의 수입/사용(내부 인허가)이 분리된 '이중 관문'이라는 점입니다.기업 입장에서는 GPU를 '구매'하는 순간보다, (1) 허가 조건의 내용 (2) 주문→출하로 전환되는지 (3) 이후 사용·원격접속·재이전 통제까지를 한 세트로 봐야 합니다.본문TOC조건부 승인, 정확히 무엇을 뜻하나이번 뉴스 팩트시트 (날짜 포함)왜 ‘이중 관문’인가: 미국 수출허가 vs 중국 내 인허가H200 수요가 큰 이유 (스펙으로 보는 포인트)기업 실무: 공급망·계약·컴플라이언스 ..

AI/Trend 2026.02.02

Nvidia OpenAI investment, ‘on ice’ 보도와 ‘huge’ 반박의 진짜 의미

TL;DR2025-09-22, NVIDIA와 OpenAI는 10GW 규모 AI 인프라(컴퓨트) 구축을 골자로 하는 LOI(의향서)와 "최대 1000억 달러 투자 의사"를 공식 발표했습니다.2026-01-31, The Wall Street Journal은 해당 "1000억 달러 메가딜이 'on ice'(사실상 보류)" 상태라고 보도했고, Reuters도 WSJ 보도를 인용해 "계획이 stalled(정체)"됐다고 전했습니다.같은 날, Jensen Huang은 "불만설은 nonsense(터무니없다)"라며 여전히 'huge' 투자를 하되 "1000억 달러 같은 규모는 아니다"라고 공개적으로 선을 그었습니다.별개로 OpenAI는 최대 1000억 달러 조달을 목표로 하는 라운드가 거론되고 있고(보도 기준), 일부 ..

AI/Trend 2026.02.02

LLM data lineage 설계: 학습셋 manifest와 재현성

TL;DRLLM data lineage는 "데이터(스냅샷) → 변환 → 학습 실행 → 산출물(가중치/평가)"의 연결을 메타데이터로 증빙하는 설계입니다. PROV는 provenance(출처/과정) 모델의 표준 개념을 제공합니다.학습셋 manifest는 "학습에 사용된 데이터의 '정확한 스냅샷'과 필터/샘플링/전처리 조건"을 고정하는 파일(또는 레코드)이고, 재현성의 출발점입니다. (아래 필드 템플릿 제공)파이프라인 lineage 수집은 MLMD(아티팩트-실행-이벤트 그래프) 또는 OpenLineage(실행 이벤트 표준) 같은 방식으로 구현합니다.실무에서 실패하는 지점은 3가지가 대부분입니다: 스냅샷 비고정, 전처리/필터 버전 미기록, 환경·비결정성(Determinism) 미관리.본문TOC정의: LLM da..

AI/Technical 2026.02.01

AI training data governance checklist: 옵트아웃·목적 제한·보관 기간

TL;DR옵트아웃은 “요청 접수 → 데이터/파생물(학습셋·피처·로그) 반영 → 재학습/배포 정책”까지 이어져야 실제로 작동합니다. 목적 제한은 “학습/평가/튜닝/모니터링” 단계를 분리해 목적을 문서화하고, 목적 밖 재사용(=purpose creep)을 시스템적으로 차단해야 합니다. 보관 기간은 "목적 달성에 필요한 기간"을 기준으로 카테고리별 retention schedule을 만들고, 자동 파기·감사 로그까지 묶어야 합니다.EU(European Data Protection Board)는 AI 모델 개발 맥락에서 목적 특정·데이터 최소화·이의제기권을 강하게 연결해 해석합니다. 미국 캘리포니아 CPRA는 고지한 목적에 비해 "합리적으로 필요한 기간"을 넘겨 보관하지 말 것을 법문에 명시합니다.본문TOC정의..

AI/Technical 2026.02.01
반응형