반응형

2025/12/27 3

이탈리아 반독점 당국, Meta에 WhatsApp 타사 AI 챗봇 차단 중단 명령

TL;DR이탈리아 경쟁·시장감독청(AGCM)은 Meta가 WhatsApp에서 타사 "범용 AI 챗봇"을 사실상 배제할 수 있는 약관(WhatsApp Business Solution Terms) 적용을 즉시 중단하라고 명령했다.문제의 약관은 2025-10-15 도입, 기존 사업자에는 2026-01-15부터 전면 적용 예정이었고, AGCM은 경쟁 제한 및 소비자 피해 우려를 이유로 잠정조치(미수라 카우텔라레)를 발동했다.EU 집행위원회(Competition)는 같은 사안을 두고 EEA(이탈리아 제외) 범위에서 별도 반독점 조사를 개시했다.이번 건은 "메신저 플랫폼 + 내장형 AI" 결합이 플랫폼 독점(지배력)과 AI 서비스 경쟁을 어떻게 흔드는지, 그리고 API/약관이 '경쟁 레버'로 작동할 수 있음을 다시..

AI/Trend 08:00:21

존 캐리루 저작권 소송: 6대 AI 기업 LLM 훈련 데이터 쟁점

TL;DR2025-12-22, 'Bad Blood' 저자이자 NYT 기자 존 캐리루(John Carreyrou) 등 6명의 저자가 미국 캘리포니아 북부지방법원(N.D. Cal.)에 OpenAI·Google·Meta·xAI·Anthropic·Perplexity를 상대로 저작권 침해 소송을 제기했다.소송의 핵심은 저작권 도서를 무단으로 '다운로드(해적판/섀도 라이브러리)' 하고, 이를 LLM 학습·최적화 과정에서 추가 복제해 상업적 모델을 만들었다는 주장이다.이 사건은 "훈련 자체의 공정이용(fair use)" 논쟁뿐 아니라, 훈련 데이터의 취득·보관·가공(복제) 단계에서 발생하는 책임을 다시 전면에 올려놓는다.기업 실무 관점에서는 “모델 성능”보다 데이터 라이선스·출처·삭제가능성(증빙)·거버넌스가 소송 리..

AI/Trend 00:53:24

MoE(Mixture of Experts) 쉽게 이해하기: 라우팅, Top-1/Top-2, Mixtral 서빙과 K8s 체크

TL;DRMoE(Mixture of Experts)는 토큰마다 일부 Expert만 선택해 계산하는 "희소(조건부) 계산" 구조다.트랜스포머에서는 주로 Dense FFN(MLP)을 MoE FFN(Experts+Router)으로 교체하는 형태가 표준이다.라우팅은 운영 친화적인 Top-1(Switch)과, 표현력 여지가 있지만 비용이 커지는 Top-2(Mixtral)가 대표 선택지다.실제 병목은 라우팅 쏠림·capacity overflow(드롭)·all-to-all 통신·메모리 대역폭에서 자주 발생하므로 "서빙 엔진 + 관측(모니터링) + K8s 토폴로지 튜닝"을 함께 봐야 한다.본문1) MoE를 한 문장으로: "전문가들 + 배분자(라우터)"MoE는 이름 그대로 여러 전문가(Experts)가 있고, 입력(토큰..

AI/Technical 00:35:32
반응형