반응형

AI 263

OpenAI Sora 2 모델 출시 논란

TL;DR (KR/EN)Sora 2 모델이 출시 후, 안전·저작권·개인정보 이슈로 논란이 거셉니다.시민 단체와 전문가들은 중단 및 엄격한 규제 도입을 촉구하고 있습니다.OpenAI는 모델의 혁신성과 법적·윤리적 준수 노력을 근거로 운영 지속을 고수합니다.AI 안전과 규제의 필요성, 윤리적 책임 논의가 국제적으로 확대되고 있습니다.출시 및 논란 요약OpenAI Sora 2는 실사와 가까운 AI 비디오 생성 기능을 제공하며, 시장 출시와 동시에 저작권·개인정보·사회적 악용 가능성 등 다양한 문제로 비평을 받고 있습니다. 특히 영화 산업 협회와 시민 단체, 교육·윤리 전문가들은 모델의 관리 미흡과 사회적 피해 위험을 경고했습니다.Why it matters: AI 비디오 생성기는 허위 정보, 명예 훼손, 창작물..

AI/Trend 2025.11.14

AI 관련 주식 급락, 거품 붕괴 신호? Nvidia·Oracle 등 하락세

TL;DR2025-11-13, 월스트리트에서 AI 관련 주식의 급락세가 심화.Nvidia·Oracle 등 핵심 기술주가 큰 폭으로 하락.투자자들은 AI 거품과 금리 인상 불확실성에 회의적 입장.일각에서는 이번 급락을 시장 거품 붕괴 신호로 해석.AI주 급락 현황2025-11-13 기준, Nasdaq 등 미국 증시에서 Nvidia·Oracle 등 AI주가 35% 이상 급락했다. Nvidia는 시가총액 기준 약 4.5조 달러에서 하루 만에 1500억 달러가 증발했다. Oracle은 약 한 달 만에 2530% 하락하며 AI 인프라 사업의 실제 수익성에 대한 우려가 고조됐다.Why it matters: 주요 AI 주식의 급락은 시장의 과열된 기대감 후퇴와 동시에, AI 인프라 기업의 실질 수익성과 성장성에 대한..

AI/Trend 2025.11.14

Anthropic, 50억 달러 투자로 미국 AI 데이터센터 건설 추진

TL;DRAnthropic이 미국 내 새로운 데이터센터 건설에 50억 달러를 투자합니다.텍사스, 뉴욕 등에서 영구 800명, 건설 2,400명 일자리가 새로 생깁니다.AI 인프라 확장과 글로벌 경쟁이 본격화되고 있습니다.Fluidstack과의 협력으로 2026년부터 사이트 순차 오픈 예정입니다.Claude 서비스 수요 및 미국 AI 주도권 강화가 핵심 배경입니다.Anthropic의 대규모 투자 배경Anthropic은 2025-11-11 공식 홈페이지 발표를 통해, 향후 미국 텍사스·뉴욕 등 주요 거점에 AI 데이터센터를 직접 건설하겠다고 밝혔습니다. 투자 규모는 총 50억 달러로, 파트너 Fluidstack과 협력해 고효율·고용량 인프라 구축을 목표로 합니다.Why it matters: AI 혁신을 선도..

AI/Trend 2025.11.13

Ant International AI 예측모델 오픈소스와 MSME 혁신: 2025년 11월 최신 동향

TL;DR2025-11-12, Ant International은 Falcon TST AI 예측모델을 오픈소스로 공개.금융 및 상거래 분야 예측 정확도 90%, FX 비용 60% 절감.MSME 지원을 위한 Antom의 올인원 비즈니스 앱 출시.Falcon TST AI 오픈소스 개요Falcon TST(Time-Series Transformer) 모델은 'Mixture of Experts' 구조와 멀티 패치 토크나이저 기반 빅데이터 예측 AI로, 최대 25억 파라미터를 보유합니다. 자산관리, 환위험 관리 등 실제 기업 내 운영에 적용해 시간별, 일별, 주별 예측을 성공적으로 수행하고 있습니다.90% 이상 예측 정확도, FX 비용 최대 60% 절감항공, 전자상거래, 은행 등 다양한 산업 적용Github 및 Hu..

AI 2025.11.12

강화학습, LLM 추론 능력 진짜 높여주나? 한계 검증 논문 리뷰 (2025)

TL;DR2025년 발표된 Tsinghua Univ. 중심의 논문은, 강화학습(RL)이 LLM의 표면적 추론 성능엔 일시적 효과가 있지만, 실제 새로운 추론 경로(Reasoning Path)를 추가하지 않음을 실험적으로 보였다.pass@k(샘플 k개 중 적어도 1개 정답) 대규모 측정 결과, RL 모델은 낮은 k에서만 강점을 보이나, 높은 k에선 베이스 모델이 더 넓은 문제를 풀 수 있다.강화학습은 기존 분포 내 해결책을 더 집중해 출력할 수 있게 도와줄 뿐, 완전히 새로운 추론 능력을 창출하지 못했다.시사점: 실제로 LLM 추론능력 한계를 넘기려면 RL 기반 외의 새로운 패러다임이 필요하다.1. 논문 주요 요약Tsinghua Univ. 연구팀(2025)의 “Does Reinforcement Learni..

AI 2025.11.11

Meta Omnilingual ASR, 1,600개 언어 지원 오픈소스 음성인식 혁신

TL;DRMeta, 1,600개 이상 언어 지원 Omnilingual ASR 2025년 11월 10일 오픈소스 공개500개 이상 저자원 언어, 78% 언어에서 문자오류율(CER) 10% 이하 성능사용자가 녹음 샘플 몇 개만으로 직접 언어 추가 가능한 확장형 구조7B 파라미터 기반 wav2vec 2.0, LLM-style 인컨텍스트 학습 적용대규모 Omnilingual ASR Corpus 및 파라미터별 모델 오픈Omnilingual ASR: 주요 특징지원 언어: 1,600개 이상, 저자원 언어 500여 개 포함, 기존 ASR의 한계 극복구조: 7B 파라미터 Omnilingual wav2vec 2.0 encoder + CTC/Transformer 기반 decoder학습 방식: 인컨텍스트 학습으로 몇 개의 오..

AI 2025.11.11

AI 심리학 2025 최신 동향: 인간-기계 신뢰, 윤리, 정신건강 혁신 총정리

TL;DRAI 심리학은 인간과 AI의 상호작용, 신뢰, 윤리적 문제, 정신건강 개선 등 다양한 분야에서 연구가 진행되고 있습니다.2025년 최신 임상시험에서 AI 치료 챗봇이 우울증과 불안 증상 개선에 실제 효과가 있음을 입증했습니다.윤리·프라이버시 규제 강화와 감정인식·개인맞춤 치료 등 산업 혁신이 본격화되고 있으며, 부정적 영향(의존, 편향, 프라이버시 침해) 최소화가 중요 과제로 대두되고 있습니다.AI 심리학의 정의와 핵심 연구인공지능 심리학은 인간 심리학의 관점에서 AI가 사람에게 미치는 영향, 인간-기계 신뢰와 상호작용, 감정 인식 및 행동 예측 등을 다룹니다. 2025년에는 인간 행동을 예측하는 모델(예: Centaur)이 심리학 실험 데이터로 검증되거나, LLM(대형언어모델) 기반 챗봇이 실..

AI 2025.11.11

Google 7세대 AI 칩 'Ironwood'와 Anthropic의 대규모 TPU 계약 정밀 분석

TL;DRGoogle이 2025년 11월 7세대 AI 칩 Ironwood를 공식 출시, 기존 대비 4~10배 성능 향상을 발표함.Ironwood는 192GB HBM3E, 4,614 FP8 TFLOPS, 9,216 TPU 스케일링 등 업계 최고 사양과 전력 효율을 제공함.Anthropic은 최대 100만 개 Google TPU 접근권과 수십억 달러 규모의 장기 계약 체결, Claude 등 대형 AI 모델 훈련에 활용 예정임.이번 발표로 구글은 엔비디아와의 AI 인프라 경쟁에서 주도권 강화를 꾀하며, 산업 내 경쟁 구도가 급격히 심화되고 있음.7세대 Google Ironwood TPU의 혁신적 특징Ironwood는 Google의 AI·머신러닝 전용 ASIC 칩의 7세대 버전으로, 기존 모델(TPU v6e, ..

AI 2025.11.10

하이퍼 파라미터 튜닝이란? 머신러닝 최적화의 핵심 전략

TL;DR하이퍼 파라미터 튜닝은 모델 최적화에서 필수적인 단계로, 외부 설정값 조정 과정을 의미합니다.대표 예: 학습률, 배치 크기 등이며 그리드 서치, 랜덤 서치, 베이지안 최적화 등이 주요 방법입니다.적절한 하이퍼파라미터 튜닝은 모델 성능을 결정짓는 핵심 요인입니다.하이퍼 파라미터와 파라미터의 차이하이퍼 파라미터는 사용자가 모델 학습 전에 직접 결정하는 값으로, 대표적으로 학습률, 에포크 수, 배치 크기, 정규화 계수, 드롭아웃 비율 등이 포함됩니다.파라미터는 모델 학습(훈련) 과정에서 자동으로 조정되는 값, 예를 들어 신경망의 가중치 및 편향이 있습니다.하이퍼파라미터 설정은 모델의 복잡성, 학습 속도, 과적합, 일반화 성능에 직결됩니다.하이퍼파라미터 튜닝이 중요한 이유모델의 최종 성능을 좌우하는 결..

AI 2025.11.10

IBM Granite 4.0 Nano 시리즈 출시: 초소형 오픈소스 하이브리드 AI 모델의 시대

TL;DRIBM은 2025년 10월 Granite 4.0 Nano 시리즈를 공개했다.최소 350M~1.5B 파라미터의 하이브리드 SSM·트랜스포머 모델로, 메모리 절감과 비용 효율성을 동시에 추구한다.모든 모델은 Apache 2.0 오픈소스로 배포되며, ISO 42001 책임 있는 AI 인증을 취득했다.Hugging Face, Docker Hub 등 다양한 경로로 접근 가능해 기업·개발자 모두에게 적합하다.오프라인·로컬 실행이 가능한 진정한 “소형 AI”로 시장의 트렌드를 바꿀 전망이다.Granite 4.0 Nano: 소형 모델의 정의와 주요 특성IBM Granite 4.0 Nano는 수억~15억 파라미터 수준의 초소형 대규모 언어모델(LLM) 시리즈다.이 시리즈는 Mamba-2 기반 Hybrid-SSM..

AI 2025.11.10
반응형