반응형

OpenSourceAI 8

Arcee AI Trinity 모델 시리즈: 미국 기반 오픈소스 AI의 역격

TL;DRArcee AI가 2025년 12월 1일 Trinity Mini(26B, 3B 활성)와 Trinity Nano Preview(6B, 1B 활성) 모델을 출시했습니다. 두 모델은 미국 내 완전히 훈련된 오픈 웨이트 Mixture-of-Experts(MoE) 아키텍처로, Apache 2.0 라이선스 하에 기업과 개발자가 자유롭게 다운로드하고 수정할 수 있습니다. 이는 DeepSeek, Qwen 등 중국 기업들이 주도하는 오픈소스 AI 경쟁에서 미국이 전략적으로 대응하는 사례로 평가됩니다. 향후 2026년 1월에 420억 매개변수 규모의 Trinity Large 모델이 출시될 예정입니다.왜 이것이 중요한가: 미중 오픈소스 AI 경쟁의 새 장최근 수년 동안 AI 생태계의 지형이 급격히 변화했습니다. 2..

AI/Trend 2025.12.05

IBM Granite 4.0 Nano 시리즈 출시: 초소형 오픈소스 하이브리드 AI 모델의 시대

TL;DRIBM은 2025년 10월 Granite 4.0 Nano 시리즈를 공개했다.최소 350M~1.5B 파라미터의 하이브리드 SSM·트랜스포머 모델로, 메모리 절감과 비용 효율성을 동시에 추구한다.모든 모델은 Apache 2.0 오픈소스로 배포되며, ISO 42001 책임 있는 AI 인증을 취득했다.Hugging Face, Docker Hub 등 다양한 경로로 접근 가능해 기업·개발자 모두에게 적합하다.오프라인·로컬 실행이 가능한 진정한 “소형 AI”로 시장의 트렌드를 바꿀 전망이다.Granite 4.0 Nano: 소형 모델의 정의와 주요 특성IBM Granite 4.0 Nano는 수억~15억 파라미터 수준의 초소형 대규모 언어모델(LLM) 시리즈다.이 시리즈는 Mamba-2 기반 Hybrid-SSM..

AI 2025.11.10

IBM Granite 4.0 Nano 시리즈 출시: 초소형 오픈소스 하이브리드 AI 모델의 시대

TL;DRIBM은 2025년 10월 Granite 4.0 Nano 시리즈를 공개했다.최소 350M~1.5B 파라미터의 하이브리드 SSM·트랜스포머 모델로, 메모리 절감과 비용 효율성을 동시에 추구한다.모든 모델은 Apache 2.0 오픈소스로 배포되며, ISO 42001 책임 있는 AI 인증을 취득했다.Hugging Face, Docker Hub 등 다양한 경로로 접근 가능해 기업·개발자 모두에게 적합하다.오프라인·로컬 실행이 가능한 진정한 “소형 AI”로 시장의 트렌드를 바꿀 전망이다.Granite 4.0 Nano: 소형 모델의 정의와 주요 특성IBM Granite 4.0 Nano는 수억~15억 파라미터 수준의 초소형 대규모 언어모델(LLM) 시리즈다.이 시리즈는 Mamba-2 기반 Hybrid-SSM..

AI 2025.10.30

Mistral AI의 추론 특화 모델: Magistral Small (24B) 아키텍처 및 성능 분석

TL;DRMagistral Small (24B) 은 Mistral AI가 추론(Reasoning) 능력 강화를 목표로 2025년 6월에 공개한 240억 개 매개변수 모델입니다. 이는 기존 모델 위에 Magistral Medium의 학습 흔적을 활용한 SFT와 Mistral 자체의 RL 파이프라인을 결합하여 훈련되었으며, 특히 수학 및 코딩 벤치마크에서 강력한 성능을 보여줍니다. Apache 2.0 라이선스로 배포되어 상업적 사용 및 수정이 자유롭고, 128k 컨텍스트 윈도우를 지원하며, RTX 4090 같은 단일 GPU에서도 양자화(Quantization)시 로컬 배포가 가능하다는 효율성을 제공합니다.1. Magistral Small (24B) 개요 및 핵심 특징Magistral Small은 Mistra..

AI 2025.10.27

Sentient AGI의 OML 1.0: 오픈소스 AI의 경제적 지속 가능성을 위한 AI 지문 기술

TL;DRSentient AGI는 NeurIPS 2025에서 4편의 논문을 수락받으며, 오픈소스 AGI의 윤리적·경제적 문제 해결에 대한 혁신을 제시했다.그중 대표작인 OML 1.0(Open-Monetizable-Loyal)은 LLM에 24,576개의 비가역 지문(fingerprint)을 손실 없이 삽입하는 기술이다.이 기술은 모델 소유권 증명, 불법 복제 방지, 정당한 수익 배분을 가능케 하며 AI 경제 생태계의 기틀을 마련했다.OML 1.0은 암호학적 구조와 온체인 계약 시스템을 결합해, “열린(Open) 동시에 충성도 있는(Loyal)” AI 모델을 구현한다. Sentient AGI와 NeurIPS 2025의 성과2025년 NeurIPS에서 Sentient AGI는 총 4편의 연구 논문이 채택되었다..

AI 2025.10.24

DeepSeek-OCR: 중국발 AI OCR 혁신 - 텍스트를 이미지로 10배 압축한 문맥 엔진

TL;DRDeepSeek AI가 2025년 10월 공개한 DeepSeek-OCR은 기존 OCR을 넘어 텍스트-이미지 변환 기반 압축 알고리즘으로 주목받고 있다.이 모델은 텍스트를 시각화하여 최대 10배(최대 20배) 압축 효율을 달성하며, A100 GPU 한 개만으로 하루 200,000페이지 이상을 처리한다.정확도는 97%, 오픈소스로 공개되어 HuggingFace와 GitHub에서 즉시 활용 가능하다.이 기술은 LLM의 컨텍스트 윈도 확장과 메모리 효율 최적화 측면에서 획기적인 변화를 제공한다.본문DeepSeek-OCR의 기술 개요DeepSeek-OCR은 중국 항저우 기반 스타트업 DeepSeek AI가 개발한 오픈소스 OCR 모델로, “Contexts Optical Compression”이라는 개념을..

AI 2025.10.22

Magistral Small 24B: Mistral의 Apache 2.0 오픈소스 강화학습 모델

TL;DRMagistral Small(24B)은 Mistral이 소개한 강화학습 중심 LLM으로, 상용 모델과 견줄 만한 수학·코드 추론 능력을 보여주면서도 완전 오픈소스로 공개된 점이 핵심입니다. 자체 RL 스택으로 훈련되어 reasoning, multilingual, multimodal 처리 성능이 향상되었으며 Apache 2.0 라이선스 덕분에 재사용 자유도가 높습니다.본문Magistral 모델 개요Mistral의 Magistral 프로젝트는 "pure RL from scratch" 접근법으로, SFT(지도학습) 없이 강화학습(Reinforcement Learning, RL)만으로 모델을 훈련하는 새로운 파이프라인입니다.Magistral Medium은 상위 모델로, 이러한 RL 기반 학습을 통해 A..

AI 2025.10.21

Hugging Face 입문: 개발자를 위한 AI 시작 가이드

1. Hugging Face란?Hugging Face는 모델 허브(Model Hub), Transformers 라이브러리, Datasets, Spaces(앱 공유 플랫폼) 등을 제공하는 오픈소스 AI 플랫폼입니다.즉, 모델 탐색 → 코드에서 불러오기 → 커스터마이징 → 웹으로 배포까지 가능한 AI 개발자 효자 도구입니다2. 주요 기능 & 장점• Model Hub170만 개 이상의 모델과 40만 개 이상의 데이터셋이 공개되어 있습니다.필요한 모델을 코드 몇 줄로 바로 가져올 수 있습니다.• Transformers 라이브러리NLP는 물론, 이미지·오디오·멀티모달 모델까지 지원.pipeline, Trainer 같은 고수준 API로 몇 줄 코드로 추론이나 학습 가능.• Datasets다양한 도메인의 데이터셋을 ..

AI 2025.06.18
반응형