TL;DR알리바바 Tongyi DeepResearch는 30.5B 파라미터(Large Language Model, LLM)이지만, 매 토큰당 실제 활성 파라미터는 3.3B 수준입니다.합성 데이터 기반 훈련과 MoE(Mixture-of-Experts) 구조 덕분에 2개의 H100 GPU, 500달러 미만으로 훈련이 가능하며, GPT-4o·DeepSeek-V3보다 깊은 연구·추론 성능을 실현합니다.오픈소스(모델, 학습, 추론 코드 제공)로 누구나 활용 가능하며, 벤치마크(32.9%~75%)에서도 SOTA(State-of-the-Art) 성능을 기록했습니다.Tongyi DeepResearch란 무엇인가?Tongyi DeepResearch는 알리바바 Tongyi Lab에서 2025년 9월 17일 공개한 LLM ..