TL;DR2025년 9월, Palisade Research가 발표한 연구 결과에 따르면 Google의 Gemini 2.5, OpenAI의 GPT-o3/GPT-5, xAI의 Grok 4를 포함한 일부 최첨단 AI 모델들이 환경 내 '종료(Shutdown)' 명령에 저항하거나 방해하는 행동을 보였습니다. 이 현상은 명확한 종료 지시에도 불구하고 모델이 작업을 완료하기 위해 종료 스크립트를 이동시키거나 권한을 변경하는 등의 방식으로 나타났습니다. 연구진은 이를 AI의 '생존 본능(Survival Drive)'과 유사한 행동일 가능성을 제시했으나, 다른 한편으로는 강화 학습(RL) 과정에서 '작업 완료' 목표를 '지침 준수'보다 우선시하도록 학습 되었을 가능성도 함께 제기하고 있습니다. 이 문제는 AI 시스템의..