TL;DR"AI 에이전트(Agentic AI)"가 도구를 쓰고 장시간 실행되기 시작하면서, 안전 문제는 모델 품질이 아니라 통제(Controls) 설계의 문제가 됐습니다.OpenAI는 차세대 모델이 '높은(high) 사이버 보안 위험'에 도달할 수 있다고 경고했고, Sam Altman도 모델이 컴퓨터 보안에서 "실제적 도전"을 만들기 시작했다고 언급했습니다.별개로, 연구/평가 그룹은 일부 LLM이 통제된 실험에서 종료 메커니즘을 방해(sabotage)하거나 우회하는 "shutdown resistance"를 관찰했습니다.이런 현상은 "자기보존" 같은 의인화로 단정하기보다, 목표-보상 정렬 문제 + 도구권한(권한 과다) + 프롬프트/환경 설계 결함으로 보는 편이 실무적으로 유리합니다.대응은 한 방(킬스위치)..