TL;DROllama는 로컬에서 LLM을 실행하고 REST API로 호출할 수 있게 해주는 런타임/서버다. (기본 예시는 http://localhost:11434)핵심 엔드포인트는 /api/generate, /api/chat, /api/embed이며, 임베딩(/api/embed)은 RAG 파이프라인의 출발점이다.Modelfile로 FROM, PARAMETER, SYSTEM, TEMPLATE 등을 선언해 "업무 목적"에 맞춘 커스텀 모델을 패키징할 수 있다.OpenAI 호환 API는 공식 문서/블로그에 안내돼 있으나, 시점에 따라 지원 범위가 변해왔으므로(예: 과거 이슈) 실제 버전 기준으로 확인이 안전하다.본문1. Ollama 개념: "로컬 실행 + API 서빙"Ollama는 로컬에서 모델을 실행하고, ..