- Ollama: LLM을 얹어서 사용가능한 서비스 출력이 빠름(쾌적한 환경 제공) os, linux에서 사용가능 (window 현재(24.04.17) 사용 불가) 다음 페이지에서 해당 파일 다운 받아서 실행시키면 됨: https://ollama.com/download Download Ollama on macOS Download Ollama on macOS ollama.com - Ollama에 얹은 모델 확인: ollama list 참고 문서: https://wikidocs.net/209158