VSCode + Continue + Ollama 사용 방법
VSCode + Continue + Ollama 사용 방법을 정리한 페이지입니다.
Posted By HyunJinNo
VSCode + Continue + Ollama 사용 방법
Tags
AI, Continue, LLM, Ollama, VSCode
1. 개요
VSCode + Continue + Ollama 사용 방법을 정리한 페이지입니다.
2. Ollama 설치하기
다음 링크에 접속하여 Ollama를 설치합니다.
Info.
Ollama에 대한 내용은 다음 링크에 작성하였으니 참고하시길 바랍니다.
3. Continue 사용하기
3.1. Continue 설치하기
다음과 같이 VSCode에서 Extensions 탭을 클릭하여 Continue를 검색하여 설치합니다.
3.2. LLM 다운로드하기
터미널을 열고 다음 명령어를 입력하여 LLM을 다운로드합니다.
여기서는 Autocomplete 기능에서 사용할qwen2.5-coder:1.5b와
Chat 기능과 Edit 기능에서 사용할 codellama:13b 두 가지 모델을 다운로드합니다.
bash
1ollama pull qwen2.5-coder:1.5b
2ollama pull codellama:13b
Tips
기능별로 추천하는 모델은 다음 링크에서 확인하실 수 있습니다.
3.3. config.yaml 설정하기
config.yaml 파일을 열고 models 항목에 qwen2.5-coder:1.5b와 codellama:13b를 추가합니다.
qwen2.5-coder:1.5b 모델의 roles에 autocomplete를 지정하고,
codellama:13b 모델의 roles에 chat와 edit를 지정합니다.
yaml
1name: Local Config
2version: 1.0.0
3schema: v1
4models:
5 - name: qwen2.5-coder:1.5b
6 provider: ollama
7 model: qwen2.5-coder:1.5b
8 roles:
9 - autocomplete
10 - name: codellama:13b
11 provider: ollama
12 model: codellama:13b
13 roles:
14 - chat
15 - editconfig.yaml 설정 이후 다음과 같이 표시됩니다.
3.4. Autocomplete 기능 활성화하기
VSCode의 우측 하단에서 Continue 버튼을 클릭한 후,
Enable autocomplete 옵션을 선택합니다.
4. 사용 예시
4.1. Agent / Chat
4.2. Autocomplete
4.3. Edit
5. 참고 자료
- ollama/ollama: Get up and running with Kimi-K2.5, GLM-5, MiniMax, DeepSeek, gpt-oss, Qwen, Gemma and other models.
- Ollama
- continuedev/continue: ⏩ Source-controlled AI checks, enforceable in CI. Powered by the open-source Continue CLI
- Continue • Quality control for your software factory. | Continue
- VSCode 플러그인으로 오픈소스 LLM 기반 Code Assistant, Continue (feat. Ollama) — Memorize