노현진's Blog

VSCode + Continue + Ollama 사용 방법

VSCode + Continue + Ollama 사용 방법을 정리한 페이지입니다.

Posted
By HyunJinNo

Tags

AI, Continue, LLM, Ollama, VSCode

1. 개요

VSCode + Continue + Ollama 사용 방법을 정리한 페이지입니다.

2. Ollama 설치하기

다음 링크에 접속하여 Ollama를 설치합니다.

Download Ollama

Info.

Ollama에 대한 내용은 다음 링크에 작성하였으니 참고하시길 바랍니다.

Ollama 사용 방법

3. Continue 사용하기

3.1. Continue 설치하기

다음과 같이 VSCode에서 Extensions 탭을 클릭하여 Continue를 검색하여 설치합니다.

3.2. LLM 다운로드하기

터미널을 열고 다음 명령어를 입력하여 LLM을 다운로드합니다. 여기서는 Autocomplete 기능에서 사용할qwen2.5-coder:1.5bChat 기능Edit 기능에서 사용할 codellama:13b 두 가지 모델을 다운로드합니다.

bash
1ollama pull qwen2.5-coder:1.5b
2ollama pull codellama:13b

Tips

기능별로 추천하는 모델은 다음 링크에서 확인하실 수 있습니다.

Models | Continue Docs

3.3. config.yaml 설정하기

config.yaml 파일을 열고 models 항목에 qwen2.5-coder:1.5bcodellama:13b를 추가합니다. qwen2.5-coder:1.5b 모델의 roles에 autocomplete를 지정하고, codellama:13b 모델의 roles에 chatedit를 지정합니다.

yaml
1name: Local Config
2version: 1.0.0
3schema: v1
4models:
5  - name: qwen2.5-coder:1.5b
6    provider: ollama
7    model: qwen2.5-coder:1.5b
8    roles:
9      - autocomplete
10  - name: codellama:13b
11    provider: ollama
12    model: codellama:13b
13    roles:
14      - chat
15      - edit

config.yaml 설정 이후 다음과 같이 표시됩니다.

3.4. Autocomplete 기능 활성화하기

VSCode의 우측 하단에서 Continue 버튼을 클릭한 후, Enable autocomplete 옵션을 선택합니다.

4. 사용 예시

4.1. Agent / Chat

4.2. Autocomplete

4.3. Edit

5. 참고 자료

This post is licensed under CC BY 4.0 by the author.
공유하기:

© HyunJinNo. Some rights reserved.