Ollama 완벽 가이드: 내 PC를 AI 서버로 만드는 법
ChatGPT 구독료가 아깝거나, 회사 기밀 유출이 걱정되시나요? 이제 로컬(Local)의 시대입니다.
서론: 왜 로컬 LLM인가?
OpenAI의 GPT-4는 훌륭하지만, 비싸고 느리며 내 데이터를 학습에 사용할 수 있다는 불안감이 있습니다. 반면 로컬 LLM은 1) 완전한 데이터 보안, 2) 비용 무료, 3) 오프라인 사용 가능이라는 강력한 장점이 있습니다.
Part 1. 설치 (Installation)
1. 다운로드
Ollama 공식 홈페이지(ollama.com)에서 OS에 맞는 설치 파일을 받습니다. 현재 macOS, Linux, Windows(프리뷰)를 모두 지원합니다.
2. 첫 실행
터미널(Terminal)을 열고 다음 명령어를 입력합니다.
ollama run llama3
이 한 줄이면 4GB 크기의 Llama 3 모델을 다운로드하고, 즉시 채팅 인터페이스가 실행됩니다. 마법 같습니다.
Part 2. 모델 활용하기
1. 다양한 모델 교체
Llama 3뿐만 아니라 Mistral, Gemma, Vicuna 등 수백 가지 오픈소스 모델을 지원합니다. ollama pull mistral 명령어로
모델을 쇼핑하듯 내려받으세요.
2. 멀티모달 (Vision)
llava 모델을 사용하면 이미지도 인식할 수 있습니다. "이 사진에 뭐가 있어?"라고 물어보면 척척 대답합니다.
Part 3. 개발자를 위한 API 연동
Ollama는 백그라운드에서 로컬 서버(localhost:11434)를 띄웁니다. Python에서 requests나 langchain
라이브러리를 통해 쉽게 제어할 수 있습니다.
import requests
response = requests.post('http://localhost:11434/api/generate', json={
"model": "llama3",
"prompt": "Why is the sky blue?"
})
print(response.json()['response'])
Part 4. 나만의 모델 만들기: Modelfile
도커의 Dockerfile처럼, Ollama에는 Modelfile이 있습니다. "너는 친절한 초등학교 선생님이야"라는 시스템 프롬프트를 미리 주입한 나만의 커스텀 모델을 만들 수 있습니다.
결론: AI의 민주화
Ollama는 거대 IT 기업의 전유물이었던 AI 기술을 개인의 손으로 가져왔습니다. 이제 누구나 자신만의 AI를 키우고 학습시킬 수 있는 시대입니다. 지금 당장 터미널을 여세요.
자주 묻는 질문 (FAQ)
Q1: 램(RAM)이 얼마나 필요한가요?
7B 모델(Llama 3 등)은 최소 8GB, 13B 모델은 16GB, 70B 모델은 64GB 이상의 RAM이 권장됩니다. VRAM(GPU)이 많을수록 속도가 훨씬 빨라집니다.