본문 바로가기

ollama3

아티클 썸네일 Claude Code + VS Code + 로컬 LLM 완벽 세팅 가이드 이 글에서 다루는 내용20년차 개발자 Nick의 영상 "Claude Code + VS Code + 로컬 LLM: 완벽한 개발 환경"을 따라가며, VS Code 안에서 Claude Code를 사이드바 패널로 쓰고, 필요할 때는 LM Studio나 Ollama에 올려 둔 로컬 모델로 추론 백엔드를 전환하는 방법을 정리합니다. 터미널 단독 사용에서 한 걸음 더 나아가 에디터와 AI 코딩 도구를 한 화면에 엮는 구성입니다. 유료 구독이 끊겨 있거나 인터넷이 닿지 않는 상황에서도 작업을 이어갈 수 있는 백업 경로를 확보한다는 의미가 큽니다.1. Claude Code for VS Code 확장 설치1-1. 공식 확장 설치Anthropic이 공식 제공하는 VS Code 확장이 있으니 별도 래퍼를 찾을 필요는 없습니다.. 2026. 4. 25.
아티클 썸네일 OpenClaw에 Ollama 로컬 LLM 연동하기 이 글에서 다루는 내용OpenClaw는 모델 추론 백엔드를 고를 수 있도록 설계돼 있습니다. 기본 설정은 클라우드 LLM API지만, Ollama를 붙이면 같은 머신 안에서 모든 추론을 마치고 대화 기록까지 외부로 나가지 않게 만들 수 있습니다. 이 글은 OpenClaw를 Ollama 기반으로 돌리기 위해 반드시 거쳐야 하는 네 단계 — 모델 선택, 엔드포인트 설정, 도구 호출 검증, 성능 튜닝 — 을 순서대로 정리합니다. 개인정보가 걸린 메시지나 사내망 데이터까지 로컬에서 처리하고 싶은 경우 가장 쓸모 있는 구성입니다.1. 사전 준비 상태 확인1-1. 필요 구성 요소본 글은 아래 환경이 이미 갖춰져 있다는 전제에서 출발합니다. 빠진 항목이 있다면 연결된 이전 글을 먼저 확인하고 돌아옵니다.항목조건참고 .. 2026. 4. 24.
아티클 썸네일 WSL2에 Ollama와 CUDA 설치해서 로컬 LLM GPU 가속 돌리기 이 글에서 다루는 내용윈도우 PC의 NVIDIA GPU를 그대로 쓰면서, WSL2 안의 Ubuntu에서 Ollama를 GPU 가속으로 실행하는 전 과정을 정리합니다. 윈도우 드라이버만 최신으로 맞추면 WSL 내부에 별도 GPU 드라이버를 깔지 않아도 CUDA가 그대로 노출되기 때문에, 핵심은 드라이버 확인 → CUDA Toolkit 설치 → Ollama 설치 → GPU 인식 검증의 네 단계로 정리됩니다. 이 글 한 편이면 노트북에 꽂혀 있는 RTX 카드로 Llama, Qwen, Gemma 같은 모델을 빠르게 돌릴 수 있는 상태가 됩니다.1. 사전 요구사항 점검1-1. 환경 체크리스트설치를 시작하기 전에 아래 항목을 먼저 확인합니다. 한 가지라도 빠지면 GPU가 인식되지 않거나 Ollama가 CPU 모드로.. 2026. 4. 23.