openclaw2 OpenClaw에 Ollama 로컬 LLM 연동하기 이 글에서 다루는 내용OpenClaw는 모델 추론 백엔드를 고를 수 있도록 설계돼 있습니다. 기본 설정은 클라우드 LLM API지만, Ollama를 붙이면 같은 머신 안에서 모든 추론을 마치고 대화 기록까지 외부로 나가지 않게 만들 수 있습니다. 이 글은 OpenClaw를 Ollama 기반으로 돌리기 위해 반드시 거쳐야 하는 네 단계 — 모델 선택, 엔드포인트 설정, 도구 호출 검증, 성능 튜닝 — 을 순서대로 정리합니다. 개인정보가 걸린 메시지나 사내망 데이터까지 로컬에서 처리하고 싶은 경우 가장 쓸모 있는 구성입니다.1. 사전 준비 상태 확인1-1. 필요 구성 요소본 글은 아래 환경이 이미 갖춰져 있다는 전제에서 출발합니다. 빠진 항목이 있다면 연결된 이전 글을 먼저 확인하고 돌아옵니다.항목조건참고 .. 2026. 4. 24. OpenClaw란 무엇인가? 내 기기에서 돌아가는 오픈소스 AI 비서 이 글에서 다루는 내용OpenClaw의 정체, 탄생 배경, 핵심 동작 방식, 그리고 기존 클라우드 AI 챗봇과 어떻게 다른지 한 번에 정리합니다. 2026년 초 기준 GitHub에서 가장 빠르게 성장한 오픈소스 AI 프로젝트 중 하나로 꼽히는 OpenClaw는 "내 기기에서 돌아가는 개인 AI 비서"를 표방합니다. 이 글은 설치 가이드가 아니라 개념과 구조를 먼저 이해하려는 분들을 위한 입문 글입니다.1. OpenClaw 한 문장 정의1-1. 핵심 개념OpenClaw는 사용자의 노트북, 홈랩, VPS 등 사용자가 직접 통제하는 환경에서 실행되는 오픈소스 개인용 AI 어시스턴트입니다. 핵심 아이디어는 두 가지입니다. 첫째, AI 모델과 메신저를 연결해 평소 쓰던 채팅 앱에서 AI와 대화합니다. 둘째, 단순.. 2026. 4. 23. 이전 1 다음