이전 글의 docker 스크립트를 가지고 n8n - ollama 연동이 어려워서, github 에서 찾은 스크립트로 정리를 다시 해봅니다.
n8n의 Self-hosted AI Starter Kit은 로컬 환경에서 AI 워크플로우를 구축하기 위한 오픈 소스 도커 컴포즈 템플릿입니다. 이 키트는 n8n 플랫폼과 함께 Ollama, Qdrant, PostgreSQL을 포함하고 있어, 손쉽게 AI 프로젝트를 시작할 수 있습니다.
구성 요소:
• n8n: 400개 이상의 통합과 고급 AI 컴포넌트를 제공하는 로우코드 플랫폼
• Ollama: 최신 로컬 LLM을 설치하고 실행할 수 있는 크로스 플랫폼 LLM 플랫폼
• Qdrant: 고성능 벡터 스토어로, 포괄적인 API를 제공
• PostgreSQL: 대용량 데이터를 안전하게 처리하는 데이터베이스
설치 방법:
1. 터미널에서 다음 명령어를 실행하여 저장소를 클론합니다:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
2. 시스템에 맞는 도커 컴포즈 프로필을 선택하여 실행합니다:
• Nvidia GPU 사용자:
docker compose --profile gpu-nvidia up
• Mac/Apple Silicon 사용자:
docker compose up
• 그 외 사용자:
docker compose --profile cpu up
시작하기:
• 브라우저에서 http://localhost:5678/에 접속하여 n8n을 설정합니다.
• 제공된 워크플로우를 열고 테스트하여 기능을 확인할 수 있습니다.
참고 자료:
• n8n 공식 문서
• GitHub 저장소
이 키트를 활용하여 로컬 환경에서 AI 워크플로우를 손쉽게 구축하고, 데이터 프라이버시를 유지하면서 다양한 AI 프로젝트를 진행할 수 있습니다.
반응형