본문 바로가기
Programming/AI&ML

[AI Agent #시작] 멀티 AI 에이전트 제작 준비 - 플랫폼 선택

by BitSense 2025. 1. 14.

시스템 환경

OS: windows 11
CPU: i7 13th 2.10MHz
RAM: 128GB
GPU: 4070 TI

 

윈도우 11 환경에서 GPU를 활용해 LLM 서비스를 개발하려면 DockerWSL2 둘 다 유용할 수 있지만, 목적과 요구사항에 따라 선택이 달라질 수 있습니다. 아래는 각 옵션의 장단점과 추천 사항입니다.

 

1. Docker에서 GPU 사용

장점:

• NVIDIA의 Docker용 GPU 지원 툴킷인 NVIDIA Container Toolkit을 통해 GPU 가속을 쉽게 활용할 수 있음.
• Docker Compose를 사용하여 여러 서비스(n8n, Ollama 등)를 하나의 환경에서 관리 가능.
• 환경 격리가 확실해 개발 및 배포 시 설정이 일관됨.
• n8n, Ollama 모두 Docker 이미지가 공식적으로 제공되므로 설정이 간편.

 

단점:

• Docker 설치 및 NVIDIA Container Toolkit 설정이 초기엔 복잡할 수 있음.
• 모든 작업이 컨테이너화되어 있어 네트워킹과 데이터 볼륨 설정에 추가적인 관리가 필요.

 

사용 방법:

1. Docker Desktop 설치 (윈도우 환경).
2. NVIDIA Container Toolkit 설치 및 GPU 설정 활성화.
3. n8n, Ollama 및 필요한 LLM 모델을 Docker Compose 파일로 구성.

 

2. WSL2에서 GPU 사용

장점:

• 윈도우와 리눅스 환경 간 파일 및 네트워크 공유가 간편함.
• GPU 가속이 WSL2에서 기본적으로 지원(NVIDIA 드라이버가 최신일 경우).
• 개발 도구(예: VS Code, CLI)와 리눅스 네이티브 환경을 쉽게 결합 가능.

 

단점:

• WSL2는 GPU 가속 성능이 Docker보다 약간 떨어질 수 있음.
• n8n이나 Ollama와 같은 서비스의 실행은 별도의 설정이 필요함(일반적으로 Docker를 통해 실행).
• 리소스 관리(메모리, CPU)가 Docker보다는 유연하지 않음.

 

사용 방법:

1. WSL2 활성화 및 Ubuntu 등 리눅스 배포판 설치.
2. NVIDIA 드라이버 업데이트 및 WSL용 CUDA 설치.
3. n8n, Ollama를 WSL2 환경에서 실행하거나 Docker를 WSL2와 함께 사용할 수도 있음.

 

추천

Docker를 사용하는 것을 권장합니다. 이유는 다음과 같습니다:

• n8n, Ollama 모두 Docker로 배포 및 실행이 편리함.
• GPU 지원을 통해 성능을 최대한 활용 가능.
• WSL2 환경에서도 Docker와 함께 사용하면 최적의 성능을 얻을 수 있음.
• 향후 배포를 고려할 때 Docker 기반 환경이 더 유연하고 확장 가능.

 

추가 고려사항

1. NVIDIA 드라이버 확인

• GPU를 활용하려면 최신 NVIDIA 드라이버가 필요합니다.
• CUDA 및 cuDNN 버전이 Docker 및 WSL2와 호환되는지 확인하세요.

 

2. Docker Compose 구성

• n8n, Ollama, LLM 모델을 Docker Compose로 통합하여 관리하면 작업이 훨씬 간편해집니다.

 

3. 테스트 후 결정

• Docker와 WSL2 모두 간단히 테스트한 후 본인의 워크플로와 맞는 환경을 선택하는 것도 좋습니다.

 

저는 일단 초기 장벽인 설치 부분 때문에 Docker를 통해 일단 구성해서 테스트를 해볼 생각입니다.

반응형