자연어 처리3 [CursorAI] deepseek-r1, v3 모델 사용 지원 DeepSeek의 행보에 세상은 충격을 받고 있습니다. 그리고 빠르게 DeepSeek를 지원하는 곳이 늘어나고 있습니다. CursorAI도 마찬가지입니다. 최근 공식적으로 DeepSeek r1, v3 모델을 지원하기 시작했습니다. 정식 지원 버전은 0.45인걸로 보이는데, 저는 0.44 인데도 지원모델이 노출됩니다.DeepSeek의 V3와 R1 모델은 각기 다른 목적과 최적화 방식을 지닌 AI 언어 모델입니다.DeepSeek V3: • 아키텍처: 혼합 전문가(Mixture-of-Experts, MoE) 구조를 채택하여 확장성과 효율성을 높였습니다. • 주요 특징: 대규모 언어 모델로서 다양한 자연어 처리 작업에 최적화되어 있습니다. • 적합한 사용 사례: 다국어 번역, 콘텐츠 생성 등 일반적인 언어 이해.. 2025. 2. 4. [deepseek #준비] deepseek 로컬설치 모델 선택 #2 기본 설치 모델 선정:시스템 : Windows11 Pro, CPU: i7 13th Gen. 2.10Ghz, 128GB RAM, RTX 4070 ti (22GB VRAM)실행 윈도우 UI 앱 : LM Studio설치 모델 : unsloth/DeepSeek-R1-Distill-Llama-8B-GGUFDeepSeek-R1-Distill-Llama-8B-GGUF 모델을 로컬에서 실행하기 위해서는, 시스템 사양과 요구 사항에 맞는 적절한 파일을 선택하는 것이 중요합니다. 해당 모델의 Hugging Face 페이지에서는 다양한 양자화 수준의 GGUF 파일을 제공합니다.권장 파일 선택:귀하의 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 파일을 선.. 2025. 2. 1. [deepseek #준비] deepseek 로컬 머신에 설치를 위한 모델 선정 deepseek 를 설치하려고 해도 모델과 사양이 다양해서 설치부터 어려움이 많습니다.현재 보유 중인 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 모델 선택을 권장하고 있습니다.모델 크기:7B 모델: 이러한 모델은 상대적으로 가벼워, 현재 시스템에서 원활하게 실행될 수 있습니다. 예를 들어, LLaMA 7B 모델은 약 13GB의 GPU 메모리를 필요로 하며, 이는 RTX 4070 Ti의 12GB VRAM으로도 충분히 처리 가능합니다.14B 모델: 이 모델들은 더 많은 자원을 요구하며, 특히 VRAM이 12GB인 경우 실행에 어려움이 있을 수 있습니다. 일부 최적화 기법을 적용하면 실행이 가능할 수 있으나, 성능 저하나 기타 제약이 발.. 2025. 1. 31. 이전 1 다음 반응형