오픈소스3 [동향] 일론 머스크의 xAI Grok 3 발표: 성능, 기능 및 미래 전략 종합 요약 아래는 어제(2월 17일/18일 현지시간) 일론 머스크가 이끄는 xAI가 발표한 Grok 3의 주요 내용 정리입니다.1. 발표 배경 및 개요 • 발표 채널: xAI는 X(구 트위터)를 통해 라이브 스트리밍으로 Grok 3를 공개했습니다. • 주요 주장: Grok 3는 “지구상에서 가장 똑똑한 AI”로 소개되며, 기존 경쟁 모델들을 능가하는 성능을 자랑한다고 발표되었습니다. 2. 성능 및 기술적 우위 • 벤치마크 결과:• 수학, 과학, 코딩 등 다양한 영역에서 Google Gemini, DeepSeek V3, Anthropic Claude, OpenAI GPT-4o 등 경쟁 모델을 앞선다고 주장합니다.• 초기 버전(코드명 ‘초콜릿’)은 벤치마크에서 1400점이라는 기록적인 성과를 기록했으며, 점수는 계속 .. 2025. 2. 19. [deepseek #준비] deepseek 로컬설치 모델 선택 #2 기본 설치 모델 선정:시스템 : Windows11 Pro, CPU: i7 13th Gen. 2.10Ghz, 128GB RAM, RTX 4070 ti (22GB VRAM)실행 윈도우 UI 앱 : LM Studio설치 모델 : unsloth/DeepSeek-R1-Distill-Llama-8B-GGUFDeepSeek-R1-Distill-Llama-8B-GGUF 모델을 로컬에서 실행하기 위해서는, 시스템 사양과 요구 사항에 맞는 적절한 파일을 선택하는 것이 중요합니다. 해당 모델의 Hugging Face 페이지에서는 다양한 양자화 수준의 GGUF 파일을 제공합니다.권장 파일 선택:귀하의 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 파일을 선.. 2025. 2. 1. [deepseek #준비] deepseek 로컬 머신에 설치를 위한 모델 선정 deepseek 를 설치하려고 해도 모델과 사양이 다양해서 설치부터 어려움이 많습니다.현재 보유 중인 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 모델 선택을 권장하고 있습니다.모델 크기:7B 모델: 이러한 모델은 상대적으로 가벼워, 현재 시스템에서 원활하게 실행될 수 있습니다. 예를 들어, LLaMA 7B 모델은 약 13GB의 GPU 메모리를 필요로 하며, 이는 RTX 4070 Ti의 12GB VRAM으로도 충분히 처리 가능합니다.14B 모델: 이 모델들은 더 많은 자원을 요구하며, 특히 VRAM이 12GB인 경우 실행에 어려움이 있을 수 있습니다. 일부 최적화 기법을 적용하면 실행이 가능할 수 있으나, 성능 저하나 기타 제약이 발.. 2025. 1. 31. 이전 1 다음 반응형