본문 바로가기

Programming87

Hugging Face 모델 분야별 분석 및 추천 Hugging Face 허브에는 다양한 자연어 처리(NLP) 모델들이 공개되어 있으며, 용도에 따라 특화된 모델들이 존재합니다. 여기서는 사용 목적별로 대표적인 모델들을 분류하고, 각 분야에서 최고 성능을 보이는 모델들의 특징을 비교한 뒤, RTX 4070 Ti 환경에서 실행 가능성과 파인튜닝 용이성을 고려하여 추천 모델을 선정하였습니다. 마지막으로 분야별 추천 모델과 해당 모델의 강점이 발휘되는 사용 사례를 정리합니다. 1. 일반 자연어 처리 (언어 이해 및 생성) 언어 이해를 위한 대표 모델로는 BERT 계열(예: BERT, RoBERTa, DeBERTa)과 같은 Transformer 인코더 모델들이 있습니다. 이들은 문장의 의미 파악, 분류, 개체 인식 등의 이해 중심 작업에 뛰어납니다. 특히 마이.. 2025. 2. 18.
[소식] Github Copilot 최근 동향 - 무료화? GitHub Copilot은 AI 기반 코드 작성 도우미로, 지난 몇 달 동안 여러 가지 중요한 업데이트와 무료 플랜 관련 소식들이 발표되었습니다. 아래에서 최근 업데이트와 무료 버전 관련 주요 동향을 정리해 보겠습니다.무료 플랜 출시 및 기본 사항무료 플랜 발표 (2024년 12월 18일)GitHub는 Visual Studio Code와 GitHub.com에서 Copilot을 무료로 사용할 수 있는 ‘GitHub Copilot Free’를 공식 발표했습니다.이용 조건: GitHub 계정만 있으면 별도의 평가판, 구독, 신용카드 정보 없이 즉시 사용할 수 있습니다.제공 한도: 월 최대 2,000회의 코드 자동 완성과 50회의 채팅 메시지가 제공되어, 일상적인 코딩 작업에는 충분한 양을 지원합니다.대상: .. 2025. 2. 10.
[참고] LLM 로컬 설치, 관리 및 Chat UI 지원 앱 정리 로컬 PC나 맥등에 LLM 모델을 쉽게 설치하고 ChatGPT 같은 Chat UI를 제공하는 설치형 프로그램을 정리해보겠습니다.1. LLM 모델 관리 및 Chat UI 제공 앱이 카테고리의 프로그램은 쉽게 LLM 모델을 다운로드하고 실행할 수 있도록 도와주며, 대부분 로컬에서 ChatGPT 스타일의 UI를 제공합니다.프로그램명주요 기능지원 모델실행 방식LM StudioGUI 기반 모델 다운로드 및 실행, 로컬 챗봇 UI 제공LLaMA, Mistral, Gemma 등Windows, macOS, LinuxLLaMA.cpp GUI (Llamafile)초경량 LLaMA 모델 실행, GUI 지원LLaMA, MistralWindows, macOS, LinuxlstyWeb UI 제공, 서버 모드 지원LLaMA, Mi.. 2025. 2. 6.
[CursorAI] deepseek-r1, v3 모델 사용 지원 DeepSeek의 행보에 세상은 충격을 받고 있습니다. 그리고 빠르게 DeepSeek를 지원하는 곳이 늘어나고 있습니다. CursorAI도 마찬가지입니다. 최근 공식적으로 DeepSeek r1, v3 모델을 지원하기 시작했습니다. 정식 지원 버전은 0.45인걸로 보이는데, 저는 0.44 인데도 지원모델이 노출됩니다.DeepSeek의 V3와 R1 모델은 각기 다른 목적과 최적화 방식을 지닌 AI 언어 모델입니다.DeepSeek V3: • 아키텍처: 혼합 전문가(Mixture-of-Experts, MoE) 구조를 채택하여 확장성과 효율성을 높였습니다. • 주요 특징: 대규모 언어 모델로서 다양한 자연어 처리 작업에 최적화되어 있습니다. • 적합한 사용 사례: 다국어 번역, 콘텐츠 생성 등 일반적인 언어 이해.. 2025. 2. 4.
[deepseek #준비] deepseek-r1, qwen 모델 종류 분석 및 추천가이드 deepseek에서 r1이 나오고 llama, qwen이 있고, 1.4B, 7B... 70B 까지 먼가 너무 많습니다. 이걸 모두 한번 정리해 봅니다.모델 구조 개요DeepSeek-R1은 크게 세 가지 아키텍처 기반으로 구성되어 있습니다:DeepSeek-LLM (기본 아키텍처)Qwen 기반 버전LLaMA 기반 버전모델 크기별 특징1.4B 모델가장 작은 크기의 모델기본적인 대화와 간단한 태스크 수행리소스 요구사항이 매우 낮음추론 속도가 매우 빠름7B 모델일반적인 대화와 기본적인 코딩 태스크 가능적절한 성능과 리소스 효율성의 균형대부분의 일상적인 용도에 적합14B 모델복잡한 추론과 전문적인 태스크 수행 가능코드 생성 능력이 현저히 향상다양한 도메인의 지식 보유32B 모델고급 추론과 복잡한 문제 해결 능력전문.. 2025. 2. 3.
[deepseek #설치] lm studio 에 설치하기 Windows 11 Pro 환경에서 LM Studio를 활용하여 DeepSeek-R1 모델을 설치하고 실행하는 방법을 안내해 드리겠습니다. 또한, Qwen과 Llama 모델 중 어떤 것을 선택할지에 대한 가이드와 Ollama와 LM Studio의 차이점 및 각 장단점을 비교해 드리겠습니다.시스템 사양운영 체제: Windows 11 ProCPU: Intel i7 13세대 2.10GHzRAM: 128GBGPU: NVIDIA RTX 4070 Ti (22GB VRAM)목차LM Studio 설치 링크DeepSeek-R1 모델 선택 - Qwen? Llama?설치 방법테스트 방법웹 연결 방법Ollama와 LM Studio 차이점 및 각 장단점LM Studio 설치 링크LM Studio는 로컬 환경에서 대규모 언어 모.. 2025. 2. 2.
[deepseek #준비] deepseek 로컬설치 모델 선택 #2 기본 설치 모델 선정:시스템 : Windows11 Pro, CPU: i7 13th Gen. 2.10Ghz, 128GB RAM, RTX 4070 ti (22GB VRAM)실행 윈도우 UI 앱 : LM Studio설치 모델 : unsloth/DeepSeek-R1-Distill-Llama-8B-GGUFDeepSeek-R1-Distill-Llama-8B-GGUF 모델을 로컬에서 실행하기 위해서는, 시스템 사양과 요구 사항에 맞는 적절한 파일을 선택하는 것이 중요합니다. 해당 모델의 Hugging Face 페이지에서는 다양한 양자화 수준의 GGUF 파일을 제공합니다.권장 파일 선택:귀하의 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 파일을 선.. 2025. 2. 1.
[deepseek #준비] deepseek 로컬 머신에 설치를 위한 모델 선정 deepseek 를 설치하려고 해도 모델과 사양이 다양해서 설치부터 어려움이 많습니다.현재 보유 중인 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 모델 선택을 권장하고 있습니다.모델 크기:7B 모델: 이러한 모델은 상대적으로 가벼워, 현재 시스템에서 원활하게 실행될 수 있습니다. 예를 들어, LLaMA 7B 모델은 약 13GB의 GPU 메모리를 필요로 하며, 이는 RTX 4070 Ti의 12GB VRAM으로도 충분히 처리 가능합니다.14B 모델: 이 모델들은 더 많은 자원을 요구하며, 특히 VRAM이 12GB인 경우 실행에 어려움이 있을 수 있습니다. 일부 최적화 기법을 적용하면 실행이 가능할 수 있으나, 성능 저하나 기타 제약이 발.. 2025. 1. 31.
[deepseek #준비] deepseek 로컬에서 실행하는 방법? DeepSeek이 오픈소스로 공개되면서, 이제 로컬 환경에서 해당 모델을 실행할 수 있게 되었습니다. 이를 통해 인터넷 연결 없이도 AI 기능을 활용할 수 있으며, 데이터 보안과 프라이버시를 강화할 수 있습니다. 또한, 로컬에서 실행함으로써 지연 시간을 줄이고, 특정 요구 사항에 맞게 모델을 커스터마이징할 수 있습니다.DeepSeek-R1 모델은 6710억 개의 매개변수를 가지고 있었지만, 최적화를 통해 131GB로 줄어들어 로컬 실행이 가능해졌습니다. (svrforum.com) 이를 통해 고성능의 AI 언어 모델을 개인 컴퓨터나 서버에서 직접 활용할 수 있습니다.로컬에서 DeepSeek을 실행하기 위해서는 Ollama와 같은 프로그램을 사용할 수 있습니다. Ollama는 MacOS, Windows, L.. 2025. 1. 31.
ChatGPT - DeepSeek 성능과 특징 비교 최근 인공지능 분야에서 OpenAI의 ChatGPT와 중국의 DeepSeek이 주목받고 있습니다. 두 모델의 성능과 특징을 비교하여 장단점을 정리해 드리겠습니다.성능 비교:기술 작업 능력: DeepSeek V3 모델은 코딩, 추론, 수학 능력이 필요한 기술 작업에서 ChatGPT-4o 모델보다 더 높은 성능을 보입니다. 예를 들어, HumanEval 벤치마크에서 DeepSeek V3는 82.6점을, GPT-4o는 80.5점을 기록하였으며, Codeforces 벤치마크에서도 DeepSeek V3가 51.6점으로 GPT-4o의 23.6점을 상회하였습니다. (textcortex.com)응답 품질: 일반적인 질문에 대한 응답 품질 면에서 ChatGPT는 포괄적이고 일관된 답변을 제공하는 반면, DeepSeek은.. 2025. 1. 31.
DeepSeek LLM 구동을 위한 맥미니,맥북프로,맥스튜디오 비교 DeepSeek와 같은 대형 언어 모델(LLM)을 실행하기 위해서는 고성능의 하드웨어가 필요합니다. Apple의 Mac Mini M4 Pro, MacBook Pro M4 Max, Mac Studio M2 Max 모델의 사양을 비교하여 각 모델이 DeepSeek를 실행하는 데 얼마나 적합한지 분석해보겠습니다.1. Mac Mini M4 ProCPU: 12코어 (성능 코어 8개, 효율 코어 4개)GPU: 16~20코어메모리: 최대 64GB 통합 메모리저장 장치: 512GB ~ 8TB SSD2. MacBook Pro M4 MaxCPU: 최대 16코어GPU: 최대 40코어메모리: 최대 128GB 통합 메모리저장 장치: 512GB ~ 8TB SSD3. Mac Studio M2 MaxCPU: 12코어 (성능 코어 8.. 2025. 1. 30.
[크롬확장앱] 크롬 프로파일 정보 가져오기 다음은 TypeScript를 사용하여 크롬 확장 앱에서 프로파일 사용자 정보를 가져오는 방법을 보여주는 코드입니다. 필요한 파일과 코드를 정리했습니다. 1. manifest.json (권한 설정이 이미 완료되었다고 가정)manifest.json 파일은 따로 제공하지 않습니다. 확장 앱의 권한 설정에서 "identity"가 포함되어 있어야 합니다. 2. background.ts// background.tsfunction getUserProfile(): void { chrome.identity.getProfileUserInfo((userInfo) => { console.log('User ID:', userInfo.id); console.log('User Email:', userInfo.email.. 2025. 1. 27.
[python] GUI 앱 오류시 로그 남기기 - logger.py import osimport tracebackfrom datetime import datetimeclass Logger: """ 로그를 기록하는 유틸리티 클래스 사용방법: 1. 일반 로그 기록 Logger.log("로그 메시지") 예) Logger.log("사용자가 로그인했습니다") 2. 예외 발생 시 로그 기록 try: # 코드... except Exception as e: Logger.log("에러 메시지", error=e) 예) Logger.log("데이터 처리 중 오류 발생", error=e) 로그 파일 위치: ./logs/application_YYY.. 2025. 1. 26.
7B LLM 파인튜닝 머신 고민 - 맥미니 + eGPU 사용? 맥 미니 M4 Pro에 외장 GPU(eGPU)를 연결하여 7B LLM 파인튜닝을 시도하는 것이 이론적으로 가능하지만, 다음과 같은 제한사항과 고려해야 할 요소가 있습니다.1. eGPU 지원 여부Apple Silicon 기반의 맥(M1, M2, M3, M4 시리즈)은 eGPU를 공식적으로 지원하지 않습니다.이는 Apple이 자체 GPU 성능에 의존하며, Thunderbolt 연결을 통한 외장 GPU 사용을 허용하지 않기 때문입니다.Intel 기반 맥은 eGPU를 지원했지만, Apple Silicon 맥은 지원을 중단한 상태입니다.Apple Silicon 기반 시스템에서는 eGPU 연결을 위한 드라이버가 없으므로 NVIDIA GPU를 연결하여 CUDA를 활용한 PyTorch/TensorFlow 작업이 불가능.. 2025. 1. 25.
7B LLM 파인튜닝 머신 고민 - 맥미니 m4 pro 검토 맥 미니 M4 Pro 최고 사양으로 7B LLM 파인튜닝이 가능한지 검토해 보겠습니다.M4 Pro 최고 사양 분석최신 Apple Silicon M4 Pro 칩의 주요 사양:CPU: 10~12코어 (고성능 코어 + 고효율 코어).GPU: 20~32코어 수준으로 예상.RAM: 최대 32GB 또는 64GB 통합 메모리(UMA).SSD: 초고속 NVMe SSD (최대 8TB).7B LLM 파인튜닝에 필요한 요구사항GPU 메모리:일반적으로 **16GB 이상의 GPU 전용 메모리(VRAM)**이 요구되며, 24GB 이상이면 효율적.RAM:GPU 메모리가 부족할 경우 CPU 메모리를 활용하게 되므로 64GB 이상이 권장됩니다.저장공간:모델과 데이터 저장용으로 최소 1TB SSD가 필요.ML 라이브러리 지원:PyTor.. 2025. 1. 25.
7B LLM 파인튜닝 머신 고민 - 맥북프로 m4 max 검토 맥북 프로 M4 Max 최고 사양으로 7B LLM 파인튜닝이 가능한지 검토해보면 다음과 같습니다:M4 Max 사양 분석최신 Apple Silicon M4 Max 칩은 다음과 같은 특징을 가질 가능성이 높습니다:CPU: 12~16코어 수준의 고효율/고성능 코어 구성.GPU: 40~64코어로 이전 세대 대비 성능이 크게 강화.RAM: 통합 메모리(최대 128GB 이상, LPDDR5).SSD: 초고속 NVMe SSD (최대 8TB).파인튜닝에 필요한 요구사항GPU 메모리: 7B 모델의 파인튜닝은 GPU의 VRAM이 중요합니다. 일반적으로 16~24GB 이상의 GPU 메모리가 요구됩니다.RAM: CPU 메모리를 사용하는 경우 64GB 이상이 필요하며, 128GB가 권장됩니다.저장공간: 모델 및 데이터 파일 저장.. 2025. 1. 25.
[5090 #CPU] 각 단계별 사용 인텔-AMD CPU 직접 비교 아래는 인텔과 AMD 기반 사양의 각 레벨(최고급, 고급, 최소사양)을 평가항목별로 비교한 내용입니다. 평가항목과 설명, 그리고 장단점 및 평점도 포함되어 있습니다.평가 항목과 설명성능: CPU와 GPU 성능을 기준으로 대규모 LLM 작업의 효율성을 평가.확장성: 메모리 용량 및 저장장치의 확장 가능성.안정성: 장시간 연속 작업 시의 안정성과 열 관리 능력.가격 대비 가치: 성능과 구성 대비 비용 효율성.업그레이드 가능성: 향후 하드웨어 교체나 업그레이드 용이성.1. 최고급 사양 비교평가 항목 AMD (Threadripper 7995WX) 인텔 (Xeon W-3495X) 비교성능다수의 코어(96코어, 192스레드)로 병렬 작업 최적화코어는 적지만 클럭당 성능이 우수 (56코어, 112스레드)AMD가 병렬.. 2025. 1. 25.
[5090 #인텔] RTX 5090 시리즈로 7B LLM 파인튜닝 인텔 머신 구성하기 먼가 아쉬운 마음에 다시 한번 정리합니다. 아래는 인텔 기반의 최고급, 고급, 최소사양 장비 구성을 제안합니다. 각 구성은 예산과 7B LLM 파인튜닝을 고려하여 설계되었습니다.1. 최고급 사양목적: 가장 고성능의 인텔 시스템으로 대규모 LLM 모델 학습과 파인튜닝에 최적화.예산: 약 1200~1500만 원.구성 요소제품명/스펙이유가격(대략)GPUNVIDIA RTX 5090 Ti (32GB GDDR7)대규모 데이터 처리 및 VRAM 활용 가능약 500만 원CPUIntel Xeon W-3495X (56코어, 112스레드)멀티스레드와 병렬 처리에서 최상의 성능 제공약 700만 원RAM512GB DDR5 ECC Registered대규모 데이터를 안정적으로 처리약 400만 원저장장치Samsung 990 Pro .. 2025. 1. 25.
[5090 #CPU] RTX 5090 시리즈 - 7B LLM 파인튜닝 머신 구성에 인텔이 없는 이유? 인텔 CPU를 포함하지 않은 이유는 AMD 계열이 LLM 파인튜닝 작업에 더 적합하다고 판단했기 때문입니다. 하지만, 인텔 CPU 역시 훌륭한 옵션입니다.AMD 계열을 우선 선택한 이유코어 수와 멀티스레드 성능:AMD의 Threadripper 시리즈는 코어와 스레드 수가 많아 대규모 병렬 연산이 필요한 LLM 작업에 특히 강력합니다.AMD의 3D V-Cache 기술(Ryzen 9 7950X3D)은 대규모 메모리 접근 속도가 빠르고, AI 작업에서 이점을 제공합니다.가격 대비 성능:AMD 프로세서는 동일 가격대에서 더 많은 코어와 스레드를 제공해 가성비가 우수합니다.ECC 메모리 지원이 더 강력해 대규모 데이터 작업에 안정적입니다.확장성과 메모리 대역폭:Threadripper와 같은 고급 모델은 메모리 채.. 2025. 1. 25.
[5090 #PC구성] RTX 5090 시리즈로 7B LLM 파인튜닝 머신 구성하기 아래는 RTX 5090 시리즈 전체를 활용한 최고급, 고급, 최소사양 구성입니다. 각각의 구성은 예산, 성능, 작업 목표를 기준으로 설계되었으며, 7B LLM 파인튜닝 작업에 적합하게 설계되었습니다.1. 최고급 사양목적: 7B 이상의 대규모 LLM 모델을 최고 성능으로 처리. 연구, AI 모델 개발, 데이터 과학을 위한 최상의 옵션.예산: 약 1200~1500만 원.구성 요소제품명/스펙이유가격(대략)GPUNVIDIA RTX 5090 Ti (32GB GDDR7)최고 성능과 대규모 VRAM 제공약 500만 원CPUAMD Threadripper PRO 7995WX (96코어)고성능 병렬 연산과 멀티스레드 작업 지원약 600만 원RAM512GB DDR5 ECC Registered대규모 데이터 로딩과 안정적 연산.. 2025. 1. 25.
[블록체인 #팁] docker 에서 solana-cli 설치 Docker 환경에서 Solana CLI를 설치하고 사용하는 것은 가능합니다. 이를 통해 시스템에 직접 설치하지 않고도 Solana CLI를 활용할 수 있습니다. 이미 Docker 이미지를 제공하는 리포지토리가 존재하며, 이를 활용하여 손쉽게 설정할 수 있습니다. 설치 및 실행 방법:Docker 설치:시스템에 Docker가 설치되어 있지 않다면, Docker 공식 사이트를 참고하여 설치하세요.Solana CLI Docker 이미지 실행:다음 명령어를 사용하여 Docker Hub에 공개된 Solana CLI 이미지를 실행할 수 있습니다:docker run -it --rm andreaskasper/solana:cli이 명령어는 일회성으로 컨테이너를 실행하며, 종료 시 자동으로 삭제됩니다.지갑 생성 및 관리:.. 2025. 1. 20.
반응형