본문 바로가기

전체 글446

Hugging Face 모델 분야별 분석 및 추천 Hugging Face 허브에는 다양한 자연어 처리(NLP) 모델들이 공개되어 있으며, 용도에 따라 특화된 모델들이 존재합니다. 여기서는 사용 목적별로 대표적인 모델들을 분류하고, 각 분야에서 최고 성능을 보이는 모델들의 특징을 비교한 뒤, RTX 4070 Ti 환경에서 실행 가능성과 파인튜닝 용이성을 고려하여 추천 모델을 선정하였습니다. 마지막으로 분야별 추천 모델과 해당 모델의 강점이 발휘되는 사용 사례를 정리합니다. 1. 일반 자연어 처리 (언어 이해 및 생성) 언어 이해를 위한 대표 모델로는 BERT 계열(예: BERT, RoBERTa, DeBERTa)과 같은 Transformer 인코더 모델들이 있습니다. 이들은 문장의 의미 파악, 분류, 개체 인식 등의 이해 중심 작업에 뛰어납니다. 특히 마이.. 2025. 2. 18.
[헛짓, 헛궁금] GPU로 빌드할 수 있는 것은? GPU는 일반적으로 컴퓨팅 작업을 가속화하는 데 사용되지만, GPU 자체를 빌드하거나 컴파일한다는 표현이 조금 모호할 수 있습니다. 질문의 의도를 몇 가지 경우로 나누어 답변하겠습니다.1. GPU를 활용한 코드 빌드/컴파일가능함. GPU는 코드의 컴파일 자체를 가속화하지는 않지만, 일부 병렬 처리가 필요한 컴파일 과정(예: CUDA, OpenCL 코드 컴파일, 머신러닝 모델 변환 등)에서 성능 향상을 제공할 수 있습니다.예를 들어, 다음과 같은 경우에 GPU를 활용할 수 있습니다.CUDA, OpenCL 코드 컴파일: NVIDIA의 nvcc(NVIDIA CUDA Compiler) 또는 AMD ROCm 등의 도구를 사용하여 GPU용 프로그램을 빌드할 수 있음.머신러닝 모델 변환: TensorFlow, PyT.. 2025. 2. 12.
[소식] Github Copilot 최근 동향 - 무료화? GitHub Copilot은 AI 기반 코드 작성 도우미로, 지난 몇 달 동안 여러 가지 중요한 업데이트와 무료 플랜 관련 소식들이 발표되었습니다. 아래에서 최근 업데이트와 무료 버전 관련 주요 동향을 정리해 보겠습니다.무료 플랜 출시 및 기본 사항무료 플랜 발표 (2024년 12월 18일)GitHub는 Visual Studio Code와 GitHub.com에서 Copilot을 무료로 사용할 수 있는 ‘GitHub Copilot Free’를 공식 발표했습니다.이용 조건: GitHub 계정만 있으면 별도의 평가판, 구독, 신용카드 정보 없이 즉시 사용할 수 있습니다.제공 한도: 월 최대 2,000회의 코드 자동 완성과 50회의 채팅 메시지가 제공되어, 일상적인 코딩 작업에는 충분한 양을 지원합니다.대상: .. 2025. 2. 10.
[참고] LLM 로컬 설치, 관리 및 Chat UI 지원 앱 정리 로컬 PC나 맥등에 LLM 모델을 쉽게 설치하고 ChatGPT 같은 Chat UI를 제공하는 설치형 프로그램을 정리해보겠습니다.1. LLM 모델 관리 및 Chat UI 제공 앱이 카테고리의 프로그램은 쉽게 LLM 모델을 다운로드하고 실행할 수 있도록 도와주며, 대부분 로컬에서 ChatGPT 스타일의 UI를 제공합니다.프로그램명주요 기능지원 모델실행 방식LM StudioGUI 기반 모델 다운로드 및 실행, 로컬 챗봇 UI 제공LLaMA, Mistral, Gemma 등Windows, macOS, LinuxLLaMA.cpp GUI (Llamafile)초경량 LLaMA 모델 실행, GUI 지원LLaMA, MistralWindows, macOS, LinuxlstyWeb UI 제공, 서버 모드 지원LLaMA, Mi.. 2025. 2. 6.
[윈도우11] 부팅속도 개선하기 포맷없이 윈도우 11을 1년 이상 사용하고 있어서 그런지 부팅 속도가 점점 느려지는 거 같습니다. 아래에 부팅 속도를 향상시킬 수 있는 몇 가지 방법을 정리해 드리겠습니다:시작 프로그램 관리:팅 시 자동으로 실행되는 프로그램이 많으면 부팅 속도가 느려질 수 있습니다. 불필요한 시작 프로그램을 비활성화하여 부팅 시간을 단축할 수 있습니다. - 업 관리자를 열고(단축키: Ctrl + Shift + Esc), '시작프로그램' 탭에서 필요 없는 프로그램을 선택한 후 '사용 안 함'으로 설정합니다.빠른 시작 기능 비활성화:빠른 시작' 기능이 오히려 부팅 속도를 저하시킬 수 있습니다. 이 기능을 비활성화해 보세요. - 어판에서 '전원 옵션'을 선택하고, '전원 단추 작동 설정'으로 이동한 후 '빠른 시작 켜기' 옵.. 2025. 2. 5.
[윈도우] C드라이브 공간 확보하기 C 드라이브가 가득 차서 빨간색으로 표시된다면, 불필요한 파일을 찾아 정리하는 것이 중요합니다. 아래 방법들을 순서대로 진행하면 효과적으로 공간을 확보할 수 있습니다. 1. 디스크 정리 도구 사용윈도우 내장 도구로 불필요한 파일을 삭제하는 방법입니다. 1. 파일 탐색기 → “C 드라이브” 우클릭 → “속성” → “디스크 정리” 클릭 2. 삭제할 파일을 선택 (예: 임시 파일, 다운로드 폴더, 휴지통 등) 3. “시스템 파일 정리” 버튼을 눌러 더욱 정밀한 정리 가능 4. “확인” 후 “파일 삭제” 실행 2. 저장소 설정에서 대용량 파일 정리Windows 10/11에서는 저장소 설정에서 대용량 파일을 쉽게 찾을 수 있습니다. 1. 설정 (Win + I) → “시스템” → “저장소” 2. “C 드라이브” 클.. 2025. 2. 4.
[CursorAI] deepseek-r1, v3 모델 사용 지원 DeepSeek의 행보에 세상은 충격을 받고 있습니다. 그리고 빠르게 DeepSeek를 지원하는 곳이 늘어나고 있습니다. CursorAI도 마찬가지입니다. 최근 공식적으로 DeepSeek r1, v3 모델을 지원하기 시작했습니다. 정식 지원 버전은 0.45인걸로 보이는데, 저는 0.44 인데도 지원모델이 노출됩니다.DeepSeek의 V3와 R1 모델은 각기 다른 목적과 최적화 방식을 지닌 AI 언어 모델입니다.DeepSeek V3: • 아키텍처: 혼합 전문가(Mixture-of-Experts, MoE) 구조를 채택하여 확장성과 효율성을 높였습니다. • 주요 특징: 대규모 언어 모델로서 다양한 자연어 처리 작업에 최적화되어 있습니다. • 적합한 사용 사례: 다국어 번역, 콘텐츠 생성 등 일반적인 언어 이해.. 2025. 2. 4.
[deepseek #준비] deepseek-r1, qwen 모델 종류 분석 및 추천가이드 deepseek에서 r1이 나오고 llama, qwen이 있고, 1.4B, 7B... 70B 까지 먼가 너무 많습니다. 이걸 모두 한번 정리해 봅니다.모델 구조 개요DeepSeek-R1은 크게 세 가지 아키텍처 기반으로 구성되어 있습니다:DeepSeek-LLM (기본 아키텍처)Qwen 기반 버전LLaMA 기반 버전모델 크기별 특징1.4B 모델가장 작은 크기의 모델기본적인 대화와 간단한 태스크 수행리소스 요구사항이 매우 낮음추론 속도가 매우 빠름7B 모델일반적인 대화와 기본적인 코딩 태스크 가능적절한 성능과 리소스 효율성의 균형대부분의 일상적인 용도에 적합14B 모델복잡한 추론과 전문적인 태스크 수행 가능코드 생성 능력이 현저히 향상다양한 도메인의 지식 보유32B 모델고급 추론과 복잡한 문제 해결 능력전문.. 2025. 2. 3.
[deepseek #설치] lm studio 에 설치하기 Windows 11 Pro 환경에서 LM Studio를 활용하여 DeepSeek-R1 모델을 설치하고 실행하는 방법을 안내해 드리겠습니다. 또한, Qwen과 Llama 모델 중 어떤 것을 선택할지에 대한 가이드와 Ollama와 LM Studio의 차이점 및 각 장단점을 비교해 드리겠습니다.시스템 사양운영 체제: Windows 11 ProCPU: Intel i7 13세대 2.10GHzRAM: 128GBGPU: NVIDIA RTX 4070 Ti (22GB VRAM)목차LM Studio 설치 링크DeepSeek-R1 모델 선택 - Qwen? Llama?설치 방법테스트 방법웹 연결 방법Ollama와 LM Studio 차이점 및 각 장단점LM Studio 설치 링크LM Studio는 로컬 환경에서 대규모 언어 모.. 2025. 2. 2.
[deepseek #준비] deepseek 로컬설치 모델 선택 #2 기본 설치 모델 선정:시스템 : Windows11 Pro, CPU: i7 13th Gen. 2.10Ghz, 128GB RAM, RTX 4070 ti (22GB VRAM)실행 윈도우 UI 앱 : LM Studio설치 모델 : unsloth/DeepSeek-R1-Distill-Llama-8B-GGUFDeepSeek-R1-Distill-Llama-8B-GGUF 모델을 로컬에서 실행하기 위해서는, 시스템 사양과 요구 사항에 맞는 적절한 파일을 선택하는 것이 중요합니다. 해당 모델의 Hugging Face 페이지에서는 다양한 양자화 수준의 GGUF 파일을 제공합니다.권장 파일 선택:귀하의 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 파일을 선.. 2025. 2. 1.
[deepseek #준비] deepseek 로컬 머신에 설치를 위한 모델 선정 deepseek 를 설치하려고 해도 모델과 사양이 다양해서 설치부터 어려움이 많습니다.현재 보유 중인 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 모델 선택을 권장하고 있습니다.모델 크기:7B 모델: 이러한 모델은 상대적으로 가벼워, 현재 시스템에서 원활하게 실행될 수 있습니다. 예를 들어, LLaMA 7B 모델은 약 13GB의 GPU 메모리를 필요로 하며, 이는 RTX 4070 Ti의 12GB VRAM으로도 충분히 처리 가능합니다.14B 모델: 이 모델들은 더 많은 자원을 요구하며, 특히 VRAM이 12GB인 경우 실행에 어려움이 있을 수 있습니다. 일부 최적화 기법을 적용하면 실행이 가능할 수 있으나, 성능 저하나 기타 제약이 발.. 2025. 1. 31.
[deepseek #준비] deepseek 로컬에서 실행하는 방법? DeepSeek이 오픈소스로 공개되면서, 이제 로컬 환경에서 해당 모델을 실행할 수 있게 되었습니다. 이를 통해 인터넷 연결 없이도 AI 기능을 활용할 수 있으며, 데이터 보안과 프라이버시를 강화할 수 있습니다. 또한, 로컬에서 실행함으로써 지연 시간을 줄이고, 특정 요구 사항에 맞게 모델을 커스터마이징할 수 있습니다.DeepSeek-R1 모델은 6710억 개의 매개변수를 가지고 있었지만, 최적화를 통해 131GB로 줄어들어 로컬 실행이 가능해졌습니다. (svrforum.com) 이를 통해 고성능의 AI 언어 모델을 개인 컴퓨터나 서버에서 직접 활용할 수 있습니다.로컬에서 DeepSeek을 실행하기 위해서는 Ollama와 같은 프로그램을 사용할 수 있습니다. Ollama는 MacOS, Windows, L.. 2025. 1. 31.
[GPU] RTX 5080과 4090 비교 엔비디아의 최신 그래픽 카드인 RTX 4090과 RTX 5080의 스펙, 벤치마크 결과, 그리고 가격 정보를 정리해 드리겠습니다.스펙 비교:항목RTX 4090RTX 5080출시일2022년 9월 20일 (technical.city)2025년 1월 30일 (quasarzone.com)아키텍처Ada LovelaceBlackwellCUDA 코어 수16,384 (technical.city)10,752 (technical.city)베이스/부스트 클럭2,230 MHz / 2,520 MHz (technical.city)2,300 MHz / 2,620 MHz (technical.city)메모리24GB GDDR6X16GB GDDR7 (technical.city)메모리 대역폭1,008 GB/s960 GB/s (technic.. 2025. 1. 31.
ChatGPT - DeepSeek 성능과 특징 비교 최근 인공지능 분야에서 OpenAI의 ChatGPT와 중국의 DeepSeek이 주목받고 있습니다. 두 모델의 성능과 특징을 비교하여 장단점을 정리해 드리겠습니다.성능 비교:기술 작업 능력: DeepSeek V3 모델은 코딩, 추론, 수학 능력이 필요한 기술 작업에서 ChatGPT-4o 모델보다 더 높은 성능을 보입니다. 예를 들어, HumanEval 벤치마크에서 DeepSeek V3는 82.6점을, GPT-4o는 80.5점을 기록하였으며, Codeforces 벤치마크에서도 DeepSeek V3가 51.6점으로 GPT-4o의 23.6점을 상회하였습니다. (textcortex.com)응답 품질: 일반적인 질문에 대한 응답 품질 면에서 ChatGPT는 포괄적이고 일관된 답변을 제공하는 반면, DeepSeek은.. 2025. 1. 31.
DeepSeek LLM 구동을 위한 맥미니,맥북프로,맥스튜디오 비교 DeepSeek와 같은 대형 언어 모델(LLM)을 실행하기 위해서는 고성능의 하드웨어가 필요합니다. Apple의 Mac Mini M4 Pro, MacBook Pro M4 Max, Mac Studio M2 Max 모델의 사양을 비교하여 각 모델이 DeepSeek를 실행하는 데 얼마나 적합한지 분석해보겠습니다.1. Mac Mini M4 ProCPU: 12코어 (성능 코어 8개, 효율 코어 4개)GPU: 16~20코어메모리: 최대 64GB 통합 메모리저장 장치: 512GB ~ 8TB SSD2. MacBook Pro M4 MaxCPU: 최대 16코어GPU: 최대 40코어메모리: 최대 128GB 통합 메모리저장 장치: 512GB ~ 8TB SSD3. Mac Studio M2 MaxCPU: 12코어 (성능 코어 8.. 2025. 1. 30.
[크롬확장앱] 크롬 프로파일 정보 가져오기 다음은 TypeScript를 사용하여 크롬 확장 앱에서 프로파일 사용자 정보를 가져오는 방법을 보여주는 코드입니다. 필요한 파일과 코드를 정리했습니다. 1. manifest.json (권한 설정이 이미 완료되었다고 가정)manifest.json 파일은 따로 제공하지 않습니다. 확장 앱의 권한 설정에서 "identity"가 포함되어 있어야 합니다. 2. background.ts// background.tsfunction getUserProfile(): void { chrome.identity.getProfileUserInfo((userInfo) => { console.log('User ID:', userInfo.id); console.log('User Email:', userInfo.email.. 2025. 1. 27.
[python] GUI 앱 오류시 로그 남기기 - logger.py import osimport tracebackfrom datetime import datetimeclass Logger: """ 로그를 기록하는 유틸리티 클래스 사용방법: 1. 일반 로그 기록 Logger.log("로그 메시지") 예) Logger.log("사용자가 로그인했습니다") 2. 예외 발생 시 로그 기록 try: # 코드... except Exception as e: Logger.log("에러 메시지", error=e) 예) Logger.log("데이터 처리 중 오류 발생", error=e) 로그 파일 위치: ./logs/application_YYY.. 2025. 1. 26.
7B LLM 파인튜닝 머신 고민 - 맥미니 + eGPU 사용? 맥 미니 M4 Pro에 외장 GPU(eGPU)를 연결하여 7B LLM 파인튜닝을 시도하는 것이 이론적으로 가능하지만, 다음과 같은 제한사항과 고려해야 할 요소가 있습니다.1. eGPU 지원 여부Apple Silicon 기반의 맥(M1, M2, M3, M4 시리즈)은 eGPU를 공식적으로 지원하지 않습니다.이는 Apple이 자체 GPU 성능에 의존하며, Thunderbolt 연결을 통한 외장 GPU 사용을 허용하지 않기 때문입니다.Intel 기반 맥은 eGPU를 지원했지만, Apple Silicon 맥은 지원을 중단한 상태입니다.Apple Silicon 기반 시스템에서는 eGPU 연결을 위한 드라이버가 없으므로 NVIDIA GPU를 연결하여 CUDA를 활용한 PyTorch/TensorFlow 작업이 불가능.. 2025. 1. 25.
7B LLM 파인튜닝 머신 고민 - 맥미니 m4 pro 검토 맥 미니 M4 Pro 최고 사양으로 7B LLM 파인튜닝이 가능한지 검토해 보겠습니다.M4 Pro 최고 사양 분석최신 Apple Silicon M4 Pro 칩의 주요 사양:CPU: 10~12코어 (고성능 코어 + 고효율 코어).GPU: 20~32코어 수준으로 예상.RAM: 최대 32GB 또는 64GB 통합 메모리(UMA).SSD: 초고속 NVMe SSD (최대 8TB).7B LLM 파인튜닝에 필요한 요구사항GPU 메모리:일반적으로 **16GB 이상의 GPU 전용 메모리(VRAM)**이 요구되며, 24GB 이상이면 효율적.RAM:GPU 메모리가 부족할 경우 CPU 메모리를 활용하게 되므로 64GB 이상이 권장됩니다.저장공간:모델과 데이터 저장용으로 최소 1TB SSD가 필요.ML 라이브러리 지원:PyTor.. 2025. 1. 25.
7B LLM 파인튜닝 머신 고민 - 맥북프로 m4 max 검토 맥북 프로 M4 Max 최고 사양으로 7B LLM 파인튜닝이 가능한지 검토해보면 다음과 같습니다:M4 Max 사양 분석최신 Apple Silicon M4 Max 칩은 다음과 같은 특징을 가질 가능성이 높습니다:CPU: 12~16코어 수준의 고효율/고성능 코어 구성.GPU: 40~64코어로 이전 세대 대비 성능이 크게 강화.RAM: 통합 메모리(최대 128GB 이상, LPDDR5).SSD: 초고속 NVMe SSD (최대 8TB).파인튜닝에 필요한 요구사항GPU 메모리: 7B 모델의 파인튜닝은 GPU의 VRAM이 중요합니다. 일반적으로 16~24GB 이상의 GPU 메모리가 요구됩니다.RAM: CPU 메모리를 사용하는 경우 64GB 이상이 필요하며, 128GB가 권장됩니다.저장공간: 모델 및 데이터 파일 저장.. 2025. 1. 25.
[5090 #CPU] 각 단계별 사용 인텔-AMD CPU 직접 비교 아래는 인텔과 AMD 기반 사양의 각 레벨(최고급, 고급, 최소사양)을 평가항목별로 비교한 내용입니다. 평가항목과 설명, 그리고 장단점 및 평점도 포함되어 있습니다.평가 항목과 설명성능: CPU와 GPU 성능을 기준으로 대규모 LLM 작업의 효율성을 평가.확장성: 메모리 용량 및 저장장치의 확장 가능성.안정성: 장시간 연속 작업 시의 안정성과 열 관리 능력.가격 대비 가치: 성능과 구성 대비 비용 효율성.업그레이드 가능성: 향후 하드웨어 교체나 업그레이드 용이성.1. 최고급 사양 비교평가 항목 AMD (Threadripper 7995WX) 인텔 (Xeon W-3495X) 비교성능다수의 코어(96코어, 192스레드)로 병렬 작업 최적화코어는 적지만 클럭당 성능이 우수 (56코어, 112스레드)AMD가 병렬.. 2025. 1. 25.
반응형