본문 바로가기

Programming/AI&ML30

[동향] 개발의 새로운 물결, 바이브 코딩 – 정의부터 실전까지 세상이 빠르게 바뀌고 있습니다. 다수의 사람들은 AI가 모든 것을 다 해줄 것 처럼 말하면서 강의를 개설하고 전파하고 있지만, 제가 볼때는 아직까지는 새로운 도전에 대한 진입장벽을 낮춰 준 것이지, 모든 것을 다해주진 않습니다."AI가 전체적인 개발을 해준다고? 헐~" 바이브 코딩을 설명할때 들은 것입니다. 초보 기술자 수준에서, 파일을 몇십개 인 경우에 대해서 등등.. 조건이 아직 붙어야 합니다. 그럼에도 불구하고 알면서도 몰랐던 바이브 코딩을 정리해 봤습니다. 다수의 현업개발자 분들은 이미 하시고 계실 수도 있습니다. 바이브 코딩이란? 정의와 주요 특징바이브 코딩(Vibe Coding)은 인공지능(AI)과 개발자가 협업하여 코드를 작성하는 새로운 프로그래밍 방식입니다 (인공지능이 만드는 바이브 코딩(.. 2025. 3. 26.
[서비스] AI 검색 사이트 oo.ai 서비스 출시 얼마전 oo.ai 라는 서비스가 오픈되었다고 들었습니다. 검색속도가 빠릅니다. 결과 노출시간, 참고 페이지 숫자가 빠르게 올라갑니다. 그러더니 결과가 예쁘게 나옵니다. 더군다나 한글로 된 서비스입니다. oo.ai는 누가 만들었는지, 무슨 목표로 서비스를 하는 건지 확인해 봤습니다.1. 개발자 및 창립자 정보oo.ai는 대한민국 스타트업 오픈리서치(OpenResearch)가 개발한 차세대 AI 검색 서비스입니다. 오픈리서치는 2024년 7월 카카오브레인 전 대표 김일두 씨가 창립한 AI 검색 기술/서비스 기업으로, 설립 직후 LB인베스트먼트, 미래에셋벤처투자·캐피탈, 본엔젤스 등으로부터 100억 원 규모의 시드 투자를 유치하며 주목을 받았습니다 (카카오 출신 김일두, AI 검색 플랫폼 ‘오오에이아이’ 출시.. 2025. 3. 19.
[RAG] 건강정보 pdf 를 학습하여 RAG 서비스를 구현 준비와 절차 구축 기반 조건 및 서비스 내용건강/영양 정보 PDF(수십 페이지)를 기반으로 1일 추천 영양정보 및 영양별 건강정보를 제공하는 RAG 기반 웹서비스를 구축업데이트 주기는 1회성이고 비주기로 약간 추가 가능적합한 기술 스택과 배포 환경을 추천RAG 모델을 운영할 cafe24 호스팅 서버 스펙대안으로 PC에서 운영할 경우의 가능성도 함께 고려.웹서비스 구성프론트엔드영양정보를 제공하는 웹 애플리케이션의 프론트엔드는 SPA(Single Page Application) 프레임워크를 사용하는 것이 적합합니다. React나 Vue.js와 같은 프레임워크가 대표적이며, 풍부한 생태계와 컴포넌트 재사용성을 제공하기 때문에 대화형 UI 구현에 유리합니다. 특히 React는 전 세계적으로 널리 사용되는 프론트엔드 라이브러.. 2025. 3. 19.
제2의 DeepSeek, Manus AI 초대코드 받기 최근 공개된 deepseek 가 저가 비용으로 구현해서 화제가 되었지만, 중국이 중국해서, 개인정보를 많이 빼간다는 말에 온라인 서비스가 한국을 포함해서 차단된 곳이 많아졌습니다. 아직 deepseek의 여운이 가시기도 전에 또다른 녀석이 등장했습니다. AI를 따라가다 가랭이 찢어집니다.Manus AI 개요Manus AI는 사용자의 지시(프롬프트)를 실제 행동과 결과물로 이어주는 범용 자율 AI 에이전트 플랫폼입니다 (Manus AI). 기존 챗봇처럼 단순 대화형 답변을 하는 것이 아니라, 다양한 작업을 스스로 계획·실행하여 완성된 결과물을 제공하는 점이 특징입니다 (초대장이 천만 원에 거래되는 AI 에이전트가 있다?). 예를 들어, 여행 일정을 짜달라는 요청에 단순 문장 답변 대신 일정표, 로맨틱한 장.. 2025. 3. 15.
[동향] 인간 뇌세포 기반 생물학적 컴퓨터 연구 오늘 지인으로 부터 한 사이트의 링크를 받았습니다. 세계 최초 인간 뇌 세포 기반 "생물학적 컴퓨터" 상용화 | GeekNewsCortical Labs의 CL1, 생물학적 AI 시대 개막호주 Cortical Labs가 인간 뇌 세포와 실리콘 하드웨어를 결합한 세계 최초 "생물학적 컴퓨터(CL1)" 를 공식 출시.기존 AI보다 더 역동적, 지속 가능하며 에너지news.hada.io뇌세포를 이용한 생물학적 컴퓨터? 누군가는 머리에 구멍을 뚫어 장비를 심는다는데, 이건 또 먼가 싶은 마음에 무슨 내용인지 알아보았습니다.연구의 배경과 목적현대의 전자식 컴퓨터와 인공지능 기술은 급격한 발전을 이루었지만, 물리적 한계에 가까워지고 있습니다. 초고속 연산을 위해 막대한 전력을 소모해야 하는 등의 문제가 대두되며 더 .. 2025. 3. 7.
[동향] BMW 공장 인간형 로봇 도입 사례 영향 분석 얼마전 BMW 공장에서 인간형 로봇을 도입하여 일부 라인을 3개월 정도 운영한 사례의 동영상을 공개했습니다. 궁금하기도 하고 해서 관련 기사들을 아래와 같은 기준으로 정리해 보았습니다.생산성 향상 여부: 인간형 로봇이 기존 생산 프로세스에서 어떤 성과를 냈는지 분석합니다.인력 감축 또는 재배치 영향: 기존 직원들의 역할 변화와 고용에 미친 영향을 확인합니다.비용 절감 효과: 로봇 도입으로 인한 운영 비용 변화와 경제적 이점이 있었는지 조사합니다.기술적 도전 과제: 로봇 운영 중 겪은 기술적 문제나 개선이 필요한 부분을 살펴봅니다.노조 및 노동자의 반응: 노동조합 및 직원들이 어떻게 반응했는지 관련 정보를 확인합니다. 생산성 향상 여부(美 BMW 공장서 근무하는 휴머노이드 로봇, 작업 속도 '4배' 빨라졌.. 2025. 3. 5.
NVIDIA Jetson AGX Orin vs. NVIDIA Project DIGITS: AI 학습 성능 비교 요새 NVIDIA가 그래픽 카드 외에도 혹할만한 제품들을 내놓고 있습니다.NVIDIA Jetson AGX Orin은 로보틱스와 엣지 컴퓨팅용 고성능 임베디드 AI 모듈(개발 키트 포함)이고, NVIDIA Project DIGITS는 Grace CPU와 Blackwell GPU가 결합된 초소형 퍼스널 AI 슈퍼컴퓨터입니다. 두 제품 모두 AI 모델 **학습(training)**에 활용될 수 있지만, 용도와 성능에서 큰 차이가 있습니다. 아래 비교 표에서는 가격, 성능, 활용도 측면에서 Jetson AGX Orin과 Project DIGITS를 정리하고 각 항목별 5점 만점 평가를 제시합니다.Jetson AGX Orin 개발 키트 – 앰페어(Ampere) 아키텍처 GPU와 12코어 ARM CPU를 통합한 엣.. 2025. 3. 4.
NVIDIA DIGITS 기반 RAG 모델 학습 가능 여부 분석 최적 모델 구성 및 추천 (RAG 접근법) RAG(Retrieval-Augmented Generation) 방식은 대용량 언어모델이 모든 지식을 기억해야 하는 한계를 극복하기 위해 외부 지식을 조회하여 활용하는 QA 방법입니다 . 사용자가 질문하면 검색 모델이 질문을 임베딩으로 변환한 뒤 지식 내에서 관련 문서를 찾아주고, 생성 모델(예: 시퀀스-투-시퀀스 언어모델)이 그 문서 내용을 바탕으로 답변을 생성합니다 . 이를 위해 우선 연령대별 건강정보, 1일 영양소 권장량, 건강식품 함유 성분 등의 도메인 데이터를 수집하여 텍스트 조각들로 분할 및 임베딩해야 합니다 . 이렇게 구축한 벡터 DB(임베딩 인덱스)에 대해 질의 임베딩과 문서 임베딩 간 유사도 검색을 수행하는 것이 핵심입니다.추천 모델 아키텍처로는.. 2025. 2. 22.
NVIDIA DIGITS와 대형 언어 모델(LLM) 학습에 대한 평가 보고서 1. NVIDIA DIGITS 최신 버전 및 LLM 학습 적합성 DIGITS 개요: NVIDIA DIGITS는 Deep Learning GPU Training System으로, 주로 이미지 분류, 세그멘테이션, 객체 탐지 등 컴퓨터 비전 딥러닝 작업을 간편하게 수행하기 위해 개발된 소프트웨어입니다 . 최신 공식 버전은 DIGITS 6.1.1로 2018년에 출시되었으며 , 이후로는 신규 기능 업데이트가 중단된 상태입니다 (NVIDIA는 더 이상 DIGITS를 지원하거나 버그 수정하지 않고 있음) . DIGITS 6 버전에서는 Caffe, Torch(Lua Torch), 그리고 TensorFlow 백엔드를 지원하며, GAN 예제나 텍스트 분류 같은 기능도 일부 추가되었습니다 . 그러나 기본적으로 DIGITS.. 2025. 2. 22.
[HW #준비] DeepSeek r1 설치용 맥미니/스튜디오 클러스터 구성비교 최근 정부에서 DeepSeek 온라인 서비스 접속을 막았습니다. 이유는 사용자의 정보를 과하게 수집해 간다는 이유입니다. 그런 위험한 서비스를 사용하는 것은... 이미 중국 사이트라 찝찝했지만... 무조건 반대일 수 밖에 없습니다. 그렇다고 deepseek 가 문제인 것은 아닙니다. 로컬에 설치해서 사용하면 어떨까? 독립 머신으로 로컬 설치는 성능상 여전히 문제가 있습니다.다음은 DeepSeek R1(671B 원본 모델)을 로컬에서 구동하기 위한 클러스터 구성 방안을 맥미니 클러스터와 맥스튜디오 클러스터로 나눠 비교·정리한 내용입니다. 1. 클러스터 구성 스펙 및 필요 대수A. 맥미니 클러스터 • 개별 스펙:– 모델: M4 Pro 기반, 64GB 통합 메모리, 1TB SSD • 필요 대수:– 전체 671.. 2025. 2. 21.
[동향] 일론 머스크의 xAI Grok 3 발표: 성능, 기능 및 미래 전략 종합 요약 아래는 어제(2월 17일/18일 현지시간) 일론 머스크가 이끄는 xAI가 발표한 Grok 3의 주요 내용 정리입니다.1. 발표 배경 및 개요 • 발표 채널: xAI는 X(구 트위터)를 통해 라이브 스트리밍으로 Grok 3를 공개했습니다. • 주요 주장: Grok 3는 “지구상에서 가장 똑똑한 AI”로 소개되며, 기존 경쟁 모델들을 능가하는 성능을 자랑한다고 발표되었습니다. 2. 성능 및 기술적 우위 • 벤치마크 결과:• 수학, 과학, 코딩 등 다양한 영역에서 Google Gemini, DeepSeek V3, Anthropic Claude, OpenAI GPT-4o 등 경쟁 모델을 앞선다고 주장합니다.• 초기 버전(코드명 ‘초콜릿’)은 벤치마크에서 1400점이라는 기록적인 성과를 기록했으며, 점수는 계속 .. 2025. 2. 19.
Hugging Face 모델 분야별 분석 및 추천 Hugging Face 허브에는 다양한 자연어 처리(NLP) 모델들이 공개되어 있으며, 용도에 따라 특화된 모델들이 존재합니다. 여기서는 사용 목적별로 대표적인 모델들을 분류하고, 각 분야에서 최고 성능을 보이는 모델들의 특징을 비교한 뒤, RTX 4070 Ti 환경에서 실행 가능성과 파인튜닝 용이성을 고려하여 추천 모델을 선정하였습니다. 마지막으로 분야별 추천 모델과 해당 모델의 강점이 발휘되는 사용 사례를 정리합니다. 1. 일반 자연어 처리 (언어 이해 및 생성) 언어 이해를 위한 대표 모델로는 BERT 계열(예: BERT, RoBERTa, DeBERTa)과 같은 Transformer 인코더 모델들이 있습니다. 이들은 문장의 의미 파악, 분류, 개체 인식 등의 이해 중심 작업에 뛰어납니다. 특히 마이.. 2025. 2. 18.
[참고] LLM 로컬 설치, 관리 및 Chat UI 지원 앱 정리 로컬 PC나 맥등에 LLM 모델을 쉽게 설치하고 ChatGPT 같은 Chat UI를 제공하는 설치형 프로그램을 정리해보겠습니다.1. LLM 모델 관리 및 Chat UI 제공 앱이 카테고리의 프로그램은 쉽게 LLM 모델을 다운로드하고 실행할 수 있도록 도와주며, 대부분 로컬에서 ChatGPT 스타일의 UI를 제공합니다.프로그램명주요 기능지원 모델실행 방식LM StudioGUI 기반 모델 다운로드 및 실행, 로컬 챗봇 UI 제공LLaMA, Mistral, Gemma 등Windows, macOS, LinuxLLaMA.cpp GUI (Llamafile)초경량 LLaMA 모델 실행, GUI 지원LLaMA, MistralWindows, macOS, LinuxlstyWeb UI 제공, 서버 모드 지원LLaMA, Mi.. 2025. 2. 6.
[deepseek #준비] deepseek-r1, qwen 모델 종류 분석 및 추천가이드 deepseek에서 r1이 나오고 llama, qwen이 있고, 1.4B, 7B... 70B 까지 먼가 너무 많습니다. 이걸 모두 한번 정리해 봅니다.모델 구조 개요DeepSeek-R1은 크게 세 가지 아키텍처 기반으로 구성되어 있습니다:DeepSeek-LLM (기본 아키텍처)Qwen 기반 버전LLaMA 기반 버전모델 크기별 특징1.4B 모델가장 작은 크기의 모델기본적인 대화와 간단한 태스크 수행리소스 요구사항이 매우 낮음추론 속도가 매우 빠름7B 모델일반적인 대화와 기본적인 코딩 태스크 가능적절한 성능과 리소스 효율성의 균형대부분의 일상적인 용도에 적합14B 모델복잡한 추론과 전문적인 태스크 수행 가능코드 생성 능력이 현저히 향상다양한 도메인의 지식 보유32B 모델고급 추론과 복잡한 문제 해결 능력전문.. 2025. 2. 3.
[deepseek #설치] lm studio 에 설치하기 Windows 11 Pro 환경에서 LM Studio를 활용하여 DeepSeek-R1 모델을 설치하고 실행하는 방법을 안내해 드리겠습니다. 또한, Qwen과 Llama 모델 중 어떤 것을 선택할지에 대한 가이드와 Ollama와 LM Studio의 차이점 및 각 장단점을 비교해 드리겠습니다.시스템 사양운영 체제: Windows 11 ProCPU: Intel i7 13세대 2.10GHzRAM: 128GBGPU: NVIDIA RTX 4070 Ti (22GB VRAM)목차LM Studio 설치 링크DeepSeek-R1 모델 선택 - Qwen? Llama?설치 방법테스트 방법웹 연결 방법Ollama와 LM Studio 차이점 및 각 장단점LM Studio 설치 링크LM Studio는 로컬 환경에서 대규모 언어 모.. 2025. 2. 2.
[deepseek #준비] deepseek 로컬설치 모델 선택 #2 기본 설치 모델 선정:시스템 : Windows11 Pro, CPU: i7 13th Gen. 2.10Ghz, 128GB RAM, RTX 4070 ti (22GB VRAM)실행 윈도우 UI 앱 : LM Studio설치 모델 : unsloth/DeepSeek-R1-Distill-Llama-8B-GGUFDeepSeek-R1-Distill-Llama-8B-GGUF 모델을 로컬에서 실행하기 위해서는, 시스템 사양과 요구 사항에 맞는 적절한 파일을 선택하는 것이 중요합니다. 해당 모델의 Hugging Face 페이지에서는 다양한 양자화 수준의 GGUF 파일을 제공합니다.권장 파일 선택:귀하의 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 파일을 선.. 2025. 2. 1.
[deepseek #준비] deepseek 로컬 머신에 설치를 위한 모델 선정 deepseek 를 설치하려고 해도 모델과 사양이 다양해서 설치부터 어려움이 많습니다.현재 보유 중인 시스템 사양(GeForce RTX 4070 Ti, 128GB RAM, 500GB SSD)을 고려할 때, 다음과 같은 모델 선택을 권장하고 있습니다.모델 크기:7B 모델: 이러한 모델은 상대적으로 가벼워, 현재 시스템에서 원활하게 실행될 수 있습니다. 예를 들어, LLaMA 7B 모델은 약 13GB의 GPU 메모리를 필요로 하며, 이는 RTX 4070 Ti의 12GB VRAM으로도 충분히 처리 가능합니다.14B 모델: 이 모델들은 더 많은 자원을 요구하며, 특히 VRAM이 12GB인 경우 실행에 어려움이 있을 수 있습니다. 일부 최적화 기법을 적용하면 실행이 가능할 수 있으나, 성능 저하나 기타 제약이 발.. 2025. 1. 31.
[deepseek #준비] deepseek 로컬에서 실행하는 방법? DeepSeek이 오픈소스로 공개되면서, 이제 로컬 환경에서 해당 모델을 실행할 수 있게 되었습니다. 이를 통해 인터넷 연결 없이도 AI 기능을 활용할 수 있으며, 데이터 보안과 프라이버시를 강화할 수 있습니다. 또한, 로컬에서 실행함으로써 지연 시간을 줄이고, 특정 요구 사항에 맞게 모델을 커스터마이징할 수 있습니다.DeepSeek-R1 모델은 6710억 개의 매개변수를 가지고 있었지만, 최적화를 통해 131GB로 줄어들어 로컬 실행이 가능해졌습니다. (svrforum.com) 이를 통해 고성능의 AI 언어 모델을 개인 컴퓨터나 서버에서 직접 활용할 수 있습니다.로컬에서 DeepSeek을 실행하기 위해서는 Ollama와 같은 프로그램을 사용할 수 있습니다. Ollama는 MacOS, Windows, L.. 2025. 1. 31.
ChatGPT - DeepSeek 성능과 특징 비교 최근 인공지능 분야에서 OpenAI의 ChatGPT와 중국의 DeepSeek이 주목받고 있습니다. 두 모델의 성능과 특징을 비교하여 장단점을 정리해 드리겠습니다.성능 비교:기술 작업 능력: DeepSeek V3 모델은 코딩, 추론, 수학 능력이 필요한 기술 작업에서 ChatGPT-4o 모델보다 더 높은 성능을 보입니다. 예를 들어, HumanEval 벤치마크에서 DeepSeek V3는 82.6점을, GPT-4o는 80.5점을 기록하였으며, Codeforces 벤치마크에서도 DeepSeek V3가 51.6점으로 GPT-4o의 23.6점을 상회하였습니다. (textcortex.com)응답 품질: 일반적인 질문에 대한 응답 품질 면에서 ChatGPT는 포괄적이고 일관된 답변을 제공하는 반면, DeepSeek은.. 2025. 1. 31.
DeepSeek LLM 구동을 위한 맥미니,맥북프로,맥스튜디오 비교 DeepSeek와 같은 대형 언어 모델(LLM)을 실행하기 위해서는 고성능의 하드웨어가 필요합니다. Apple의 Mac Mini M4 Pro, MacBook Pro M4 Max, Mac Studio M2 Max 모델의 사양을 비교하여 각 모델이 DeepSeek를 실행하는 데 얼마나 적합한지 분석해보겠습니다.1. Mac Mini M4 ProCPU: 12코어 (성능 코어 8개, 효율 코어 4개)GPU: 16~20코어메모리: 최대 64GB 통합 메모리저장 장치: 512GB ~ 8TB SSD2. MacBook Pro M4 MaxCPU: 최대 16코어GPU: 최대 40코어메모리: 최대 128GB 통합 메모리저장 장치: 512GB ~ 8TB SSD3. Mac Studio M2 MaxCPU: 12코어 (성능 코어 8.. 2025. 1. 30.
7B LLM 파인튜닝 머신 고민 - 맥미니 + eGPU 사용? 맥 미니 M4 Pro에 외장 GPU(eGPU)를 연결하여 7B LLM 파인튜닝을 시도하는 것이 이론적으로 가능하지만, 다음과 같은 제한사항과 고려해야 할 요소가 있습니다.1. eGPU 지원 여부Apple Silicon 기반의 맥(M1, M2, M3, M4 시리즈)은 eGPU를 공식적으로 지원하지 않습니다.이는 Apple이 자체 GPU 성능에 의존하며, Thunderbolt 연결을 통한 외장 GPU 사용을 허용하지 않기 때문입니다.Intel 기반 맥은 eGPU를 지원했지만, Apple Silicon 맥은 지원을 중단한 상태입니다.Apple Silicon 기반 시스템에서는 eGPU 연결을 위한 드라이버가 없으므로 NVIDIA GPU를 연결하여 CUDA를 활용한 PyTorch/TensorFlow 작업이 불가능.. 2025. 1. 25.
반응형