함정 피하기 가이드: 타오바오 딥시크릿 R1 설치 패키지 유료 상향 판매? 로컬 배포를 무료로 알려드립니다(원클릭 설치 프로그램 포함).
최근 타오바오 플랫폼에서 DeepSeek 설치 패키지 판매 현상은 광범위한 우려를 불러일으켰습니다. 일부 기업이 이 무료 오픈 소스 AI 모델을 통해 수익을 얻고 있다는 사실은 놀랍습니다. 이는 DeepSeek 모델이 만들어내고 있는 로컬 배포 붐을 반영하는 것이기도 합니다.

타오바오나 진둬둬와 같은 전자상거래 플랫폼에서 'DeepSeek'를 검색하면 설치 패키지, 큐워드 패키지, 튜토리얼 등 무료로 얻을 수 있는 리소스를 판매하는 많은 판매자를 찾을 수 있습니다. 심지어 일부 판매자는 DeepSeek 관련 튜토리얼을 표시해 판매하고 있습니다. 일부 판매자는 딥서치 관련 튜토리얼을 비싼 가격에 판매하기도 하지만, 실제로는 검색 엔진만 사용해도 수많은 무료 다운로드 링크를 쉽게 찾을 수 있습니다.

그렇다면 이러한 리소스는 얼마에 판매될까요? "설치 프로그램 + 튜토리얼 + 팁"의 패키지 가격은 일반적으로 $ 10에서 $ 30 사이이며 대부분의 판매자는 어느 정도의 고객 서비스 지원도 제공하는 것으로 관찰되었습니다. 그 중 많은 상품이 수백 장, 몇 가지 인기 상품이 판매되었으며 심지어 수천 명의 사람들이 그 규모를 지불했습니다. 더 놀랍게도 100달러짜리 소프트웨어 패키지와 튜토리얼도 22명이 구매를 선택했습니다.

따라서 정보 격차로 인한 비즈니스 기회는 분명합니다.

이 글에서는 무료로 딥서치 모델을 로컬에 배포하는 방법을 안내해 드리겠습니다. 그 전에 로컬 배포의 필요성에 대해 간략하게 분석해 보겠습니다.
로컬에 DeepSeek-R1을 배포하는 이유는 무엇인가요?
DeepSeek-R1 모델은 현재 사용 가능한 최고 성능의 추론 모델은 아니지만 확실히 시장에서 많이 찾는 옵션입니다. 하지만 공식 또는 타사 호스팅 플랫폼의 서비스를 직접 사용할 경우 사용자는 종종 서버 혼잡을 경험하게 됩니다.

로컬 배포 모델을 사용하면 이 문제를 효과적으로 피할 수 있습니다. 간단히 말해, 로컬 배포란 클라우드 API나 온라인 서비스에 의존하지 않고 사용자의 디바이스에 AI 모델을 설치하는 것을 의미합니다. 일반적인 로컬 배포 방법에는 다음이 포함됩니다:
- 경량 로컬 추론PC 또는 모바일 장치에서 실행됩니다(예: Llama.cpp, Whisper, GGUF 형식 모델).
- 서버/워크스테이션 배포NVIDIA RTX 4090, A100 등과 같은 고성능 GPU 또는 TPU가 탑재된 대형 모델을 실행합니다.
- 프라이빗 클라우드/인트라넷 서버온프레미스 서버에 배포(예: TensorRT, ONNX Runtime, vLLM과 같은 도구 사용).
- 엣지 디바이스 배포임베디드 시스템 또는 임베디드 시스템 또는 IoT 디바이스(예: Jetson Nano, Raspberry Pi 등)에서 AI 모델을 실행합니다.
애플리케이션 시나리오에 따라 다양한 배포 방법이 적합합니다. 예를 들어 로컬 배포 기술은 여러 분야에서 고유한 가치를 보여주었습니다:
- 온프레미스 AI 애플리케이션비공개 챗봇, 문서 분석 시스템 등을 구축합니다.
- 과학적 연구 계산생물의학, 물리학 시뮬레이션 및 기타 분야의 데이터 분석 및 모델 훈련에 활용됩니다.
- 오프라인 AI 기능네트워크가 없는 환경에서 음성 인식, OCR 및 이미지 처리 기능을 제공합니다.
- 보안 감사 및 모니터링법률, 금융 및 기타 산업 분야의 규정 준수 분석을 지원합니다.
이 글에서는 다양한 개별 사용자에게 가장 적합한 배포 옵션인 경량 로컬 추론에 초점을 맞출 것입니다.
로컬 배포의 이점
로컬 배포는 '사용 중인 서버' 문제의 근본 원인을 해결하는 것 외에도 여러 가지 이점을 제공합니다:
- 데이터 프라이버시 및 보안민감한 데이터를 클라우드에 업로드할 필요 없이 AI 모델을 로컬에 배포할 수 있어 데이터 유출 위험을 효과적으로 방지할 수 있습니다. 이는 높은 수준의 데이터 보안이 필요한 금융, 의료, 법률 등의 산업에 매우 중요합니다. 또한 로컬 배포는 기업이나 조직이 중국의 데이터 보안법 및 EU의 GDPR과 같은 데이터 규정 준수 요건을 충족하는 데에도 도움이 됩니다.
- 짧은 지연 시간 및 실시간 성능모든 연산이 네트워크 요청 없이 로컬에서 수행되므로 추론 속도는 전적으로 로컬 디바이스의 연산 성능에 따라 달라집니다. 따라서 디바이스의 성능만 충분하다면 사용자는 뛰어난 실시간 응답을 얻을 수 있으므로 로컬 배포는 음성 인식, 자율 주행, 산업 검사 등 실시간으로 까다로운 애플리케이션 시나리오에 이상적입니다.
- 장기적인 비용 효율성네이티브 배포: 네이티브 배포는 API 구독료가 없으므로 한 번 배포하면 장기간 사용할 수 있습니다. 성능 요구 사항이 낮은 애플리케이션의 경우, INT 8 또는 4비트 양자화 모델과 같은 경량 모델을 배포하여 하드웨어 비용을 절감할 수도 있습니다.
- 오프라인 가용성AI 모델은 네트워크 연결이 없는 상태에서도 사용할 수 있어 엣지 컴퓨팅, 오프라인 사무실, 원격 환경 및 기타 시나리오에 적합합니다. 또한 오프라인에서 실행할 수 있어 중요한 서비스의 연속성을 보장하고 네트워크 단절로 인한 비즈니스 중단을 방지할 수 있습니다.
- 고도로 사용자 지정 및 제어 가능로컬 배포를 통해 사용자는 특정 비즈니스 요구에 더 잘 맞도록 모델을 미세 조정하고 최적화할 수 있습니다. 예를 들어, DeepSeek-R1 모델은 무제한 버전인 deepseek-r1-abliterated를 포함해 수많은 미세 조정 및 증류 버전이 탄생했습니다. 또한 로컬 배포는 타사 정책 변경의 영향을 받지 않으므로 제어력이 향상되고 API 가격 조정이나 액세스 제한과 같은 잠재적인 위험을 피할 수 있습니다.
로컬 배포의 한계
로컬 배포의 장점은 상당하지만, 대규모 모델에 필요한 계산 능력과 같은 한계도 무시할 수 없습니다.
- 하드웨어 비용 입력개별 사용자는 로컬 장비에서 파라미터 크기가 큰 모델을 실행하는 데 어려움을 겪는 경우가 많으며, 파라미터가 작은 모델은 성능이 저하될 수 있습니다. 따라서 사용자는 하드웨어 비용과 모델 성능 사이에서 균형을 맞춰야 합니다. 고성능 모델을 추구하려면 필연적으로 추가적인 하드웨어 투자가 필요합니다.
- 대규모 작업 처리 기능대규모 데이터 처리가 필요한 작업에 직면했을 때 이를 효과적으로 완료하려면 서버 수준의 하드웨어 지원이 필요한 경우가 많습니다. 개인 디바이스에는 처리 능력에 자연스러운 병목 현상이 있습니다.
- 기술적 한계웹 페이지를 방문하거나 API를 구성하는 것만으로 사용할 수 있는 클라우드 서비스의 편리함에 비해 로컬 배포에는 기술적 장벽이 존재합니다. 사용자가 모델을 더욱 세밀하게 조정해야 하는 경우 배포는 더욱 어려워집니다. 다행히도 로컬 배포에 대한 기술적 장벽은 점차 낮아지고 있습니다.
- 유지 관리 비용모델 및 관련 도구의 업그레이드 및 반복으로 인해 환경 구성에 문제가 발생하여 사용자가 유지 관리 및 문제 해결에 시간과 노력을 투자해야 할 수 있습니다.
따라서 사용자의 실제 상황에 따라 로컬 배포 또는 온라인 모델 중 어떤 것을 선택할지 고려해야 합니다. 다음은 로컬 배포가 적용되는 시나리오와 적용되지 않는 시나리오를 간략하게 요약한 것입니다:
- 로컬 배포에 적합한 시나리오높은 개인정보 보호 요구 사항, 짧은 지연 시간 요구 사항, 장기간 사용(예: 엔터프라이즈 AI 비서, 법률 분석 시스템 등).
- 로컬 배포에 적합하지 않은 시나리오단기 테스트 검증, 높은 산술 요구 사항, 매우 큰 모델(예: 70B+ 매개변수 수준)에 대한 의존도.
클라우드의 무료 서버를 사용하는 프라이빗 배포도 오래 전부터 권장되어 온 좋은 방법이지만 일정한 기술 기반이 필요합니다:무료 GPU 성능으로 딥시크-R1 오픈 소스 모델을 온라인으로 배포하기
DeepSeek-R1 로컬 배포 실행 중
DeepSeek-R1을 로컬에 배포하는 방법은 여러 가지가 있지만, 이 문서에서는 두 가지 간단한 옵션을 소개합니다. Ollama 배포 방법과 LM Studio를 사용한 제로 코드 배포 시나리오를 살펴보세요.
옵션 1: Ollama 기반 DeepSeek-R1 배포
Ollama는 모국어 모델을 배포하고 실행하기 위한 주요 프레임워크입니다. 가볍고 확장성이 뛰어나며 Meta의 Llama 모델 제품군 출시 이후 각광을 받고 있습니다. 이름과는 달리 Ollama 프로젝트는 커뮤니티 중심이며 Meta 및 Llama 모델 제품군 개발과는 직접적인 관련이 없습니다.

올라마 프로젝트는 빠르게 성장하고 있으며, 지원하는 다양한 모델과 생태계도 빠르게 확장되고 있습니다.

올라마에서 지원하는 일부 모델 및 생태학
올라마 사용의 첫 번째 단계는 올라마 소프트웨어를 다운로드하여 설치하는 것입니다. 공식 Ollama 다운로드 페이지를 방문하여 운영 체제에 맞는 버전을 선택하세요.
다운로드: https://ollama.com/download
Ollama를 설치한 후에는 디바이스에 대한 AI 모델을 구성해야 합니다. DeepSeek-R1을 예로 들어 보겠습니다. Ollama 웹사이트의 모델 라이브러리를 방문하여 지원되는 모델과 버전을 찾아보세요:
https://ollama.com/search
DeepSeek-R1은 오픈 소스 모델인 Llama 및 Qwen을 기반으로 미세 조정, 증류 또는 정량화된 버전을 포함하여 15억에서 67억에 이르는 29가지 버전의 Ollama 모델 라이브러리에서 사용할 수 있습니다.

어떤 버전을 선택할지는 사용자의 하드웨어 구성에 따라 다릅니다. dev.to 개발자 커뮤니티의 Avnish가 DeepSeek-R1의 다양한 크기 버전에 대한 하드웨어 요구 사항을 요약한 글을 작성했습니다:

이미지 출처: https://dev.to/askyt/deepseek-r1-architecture-training-local-deployment-and-hardware-requirements-3mf8
이 문서에서는 데모를 위해 버전 8B를 예로 들어 설명합니다. 장치 터미널을 열고 다음 명령을 실행합니다:
ollama run deepseek-r1:8b
그런 다음 모델 다운로드가 완료될 때까지 기다리세요. (Ollama는 ollama run hf.co/{사용자 이름}/{도서관}:{정량화된 버전} 명령을 사용하여 Hugging Face에서 직접 모델을 다운로드하는 기능도 지원합니다(예: ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0).

모델을 다운로드한 후 단말기에서 8B 버전의 DeepSeek-R1과 대화할 수 있습니다.

그러나 이러한 유형의 터미널 대화는 일반 사용자에게는 직관적이고 편리하지 않습니다. 따라서 사용자 친화적인 그래픽 인터페이스 프런트엔드가 필요합니다. 예를 들어 다음과 같은 다양한 프런트엔드 중에서 선택할 수 있습니다. WebUI 열기 다음과 같은 것을 얻습니다. ChatGPT 또는 다음을 선택할 수 있습니다. 채팅박스 및 기타 데스크톱 애플리케이션. 더 많은 프런트엔드 옵션은 공식 Ollama 문서에서 확인할 수 있습니다:
https://github.com/ollama/ollama
- WebUI 열기
웹UI 열기를 선택한 경우 터미널에서 다음 두 줄의 코드를 실행하면 됩니다:
Open WebUI를 설치합니다:
pip install open-webui
Open WebUI 서비스를 실행합니다:
open-webui serve
그런 다음 브라우저에서 http://localhost:8080 을 방문하여 ChatGPT와 유사한 웹 인터페이스를 경험하세요. Open WebUI의 모델 목록에서 DeepSeek-R1 7B 및 8B 버전과 Llama 3.1 8B, Llama 3.2 3B, Phi 4, Qwen 2.5 Coder 등 로컬 Ollama에서 구성한 여러 모델을 볼 수 있습니다. 테스트에는 DeepSeek-R1 8B 모델이 선택되었습니다:

- 채팅박스
독립형 데스크톱 애플리케이션을 사용하는 것을 선호한다면 Chatbox와 같은 도구를 고려해 볼 수 있습니다. 구성 단계는 Chatbox 애플리케이션을 다운로드하고 설치하는 것부터 시작하여 똑같이 간단합니다:
https://chatboxai.app/zh
Chatbox를 실행한 후 "설정" 인터페이스로 들어가 "모델 공급자"에서 OLLAMA API를 선택한 다음 "모델" 열에서 사용하려는 모델을 선택합니다. 그런 다음 "모델" 필드에서 사용하려는 모델을 선택하고 필요에 따라 최대 컨텍스트 메시지 수 및 온도 등의 매개변수를 설정합니다(기본 설정을 유지할 수도 있음).

구성이 완료되면 로컬로 배포된 DeepSeek-R1 모델과 Chatbox에서 원활한 대화를 나눌 수 있습니다. 그러나 테스트 결과, 복잡한 명령을 처리할 때 DeepSeek-R1 7B 모델의 성능이 약간 떨어지는 것으로 나타났습니다. 이는 개별 사용자가 일반적으로 로컬 디바이스에서 상대적으로 제한된 성능의 모델만 실행할 수 있다는 이전의 지적을 확인시켜 줍니다. 그러나 하드웨어 기술이 계속 발전함에 따라 향후에는 개인 사용자가 대용량 파라미터 모델을 로컬에서 사용하는 데 대한 장벽이 더욱 낮아질 것으로 예상되며, 그 날이 그리 멀지 않을 수도 있습니다.

**Open WebUI와 Chatbox는 모두 API를 통해 DeepSeek의 모델, ChatGPT 및 Claude에 대한 액세스를 지원합니다, 쌍둥이자리 및 기타 비즈니스 모델을 지원합니다. 사용자는 일상적인 AI 도구 사용을 위한 프런트엔드 인터페이스로 사용할 수 있습니다. 또한, 올라마에서 구성된 모델은 흑요석이나 시민 노트와 같은 노트 필기 애플리케이션과 같은 다른 도구에 통합할 수 있습니다.
옵션 2: LM Studio를 사용하여 코드 없이 DeepSeek-R1 배포하기
명령줄 조작이나 코드에 익숙하지 않은 사용자의 경우, LM Studio를 사용하여 코드 없이도 DeepSeek-R1을 배포할 수 있습니다. 먼저 LM Studio 공식 다운로드 페이지를 방문하여 사용 중인 운영 체제에 맞는 프로그램을 다운로드하세요:
https://lmstudio.ai
설치가 완료되면 LM Studio를 시작합니다. '내 모델' 탭에서 모델의 로컬 저장소 폴더를 설정합니다:

그런 다음 Hugging Face에서 필요한 언어 모델 파일을 다운로드하여 지정된 디렉토리 구조에 따라 위의 폴더에 넣습니다(LM Studio에는 모델 검색 기능이 내장되어 있지만 실제로는 잘 작동하지 않음). 모델 파일은 .gguf 형식으로 다운로드해야 한다는 점에 유의하세요. 예를 들면 다음과 같습니다. Unsloth 조직에서 제공하는 DeepSeek-R1 모델 모음입니다:
https://huggingface.co/collections/unsloth/deepseek-r1-all-versions-678e1c48f5d2fce87892ace5
하드웨어 구성을 고려하여, 이 백서에서는 Qwen 모델의 미세 조정을 기반으로 한 DeepSeek-R1 Distillate 버전(14B 파라미터 번호)과 4비트 양자화 버전인 DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf를 선택했습니다.
다운로드가 완료되면 모델 파일을 다음 디렉토리 구조에 따라 이전에 설정한 폴더에 넣습니다:
모델 폴더 /unsloth/DeepSeek-R1-Distill-Qwen-14B-GGUF/DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf
마지막으로 LM Studio를 열고 애플리케이션 인터페이스 상단에서 로드할 모델을 선택하여 로컬 모델과 대화합니다.

LM Studio의 가장 큰 장점은 완전한 제로 코드로, 터미널을 사용하거나 코드를 작성할 필요 없이 소프트웨어를 설치하고 폴더를 구성하기만 하면 되기 때문에 매우 사용자 친화적이라는 점입니다.
요약
이 문서에서 제공하는 튜토리얼은 DeepSeek-R1의 기본 수준의 로컬 배포만 제공합니다. 이 인기 있는 모델을 로컬 워크플로에 보다 심층적으로 통합하려면 시스템 프롬프트 설정 및 고급 모델 미세 조정과 같은 보다 자세한 구성이 필요합니다, RAG 통합, 검색 기능, 멀티모달 기능 및 도구 호출 기능. 동시에 AI 전용 하드웨어와 소형 모델 기술이 계속 발전하고 있기 때문에 앞으로도 대규모 모델을 로컬에 배포하는 장벽은 계속 낮아질 것이라고 생각합니다. 이 글을 읽은 후 직접 DeepSeek-R1 모델을 배포해 보시겠습니까?
첨부된 DeepSeek R1+OpenwebUI 원클릭 설치 패키지
Sword27에서 제공하는 원클릭 설치 패키지는 DeepSeek 전용으로 통합되어 있습니다. WebUI 열기
원클릭 실행의 DeepSeek 로컬 배포, 사용하도록 압축 해제 1.5b 7b 8b 14b 32b 지원, 최소 2G 그래픽 카드 지원
설치 프로세스
1.AI 환경 다운로드: https://pan.quark.cn/s/1b1ad88c7244
2. 설치 패키지 다운로드: https://pan.quark.cn/s/7ec8d85b2f95
원본 문서에서 도움말 받기: https://www.jian27.com/html/1396.html
© 저작권 정책
기사 저작권 AI 공유 서클 모두 무단 복제하지 마세요.
관련 문서
댓글 없음...