I. 소개
Deepseek R1은 복잡한 추론, 멀티모달 처리 및 기술 문서 생성을 지원하는 고성능 범용 대규모 언어 모델입니다. 이 매뉴얼은 기술 팀을 위한 완벽한 로컬 배포 가이드를 제공하며, 전체 671B MoE 모델에 대한 하드웨어 구성, 국내 칩 적응, 양자화 솔루션, 이기종 솔루션, 클라우드 대안 및 배포 방법을 다룹니다.
II. 로컬 배포를 위한 핵심 구성 요구 사항
1. 모델 매개변수 및 하드웨어 대응 표
모델 매개변수(B) | Windows 구성 요구 사항 | Mac 구성 요구 사항 | 적용 가능한 시나리오 |
---|
1.5B | - RAM: 4GB- GPU: 통합 그래픽/최신 CPU- 스토리지: 5GB | - 메모리: 8GB(M1/M2/M3) - 저장 공간: 5GB | 간단한 텍스트 생성, 기본 코드 완성 |
7B | - RAM: 8~10GB- GPU: GTX 1680(4비트 정량화)- 저장 공간: 8GB | - 메모리: 16GB(M2 Pro/M3) - 저장 용량: 8GB | 중간 난이도 퀴즈, 코드 디버깅 |
8B | - RAM: 16GB - GPU: RTX 4080(16GB VRAM) - 저장 공간: 10GB | - 메모리: 32GB(최대 M3) - 저장 용량: 10GB | 중간 복잡도 추론, 문서 생성 |
14B | - RAM: 24GB-GPU: RTX 3090(24GB V램) | - 메모리: 32GB(최대 M3) - 저장 공간: 20GB | 복잡한 추론, 기술 문서 생성 |
32B | 엔터프라이즈 배포(여러 카드를 병렬로 연결해야 함) | 현재 지원되지 않음 | 과학 컴퓨팅, 대규모 데이터 처리 |
70B | 엔터프라이즈 배포(여러 카드를 병렬로 연결해야 함) | 현재 지원되지 않음 | 대규모 추론, 매우 복잡한 작업 |
671B | 엔터프라이즈 배포(여러 카드를 병렬로 연결해야 함) | 현재 지원되지 않음 | 초대형 연구 컴퓨팅, 고성능 컴퓨팅 |
2. 컴퓨팅 성능 요구 사항 분석
모델 버전 | 매개변수 (B) | 계산 정확도 | 모델 크기 | VRAM 요구 사항(GB) | 레퍼런스 GPU 구성 |
---|
DeepSeek-R1 | 671B | FP8 | ~1,342GB | ≥1,342GB 이상 | 멀티 GPU 구성(예: NVIDIA A100 80GB * 16) |
DeepSeek-R1-Distill-Llama-70B | 70B | BF16 | 43GB | ~32.7GB | 멀티 GPU 구성(예: NVIDIA A100 80GB * 2) |
DeepSeek-R1-Distill-Qwen-32B | 32B | BF16 | 20GB | ~14.9GB | 멀티 GPU 구성(예: NVIDIA RTX 4090 * 4) |
DeepSeek-R1-Distill-Qwen-14B | 14B | BF16 | 9GB | ~6.5GB | NVIDIA RTX 3080 10GB 이상 |
DeepSeek-R1-Distill-Llama-8B | 8B | BF16 | 4.9GB | ~3.7GB | NVIDIA RTX 3070 8GB 이상 |
DeepSeek-R1-Distill-Qwen-7B | 7B | BF16 | 4.7GB | ~3.3GB | NVIDIA RTX 3070 8GB 이상 |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | BF16 | 1.1GB | ~0.7GB | NVIDIA RTX 3060 12GB 이상 |

추가 참고 사항:
- VRAM 요구 사항표에 나열된 VRAM 요구 사항은 최소 요구 사항이며, 모델 로드 및 작동 중 피크 수요를 처리하기 위해 실제 배포 시 20%-30%의 추가 비디오 메모리를 따로 확보하는 것이 좋습니다.
- 멀티 GPU 구성대규모 모델(예: 32B+)의 경우 계산 효율성과 안정성을 향상시키기 위해 여러 개의 GPU를 병렬로 사용하는 것이 좋습니다.
- 계산 정확도그래픽 메모리 사용량을 줄이면서 모델 성능을 보장할 수 있는 현재 주류 고효율 계산 정확도인 FP8 및 BF16입니다.
- 적용 가능한 시나리오매개변수 스케일이 다른 모델은 복잡도가 다른 작업에 적합하며, 사용자는 실제 필요에 따라 적절한 모델 버전을 선택할 수 있습니다.
- 엔터프라이즈 배포671B와 같은 초대형 모델의 경우 고성능 컴퓨팅 요구 사항을 충족하기 위해 전문가급 GPU 클러스터(예: NVIDIA A100)를 배포하는 것이 좋습니다.
III. 국내 칩 및 하드웨어 적응 프로그램
1. 국내 에코 파트너십 역학 관계
기업 | 적응 콘텐츠 | 성능 벤치마킹(NVIDIA 대비) |
---|
화웨이 라이즈 | Rise 910B는 기본적으로 전체 R1 제품군을 지원하며 엔드투엔드 추론 최적화를 제공합니다. | |
Mu Xi GPU | MXN 시리즈는 70B 모델 BF16 추론을 지원하여 메모리 사용률을 30%까지 향상시킵니다. | RTX 3090 상당 |
씨 라이트 DCU | V3/R1 모델에 적용, NVIDIA A100 대비 성능 향상 | 동급 A100(BF16) |
2. 국가별 하드웨어 권장 구성
모델 매개변수 | 추천 프로그램 | 적용 가능한 시나리오 |
---|
1.5B | 타이추 T100 액셀러레이터 카드 | 개별 개발자 프로토타입 검증 |
14B | 쿤룬 코어 K200 클러스터 | 엔터프라이즈 수준의 복잡한 작업 추론 |
32B | 월처치 컴퓨팅 파워 플랫폼 + Rise 910B 클러스터 | 과학 컴퓨팅 및 멀티모달 프로세싱 |
IV. 클라우드 배포 대안
1. 국내 클라우드 서비스 제공업체 추천
평지붕 건물 | 핵심 강점 | 적용 가능한 시나리오 |
---|
실리콘 기반 흐름 | 공식 권장 API, 짧은 지연 시간, 멀티모달 모델 지원 | 엔터프라이즈급 고도의 동시성 추론 |
텐센트 클라우드 | 원클릭 배포 + 한시적 무료 평가판으로 VPC 프라이빗화 지원 | 중소 규모 모델의 신속한 출시 |
PPIO Paio 클라우드 | OpenAI 가격의 1/20, 등록 시 5천만 무료. 토큰 | 저렴한 비용의 시음 및 테스트 |
2. 해외 액세스 채널(매직 또는 외국 기업 인터넷 액세스 필요)
- NVIDIA NIM: 엔터프라이즈 GPU 클러스터 배포(링크)
- Groq: 초저지연 추론(링크)
V. 올라마+언슬로스 배포
1. 정량화 프로그램 및 모델 선택
정량화된 버전 | 파일 크기 | 최소 RAM + VRM 요구 사항 | 적용 가능한 시나리오 |
---|
DeepSeek-R1-UD-IQ1_M | 158GB | ≥200GB | 소비자 등급 하드웨어(예: Mac Studio) |
DeepSeek-R1-Q4_K_M | 404 GB | ≥500GB | 고성능 서버/클라우드 GPU |
주소 다운로드:
2. 하드웨어 구성 권장 사항
하드웨어 유형 | 권장 구성 | 성능 성능(짧은 텍스트 생성) |
---|
소비자 등급 장비 | Mac Studio(192GB 통합 메모리) | 초당 10개 이상의 토큰 |
고성능 서버 | 4 RTX 4090(96GB V램 + 384GB RAM) | 초당 7-8개 토큰(혼합 추론) |
3. 배포 단계(Linux 예제)
1. 종속 도구 설치:
# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp
2. 모델링 조각을 다운로드하여 병합합니다:
llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf
3. Ollama를 설치합니다:
curl -fsSL https://ollama.com/install.sh | sh
4. 모델파일을 생성합니다:
FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28 # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"
5. 모델을 실행합니다:
ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile
4. 성능 튜닝 및 테스트
- 낮은 GPU 사용률고대역폭 메모리 업그레이드(예: DDR5 5600+).
- 확장된 스왑 공간::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
풀 블러드 671B 배포 주문
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2
VI. 참고 사항 및 위험
1. 비용 알림:
- 70B 모델80G RAM 그래픽 카드 3개 이상 필요(예: RTX A6000), 단일 카드 사용자에게는 제공되지 않습니다.
- 671B 모델8xH100 클러스터 필요, 슈퍼컴퓨팅 센터 배포 전용.
2. 대체 프로그램:
- 개인 사용자는 유지 관리가 필요 없고 규정을 준수하는 클라우드 기반 API(예: Silicon Flow)를 사용하는 것이 좋습니다.
3. 국가별 하드웨어 호환성:
- 프레임워크의 사용자 정의 버전이 필요합니다(예: Rise CANN, MXMLLM).
부록: 기술 지원 및 리소스
- 화웨이 라이즈: Rise 클라우드 서비스
- Mu Xi GPU: 무료 API 체험
- 이석한 블로그전체 배포 튜토리얼
VIII. 이기종 GPUStack 프로그램
GPUStack 오픈 소스 프로젝트
https://github.com/gpustack/gpustack/
리소스 측정 도구 모델링
- GGUF 파서(https://github.com/gpustack/gguf-parser-go)를 사용하여 비디오 메모리 요구 사항을 수동으로 계산합니다.
GPUStack
딥시크 전체 플랫폼 프라이빗 배포
모델 | 컨텍스트 크기 | VRAM 요구 사항 | 권장 GPU |
---|
R1-디스틸-퀀-1.5B(Q4_K_M) | 32K | 2.86 GiB | RTX 4060 8GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-1.5B(Q8_0) | 32K | 3.47 GiB | RTX 4060 8GB, 맥북 프로 M4 최대 36G |
R1-DISTILL-QWEN-1.5B(FP16) | 32K | 4.82 GiB | RTX 4060 8GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-7B(Q4_K_M) | 32K | 7.90 GiB | RTX 4070 12GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-7B(Q8_0) | 32K | 10.83 GiB | RTX 4080 16GB, 맥북 프로 M4 최대 36G |
R1-Distill-Qwen-7B(FP16) | 32K | 17.01 GiB | RTX 4090 24GB, 맥북 프로 M4 최대 36G |
R1-디스틸-라마-8B(Q4_K_M) | 32K | 10.64 GiB | RTX 4080 16GB, 맥북 프로 M4 최대 36G |
R1-디스틸-라마-8B(Q8_0) | 32K | 13.77 GiB | RTX 4080 16GB, 맥북 프로 M4 최대 36G |
R1-디스틸-라마-8B(FP16) | 32K | 20.32 GiB | RTX 4090 24GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-14B(Q4_K_M) | 32K | 16.80 GiB | RTX 4090 24GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-14B(Q8_0) | 32K | 22.69 GiB | RTX 4090 24GB, 맥북 프로 M4 최대 36G |
R1-디스틸-퀀-14B(FP16) | 32K | 34.91 GiB | RTX 4090 24GB x2, 맥북 프로 M4 최대 48G |
R1-디스틸-퀀-32B(Q4_K_M) | 32K | 28.92 GiB | RTX 4080 16GB x2, 맥북 프로 M4 최대 48G |
R1-디스틸-퀀-32B(Q8_0) | 32K | 42.50 GiB | RTX 4090 24GB x3, 맥북 프로 M4 최대 64G |
R1-디스틸-퀀-32B(FP16) | 32K | 70.43 GiB | RTX 4090 24GB x4, 맥북 프로 M4 최대 128G |
R1-디스틸-라마-70B(Q4_K_M) | 32K | 53.41 GiB | RTX 4090 24GB x5, A100 80GB x1, MacBook Pro M4 Max 128G |
R1-디스틸-라마-70B(Q8_0) | 32K | 83.15 GiB | RTX 4090 24GB x5, 맥북 프로 M4 최대 128G |
R1-디스틸-라마-70B(FP16) | 32K | 143.83 GiB | A100 80GB x2, Mac Studio M2 Ultra 192G |
R1-671B(UD-IQ1_S) | 32K | 225.27 GiB | A100 80GB x4, Mac Studio M2 Ultra 192G |
R1-671B(UD-IQ1_M) | 32K | 251.99 GiB | A100 80GB x4, Mac Studio M2 Ultra 192G x2 |
R1-671B(UD-IQ2_XXS) | 32K | 277.36 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B(UD-Q2_K_XL) | 32K | 305.71 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B(Q2_K_XS) | 32K | 300.73 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B(Q2_K/Q2_K_L) | 32K | 322.14 GiB | A100 80GB x6, Mac Studio M2 Ultra 192G x2 |
R1-671B(Q3_K_m) | 32K | 392.06 GiB | A100 80GB x7 |
R1-671B(Q4_K_m) | 32K | 471.33 GiB | A100 80GB x8 |
R1-671B(Q5_K_m) | 32K | 537.31 GiB | A100 80GB x9 |
R1-671B(Q6_K) | 32K | 607.42 GiB | A100 80GB x11 |
R1-671B(Q8_0) | 32K | 758.54 GiB | A100 80GB x13 |
R1-671B(FP8) | 32K | 805.2 GiB | H200 141GB x8 |
결론
Deepseek R1 현지화된 배포에는 매우 높은 하드웨어 투자와 기술적 한계가 필요하므로 개인 사용자는 신중해야 하며, 기업 사용자는 요구 사항과 비용을 충분히 평가해야 합니다. 현지화된 적응과 클라우드 서비스를 통해 위험을 크게 줄이고 효율성을 개선할 수 있습니다. 기술에는 한계가 없으며 합리적인 계획을 통해 비용을 절감하고 효율성을 높일 수 있습니다!
글로벌 엔터프라이즈 개인 채널 일정
- 비밀의 탑 검색
- 360 나노 AI 검색
- 실리콘 기반 흐름
- 바이트 점프 볼케이노 엔진
- 가상 가상 현실 웹사이트인 바이두 클라우드 치판(Chifan)
- NVIDIA NIM
- Groq
- 불꽃놀이
- 낙하산
- Github
- POE
- 커서
- Monica
- 람다(그리스 문자 ΛΛ)
- 뇌
- 당혹감
- 알리바바 클라우드 100 개선 사항
마법 또는 해외 기업 인터넷 액세스가 필요한 환경의 경우
칩 비즈니스 지원 일정
표 1: DeepSeek-R1을 지원하는 클라우드 벤더
날짜 | 이름/웹사이트 | 관련 정보 게시 |
---|
1월 28일 | 점등. 하늘의 핵심 돔을 모릅니다. | 이기종 클라우드의 훌륭한 조합 |
1월 28일 | PPIO Paio 클라우드 | DeepSeek-R1이 PPIO Paio 컴퓨팅 클라우드에 출시되었습니다! |
2월 1일 | 실리콘 기반 모빌리티 x 화웨이 | 첫 출시! 실리콘 모빌리티 x 화웨이 클라우드, 라이즈 클라우드 기반 DeepSeekR1 및 V3 추론 서비스 공동 출시! |
2월 2일 | Z stark(클라우드 축 기술) | ZStack은 프라이빗 배포를 위한 여러 자체 개발 CPU/GPU인 DeepSeekV3/R1/JanusPro를 지원합니다. |
2월 3일 | 바이두 인텔리전트 클라우드 치판 | 바이두 인텔리전트 클라우드 치판, 초저가로 딥시크-R1/V3 통화 완벽 지원 |
2월 3일 | 슈퍼컴퓨팅 인터넷 | 슈퍼컴퓨팅 인터넷, 초지능 융합 연산 지원을 제공하는 딥시크 시리즈 모델 출시 |
2월 4일 | Huawei(Rise 커뮤니티) | 새로운 딥시크릿 시리즈가 라이즈 커뮤니티에 공식 출시되었습니다! |
2월 4일 | 루첸 x 화웨이 라이즈 | 루첸 x 화웨이 라이즈, 국내 연산 능력 기반 딥시크R1 시리즈 추론 API 및 클라우드 미러링 서비스 공동 출시 |
2월 4일 | GreenCloud Technologies, Inc. | 한시적으로 무료, 원클릭 배포! 키스톤 와이즈 컴퓨팅, DeepSeek-R1 시리즈 모델 공식 출시 |
2월 4일 | 테네시 인텔리전트 코어(TIC), 컴퓨팅 기술 | 하루 만에 적응! 딥시크R1 모델 서비스가 GiteeAi와 함께 정식 출시되었습니다! |
2월 4일 | 분자 생물학 | 딥시크에 바치는 헌사: 국산 GPU로 중국 알 생태계에 불을 지피다 |
2월 4일 | 하이광 정보 | DeepSeekV3 및 R1, 교육이 SeaLight DCU 적응을 완료하고 가동에 들어갑니다. |
2월 5일 | 샤워의 첫 빛 | 국내 최초 Mu Xi GPU 체험을 위한 DeepSeek-V3 정식 버전 출시 |
2월 5일 | 하이광 정보 | 하이두 앙 DcCU 첸 공, 딥시크-야누스 프로 멀티모달 매크로 모델 도입 |
2월 5일 | 중국 최대 클라우드 제공업체, 징동 윤(베이징 2008-) | 원클릭 배포! 징동 클라우드가 DeepSeek-R1/V3로 본격 가동됩니다. |
2월 5일 | (측정) | 월렌 국산 인공지능 연산 플랫폼 '딥시크R1' 출시, 모든 모델 원스톱으로 개발자 지원 강화 |
2월 5일 | 유니콤 클라우드(차이나 유니콤) | "바다 속 네자"! 클라우드 선반 DeepSeek-R1 시리즈 모델을 연결하세요! |
2월 5일 | 모바일 클라우드(차이나 모바일) | 풀 버전, 풀 사이즈, 풀 기능! 모바일 클라우드, DeepSeek와 함께 정식 출시 |
2월 5일 | 유코텍스(브랜드) | 국내 칩을 기반으로 딥시크의 모든 모델에 적용하는 UQD |
2월 5일 | 대만계 미국인 작가 Acer | 타이추 T100 가속 카드 기반 딥시크-R1 시리즈 모델, 원클릭 경험, 무료 API 서비스를 적용하는 데 2시간이 걸립니다. |
2월 5일 | 리드 윤천 페이(1931-), 대만 정치인, 2008년부터 중화민국 대통령 | 딥엣지10은 딥시크-R1 시리즈 모델 적용을 완료했습니다. |
2월 6일 | SkyCloud(차이나 텔레콤) | 국내 알 생태계의 새로운 돌파구! "히비스커스" + 딥시크릿, 왕의 폭탄! |
2월 6일 | 수원 기술 | 오리지널 테크놀로지, 전국 스마트 컴퓨팅 센터에 딥시크의 추론 서비스 전면 배포 달성 |
2월 6일 | 쿤룬 코어(카라코룸), 신장에서 사용되는 산맥 | 국내 알카 딥시크 훈련 추론 정식 버전 적용, 뛰어난 성능, 원클릭 배포 등! |
2월 7일 | 웨이브 클라우드 | 웨이브 클라우드, 671BDeepSeek 빅 모델 올인원 솔루션 출시 |
2월 7일 | 베이징 슈퍼컴퓨터 | 베이징 슈퍼컴퓨팅 xDeepSeek: 듀얼 엔진이 불을 뿜으며 1,000억 알 혁신의 폭풍을 몰고 온다. |
2월 8일 | 중국 전자 클라우드 | 중국 e클라우드, DeepSeek-R1/V3 전체 볼륨 모델 출시로 프라이빗 배포의 새로운 장을 열다 |
2월 8일 | 킹소프트 클라우드 | 킹소프트 클라우드, 딥시크릿-R1/V3 지원 |
2월 8일 | 상탕의 큰 장치 | 샹탕 빅 디바이스는 제한된 경험과 업그레이드 된 서비스로 DeepSeek 시리즈 모델을 선보입니다! |
표 2: DeepSeek-R1을 지원하는 엔터프라이즈
날짜 | 이름/웹사이트 | 관련 정보 게시 |
---|
1월 30일 | 360 나노 AI 검색 | 나노 AI 검색, 'DeepSeek-R1' 빅모델 정식 버전 출시 |
2월 3일 | 시크릿 타워 AI 검색 | 시크릿 타워 AI, 딥시크R1 추론 모델의 풀 버전 액세스 |
2월 5일 | 샤오이 어시스턴트(화웨이) | 화웨이 샤오이 어시스턴트는 화웨이 클라우드가 라이즈 클라우드 서비스를 기반으로 한 DeepSeekR1/V3 추론 서비스 출시를 발표한 후 딥시크에 액세스할 수 있습니다. |
2월 5일 | 작가 도우미(독서 그룹) | 업계 최초! ReadWrite, '작가 보조 기능'인 DeepSeek를 도입하여 세 가지 보조 창작 기능을 업그레이드합니다. |
2월 5일 | 완싱 테크놀로지 주식회사 | 완싱 기술: DeepSeek-R1 대형 모델 적응 완료 및 여러 제품 출시 |
2월 6일 | 알도 피(1948-), 홍콩 사업가 겸 정치가, 2007-2010년 총리 | 대표 추론 빅모델로 딥시크를 도입한 넷이즈는 AI 교육의 연착륙을 가속화했습니다. |
2월 6일 | 클라우드 학교(컴퓨팅) | 딥시크 제품 AI 기능에 대한 클라우드 학습 액세스 종합 업그레이드 |
2월 7일 | 스테이플 | 네일 AI 어시스턴트 액세스 딥서치, 딥씽킹 지원 |
2월 7일 | 구매 가치 있는 제품 | 구매 가치: DeepSeek 모델 제품 액세스 |
2월 7일 | 플러시(주식 거래) | 플러시 애스크 머니 2.0 업그레이드: "느린 사고"의 지혜를 주입하여 보다 합리적인 투자 의사 결정 도우미를 만듭니다. |
2월 8일 | 스카이웍스 AI(쿤룬 완웨이) | 쿤룬 완웨이의 톈궁 AI, 딥시크릿R1+ 커넥티드 검색 공식 출시 |
2월 8일 | 별의 유령 | 플라이미AIOS가 딥시크-R1 빅모델 액세스를 완료했습니다! |
2월 8일 | 영광스럽게 | Pride는 DeepSeek에 액세스할 수 있습니다. |
표 3: DeepSeek-R1을 지원하는 기업 요약
이름/웹사이트 | 관련 정보 게시 |
---|
DeepSeek | DeepSeek-R1 출시, OpenAI o1 출시 대비 성능 벤치마킹 |
점등. 하늘의 핵심 돔을 모릅니다. | 이제 자체 개발 모델과 이기종 클라우드의 훌륭한 조합인 DeepSeek-R1-Distill에서 Infini-Al 이기종 클라우드를 사용할 수 있습니다. |
PPIO Paio 클라우드 | DeepSeek-R1이 PPIO Paio 컴퓨팅 클라우드에 출시되었습니다! |
실리콘 기반 흐름 Huawei | 첫 출시! 실리콘 모빌리티 x 화웨이 클라우드, 라이즈 클라우드 기반 DeepSeekR1&V3 추론 서비스 공동 출시! |
Z stark(클라우드 축 기술) | ZStack은 프라이빗 배포를 위한 여러 자체 개발 CPU/GPU인 DeepSeekV3/R1/JanusPro를 지원합니다! |
바이두 인텔리전트 클라우드 치판 | 바이두 인텔리전트 클라우드 치판, 초저가로 딥시크-R1/V3 통화 완벽 지원 |
슈퍼컴퓨팅 인터넷 | 슈퍼컴퓨팅 인터넷, 초지능 융합 연산 지원을 제공하는 DeepSeek 시리즈 모델 출시 |
Huawei(Rise 커뮤니티) | 새로운 모델 딥시크릿 시리즈가 라이즈 커뮤니티에 공식 출시되었습니다. |
루첸 x 화웨이 라이즈 | 루첸 x 화웨이 라이즈, 국내 연산 능력 기반 추론 API 및 클라우드 배포 서비스 '딥시크릿R1' 시리즈 출시 |
GreenCloud Technologies, Inc. | 한시적 무료, 원클릭 배포! 코너스톤 컴퓨팅이 DeepSeek-R1 시리즈 모델을 출시합니다! |
중국 최대 클라우드 제공업체, 징동 윤(베이징 2008-) | 원클릭 배포! 징동 클라우드가 DeepSeek-R1/V3로 본격 가동됩니다. |
유니콤 클라우드(차이나 유니콤) | "바다 속 네 자"! 클라우드 선반 DeepSeek-R1 시리즈 모델을 연결하세요! |
모바일 클라우드(차이나 모바일) | 풀 버전, 풀 사이즈, 풀 기능! 모바일 클라우드, DeepSeek 정식 출시 |
유코텍스(브랜드) | 자체 개발한 칩을 기반으로 모든 딥시크 모델에 적용하는 UQD |
SkyCloud(차이나 텔레콤) | 국내 AI 생태계의 새로운 돌파구! "최대 절전 모드" + 딥서치, 그야말로 폭탄! |
디지털 중국 | 3분 만에 구축한 고성능 AI 모델 딥시크, 디지털 차이나가 기업의 인텔리전트 트랜스포메이션을 지원합니다. |
Kaplan | 케이프 클라우드 인라이튼드 대형 모델 애플리케이션 및 엔드-사이드 올인원, 딥시크에 완벽하게 액세스 가능 |
골드 버터플라이 클라우드 돔 | 킹디의 딥시크 빅 모델에 대한 전체 액세스 권한을 통해 기업은 AI 적용을 가속화할 수 있습니다! |
병렬 기술 | 서버가 바쁘신가요? 패러렐 테크놀로지가 딥서치 프리덤을 도와드립니다! |
캐피탈 온라인(CAPITAL) | 자본 온라인 클라우드 플랫폼, DeepSeek-R1 모델 제품군 출시 |
웨이브 클라우드 | 웨이브 클라우드, 671B 딥시크 빅모델 올인원 솔루션 출시 |
베이징 슈퍼컴퓨터 | 베이징 슈퍼컴퓨팅 x 딥시크: 두 개의 엔진이 폭발하며 수천억 달러 규모의 AI 혁신을 주도하다 |
코뿔소 활성화(지광) | 지광: Rhinoceros 인에이블먼트 플랫폼으로 DeepSeekV3/R1 모델의 나노튜빙 및 쉘빙 지원 |
중국 전자 클라우드 | 중국 e클라우드, 프라이빗 배포의 새로운 장을 여는 DeepSeek-R1/V3 전체 볼륨 모델 출시 |
킹소프트 클라우드 | 킹소프트 클라우드 지원 DeepSeek-R1/V3 |
상탕의 큰 장치 | 상탕 빅 디바이스는 제한된 경험과 업그레이드 된 서비스로 DeepSeek 시리즈 모델을 선보입니다! |
360 나노 AI 검색 | 나노 AI 검색, 'DeepSeek-R1' 대형 모델 풀 블러드 버전 출시 |
시크릿 타워 AI 검색 | 미나렛 딥시크 R1 추론 모델의 정식 버전에 대한 AI 액세스 |
샤오이 어시스턴트(화웨이) | 화웨이 샤오이 어시스턴트는 화웨이 클라우드가 라이즈 클라우드 서비스를 기반으로 한 딥시크 R1/V3 추론 서비스 출시를 발표한 후 딥시크에 액세스할 수 있게 되었습니다. |
작가 도우미(독서 그룹) | 업계 최초로! ReadWrite, '작가 보조' 기능으로 세 가지 창작 지원 기능을 업그레이드한 DeepSeek 배포 |
완싱 테크놀로지 주식회사 | 완싱 기술: DeepSeek-R1 대형 모델 적응 완료 및 여러 제품 출시 |
알도 피(1948-), 홍콩 사업가 겸 정치가, 2007-2010년 총리 | 넷이즈유다오, 딥시크의 대규모 추론 모델을 도입하여 AI 교육의 연착륙을 가속화합니다. |
클라우드 학교(컴퓨팅) | 딥시크 제품 AI 기능에 대한 클라우드 학습 액세스 권한이 전면적으로 업그레이드되었습니다. |
스테이플 | 네일 AI 어시스턴트 액세스 딥서치, 딥씽킹 지원 |
구매 가치 있는 제품 | 구매 가치: DeepSeek 모델 제품 액세스 |
플라이북 x 딥서치와 관련된 AI 기능 요약(공개 버전) | |
플러시(주식 거래) | 플러시 Q&C 2.0 업그레이드: '느린 사고'의 지혜를 주입하여 보다 합리적인 투자 결정 도우미 만들기 |
천상의 솜씨 AI(쿤룬 완웨이) | 쿤룬 MSI의 자회사 톈궁 AI, 딥시크 R1 + 네트워크 검색 공식 출시 |
별의 유령 | 플라이미 AI OS가 DeepSeek-R1 빅모델 액세스를 완료했습니다! |
영광스럽게 | Pride는 DeepSeek에 액세스할 수 있습니다. |
© 저작권 정책
이 글은 저작권이 있으며 무단으로 복제해서는 안 됩니다.