Aprendizagem pessoal com IA
e orientação prática
豆包Marscode1

Manual completo de implementação local do Deepseek R1 Enterprise

I. Introdução

Deepseek O R1 é um modelo de linguagem grande de uso geral e de alto desempenho que oferece suporte a raciocínio complexo, processamento multimodal e geração de documentos técnicos. Este manual fornece um guia completo de implantação local para equipes técnicas, abrangendo configurações de hardware, adaptações de chips domésticos, soluções de quantificação, soluções heterogêneas, alternativas de nuvem e métodos de implantação para o modelo completo do 671B MoE.

II. Requisitos de configuração principal para implantação local

1. tabela de parâmetros do modelo e correspondência de hardware

Parâmetros do modelo (B) Requisitos de configuração do Windows Requisitos de configuração do Mac Cenários aplicáveis
1.5B - RAM: 4 GB- GPU: Gráficos integrados/ CPU moderna- Armazenamento: 5 GB - Memória: 8 GB (M1/M2/M3) - Armazenamento: 5 GB Geração de texto simples, conclusão de código básico
7B - RAM: 8-10 GB- GPU: GTX 1680 (4 bits quantised)- Armazenamento: 8 GB - Memória: 16 GB (M2 Pro/M3) - Armazenamento: 8 GB Questionário de complexidade média, depuração de código
8B - RAM: 16 GB - GPU: RTX 4080 (16 GB de VRAM) - Armazenamento: 10 GB - Memória: 32 GB (M3 Max) - Armazenamento: 10 GB Raciocínio de complexidade média, geração de documentos
14B - RAM: 24GB- GPU: RTX 3090 (24GB VRAM) - Memória: 32GB (M3 Max) - Armazenamento: 20GB Raciocínio complexo, geração de documentação técnica
32B Implementação corporativa (requer vários cartões em paralelo) Não suportado no momento Computação científica, processamento de dados em grande escala
70B Implementação corporativa (requer vários cartões em paralelo) Não suportado no momento Raciocínio em grande escala, tarefas ultracomplexas
671B Implementação corporativa (requer vários cartões em paralelo) Não suportado no momento Computação de pesquisa em escala muito grande, computação de alto desempenho

2. análise dos requisitos de potência de computação

versão do modelo Parâmetro (B) precisão do cálculo Tamanho do modelo Requisitos de VRAM (GB) Configuração de referência da GPU
DeepSeek-R1 671B FP8 ~1.342 GB ≥1.342GB Configurações de várias GPUs (por exemplo, NVIDIA A100 80GB * 16)
DeepSeek-R1-Distill-Llama-70B 70B BF16 43 GB ~32,7 GB Configurações de várias GPUs (por exemplo, NVIDIA A100 80GB * 2)
DeepSeek-R1-Distill-Qwen-32B 32B BF16 20 GB ~14,9 GB Configurações de várias GPUs (por exemplo, NVIDIA RTX 4090 * 4)
DeepSeek-R1-Distill-Qwen-14B 14B BF16 9 GB ~6,5 GB NVIDIA RTX 3080 10GB ou superior
DeepSeek-R1-Distill-Llama-8B 8B BF16 4,9 GB ~3,7 GB NVIDIA RTX 3070 8GB ou superior
DeepSeek-R1-Distill-Qwen-7B 7B BF16 4,7 GB ~3,3 GB NVIDIA RTX 3070 8GB ou superior
DeepSeek-R1-Distill-Qwen-1.5B 1.5B BF16 1,1 GB ~0,7 GB NVIDIA RTX 3060 12GB ou superior

Deepseek R1 企业本地部署完全手册-1

Observações adicionais:

  1. Requisitos de VRAMOs requisitos de VRAM listados na tabela são requisitos mínimos, e recomenda-se que 20%-30% de memória de vídeo adicional sejam reservados para implantações reais, a fim de atender às demandas de pico durante o carregamento e a operação do modelo.
  2. Configuração de várias GPUsPara modelos de grande escala (por exemplo, 32B+), é recomendável usar várias GPUs em paralelo para melhorar a eficiência e a estabilidade do cálculo.
  3. precisão do cálculoFP8 e BF16 são as principais precisões computacionais de alta eficiência atuais, que podem garantir o desempenho do modelo e, ao mesmo tempo, reduzir o uso da memória gráfica.
  4. Cenários aplicáveisModelos com diferentes escalas de parâmetros são adequados para tarefas de diferentes complexidades, e os usuários podem escolher a versão apropriada do modelo de acordo com suas necessidades reais.
  5. Implementação corporativaPara modelos de escala muito grande, como o 671B, recomenda-se a implantação de um cluster de GPU de nível profissional (por exemplo, NVIDIA A100) para atender aos requisitos de computação de alto desempenho.

III Programa de adaptação de chips e hardwares domésticos

1. dinâmica de parceria ecológica doméstica

corporações Conteúdo da adaptação Benchmarking de desempenho (vs. NVIDIA)
Aumento da Huawei O Rise 910B oferece suporte nativo a toda a família R1 e fornece otimização de inferência de ponta a ponta.
GPU Mu Xi A série MXN suporta a inferência do modelo 70B BF16, aumentando a utilização da memória em 30% RTX 3090 equivalente
Sea Light DCU Adapta-se aos modelos V3/R1, desempenho em relação ao NVIDIA A100 Equivalente A100 (BF16)

2) Configuração recomendada para o hardware nacional

parâmetro do modelo Programa recomendado Cenários aplicáveis
1.5B Placa aceleradora Taichu T100 Validação do protótipo do desenvolvedor individual
14B Cluster Kunlun Core K200 Raciocínio de tarefas complexas em nível empresarial
32B Plataforma de computação Power de Wallchurch + Cluster Rise 910B Computação científica e processamento multimodal

IV. Alternativas de implantação de nuvem

1. provedores de serviços em nuvem domésticos recomendados

terraço Principais pontos fortes Cenários aplicáveis
Fluxo baseado em silício API oficialmente recomendada, baixa latência, suporte a modelos multimodais Raciocínio de alta concorrência de classe empresarial
Nuvem da Tencent Implementação com um clique + avaliação gratuita por tempo limitado com suporte à privatização de VPC Modelos de pequena e média escala são lançados rapidamente
PPIO Nuvem Paio 1/20 do preço da OpenAI, 50 milhões gratuitos com registro. tokens Degustação e testes de baixo custo

2. acesso internacional (requer acesso à Internet corporativa mágica ou estrangeira)

  • NVIDIA NIM: implantação de cluster de GPU empresarial (link)
  • Groq: raciocínio de latência ultrabaixa (link)

V. Ollama+Desdobramento de Unsloth

1. programa de quantificação e seleção de modelos

versão quantificada tamanho do arquivo Requisitos mínimos de RAM + VRM Cenários aplicáveis
DeepSeek-R1-UD-IQ1_M 158 GB ≥200GB Hardware de nível de consumidor (por exemplo, Mac Studio)
DeepSeek-R1-Q4_K_M 404 GB ≥500 GB Servidores de alto desempenho/nuvens GPUs

Endereço para download:

  • Biblioteca do modelo HuggingFace
  • Sem pano Descrição oficial da IA

2. recomendações de configuração de hardware

Tipo de hardware Configurações recomendadas Desempenho de desempenho (geração de texto curto)
Equipamento de nível de consumidor Mac Studio (192 GB de memória unificada) Mais de 10 tokens/segundo
Servidores de alto desempenho 4 RTX 4090 (96 GB DE VRAM + 384 GB DE RAM) 7-8 tokens/segundo (raciocínio misto)

3. etapas de implementação (exemplo do Linux)

1. instalação de ferramentas dependentes:

# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp

2. faça o download e mescle as peças de modelagem:

llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf

3 - Instale o Ollama:

curl -fsSL https://ollama.com/install.sh | sh

4. criar o arquivo de modelo:

FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28  # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"

5 Execute o modelo:

ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile

4. ajuste e teste de desempenho

  • Baixa utilização da GPUMemória de alta largura de banda: Atualize a memória de alta largura de banda (por exemplo, DDR5 5600+).
  • Espaço de troca estendido::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

Ordem de implantação do 671B Full Blood

  • VLLM::
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
  • SGLang::
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2

VI Notas e riscos

1. alertas de custo:

  • Modelo 70BRequer 3 ou mais placas de vídeo de 80G de RAM (por exemplo, RTX A6000), o que não é viável para usuários de uma única placa.
  • Modelo 671B: São necessários clusters 8xH100, somente para implementação em centros de supercomputação.

2. programas alternativos:

  • Recomenda-se que os usuários individuais usem APIs baseadas em nuvem (por exemplo, Silicon Flow), que não precisam de manutenção e são compatíveis.

3. compatibilidade com o hardware nacional:

  • É necessária uma versão personalizada da estrutura (por exemplo, Rise CANN, MXMLLM).

Apêndice: Suporte técnico e recursos

  • Aumento da HuaweiRise Cloud Services: Serviços de nuvem da Rise
  • GPU Mu XiExperiência de API gratuita
  • Blog de Lee Seok Han: Tutorial completo de implementação

VIII. programa GPUStack heterogêneo

Projeto de código aberto GPUStack

https://github.com/gpustack/gpustack/

Ferramenta de medição de recursos de modelo

  • Analisador GGUF(https://github.com/gpustack/gguf-parser-go) é usado para calcular manualmente os requisitos de memória de vídeo.

GPUStack

Implantação privada da plataforma completa do DeepSeek

Modelo Tamanho do contexto Requisitos de VRAM GPUs recomendadas
R1-Distill-Qwen-1.5B (Q4_K_M) 32K 2,86 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-1.5B (Q8_0) 32K 3,47 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
r1-distill-qwen-1.5b (fp16) 32K 4,82 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (Q4_K_M) 32K 7,90 GiB RTX 4070 12GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (Q8_0) 32K 10,83 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (FP16) 32K 17,01 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (Q4_K_M) 32K 10,64 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (Q8_0) 32K 13,77 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (FP16) 32K 20,32 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (Q4_K_M) 32K 16,80 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (Q8_0) 32K 22,69 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (FP16) 32K 34,91 GiB RTX 4090 24GB x2, MacBook Pro M4 Max 48G
R1-Distill-Qwen-32B (Q4_K_M) 32K 28,92 GiB RTX 4080 16GB x2, MacBook Pro M4 Max 48G
R1-Distill-Qwen-32B (Q8_0) 32K 42,50 GiB RTX 4090 24GB x3, MacBook Pro M4 Max 64G
R1-Distill-Qwen-32B (FP16) 32K 70,43 GiB RTX 4090 24GB x4, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (Q4_K_M) 32K 53,41 GiB RTX 4090 24GB x5, A100 80GB x1, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (Q8_0) 32K 83,15 GiB RTX 4090 24GB x5, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (FP16) 32K 143,83 GiB A100 80GB x2, Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_S) 32K 225,27 GiB A100 80GB x4, Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_M) 32K 251,99 GiB A100 80GB x4, Mac Studio M2 Ultra 192G x2
R1-671B (UD-IQ2_XXS) 32K 277,36 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (UD-Q2_K_XL) 32K 305,71 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (Q2_K_XS) 32K 300,73 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (Q2_K/Q2_K_L) 32K 322,14 GiB A100 80GB x6, Mac Studio M2 Ultra 192G x2
R1-671B (Q3_K_M) 32K 392,06 GiB A100 80GB x7
R1-671B (Q4_K_M) 32K 471,33 GiB A100 80GB x8
R1-671B (Q5_K_M) 32K 537,31 GiB A100 80GB x9
R1-671B (Q6_K) 32K 607,42 GiB A100 80GB x11
R1-671B (Q8_0) 32K 758,54 GiB A100 80GB x13
R1-671B (FP8) 32K 805,2 GiB H200 141GB x8

observações finais

Deepseek R1 A implementação localizada exige um investimento extremamente alto em hardware e limites técnicos, portanto, os usuários individuais devem ser cautelosos e os usuários corporativos devem avaliar totalmente as necessidades e os custos. Por meio da adaptação localizada e dos serviços em nuvem, os riscos podem ser significativamente reduzidos e a eficiência melhorada. A tecnologia não tem limites, o planejamento racional pode reduzir os custos e aumentar a eficiência!

Programação do canal pessoal da empresa global

  1. Busca na Torre Secreta
  2. 360 Nano AI Search
  3. Fluxo baseado em silício
  4. Motor de vulcão de salto de bytes
  5. Baidu cloud Chifan, um site de realidade virtual
  6. NVIDIA NIM
  7. Groq
  8. Fogos de artifício
  9. Calhas
  10. Github
  11. POE
  12. Cursor
  13. Mônica
  14. lambda (letra grega Λλ)
  15. Cerebras
  16. Perplexidade
  17. Alibaba Cloud 100 Refinamentos

Para aqueles que precisam de um ambiente de Internet corporativo mágico ou estrangeiro

Cronograma de suporte ao negócio de chips

Tabela 1: Fornecedores de nuvem que oferecem suporte ao DeepSeek-R1

datas Nome/site Publicação de informações relevantes
28 de janeiro lit. não conhecer a cúpula central do céu Uma ótima combinação de nuvens heterogêneas
28 de janeiro PPIO Nuvem Paio O DeepSeek-R1 entra em operação no PPIO Paio Computing Cloud!
1 de fevereiro Mobilidade baseada em silício x Huawei Primeiro lançamento! Silicon Mobility x Huawei Cloud lançam em conjunto o serviço de inferência DeepSeekR1 e V3 com base no Rise Cloud!
2 de fevereiro Z stark (Tecnologia Cloud Axis) O ZStack é compatível com DeepSeekV3/R1/JanusPro, várias CPUs/GPUs desenvolvidas internamente para implantação privada.
3 de fevereiro Nuvem inteligente do Baidu Chifan Baidu Intelligent Cloud Chifan oferece suporte total a chamadas DeepSeek-R1/V3 a preços ultrabaixos
3 de fevereiro supercomputação Internet Supercomputing Internet entra em operação com a série de modelos DeepSeek para fornecer suporte aritmético de fusão superinteligente
4 de fevereiro Huawei (Comunidade Rise) A série DeepSeek de novos modelos é lançada oficialmente na Rise Community.
4 de fevereiro Lu Chen x Huawei Rise LU Chen x Huawei Rise, lançando juntos a API de inferência da série DeepSeekR1 e o serviço de espelhamento de nuvem com base no poder aritmético doméstico
4 de fevereiro GreenCloud Technologies, Inc. Gratuito por tempo limitado, implantação com um clique! A Keystone Wise Computing lança oficialmente os modelos da série DeepSeek-R1
4 de fevereiro Tennessee Intelligent Core (TIC), tecnologia de computação Adaptação em um dia! O serviço modelo DeepseekR1 é lançado oficialmente com a GiteeAi!
4 de fevereiro biologia molecular Homenagem à Deepseek: iniciando um incêndio no ecossistema de Al da China com GPUs domésticas
4 de fevereiro Informações sobre Hai Guang DeepSeekV3 e R1, o treinamento conclui a adaptação do SeaLight DCU e entra em operação
5 de fevereiro primeira luz do chuveiro A versão completa do DeepSeek-V3 entra em operação na primeira experiência doméstica com a GPU Mu Xi
5 de fevereiro Informações sobre Hai Guang Haidu Ang DcCU Chen Gong adapta macromodelos multimodais DeepSeek-Janus-pro
5 de fevereiro Jingdong Yun (Pequim 2008-), o maior provedor de nuvem da China Implementação com um clique! Jingdong Cloud entra em operação com o DeepSeek-R1/V3
5 de fevereiro (medida) DeepSeekR1 na parede ren doméstica Ai plataforma aritmética lançado, a gama completa de modelos one-stop capacitar os desenvolvedores
5 de fevereiro Unicom Cloud (China Unicom) "Nezha no mar"! Conecte as prateleiras da nuvem aos modelos da série DeepSeek-R1!
5 de fevereiro Nuvem móvel (China Mobile) Versão completa, tamanho completo, funcionalidade completa! O Mobile Cloud está totalmente ativo com o DeepSeek
5 de fevereiro Ucotex (marca) A UXTECH adapta a linha completa de modelos da DeepSeek com base em um chip doméstico
5 de fevereiro Acer, um escritor taiwanês-americano Com base na placa aceleradora Taichu T100, 2 horas para adaptar os modelos da série DeepSeek-R1, experiência com um clique, serviço de API gratuito
5 de fevereiro Reed Yun Tian Fei (1931-), político taiwanês, presidente da República da China desde 2008 O DeepEdge10 concluiu a adaptação do modelo da série DeepSeek-R1
6 de fevereiro SkyCloud (China Telecom) Novo avanço na ecologia doméstica da Al! "Hibiscus" + DeepSeek, o rei da bomba!
6 de fevereiro Tecnologia de Suwon A Original Technology consegue a implementação completa do serviço de inferência da DeepSeek em centros de computação inteligentes em todo o país
6 de fevereiro Núcleo Kunlun (Karakorum), cadeia de montanhas usada em Xinjiang Domestic Alka Deepseek training inference versão completa adaptada, excelente desempenho, implantação com um clique e assim por diante!
7 de fevereiro Nuvem de ondas Wave Cloud é a primeira a lançar a solução multifuncional 671BDeepSeek Big Model
7 de fevereiro Supercomputador de Pequim Beijing Supercomputing xDeepSeek:Motores duplos explodem em chamas, gerando uma tempestade de 100 bilhões de inovações Al
8 de fevereiro E-Cloud da China China eCloud entra em operação com o modelo de volume total DeepSeek-R1/V3 e abre um novo capítulo de implementação privada
8 de fevereiro Kingsoft Cloud Kingsoft Cloud é compatível com DeepSeek-R1/V3
8 de fevereiro O grande dispositivo de Shang Tang A Shangtang Big Device oferece modelos da série DeepSeek com experiência limitada e serviços aprimorados!

Tabela 2: Empresas que oferecem suporte ao DeepSeek-R1

datas Nome/site Publicação de informações relevantes
30 de janeiro 360 Nano AI Search A pesquisa da Nano AI entra em operação com a versão completa do modelo grande "DeepSeek-R1"
3 de fevereiro Pesquisa de IA da Torre Secreta A IA da Secret Tower acessa a versão completa do modelo de inferência DeepSeekR1
5 de fevereiro Assistente Xiaoyi (Huawei) O Huawei Xiaoyi Assistant tem acesso ao DeepSeek, depois que a Huawei Cloud anunciou o lançamento do serviço de inferência DeepSeekR1/V3 com base no serviço Rise Cloud
5 de fevereiro Assistente do escritor (Grupo de leitura) O primeiro do setor! ReadWrite implementa DeepSeek, "Writer's Assistant" atualiza três funções criativas auxiliares
5 de fevereiro Wanxing Technology Co., Ltd. Wanxing Technology: Adaptação do modelo grande DeepSeek-R1 concluída e vários produtos lançados
6 de fevereiro Aldo P. (1948-), empresário e político de Hong Kong, primeiro-ministro de 2007 a 2010 Adotando o DeepSeek como o grande modelo de raciocínio representativo, a NetEase acelerou a aterrissagem da educação em IA
6 de fevereiro escola de nuvem (computação) O acesso do Cloud Learning aos recursos de IA do produto DeepSeek foi atualizado de forma abrangente
7 de fevereiro grampo Acesso do assistente de IA do Nail ao DeepSeek, suporte para pensamento profundo
7 de fevereiro O que vale a pena comprar Vale a pena comprar: acesso aos produtos do modelo DeepSeek
7 de fevereiro Flush (negociação de ações) Atualização do Flush ask money 2.0: injetar a sabedoria do "pensamento lento", para criar um assistente de tomada de decisões de investimento mais racional
8 de fevereiro IA da Skyworks(Kunlun Wanwei) Tiangong AI, da Kunlun Wanwei, lança oficialmente a pesquisa conectada DeepSeekR1+
8 de fevereiro Fantasma das Estrelas A FlymeAIOS concluiu o acesso ao grande modelo DeepSeek-R1!
8 de fevereiro glorificar O Pride tem acesso ao DeepSeek

Tabela 3: Resumo das empresas que oferecem suporte ao DeepSeek-R1

Nome/site Publicação de informações relevantes
DeepSeek DeepSeek-R1 lançado, desempenho comparado com a versão o1 da OpenAI
lit. não conhecer a cúpula central do céu O Infini-Al Heterogeneous Cloud agora está disponível no DeepSeek-R1-Distill, uma excelente combinação de modelos desenvolvidos internamente e nuvem heterogênea
PPIO Nuvem Paio O DeepSeek-R1 entra em operação no PPIO Paio Computing Cloud!
Fluxo baseado em silício Huawei Primeiro lançamento! Silicon Mobility x Huawei Cloud lançam em conjunto o serviço de inferência DeepSeekR1&V3 com base no Rise Cloud!
Z stark (Tecnologia Cloud Axis) O ZStack é compatível com o DeepSeekV3/R1/JanusPro, várias CPUs/GPUs desenvolvidas internamente para implantação privada.
Nuvem inteligente do Baidu Chifan Baidu Intelligent Cloud Chifan oferece suporte total a chamadas DeepSeek-R1/V3 a preços ultrabaixos
supercomputação Internet A Supercomputing Internet entra em operação com a série de modelos DeepSeek, fornecendo suporte à aritmética de fusão superinteligente
Huawei (Comunidade Rise) A série DeepSeek de novos modelos é lançada oficialmente na Rise Community.
Lu Chen x Huawei Rise LU Chen x Huawei Rise, lançando a série DeepSeekR1 de APIs de inferência e serviços de distribuição em nuvem com base no poder aritmético doméstico
GreenCloud Technologies, Inc. Gratuito por tempo limitado, implantação com um clique! A Cornerstone Computing entra em operação com a série de modelos DeepSeek-R1!
Jingdong Yun (Pequim 2008-), o maior provedor de nuvem da China Implementação com um clique! Jingdong Cloud entra em operação com o DeepSeek-R1/V3
Unicom Cloud (China Unicom) "Ne Zha no mar"! Conecte as prateleiras da nuvem aos modelos da série DeepSeek-R1!
Nuvem móvel (China Mobile) Versão completa, tamanho completo, funcionalidade completa! O Mobile Cloud está totalmente ativo DeepSeek
Ucotex (marca) A UQD adapta toda a gama de modelos DeepSeek com base em um chip desenvolvido internamente
SkyCloud (China Telecom) Novo avanço no ecossistema doméstico de IA! "Hibernate" + DeepSeek, a bomba rei!
China digital Com a implementação em 3 minutos do modelo de IA de alto desempenho DeepSeek, a Digital China ajuda as empresas na transformação inteligente
Kaplan Cape Cloud Enlightened Aplicativo de modelo grande e end-side All-in-One DeepSeek totalmente acessado
Cúpula de nuvem de borboleta dourada O acesso total da Kingdee ao grande modelo DeepSeek ajuda as empresas a acelerar a aplicação de IA!
tecnologia paralela Servidor ocupado? A Parallel Technologies o ajuda a DeepSeek Freedom!
Capital Online (CAPITAL) Capital Online Cloud Platform entra em operação com a família de modelos DeepSeek-R1
Nuvem de ondas Wave Cloud é a primeira a lançar a solução multifuncional 671B DeepSeek Big Model
Supercomputador de Pequim Beijing Supercomputing x DeepSeek: dois mecanismos explodem, gerando centenas de bilhões de inovações em IA
Capacitação do Rhinoceros (Ziguang) Ziguang: A plataforma de capacitação Rhinoceros permite a nanotubagem e o armazenamento de modelos DeepSeekV3/R1
E-Cloud da China China eCloud entra em operação com modelos de volume total DeepSeek-R1/V3 para abrir um novo capítulo na implantação privada
Kingsoft Cloud Kingsoft Cloud Support DeepSeek-R1/V3
O grande dispositivo de Shang Tang A Shangtang Big Device oferece a série de modelos DeepSeek com experiência limitada e serviço aprimorado!
360 Nano AI Search Nano AI Search entra em operação com a versão completa do modelo grande "DeepSeek-R1"
Pesquisa de IA da Torre Secreta minarete Acesso de IA a uma versão completa do modelo de inferência DeepSeek R1
Assistente Xiaoyi (Huawei) O Huawei Xiaoyi Assistant tem acesso ao DeepSeek, depois que a Huawei Cloud anunciou o lançamento do serviço de inferência DeepSeek R1/V3 com base no serviço Rise Cloud.
Assistente do escritor (Grupo de leitura) O primeiro do setor! ReadWrite implementa DeepSeek, "Writer's Assistant" atualiza três funções criativas de assistência
Wanxing Technology Co., Ltd. Wanxing Technology: Adaptação do modelo grande DeepSeek-R1 concluída e vários produtos lançados
Aldo P. (1948-), empresário e político de Hong Kong, primeiro-ministro de 2007 a 2010 Adotando o grande modelo de raciocínio do DeepSeek, o NetEaseYouDao acelera a aterrissagem da educação em IA
escola de nuvem (computação) O acesso do Cloud Learning aos recursos de IA do produto DeepSeek foi atualizado de forma abrangente
grampo O assistente de IA da Nail acessa o DeepSeek e oferece suporte ao pensamento profundo
O que vale a pena comprar Vale a pena comprar: acesso aos produtos do modelo DeepSeek
Resumo dos recursos de IA relacionados ao Flybook x DeepSeek (versão pública)
Flush (negociação de ações) Atualização do Flush Q&C 2.0: injetando sabedoria de "pensamento lento" para criar um assistente de tomada de decisões de investimento mais racional
obra celestial IA (Kunlun Wanwei) A Tiangong AI, uma subsidiária da Kunlun MSI, lança oficialmente o DeepSeek R1 + Networked Search
Fantasma das Estrelas O Flyme AI OS concluiu o acesso ao modelo grande do DeepSeek-R1!
glorificar O Pride tem acesso ao DeepSeek
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Manual completo de implementação local do Deepseek R1 Enterprise
pt_BRPortuguês do Brasil