AI Personal Learning
und praktische Anleitung
豆包Marscode1

Deepseek R1 Enterprise Local Deployment Vollständiges Handbuch

I. Einleitung

Deepseek R1 ist ein leistungsstarkes Mehrzweck-Großsprachenmodell, das komplexe Schlussfolgerungen, multimodale Verarbeitung und die Erstellung technischer Dokumente unterstützt. Dieses Handbuch bietet einen vollständigen Leitfaden für den Einsatz vor Ort für technische Teams, der Hardwarekonfigurationen, Anpassungen an Chips im Inland, Quantisierungslösungen, heterogene Lösungen, Cloud-Alternativen und Einsatzmethoden für das vollständige 671B MoE-Modell umfasst.

II. grundlegende Konfigurationsanforderungen für den lokalen Einsatz

1 Tabelle der Modellparameter und der Hardwarekorrespondenz

Modellparameter (B) Anforderungen an die Windows-Konfiguration Mac-Konfigurationsanforderungen Anwendbare Szenarien
1.5B - RAM: 4 GB- GPU: Integrierte Grafik/Moderne CPU- Speicher: 5 GB - Arbeitsspeicher: 8 GB (M1/M2/M3) - Speicherplatz: 5 GB Einfache Texterstellung, einfache Code-Vervollständigung
7B - RAM: 8-10GB- GPU: GTX 1680 (4-bit quantisiert)- Speicher: 8GB - Speicher: 16 GB (M2 Pro/M3) - Speicherplatz: 8 GB Mittelkomplexes Quiz, Code-Debugging
8B - RAM: 16 GB - GPU: RTX 4080 (16 GB VRAM) - Speicher: 10 GB - Speicher: 32 GB (M3 Max) - Speicherplatz: 10 GB Mittlere Komplexität der Argumentation, Dokumentenerstellung
14B - RAM: 24GB- GPU: RTX 3090 (24GB VRAM) - Speicher: 32 GB (M3 Max) - Speicherplatz: 20 GB Komplexe Argumentation, Erstellung technischer Dokumentation
32B Einsatz im Unternehmen (mehrere Karten parallel erforderlich) Zurzeit nicht unterstützt Wissenschaftliches Rechnen, Verarbeitung großer Datenmengen
70B Einsatz im Unternehmen (mehrere Karten parallel erforderlich) Zurzeit nicht unterstützt Groß angelegte Überlegungen, hochkomplexe Aufgaben
671B Einsatz im Unternehmen (mehrere Karten parallel erforderlich) Zurzeit nicht unterstützt Sehr große Forschungscomputer, Hochleistungscomputer

2. die Analyse des Bedarfs an Rechenleistung

Modellversion Parameter (B) Rechengenauigkeit Modellgröße VRAM-Anforderungen (GB) Referenz-GPU-Konfiguration
DeepSeek-R1 671B FP8 ~1,342GB ≥1,342GB Multi-GPU-Konfigurationen (z. B. NVIDIA A100 80GB * 16)
DeepSeek-R1-Distill-Llama-70B 70B BF16 43GB ~32,7GB Multi-GPU-Konfigurationen (z. B. NVIDIA A100 80GB * 2)
DeepSeek-R1-Distill-Qwen-32B 32B BF16 20GB ~14.9GB Multi-GPU-Konfigurationen (z. B. NVIDIA RTX 4090 * 4)
DeepSeek-R1-Distill-Qwen-14B 14B BF16 9GB ~6,5GB NVIDIA RTX 3080 10GB oder höher
DeepSeek-R1-Distill-Llama-8B 8B BF16 4,9 GB ~3,7GB NVIDIA RTX 3070 8GB oder höher
DeepSeek-R1-Distill-Qwen-7B 7B BF16 4,7 GB ~3,3GB NVIDIA RTX 3070 8GB oder höher
DeepSeek-R1-Distill-Qwen-1.5B 1.5B BF16 1,1 GB ~0,7GB NVIDIA RTX 3060 12GB oder höher

Deepseek R1 企业本地部署完全手册-1

Zusätzliche Hinweise:

  1. VRAM-AnforderungenBei den in der Tabelle aufgeführten VRAM-Anforderungen handelt es sich um Mindestanforderungen. Es wird empfohlen, 20%-30% zusätzlichen Videospeicher für den tatsächlichen Einsatz vorzusehen, um Spitzenanforderungen beim Laden und Betrieb des Modells zu bewältigen.
  2. Multi-GPU-KonfigurationFür große Modelle (z. B. 32B+) wird empfohlen, mehrere GPUs parallel zu verwenden, um die Effizienz und Stabilität der Berechnungen zu verbessern.
  3. RechengenauigkeitFP8 und BF16 sind die derzeit gängigsten hocheffizienten Berechnungsgenauigkeiten, die die Modellleistung garantieren und gleichzeitig den Grafikspeicherverbrauch reduzieren können.
  4. Anwendbare SzenarienModelle mit verschiedenen Parameterskalen eignen sich für Aufgaben unterschiedlicher Komplexität, und die Benutzer können die geeignete Modellversion entsprechend ihren tatsächlichen Bedürfnissen auswählen.
  5. Einsatz im UnternehmenBei sehr großen Modellen wie dem 671B wird empfohlen, einen professionellen GPU-Cluster (z. B. NVIDIA A100) einzusetzen, um die hohen Anforderungen an die Rechenleistung zu erfüllen.

III. inländisches Chip- und Hardware-Anpassungsprogramm

1. die Dynamik der Öko-Partnerschaft im Inland

Unternehmen Inhalt der Adaption Leistungs-Benchmarking (gegenüber NVIDIA)
Huawei-Aufstieg Der Rise 910B unterstützt nativ die gesamte R1-Familie und bietet eine durchgängige Inferenzoptimierung.
Mu Xi GPU Die MXN-Serie unterstützt das 70B-Modell BF16 und erhöht die Speichernutzung um 30% RTX 3090-Äquivalent
Meeresleuchten DCU Passt sich an V3/R1-Modelle an, Leistung gegen NVIDIA A100 Äquivalent A100 (BF16)

2. empfohlene Konfiguration für nationale Hardware

Modellparameter Empfohlenes Programm Anwendbare Szenarien
1.5B Taichu T100 Beschleunigerkarte Validierung von Prototypen durch einzelne Entwickler
14B Kunlun Core K200 Cluster Komplexes Task Reasoning auf Unternehmensebene
32B Wallchurch Computing Power Platform + Rise 910B Cluster Wissenschaftliches Rechnen und multimodale Verarbeitung

IV. Alternativen zur Cloud-Bereitstellung

1. empfohlene inländische Anbieter von Cloud-Diensten

Terrasse Zentrale Stärken Anwendbare Szenarien
Durchfluss auf Siliziumbasis Offiziell empfohlene API, niedrige Latenzzeit, Unterstützung multimodaler Modelle Unternehmenstaugliche Argumentation mit hoher Parallelität
Tencent Wolke Ein-Klick-Bereitstellung + kostenlose Testversion für eine begrenzte Zeit mit Unterstützung für VPC-Privatisierung Kleine und mittelgroße Modelle gehen schnell in Betrieb
PPIO Paio Cloud 1/20 des Preises von OpenAI, 50 Millionen kostenlos mit Registrierung. Token Kostengünstige Verkostung und Tests

2. internationale Zugangskanäle (erfordert magischen oder ausländischen Firmen-Internetzugang)

  • NVIDIA NIM: Einsatz von GPU-Clustern in Unternehmen (Link)
  • Groq: Schlussfolgerungen mit extrem niedriger Latenzzeit (Link)

V. Ollama+Unsloth Einsatz

1) Quantifizierungsprogramm und Modellauswahl

quantifizierte Version Dateigröße Mindestanforderungen an RAM + VRM Anwendbare Szenarien
DeepSeek-R1-UD-IQ1_M 158GB ≥200GB Verbrauchergerechte Hardware (z. B. Mac Studio)
DeepSeek-R1-Q4_K_M 404 GB ≥500GB Hochleistungsserver/Clouds GPUs

Adresse herunterladen:

  • HuggingFace Modellbibliothek
  • Untuch AI Offizielle Beschreibung

2. empfohlene Hardware-Konfiguration

Hardware-Typ Empfohlene Konfigurationen Leistung (Kurztextgenerierung)
Verbrauchergerechte Geräte Mac Studio (192 GB einheitlicher Speicher) 10+ Token/Sekunde
Leistungsstarke Server 4 RTX 4090 (96GB VRAM + 384GB RAM) 7-8 Token/Sekunde (gemischte Argumentation)

3. schritte der Bereitstellung (Beispiel Linux)

1. die Installation der abhängigen Werkzeuge:

# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp

2. laden Sie die Modellierstücke herunter und fügen Sie sie zusammen:

llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf

3. installieren Sie Ollama:

curl -fsSL https://ollama.com/install.sh | sh

4. die Modeldatei erstellen:

FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28  # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"

5 Führen Sie das Modell aus:

ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile

4. die Leistungsoptimierung und -prüfung

  • Geringe GPU-AuslastungUpgrade von Speicher mit hoher Bandbreite (z.B. DDR5 5600+).
  • Erweiterter Swap Space::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

Vollblut 671B Einsatzauftrag

  • VLLM::
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
  • SGLang::
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2

VI. erläuterungen und risiken

1. die Kostenwarnungen:

  • Modell 70BErfordert 3 oder mehr 80G RAM-Grafikkarten (z.B. RTX A6000), nicht durchführbar für Benutzer einer einzelnen Karte.
  • Modell 671B: 8xH100-Cluster erforderlich, nur für Supercomputing-Zentren.

2. alternative Programme:

  • Einzelnutzern wird empfohlen, Cloud-basierte APIs (z. B. Silicon Mobility) zu verwenden, die wartungsfrei und konform sind.

3. nationale Hardware-Kompatibilität:

  • Eine angepasste Version des Frameworks ist erforderlich (z. B. Rise CANN, MXMLLM).

VII. anhang: Technische Unterstützung und Ressourcen

  • Huawei-AufstiegRise Cloud Services
  • Mu Xi GPU: Kostenlose API-Erfahrung
  • Lee Seok Han Blog: Vollständige Anleitung zur Bereitstellung

VIII. heterogenes GPUStack-Programm

GPUStack Open-Source-Projekt

https://github.com/gpustack/gpustack/

Werkzeug zur Messung von Modellierungsressourcen

  • GGUF-Parser(https://github.com/gpustack/gguf-parser-go) wird zur manuellen Berechnung des Videospeicherbedarfs verwendet.

GPUStack

DeepSeek Vollständige Plattform für den privaten Einsatz

Modell Kontext Größe VRAM-Anforderung Empfohlene GPUs
R1-Distill-Qwen-1.5B (Q4_K_M) 32K 2,86 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-1.5B (Q8_0) 32K 3,47 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
r1-distill-qwen-1.5b (fp16) 32K 4,82 GiB RTX 4060 8GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (Q4_K_M) 32K 7,90 GiB RTX 4070 12GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (Q8_0) 32K 10,83 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-7B (FP16) 32K 17,01 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (Q4_K_M) 32K 10,64 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (Q8_0) 32K 13,77 GiB RTX 4080 16GB, MacBook Pro M4 Max 36G
R1-Distill-Llama-8B (FP16) 32K 20,32 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (Q4_K_M) 32K 16,80 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (Q8_0) 32K 22,69 GiB RTX 4090 24GB, MacBook Pro M4 Max 36G
R1-Distill-Qwen-14B (FP16) 32K 34,91 GiB RTX 4090 24GB x2, MacBook Pro M4 Max 48G
R1-Distill-Qwen-32B (Q4_K_M) 32K 28,92 GiB RTX 4080 16GB x2, MacBook Pro M4 Max 48G
R1-Distill-Qwen-32B (Q8_0) 32K 42,50 GiB RTX 4090 24GB x3, MacBook Pro M4 Max 64G
R1-Distill-Qwen-32B (FP16) 32K 70,43 GiB RTX 4090 24GB x4, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (Q4_K_M) 32K 53,41 GiB RTX 4090 24GB x5, A100 80GB x1, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (Q8_0) 32K 83,15 GiB RTX 4090 24GB x5, MacBook Pro M4 Max 128G
R1-Distill-Llama-70B (FP16) 32K 143,83 GiB A100 80GB x2, Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_S) 32K 225,27 GiB A100 80GB x4, Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_M) 32K 251,99 GiB A100 80GB x4, Mac Studio M2 Ultra 192G x2
R1-671B (UD-IQ2_XXS) 32K 277,36 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (UD-Q2_K_XL) 32K 305,71 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (Q2_K_XS) 32K 300,73 GiB A100 80GB x5, Mac Studio M2 Ultra 192G x2
R1-671B (Q2_K/Q2_K_L) 32K 322,14 GiB A100 80GB x6, Mac Studio M2 Ultra 192G x2
R1-671B (Q3_K_M) 32K 392,06 GiB A100 80GB x7
R1-671B (Q4_K_M) 32K 471,33 GiB A100 80GB x8
R1-671B (Q5_K_M) 32K 537,31 GiB A100 80GB x9
R1-671B (Q6_K) 32K 607,42 GiB A100 80GB x11
R1-671B (Q8_0) 32K 758,54 GiB A100 80GB x13
R1-671B (FP8) 32K 805,2 GiB H200 141GB x8

Schlussbemerkungen

Tiefensuche R1 Die lokale Bereitstellung erfordert extrem hohe Hardware-Investitionen und technische Schwellenwerte, so dass Einzelanwender vorsichtig sein sollten und Unternehmensanwender den Bedarf und die Kosten umfassend prüfen sollten. Durch lokale Anpassungen und Cloud-Dienste können die Risiken erheblich verringert und die Effizienz verbessert werden. Der Technologie sind keine Grenzen gesetzt, eine vernünftige Planung kann die Kosten senken und die Effizienz steigern!

Global Enterprise Personal Channel Zeitplan

  1. Geheime Turmsuche
  2. 360 Nano AI Suche
  3. Durchfluss auf Siliziumbasis
  4. Byte Jump Volcano Engine
  5. Baidu-Cloud Chifan, eine virtuelle Website für virtuelle Realität
  6. NVIDIA NIM
  7. Groq
  8. Feuerwerk
  9. Rutschen
  10. Github
  11. POE
  12. Cursor
  13. Monica
  14. lambda (griechischer Buchstabe Λλ)
  15. Cerebras
  16. Perplexität
  17. Alibaba Cloud 100 Verfeinerungen

Für Umgebungen, die einen magischen oder ausländischen Internetzugang für Unternehmen erfordern

Zeitplan für Chip Business Support

Tabelle 1: Cloud-Anbieter, die DeepSeek-R1 unterstützen

Daten Name/Website Veröffentlichung relevanter Informationen
28. Januar wörtlich: die Kernkuppel des Himmels nicht kennen Eine großartige Kombination aus heterogenen Wolken
28. Januar PPIO Paio Cloud DeepSeek-R1 geht live auf PPIO Paio Computing Cloud!
1. Februar Siliziumbasierte Mobilität x Huawei Erste Veröffentlichung! Silicon Mobility x Huawei Cloud startet gemeinsam DeepSeekR1 & V3 Inference Service basierend auf Rise Cloud!
2. Februar Z stark (Cloud Axis Technology) ZStack unterstützt DeepSeekV3/R1/JanusPro, mehrere selbst entwickelte CPU/GPUs für den privaten Einsatz.
3. Februar Baidu Intelligente Wolke Chifan Baidu Intelligent Cloud Chifan unterstützt vollständig DeepSeek-R1/V3-Anrufe zu extrem niedrigen Preisen
3. Februar Supercomputing Internet Supercomputing Internet geht mit der DeepSeek-Modellreihe in Betrieb, um superintelligente Fusionsberechnungen zu ermöglichen
4. Februar Huawei (Rise Community) Die neuen Modelle der DeepSeek-Serie werden offiziell auf Rise Community vorgestellt.
4. Februar Lu Chen x Huawei Rise LU Chen x Huawei Rise, gemeinsame Einführung der DeepSeekR1-Serien-Inferenz-API und des Cloud-Spiegelungsdienstes auf der Grundlage einheimischer Rechenleistung
4. Februar Grüne Wolke Technologie (Taiwan) Für eine begrenzte Zeit kostenlos, Bereitstellung mit einem Klick! Keystone Smart Computing führt offiziell die Modelle der DeepSeek-R1-Serie ein
4. Februar Tennessee Intelligent Core (TIC), Computertechnologie Ein Tag Adaption! DeepseekR1 Modell Service ist offiziell mit GiteeAi gestartet!
4. Februar Molekularbiologie Hommage an Deepseek: Ein Feuer für Chinas KI-Ökosystem mit einheimischen GPUs
4. Februar Hai Guang Informationen DeepSeekV3 und R1, Training schließt SeaLight DCU-Anpassung ab und geht in Betrieb
5. Februar erstes Licht der Dusche DeepSeek-V3 Vollversion geht live in der ersten inländischen Mu Xi GPU Erfahrung
5. Februar Hai Guang Informationen Haidu Ang DcCU Chen Gong passt multimodale DeepSeek-Janus-pro-Makromodelle an
5. Februar Jingdong Yun (Beijing 2008-), Chinas größter Cloud-Anbieter Ein-Klick-Bereitstellung! Jingdong Cloud geht mit DeepSeek-R1/V3 vollständig in Betrieb
5. Februar (Maßnahme) DeepSeekR1 in der Wand ren inländischen Ai arithmetische Plattform freigegeben, eine vollständige Palette von Modellen aus einer Hand zu befähigen Entwickler
5. Februar Unicom Cloud (China Unicom) "Nezha im Meer"! Verbinden Sie die Modelle der DeepSeek-R1-Serie mit den Cloud-Regalen!
5. Februar Mobile Cloud (China Mobile) Volle Version, volle Größe, volle Funktionalität! Mobile Cloud geht mit DeepSeek vollständig in Betrieb
5. Februar Ucotex (Marke) UXTECH adaptiert die gesamte DeepSeek-Modellpalette auf Basis eines heimischen Chips
5. Februar Acer, ein taiwanesisch-amerikanischer Schriftsteller Basierend auf Taichu T100 Beschleunigungskarte 2 Stunden, um DeepSeek-R1-Serie Modelle, One-Click-Erfahrung, kostenlose API-Service anzupassen
5. Februar Reed Yun Tian Fei (1931-), taiwanesischer Politiker, seit 2008 Präsident der Republik China DeepEdge10 hat die Anpassung der Modelle der DeepSeek-R1-Serie abgeschlossen
6. Februar SkyCloud (China Telecom) Neuer Durchbruch in der heimischen KI-Ökologie! "Hibiscus" + DeepSeek, die Königsbombe!
6. Februar Suwon Technologie Original Technology stellt den DeepSeek-Inferenzdienst in intelligenten Rechenzentren im ganzen Land vollständig zur Verfügung
6. Februar Kunlun-Kern (Karakorum), Gebirgszug in Xinjiang Domestic Alka Deepseek Ausbildung Inferenz Vollversion angepasst, hervorragende Leistung, Ein-Klick-Einsatz und so auf Sie!
7. Februar Welle Wolke Wave Cloud veröffentlicht als erstes Unternehmen die All-in-One-Lösung 671BDeepSeek Big Model
7. Februar Peking Supercomputer Beijing Supercomputing xDeepSeek:Zwei Motoren gehen in Flammen auf und treiben einen Sturm von 100 Milliarden Al-Innovationen an
8. Februar China E-Cloud China eCloud geht mit dem DeepSeek-R1/V3-Vollvolumenmodell in Betrieb und eröffnet ein neues Kapitel der privaten Bereitstellung
8. Februar Kingsoft Wolke Kingsoft Cloud unterstützt DeepSeek-R1/V3
8. Februar Shang Tangs großes Gerät Shangtang Big Device Regale DeepSeek Serie Modelle mit begrenzter Erfahrung und aktualisierte Dienstleistungen!

Tabelle 2: Unternehmen, die DeepSeek-R1 unterstützen

Daten Name/Website Veröffentlichung relevanter Informationen
30. Januar 360 Nano AI Suche Nano AI Search geht mit "DeepSeek-R1" Big Model Full Blooded Version live
3. Februar Geheime Turm-KI-Suche Geheime Turm-KI greift auf vollwertige Version des DeepSeekR1-Inferenzmodells zu
5. Februar Xiaoyi Assistent (Huawei) Huawei Xiaoyi Assistant hat Zugang zu DeepSeek, nachdem Huawei Cloud die Einführung des DeepSeekR1/V3-Inferenzdienstes auf der Grundlage des Rise Cloud-Dienstes angekündigt hat
5. Februar Schriftstellerassistentin (Lesegruppe) Die erste in der Branche! ReadWrite setzt DeepSeek ein, "Writer's Assistant" erweitert drei kreative Zusatzfunktionen
5. Februar Wanxing Technology Co, Ltd. Wanxing Technology: Große DeepSeek-R1-Modellanpassung abgeschlossen und mehrere Produkte an Land gezogen
6. Februar Aldo P. (1948-), Geschäftsmann und Politiker aus Hongkong, Premierminister 2007-2010 Mit DeepSeek als stellvertretendes großes Denkmodell hat NetEase die Landung der KI-Ausbildung beschleunigt
6. Februar Cloud-Schule (Computertechnik) Cloud Learning Zugang zu DeepSeek Produkt-KI-Funktionen umfassendes Upgrade
7. Februar Heftklammer Nagel-KI-Assistent Zugang zu DeepSeek, Unterstützung für Deep Thinking
7. Februar Was sich zu kaufen lohnt Kaufenswert: Zugang zu DeepSeek-Modellprodukten
7. Februar Flush (Aktienhandel) Flush ask money 2.0 Upgrade: Injizieren Sie die Weisheit des "langsamen Denkens", um einen rationaleren Assistenten für Investitionsentscheidungen zu schaffen
8. Februar Skyworks AI(Kunlun Wanwei) Tiangong AI von Kunlun Wanwei bringt DeepSeekR1+ Connected Search offiziell auf den Markt
8. Februar Das Phantom der Sterne FlymeAIOS hat den Zugriff auf das große DeepSeek-R1-Modell abgeschlossen!
8. Februar verherrlichen Pride hat Zugang zu DeepSeek

Tabelle 3: Zusammenfassung der Unternehmen, die DeepSeek-R1 unterstützen

Name/Website Veröffentlichung relevanter Informationen
DeepSeek DeepSeek-R1 veröffentlicht, Leistungsvergleich mit OpenAI o1-Version
wörtlich: die Kernkuppel des Himmels nicht kennen Infini-Al Heterogeneous Cloud ist jetzt auf DeepSeek-R1-Distill verfügbar, eine großartige Kombination aus hausgemachten Modellen und heterogener Cloud
PPIO Paio Cloud DeepSeek-R1 geht live auf PPIO Paio Computing Cloud!
Durchfluss auf Siliziumbasis Huawei Erste Veröffentlichung! Silicon Mobility x Huawei Cloud startet gemeinsam DeepSeekR1&V3 Inference Service basierend auf Rise Cloud!
Z stark (Cloud Axis Technology) ZStack unterstützt DeepSeekV3/R1/JanusPro, mehrere selbstentwickelte CPUs/GPUs für den privaten Einsatz!
Baidu Intelligente Wolke Chifan Baidu Intelligent Cloud Chifan unterstützt vollständig DeepSeek-R1/V3-Anrufe zu extrem niedrigen Preisen
Supercomputing Internet Supercomputing Internet geht mit der DeepSeek-Modellreihe in Betrieb und bietet Unterstützung für superintelligente Fusionsberechnungen
Huawei (Rise Community) Die neuen Modelle der DeepSeek-Serie werden offiziell auf Rise Community vorgestellt.
Lu Chen x Huawei Rise LU Chen x Huawei Rise, Einführung der DeepSeekR1-Reihe von Inferenz-APIs und Cloud-Distributionsdiensten auf der Grundlage heimischer Rechenleistung
Grüne Wolke Technologie (Taiwan) Für eine begrenzte Zeit kostenlos, Bereitstellung mit einem Klick! Cornerstone Computing geht mit der DeepSeek-R1-Modellreihe live!
Jingdong Yun (Beijing 2008-), Chinas größter Cloud-Anbieter Ein-Klick-Bereitstellung! Jingdong Cloud geht mit DeepSeek-R1/V3 vollständig in Betrieb
Unicom Cloud (China Unicom) "Ne Zha im Meer"! Verbinden Sie die Regale der DeepSeek-R1-Serie mit der Cloud!
Mobile Cloud (China Mobile) Volle Version, volle Größe, volle Funktionalität! Mobile Cloud geht vollständig live DeepSeek
Ucotex (Marke) UQD adaptiert die gesamte Palette der DeepSeek-Modelle auf der Basis eines selbst entwickelten Chips
SkyCloud (China Telecom) Neuer Durchbruch im heimischen KI-Ökosystem! "Hibernate" + DeepSeek, die Königsbombe!
Digitales China 3-Minuten-Einsatz des leistungsstarken KI-Modells DeepSeek, Digital China hilft Unternehmen bei der intelligenten Transformation
Kaplan Cape Cloud Enlightened Large Model Application und End-Side All-in-One mit vollständigem Zugriff auf DeepSeek
Gold Schmetterling Wolke Kuppel Kingdees voller Zugang zum DeepSeek-Modell hilft Unternehmen, KI-Anwendungen zu beschleunigen!
parallele Technologie Server besetzt? Parallel Technologies hilft Ihnen DeepSeek Freedom!
Hauptstadt Online (CAPITAL) Capital Online Cloud Platform geht mit der DeepSeek-R1-Modellfamilie live
Welle Wolke Wave Cloud veröffentlicht als erstes Unternehmen die All-in-One-Lösung 671B DeepSeek Big Model
Peking Supercomputer Beijing Supercomputing x DeepSeek: Zwei Maschinen explodieren und treiben Hunderte von Milliarden an KI-Innovationen voran
Rhinoceros-Fähigkeit (Ziguang) Ziguang: Rhinoceros Enablement Platform ermöglicht Nanotubing und Shelving von DeepSeekV3/R1-Modellen
China E-Cloud China eCloud geht mit DeepSeek-R1/V3-Volumenmodellen in Betrieb und eröffnet ein neues Kapitel der privaten Bereitstellung
Kingsoft Wolke Kingsoft Cloud-Unterstützung DeepSeek-R1/V3
Shang Tangs großes Gerät Shangtang Big Device Regale DeepSeek Reihe von Modellen mit begrenzter Erfahrung und aktualisierten Service!
360 Nano AI Suche Nano AI Search geht mit "DeepSeek-R1" Großmodell in Vollversion online
Geheime Turm-KI-Suche Minarett KI-Zugang zu einer vollwertigen Version des DeepSeek R1-Inferenzmodells
Xiaoyi Assistent (Huawei) Der Huawei Xiaoyi Assistant hat Zugang zu DeepSeek, nachdem Huawei Cloud die Einführung des DeepSeek R1/V3 Inferenzdienstes auf Basis des Rise Cloud Service angekündigt hat.
Schriftstellerassistentin (Lesegruppe) Die erste in der Branche! ReadWrite setzt DeepSeek ein, "Writer's Assistant" erweitert drei kreative Hilfsfunktionen
Wanxing Technology Co, Ltd. Wanxing Technology: Große DeepSeek-R1-Modellanpassung abgeschlossen und mehrere Produkte an Land gezogen
Aldo P. (1948-), Geschäftsmann und Politiker aus Hongkong, Premierminister 2007-2010 NetEaseYouDao nutzt das große Denkmodell von DeepSeek und beschleunigt die Landung der KI-Ausbildung
Cloud-Schule (Computertechnik) Cloud Learning-Zugang zu DeepSeek-Produkt-KI-Funktionen umfassend erweitert
Heftklammer Nagel KI-Assistent Zugang DeepSeek, Unterstützung für tiefes Denken
Was sich zu kaufen lohnt Kaufenswert: Zugang zu DeepSeek-Modellprodukten
Zusammenfassung der KI-Fähigkeiten im Zusammenhang mit Flybook x DeepSeek (öffentliche Version)
Flush (Aktienhandel) Flush Q&C 2.0 Upgrade: Die Weisheit des "langsamen Denkens" für einen rationaleren Assistenten zur Investitionsentscheidung
himmlische Arbeit AI (Kunlun Wanwei) Tiangong AI, eine Tochtergesellschaft von Kunlun MSI, führt offiziell DeepSeek R1 + vernetzte Suche ein
Das Phantom der Sterne Flyme AI OS hat den Zugriff auf das große DeepSeek-R1-Modell abgeschlossen!
verherrlichen Pride hat Zugang zu DeepSeek
Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Deepseek R1 Enterprise Local Deployment Vollständiges Handbuch
de_DEDeutsch