I. Einleitung
Deepseek R1 ist ein leistungsstarkes Mehrzweck-Großsprachenmodell, das komplexe Schlussfolgerungen, multimodale Verarbeitung und die Erstellung technischer Dokumente unterstützt. Dieses Handbuch bietet einen vollständigen Leitfaden für den Einsatz vor Ort für technische Teams, der Hardwarekonfigurationen, Anpassungen an Chips im Inland, Quantisierungslösungen, heterogene Lösungen, Cloud-Alternativen und Einsatzmethoden für das vollständige 671B MoE-Modell umfasst.
II. grundlegende Konfigurationsanforderungen für den lokalen Einsatz
1 Tabelle der Modellparameter und der Hardwarekorrespondenz
Modellparameter (B) | Anforderungen an die Windows-Konfiguration | Mac-Konfigurationsanforderungen | Anwendbare Szenarien |
---|---|---|---|
1.5B | - RAM: 4 GB- GPU: Integrierte Grafik/Moderne CPU- Speicher: 5 GB | - Arbeitsspeicher: 8 GB (M1/M2/M3) - Speicherplatz: 5 GB | Einfache Texterstellung, einfache Code-Vervollständigung |
7B | - RAM: 8-10GB- GPU: GTX 1680 (4-bit quantisiert)- Speicher: 8GB | - Speicher: 16 GB (M2 Pro/M3) - Speicherplatz: 8 GB | Mittelkomplexes Quiz, Code-Debugging |
8B | - RAM: 16 GB - GPU: RTX 4080 (16 GB VRAM) - Speicher: 10 GB | - Speicher: 32 GB (M3 Max) - Speicherplatz: 10 GB | Mittlere Komplexität der Argumentation, Dokumentenerstellung |
14B | - RAM: 24GB- GPU: RTX 3090 (24GB VRAM) | - Speicher: 32 GB (M3 Max) - Speicherplatz: 20 GB | Komplexe Argumentation, Erstellung technischer Dokumentation |
32B | Einsatz im Unternehmen (mehrere Karten parallel erforderlich) | Zurzeit nicht unterstützt | Wissenschaftliches Rechnen, Verarbeitung großer Datenmengen |
70B | Einsatz im Unternehmen (mehrere Karten parallel erforderlich) | Zurzeit nicht unterstützt | Groß angelegte Überlegungen, hochkomplexe Aufgaben |
671B | Einsatz im Unternehmen (mehrere Karten parallel erforderlich) | Zurzeit nicht unterstützt | Sehr große Forschungscomputer, Hochleistungscomputer |
2. die Analyse des Bedarfs an Rechenleistung
Modellversion | Parameter (B) | Rechengenauigkeit | Modellgröße | VRAM-Anforderungen (GB) | Referenz-GPU-Konfiguration |
---|---|---|---|---|---|
DeepSeek-R1 | 671B | FP8 | ~1,342GB | ≥1,342GB | Multi-GPU-Konfigurationen (z. B. NVIDIA A100 80GB * 16) |
DeepSeek-R1-Distill-Llama-70B | 70B | BF16 | 43GB | ~32,7GB | Multi-GPU-Konfigurationen (z. B. NVIDIA A100 80GB * 2) |
DeepSeek-R1-Distill-Qwen-32B | 32B | BF16 | 20GB | ~14.9GB | Multi-GPU-Konfigurationen (z. B. NVIDIA RTX 4090 * 4) |
DeepSeek-R1-Distill-Qwen-14B | 14B | BF16 | 9GB | ~6,5GB | NVIDIA RTX 3080 10GB oder höher |
DeepSeek-R1-Distill-Llama-8B | 8B | BF16 | 4,9 GB | ~3,7GB | NVIDIA RTX 3070 8GB oder höher |
DeepSeek-R1-Distill-Qwen-7B | 7B | BF16 | 4,7 GB | ~3,3GB | NVIDIA RTX 3070 8GB oder höher |
DeepSeek-R1-Distill-Qwen-1.5B | 1.5B | BF16 | 1,1 GB | ~0,7GB | NVIDIA RTX 3060 12GB oder höher |
Zusätzliche Hinweise:
- VRAM-AnforderungenBei den in der Tabelle aufgeführten VRAM-Anforderungen handelt es sich um Mindestanforderungen. Es wird empfohlen, 20%-30% zusätzlichen Videospeicher für den tatsächlichen Einsatz vorzusehen, um Spitzenanforderungen beim Laden und Betrieb des Modells zu bewältigen.
- Multi-GPU-KonfigurationFür große Modelle (z. B. 32B+) wird empfohlen, mehrere GPUs parallel zu verwenden, um die Effizienz und Stabilität der Berechnungen zu verbessern.
- RechengenauigkeitFP8 und BF16 sind die derzeit gängigsten hocheffizienten Berechnungsgenauigkeiten, die die Modellleistung garantieren und gleichzeitig den Grafikspeicherverbrauch reduzieren können.
- Anwendbare SzenarienModelle mit verschiedenen Parameterskalen eignen sich für Aufgaben unterschiedlicher Komplexität, und die Benutzer können die geeignete Modellversion entsprechend ihren tatsächlichen Bedürfnissen auswählen.
- Einsatz im UnternehmenBei sehr großen Modellen wie dem 671B wird empfohlen, einen professionellen GPU-Cluster (z. B. NVIDIA A100) einzusetzen, um die hohen Anforderungen an die Rechenleistung zu erfüllen.
III. inländisches Chip- und Hardware-Anpassungsprogramm
1. die Dynamik der Öko-Partnerschaft im Inland
Unternehmen | Inhalt der Adaption | Leistungs-Benchmarking (gegenüber NVIDIA) |
---|---|---|
Huawei-Aufstieg | Der Rise 910B unterstützt nativ die gesamte R1-Familie und bietet eine durchgängige Inferenzoptimierung. | |
Mu Xi GPU | Die MXN-Serie unterstützt das 70B-Modell BF16 und erhöht die Speichernutzung um 30% | RTX 3090-Äquivalent |
Meeresleuchten DCU | Passt sich an V3/R1-Modelle an, Leistung gegen NVIDIA A100 | Äquivalent A100 (BF16) |
2. empfohlene Konfiguration für nationale Hardware
Modellparameter | Empfohlenes Programm | Anwendbare Szenarien |
---|---|---|
1.5B | Taichu T100 Beschleunigerkarte | Validierung von Prototypen durch einzelne Entwickler |
14B | Kunlun Core K200 Cluster | Komplexes Task Reasoning auf Unternehmensebene |
32B | Wallchurch Computing Power Platform + Rise 910B Cluster | Wissenschaftliches Rechnen und multimodale Verarbeitung |
IV. Alternativen zur Cloud-Bereitstellung
1. empfohlene inländische Anbieter von Cloud-Diensten
Terrasse | Zentrale Stärken | Anwendbare Szenarien |
---|---|---|
Durchfluss auf Siliziumbasis | Offiziell empfohlene API, niedrige Latenzzeit, Unterstützung multimodaler Modelle | Unternehmenstaugliche Argumentation mit hoher Parallelität |
Tencent Wolke | Ein-Klick-Bereitstellung + kostenlose Testversion für eine begrenzte Zeit mit Unterstützung für VPC-Privatisierung | Kleine und mittelgroße Modelle gehen schnell in Betrieb |
PPIO Paio Cloud | 1/20 des Preises von OpenAI, 50 Millionen kostenlos mit Registrierung. Token | Kostengünstige Verkostung und Tests |
2. internationale Zugangskanäle (erfordert magischen oder ausländischen Firmen-Internetzugang)
- NVIDIA NIM: Einsatz von GPU-Clustern in Unternehmen (Link)
- Groq: Schlussfolgerungen mit extrem niedriger Latenzzeit (Link)
V. Ollama+Unsloth Einsatz
1) Quantifizierungsprogramm und Modellauswahl
quantifizierte Version | Dateigröße | Mindestanforderungen an RAM + VRM | Anwendbare Szenarien |
---|---|---|---|
DeepSeek-R1-UD-IQ1_M | 158GB | ≥200GB | Verbrauchergerechte Hardware (z. B. Mac Studio) |
DeepSeek-R1-Q4_K_M | 404 GB | ≥500GB | Hochleistungsserver/Clouds GPUs |
Adresse herunterladen:
- HuggingFace Modellbibliothek
- Untuch AI Offizielle Beschreibung
2. empfohlene Hardware-Konfiguration
Hardware-Typ | Empfohlene Konfigurationen | Leistung (Kurztextgenerierung) |
---|---|---|
Verbrauchergerechte Geräte | Mac Studio (192 GB einheitlicher Speicher) | 10+ Token/Sekunde |
Leistungsstarke Server | 4 RTX 4090 (96GB VRAM + 384GB RAM) | 7-8 Token/Sekunde (gemischte Argumentation) |
3. schritte der Bereitstellung (Beispiel Linux)
1. die Installation der abhängigen Werkzeuge:
# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp
2. laden Sie die Modellierstücke herunter und fügen Sie sie zusammen:
llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf
3. installieren Sie Ollama:
curl -fsSL https://ollama.com/install.sh | sh
4. die Modeldatei erstellen:
FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28 # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"
5 Führen Sie das Modell aus:
ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile
4. die Leistungsoptimierung und -prüfung
- Geringe GPU-AuslastungUpgrade von Speicher mit hoher Bandbreite (z.B. DDR5 5600+).
- Erweiterter Swap Space::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
Vollblut 671B Einsatzauftrag
- VLLM::
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
- SGLang::
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2
VI. erläuterungen und risiken
1. die Kostenwarnungen:
- Modell 70BErfordert 3 oder mehr 80G RAM-Grafikkarten (z.B. RTX A6000), nicht durchführbar für Benutzer einer einzelnen Karte.
- Modell 671B: 8xH100-Cluster erforderlich, nur für Supercomputing-Zentren.
2. alternative Programme:
- Einzelnutzern wird empfohlen, Cloud-basierte APIs (z. B. Silicon Mobility) zu verwenden, die wartungsfrei und konform sind.
3. nationale Hardware-Kompatibilität:
- Eine angepasste Version des Frameworks ist erforderlich (z. B. Rise CANN, MXMLLM).
VII. anhang: Technische Unterstützung und Ressourcen
- Huawei-AufstiegRise Cloud Services
- Mu Xi GPU: Kostenlose API-Erfahrung
- Lee Seok Han Blog: Vollständige Anleitung zur Bereitstellung
VIII. heterogenes GPUStack-Programm
GPUStack Open-Source-Projekt
https://github.com/gpustack/gpustack/
Werkzeug zur Messung von Modellierungsressourcen
- GGUF-Parser(https://github.com/gpustack/gguf-parser-go) wird zur manuellen Berechnung des Videospeicherbedarfs verwendet.
GPUStack
DeepSeek Vollständige Plattform für den privaten Einsatz
Modell | Kontext Größe | VRAM-Anforderung | Empfohlene GPUs |
---|---|---|---|
R1-Distill-Qwen-1.5B (Q4_K_M) | 32K | 2,86 GiB | RTX 4060 8GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-1.5B (Q8_0) | 32K | 3,47 GiB | RTX 4060 8GB, MacBook Pro M4 Max 36G |
r1-distill-qwen-1.5b (fp16) | 32K | 4,82 GiB | RTX 4060 8GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-7B (Q4_K_M) | 32K | 7,90 GiB | RTX 4070 12GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-7B (Q8_0) | 32K | 10,83 GiB | RTX 4080 16GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-7B (FP16) | 32K | 17,01 GiB | RTX 4090 24GB, MacBook Pro M4 Max 36G |
R1-Distill-Llama-8B (Q4_K_M) | 32K | 10,64 GiB | RTX 4080 16GB, MacBook Pro M4 Max 36G |
R1-Distill-Llama-8B (Q8_0) | 32K | 13,77 GiB | RTX 4080 16GB, MacBook Pro M4 Max 36G |
R1-Distill-Llama-8B (FP16) | 32K | 20,32 GiB | RTX 4090 24GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-14B (Q4_K_M) | 32K | 16,80 GiB | RTX 4090 24GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-14B (Q8_0) | 32K | 22,69 GiB | RTX 4090 24GB, MacBook Pro M4 Max 36G |
R1-Distill-Qwen-14B (FP16) | 32K | 34,91 GiB | RTX 4090 24GB x2, MacBook Pro M4 Max 48G |
R1-Distill-Qwen-32B (Q4_K_M) | 32K | 28,92 GiB | RTX 4080 16GB x2, MacBook Pro M4 Max 48G |
R1-Distill-Qwen-32B (Q8_0) | 32K | 42,50 GiB | RTX 4090 24GB x3, MacBook Pro M4 Max 64G |
R1-Distill-Qwen-32B (FP16) | 32K | 70,43 GiB | RTX 4090 24GB x4, MacBook Pro M4 Max 128G |
R1-Distill-Llama-70B (Q4_K_M) | 32K | 53,41 GiB | RTX 4090 24GB x5, A100 80GB x1, MacBook Pro M4 Max 128G |
R1-Distill-Llama-70B (Q8_0) | 32K | 83,15 GiB | RTX 4090 24GB x5, MacBook Pro M4 Max 128G |
R1-Distill-Llama-70B (FP16) | 32K | 143,83 GiB | A100 80GB x2, Mac Studio M2 Ultra 192G |
R1-671B (UD-IQ1_S) | 32K | 225,27 GiB | A100 80GB x4, Mac Studio M2 Ultra 192G |
R1-671B (UD-IQ1_M) | 32K | 251,99 GiB | A100 80GB x4, Mac Studio M2 Ultra 192G x2 |
R1-671B (UD-IQ2_XXS) | 32K | 277,36 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B (UD-Q2_K_XL) | 32K | 305,71 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B (Q2_K_XS) | 32K | 300,73 GiB | A100 80GB x5, Mac Studio M2 Ultra 192G x2 |
R1-671B (Q2_K/Q2_K_L) | 32K | 322,14 GiB | A100 80GB x6, Mac Studio M2 Ultra 192G x2 |
R1-671B (Q3_K_M) | 32K | 392,06 GiB | A100 80GB x7 |
R1-671B (Q4_K_M) | 32K | 471,33 GiB | A100 80GB x8 |
R1-671B (Q5_K_M) | 32K | 537,31 GiB | A100 80GB x9 |
R1-671B (Q6_K) | 32K | 607,42 GiB | A100 80GB x11 |
R1-671B (Q8_0) | 32K | 758,54 GiB | A100 80GB x13 |
R1-671B (FP8) | 32K | 805,2 GiB | H200 141GB x8 |
Schlussbemerkungen
Tiefensuche R1 Die lokale Bereitstellung erfordert extrem hohe Hardware-Investitionen und technische Schwellenwerte, so dass Einzelanwender vorsichtig sein sollten und Unternehmensanwender den Bedarf und die Kosten umfassend prüfen sollten. Durch lokale Anpassungen und Cloud-Dienste können die Risiken erheblich verringert und die Effizienz verbessert werden. Der Technologie sind keine Grenzen gesetzt, eine vernünftige Planung kann die Kosten senken und die Effizienz steigern!
Global Enterprise Personal Channel Zeitplan
- Geheime Turmsuche
- 360 Nano AI Suche
- Durchfluss auf Siliziumbasis
- Byte Jump Volcano Engine
- Baidu-Cloud Chifan, eine virtuelle Website für virtuelle Realität
- NVIDIA NIM
- Groq
- Feuerwerk
- Rutschen
- Github
- POE
- Cursor
- Monica
- lambda (griechischer Buchstabe Λλ)
- Cerebras
- Perplexität
- Alibaba Cloud 100 Verfeinerungen
Für Umgebungen, die einen magischen oder ausländischen Internetzugang für Unternehmen erfordern
Zeitplan für Chip Business Support
Tabelle 1: Cloud-Anbieter, die DeepSeek-R1 unterstützen
Daten | Name/Website | Veröffentlichung relevanter Informationen |
---|---|---|
28. Januar | wörtlich: die Kernkuppel des Himmels nicht kennen | Eine großartige Kombination aus heterogenen Wolken |
28. Januar | PPIO Paio Cloud | DeepSeek-R1 geht live auf PPIO Paio Computing Cloud! |
1. Februar | Siliziumbasierte Mobilität x Huawei | Erste Veröffentlichung! Silicon Mobility x Huawei Cloud startet gemeinsam DeepSeekR1 & V3 Inference Service basierend auf Rise Cloud! |
2. Februar | Z stark (Cloud Axis Technology) | ZStack unterstützt DeepSeekV3/R1/JanusPro, mehrere selbst entwickelte CPU/GPUs für den privaten Einsatz. |
3. Februar | Baidu Intelligente Wolke Chifan | Baidu Intelligent Cloud Chifan unterstützt vollständig DeepSeek-R1/V3-Anrufe zu extrem niedrigen Preisen |
3. Februar | Supercomputing Internet | Supercomputing Internet geht mit der DeepSeek-Modellreihe in Betrieb, um superintelligente Fusionsberechnungen zu ermöglichen |
4. Februar | Huawei (Rise Community) | Die neuen Modelle der DeepSeek-Serie werden offiziell auf Rise Community vorgestellt. |
4. Februar | Lu Chen x Huawei Rise | LU Chen x Huawei Rise, gemeinsame Einführung der DeepSeekR1-Serien-Inferenz-API und des Cloud-Spiegelungsdienstes auf der Grundlage einheimischer Rechenleistung |
4. Februar | Grüne Wolke Technologie (Taiwan) | Für eine begrenzte Zeit kostenlos, Bereitstellung mit einem Klick! Keystone Smart Computing führt offiziell die Modelle der DeepSeek-R1-Serie ein |
4. Februar | Tennessee Intelligent Core (TIC), Computertechnologie | Ein Tag Adaption! DeepseekR1 Modell Service ist offiziell mit GiteeAi gestartet! |
4. Februar | Molekularbiologie | Hommage an Deepseek: Ein Feuer für Chinas KI-Ökosystem mit einheimischen GPUs |
4. Februar | Hai Guang Informationen | DeepSeekV3 und R1, Training schließt SeaLight DCU-Anpassung ab und geht in Betrieb |
5. Februar | erstes Licht der Dusche | DeepSeek-V3 Vollversion geht live in der ersten inländischen Mu Xi GPU Erfahrung |
5. Februar | Hai Guang Informationen | Haidu Ang DcCU Chen Gong passt multimodale DeepSeek-Janus-pro-Makromodelle an |
5. Februar | Jingdong Yun (Beijing 2008-), Chinas größter Cloud-Anbieter | Ein-Klick-Bereitstellung! Jingdong Cloud geht mit DeepSeek-R1/V3 vollständig in Betrieb |
5. Februar | (Maßnahme) | DeepSeekR1 in der Wand ren inländischen Ai arithmetische Plattform freigegeben, eine vollständige Palette von Modellen aus einer Hand zu befähigen Entwickler |
5. Februar | Unicom Cloud (China Unicom) | "Nezha im Meer"! Verbinden Sie die Modelle der DeepSeek-R1-Serie mit den Cloud-Regalen! |
5. Februar | Mobile Cloud (China Mobile) | Volle Version, volle Größe, volle Funktionalität! Mobile Cloud geht mit DeepSeek vollständig in Betrieb |
5. Februar | Ucotex (Marke) | UXTECH adaptiert die gesamte DeepSeek-Modellpalette auf Basis eines heimischen Chips |
5. Februar | Acer, ein taiwanesisch-amerikanischer Schriftsteller | Basierend auf Taichu T100 Beschleunigungskarte 2 Stunden, um DeepSeek-R1-Serie Modelle, One-Click-Erfahrung, kostenlose API-Service anzupassen |
5. Februar | Reed Yun Tian Fei (1931-), taiwanesischer Politiker, seit 2008 Präsident der Republik China | DeepEdge10 hat die Anpassung der Modelle der DeepSeek-R1-Serie abgeschlossen |
6. Februar | SkyCloud (China Telecom) | Neuer Durchbruch in der heimischen KI-Ökologie! "Hibiscus" + DeepSeek, die Königsbombe! |
6. Februar | Suwon Technologie | Original Technology stellt den DeepSeek-Inferenzdienst in intelligenten Rechenzentren im ganzen Land vollständig zur Verfügung |
6. Februar | Kunlun-Kern (Karakorum), Gebirgszug in Xinjiang | Domestic Alka Deepseek Ausbildung Inferenz Vollversion angepasst, hervorragende Leistung, Ein-Klick-Einsatz und so auf Sie! |
7. Februar | Welle Wolke | Wave Cloud veröffentlicht als erstes Unternehmen die All-in-One-Lösung 671BDeepSeek Big Model |
7. Februar | Peking Supercomputer | Beijing Supercomputing xDeepSeek:Zwei Motoren gehen in Flammen auf und treiben einen Sturm von 100 Milliarden Al-Innovationen an |
8. Februar | China E-Cloud | China eCloud geht mit dem DeepSeek-R1/V3-Vollvolumenmodell in Betrieb und eröffnet ein neues Kapitel der privaten Bereitstellung |
8. Februar | Kingsoft Wolke | Kingsoft Cloud unterstützt DeepSeek-R1/V3 |
8. Februar | Shang Tangs großes Gerät | Shangtang Big Device Regale DeepSeek Serie Modelle mit begrenzter Erfahrung und aktualisierte Dienstleistungen! |
Tabelle 2: Unternehmen, die DeepSeek-R1 unterstützen
Daten | Name/Website | Veröffentlichung relevanter Informationen |
---|---|---|
30. Januar | 360 Nano AI Suche | Nano AI Search geht mit "DeepSeek-R1" Big Model Full Blooded Version live |
3. Februar | Geheime Turm-KI-Suche | Geheime Turm-KI greift auf vollwertige Version des DeepSeekR1-Inferenzmodells zu |
5. Februar | Xiaoyi Assistent (Huawei) | Huawei Xiaoyi Assistant hat Zugang zu DeepSeek, nachdem Huawei Cloud die Einführung des DeepSeekR1/V3-Inferenzdienstes auf der Grundlage des Rise Cloud-Dienstes angekündigt hat |
5. Februar | Schriftstellerassistentin (Lesegruppe) | Die erste in der Branche! ReadWrite setzt DeepSeek ein, "Writer's Assistant" erweitert drei kreative Zusatzfunktionen |
5. Februar | Wanxing Technology Co, Ltd. | Wanxing Technology: Große DeepSeek-R1-Modellanpassung abgeschlossen und mehrere Produkte an Land gezogen |
6. Februar | Aldo P. (1948-), Geschäftsmann und Politiker aus Hongkong, Premierminister 2007-2010 | Mit DeepSeek als stellvertretendes großes Denkmodell hat NetEase die Landung der KI-Ausbildung beschleunigt |
6. Februar | Cloud-Schule (Computertechnik) | Cloud Learning Zugang zu DeepSeek Produkt-KI-Funktionen umfassendes Upgrade |
7. Februar | Heftklammer | Nagel-KI-Assistent Zugang zu DeepSeek, Unterstützung für Deep Thinking |
7. Februar | Was sich zu kaufen lohnt | Kaufenswert: Zugang zu DeepSeek-Modellprodukten |
7. Februar | Flush (Aktienhandel) | Flush ask money 2.0 Upgrade: Injizieren Sie die Weisheit des "langsamen Denkens", um einen rationaleren Assistenten für Investitionsentscheidungen zu schaffen |
8. Februar | Skyworks AI(Kunlun Wanwei) | Tiangong AI von Kunlun Wanwei bringt DeepSeekR1+ Connected Search offiziell auf den Markt |
8. Februar | Das Phantom der Sterne | FlymeAIOS hat den Zugriff auf das große DeepSeek-R1-Modell abgeschlossen! |
8. Februar | verherrlichen | Pride hat Zugang zu DeepSeek |
Tabelle 3: Zusammenfassung der Unternehmen, die DeepSeek-R1 unterstützen
Name/Website | Veröffentlichung relevanter Informationen |
---|---|
DeepSeek | DeepSeek-R1 veröffentlicht, Leistungsvergleich mit OpenAI o1-Version |
wörtlich: die Kernkuppel des Himmels nicht kennen | Infini-Al Heterogeneous Cloud ist jetzt auf DeepSeek-R1-Distill verfügbar, eine großartige Kombination aus hausgemachten Modellen und heterogener Cloud |
PPIO Paio Cloud | DeepSeek-R1 geht live auf PPIO Paio Computing Cloud! |
Durchfluss auf Siliziumbasis Huawei | Erste Veröffentlichung! Silicon Mobility x Huawei Cloud startet gemeinsam DeepSeekR1&V3 Inference Service basierend auf Rise Cloud! |
Z stark (Cloud Axis Technology) | ZStack unterstützt DeepSeekV3/R1/JanusPro, mehrere selbstentwickelte CPUs/GPUs für den privaten Einsatz! |
Baidu Intelligente Wolke Chifan | Baidu Intelligent Cloud Chifan unterstützt vollständig DeepSeek-R1/V3-Anrufe zu extrem niedrigen Preisen |
Supercomputing Internet | Supercomputing Internet geht mit der DeepSeek-Modellreihe in Betrieb und bietet Unterstützung für superintelligente Fusionsberechnungen |
Huawei (Rise Community) | Die neuen Modelle der DeepSeek-Serie werden offiziell auf Rise Community vorgestellt. |
Lu Chen x Huawei Rise | LU Chen x Huawei Rise, Einführung der DeepSeekR1-Reihe von Inferenz-APIs und Cloud-Distributionsdiensten auf der Grundlage heimischer Rechenleistung |
Grüne Wolke Technologie (Taiwan) | Für eine begrenzte Zeit kostenlos, Bereitstellung mit einem Klick! Cornerstone Computing geht mit der DeepSeek-R1-Modellreihe live! |
Jingdong Yun (Beijing 2008-), Chinas größter Cloud-Anbieter | Ein-Klick-Bereitstellung! Jingdong Cloud geht mit DeepSeek-R1/V3 vollständig in Betrieb |
Unicom Cloud (China Unicom) | "Ne Zha im Meer"! Verbinden Sie die Regale der DeepSeek-R1-Serie mit der Cloud! |
Mobile Cloud (China Mobile) | Volle Version, volle Größe, volle Funktionalität! Mobile Cloud geht vollständig live DeepSeek |
Ucotex (Marke) | UQD adaptiert die gesamte Palette der DeepSeek-Modelle auf der Basis eines selbst entwickelten Chips |
SkyCloud (China Telecom) | Neuer Durchbruch im heimischen KI-Ökosystem! "Hibernate" + DeepSeek, die Königsbombe! |
Digitales China | 3-Minuten-Einsatz des leistungsstarken KI-Modells DeepSeek, Digital China hilft Unternehmen bei der intelligenten Transformation |
Kaplan | Cape Cloud Enlightened Large Model Application und End-Side All-in-One mit vollständigem Zugriff auf DeepSeek |
Gold Schmetterling Wolke Kuppel | Kingdees voller Zugang zum DeepSeek-Modell hilft Unternehmen, KI-Anwendungen zu beschleunigen! |
parallele Technologie | Server besetzt? Parallel Technologies hilft Ihnen DeepSeek Freedom! |
Hauptstadt Online (CAPITAL) | Capital Online Cloud Platform geht mit der DeepSeek-R1-Modellfamilie live |
Welle Wolke | Wave Cloud veröffentlicht als erstes Unternehmen die All-in-One-Lösung 671B DeepSeek Big Model |
Peking Supercomputer | Beijing Supercomputing x DeepSeek: Zwei Maschinen explodieren und treiben Hunderte von Milliarden an KI-Innovationen voran |
Rhinoceros-Fähigkeit (Ziguang) | Ziguang: Rhinoceros Enablement Platform ermöglicht Nanotubing und Shelving von DeepSeekV3/R1-Modellen |
China E-Cloud | China eCloud geht mit DeepSeek-R1/V3-Volumenmodellen in Betrieb und eröffnet ein neues Kapitel der privaten Bereitstellung |
Kingsoft Wolke | Kingsoft Cloud-Unterstützung DeepSeek-R1/V3 |
Shang Tangs großes Gerät | Shangtang Big Device Regale DeepSeek Reihe von Modellen mit begrenzter Erfahrung und aktualisierten Service! |
360 Nano AI Suche | Nano AI Search geht mit "DeepSeek-R1" Großmodell in Vollversion online |
Geheime Turm-KI-Suche | Minarett KI-Zugang zu einer vollwertigen Version des DeepSeek R1-Inferenzmodells |
Xiaoyi Assistent (Huawei) | Der Huawei Xiaoyi Assistant hat Zugang zu DeepSeek, nachdem Huawei Cloud die Einführung des DeepSeek R1/V3 Inferenzdienstes auf Basis des Rise Cloud Service angekündigt hat. |
Schriftstellerassistentin (Lesegruppe) | Die erste in der Branche! ReadWrite setzt DeepSeek ein, "Writer's Assistant" erweitert drei kreative Hilfsfunktionen |
Wanxing Technology Co, Ltd. | Wanxing Technology: Große DeepSeek-R1-Modellanpassung abgeschlossen und mehrere Produkte an Land gezogen |
Aldo P. (1948-), Geschäftsmann und Politiker aus Hongkong, Premierminister 2007-2010 | NetEaseYouDao nutzt das große Denkmodell von DeepSeek und beschleunigt die Landung der KI-Ausbildung |
Cloud-Schule (Computertechnik) | Cloud Learning-Zugang zu DeepSeek-Produkt-KI-Funktionen umfassend erweitert |
Heftklammer | Nagel KI-Assistent Zugang DeepSeek, Unterstützung für tiefes Denken |
Was sich zu kaufen lohnt | Kaufenswert: Zugang zu DeepSeek-Modellprodukten |
Zusammenfassung der KI-Fähigkeiten im Zusammenhang mit Flybook x DeepSeek (öffentliche Version) | |
Flush (Aktienhandel) | Flush Q&C 2.0 Upgrade: Die Weisheit des "langsamen Denkens" für einen rationaleren Assistenten zur Investitionsentscheidung |
himmlische Arbeit AI (Kunlun Wanwei) | Tiangong AI, eine Tochtergesellschaft von Kunlun MSI, führt offiziell DeepSeek R1 + vernetzte Suche ein |
Das Phantom der Sterne | Flyme AI OS hat den Zugriff auf das große DeepSeek-R1-Modell abgeschlossen! |
verherrlichen | Pride hat Zugang zu DeepSeek |