AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

Deepseek R1エンタープライズ・ローカル展開完全マニュアル

I. はじめに

ディープシーク R1 は、複雑な推論、マルチモーダル処理、技術文書生成をサポートする高性能汎用大規模言語モデルです。本マニュアルは、671B MoEモデル全体のハードウェア構成、国内チップの適応、定量化ソリューション、異種ソリューション、クラウド代替案、および展開方法を網羅し、技術チーム向けの完全なローカル展開ガイドを提供します。

II.ローカル展開に必要なコア構成

1.モデルパラメータとハードウェアの対応表

モデルパラメータ(B) Windows 構成要件 Macの構成要件 適用シナリオ
1.5B - RAM: 4GB- GPU: 統合グラフィックス/最新CPU- ストレージ: 5GB - メモリー:8GB(M1/M2/M3) - ストレージ:5GB シンプルなテキスト生成、基本的なコード補完
7B - RAM:8~10GB●GPU:GTX 1680(4ビット量子化)●ストレージ:8GB - メモリー:16GB(M2 Pro/M3) - ストレージ:8GB 中級複雑度クイズ、コード・デバッグ
8B - RAM: 16GB - GPU: RTX 4080 (16GB VRAM) - ストレージ: 10GB - メモリー:32GB(M3マックス) - ストレージ:10GB 中程度の複雑さの推論、文書生成
14B - ラム:24GB-GPU:RTX 3090(24GB VRAM) - メモリー:32GB(M3マックス) - ストレージ:20GB 複雑な推論、技術文書の作成
32B エンタープライズ展開(複数のカードを並行して使用する必要がある) 現時点ではサポートされていない 科学計算、大規模データ処理
70B エンタープライズ展開(複数のカードを並行して使用する必要がある) 現時点ではサポートされていない 大規模推論、超複雑タスク
671B エンタープライズ展開(複数のカードを並行して使用する必要がある) 現時点ではサポートされていない 超大規模研究用コンピューティング、ハイパフォーマンス・コンピューティング

2.コンピューティング・パワー要件の分析

モデルバージョン パラメータ(B) 計算精度 モデルサイズ 必要VRAM容量 (GB) 参考GPU構成
ディープシーク-R1 671B FP8 ~1,342GB ≥1,342GB以上 マルチGPU構成(例:NVIDIA A100 80GB * 16)
ディープシーク-R1-ディスティル-ラマ-70B 70B BF16 43GB ~32.7GB マルチGPU構成(例:NVIDIA A100 80GB * 2)
ディープシーク-R1-ディスティル-クウェン-32B 32B BF16 20GB ~14.9GB マルチGPU構成(例:NVIDIA RTX 4090 * 4)
ディープシーク-R1-ディスティル-クウェン-14B 14B BF16 9GB ~6.5GB NVIDIA RTX 3080 10GB以上
ディープシーク-R1-ディスティル-ラマ-8B 8B BF16 4.9GB ~3.7GB NVIDIA RTX 3070 8GB以上
ディープシーク-R1-ディスティル-クウェン-7B 7B BF16 4.7GB ~3.3GB NVIDIA RTX 3070 8GB以上
ディープシーク-R1-ディスティル-クウェン-1.5B 1.5B BF16 1.1GB ~0.7GB NVIDIA RTX 3060 12GB以上

Deepseek R1 企业本地部署完全手册-1

特記事項

  1. VRAM要件表に記載されている VRAM 要件は最低要件であり、モデルのロード中および操作中のピーク需要に対応するため、実際の配備には 20%-30% の追加ビデオメモリを確保することを推奨します。
  2. マルチGPU構成大規模モデル(例えば32B以上)の場合、計算効率と安定性を向上させるために、複数のGPUを並列に使用することが推奨されます。
  3. 計算精度FP8とBF16は現在主流となっている高効率な計算精度であり、グラフィックスメモリの使用量を抑えながらモデルの性能を保証することができます。
  4. 適用シナリオパラメータスケールの異なるモデルは、複雑さの異なるタスクに適しており、ユーザーは実際のニーズに応じて適切なモデルのバージョンを選択することができます。
  5. エンタープライズ展開671Bのような非常に大規模なモデルでは、高性能コンピューティングの要件を満たすために、プロフェッショナルグレードのGPUクラスタ(NVIDIA A100など)を導入することを推奨します。

III.国内チップ・ハードウェア適応プログラム

1.国内エコ・パートナーシップのダイナミクス

企業 適応内容 性能ベンチマーク(対NVIDIA)
ファーウェイの台頭 Rise 910Bは、R1ファミリーをフルネイティブでサポートし、エンドツーエンドの推論最適化を提供する。
無錫GPU MXNシリーズが70BモデルBF16推論をサポートし、メモリ使用量が30%増加 RTX 3090相当
シーライトDCU V3/R1モデルに適応し、NVIDIA A100に対するパフォーマンスを発揮 等価A100(BF16)

2.各国ハードウェアの推奨構成

モデルパラメータ 推奨プログラム 適用シナリオ
1.5B T100 アクセラレーターカード 開発者個人のプロトタイプ検証
14B 崑崙コアK200クラスタ 企業レベルの複雑なタスクの推論
32B ウォールチャーチ・コンピューティング・パワー・プラットフォーム + Rise 910Bクラスタ 科学的コンピューティングとマルチモーダル処理

IV.クラウド展開の選択肢

1.国内のおすすめクラウドサービスプロバイダー

テラス コアの強み 適用シナリオ
シリコンベースのフロー 公式推奨API、低レイテンシー、マルチモーダルモデル対応 エンタープライズクラスの高通貨推論
テンセントクラウド ワンクリックデプロイメント+期間限定無料トライアル、VPCプライベート化対応 中小規模のモデルが迅速に稼動
PPIO パイオクラウド OpenAIの20分の1の価格、5000万人の登録無料。 トークン 低コストの試飲とテスト

2.海外からのアクセス(マジックまたは海外企業のインターネットアクセスが必要)

  • NVIDIA NIM: エンタープライズGPUクラスタの展開 (リンク)
  • Groq: 超低遅延推論 (リンク)

V.オーラマ+ウンスロス展開

1.定量化プログラムとモデルの選択

数値化バージョン ファイルサイズ 最小RAM + VRM要件 適用シナリオ
ディープシーク-R1-UD-IQ1_M 158GB ≥200GB コンシューマーグレードのハードウェア(Mac Studioなど)
ディープシーク-R1-Q4_K_M 404 GB ≥500GB 高性能サーバー/クラウド GPU

ダウンロードアドレス

2.推奨ハードウェア構成

ハードウェア・タイプ 推奨構成 パフォーマンス・パフォーマンス(短いテキスト生成)
民生用機器 Mac Studio(192GBユニファイドメモリ) 10トークン/秒以上
高性能サーバー 4 RTX 4090 (96GB VRAM + 384GB RAM) 7~8トークン/秒(混合推理)

3.展開手順(Linuxの例)

1.依存ツールのインストール:

# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp

2.モデリングピースをダウンロードし、統合する:

llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf

3.Ollamaをインストールする:

curl -fsSL https://ollama.com/install.sh | sh

4.モデルファイルを作成する:

FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28  # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"

5.モデルを実行する:

ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile

4.パフォーマンス・チューニングとテスト

  • 低いGPU使用率高帯域幅メモリ(例:DDR5 5600+)のアップグレード。
  • 拡張スワップ・スペース::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

全血 671B 配備命令

  • ブイエルエルエム::
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
  • SGLang::
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2

VI.注意事項とリスク

1.コスト警告

  • 70Bモデル3枚以上の80G RAMグラフィックカード(例:RTX A6000)が必要です。
  • 671Bモデル8xH100クラスタが必要で、スーパーコンピューティング・センターへの配備のみ。

2.代替プログラム

  • 個人ユーザーには、メンテナンスフリーでコンプライアンスに準拠したクラウドベースのAPI(シリコンフローなど)の利用が推奨される。

3.国内ハードウェアの互換性:

  • フレームワークのカスタマイズ版が必要(例:Rise CANN、MXMLLM)。

付録:技術サポートとリソース

  • ファーウェイの台頭ライズ・クラウド・サービス
  • 無錫GPU無料API体験
  • イ・ソクハン ブログチュートリアル

VIII.ヘテロジニアスGPUStackプログラム

GPUStackオープンソースプロジェクト

https://github.com/gpustack/gpustack/

モデル資源測定ツール

  • GGUFパーサー(https://github.com/gpustack/gguf-parser-go)を使用して、手動で必要なビデオメモリを計算する。

GPUStack

DeepSeekフルプラットフォーム・プライベートデプロイメント

モデル コンテクスト・サイズ VRAM要件 推奨GPU
R1-ディスティル-クウェン-1.5B (Q4_K_M) 32K 2.86 GiB RTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-1.5B(Q8_0) 32K 3.47GiB RTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-1.5B (FP16) 32K 4.82GiB RTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B (Q4_K_M) 32K 7.90GiB RTX 4070 12GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B(Q8_0) 32K 10.83ギガバイト RTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B(FP16) 32K 17.01ギガバイト RTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B (Q4_K_M) 32K 10.64ギガバイト RTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B(Q8_0) 32K 13.77GiB RTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B (FP16) 32K 20.32ギガバイト RTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B (Q4_K_M) 32K 16.80ギガバイト RTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B(Q8_0) 32K 22.69ギガバイト RTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B(FP16) 32K 34.91ギガバイト RTX 4090 24GB x2、MacBook Pro M4 最大48G
R1-ディスティル-クウェン-32B (Q4_K_M) 32K 28.92ギガバイト RTX 4080 16GB x2、MacBook Pro M4 Max 48G
R1-ディスティル-クウェン-32B(Q8_0) 32K 42.50ギガバイト RTX 4090 24GB x3、MacBook Pro M4 Max 64G
R1-ディスティル-クウェン-32B(FP16) 32K 70.43ギガバイト RTX 4090 24GB x4、MacBook Pro M4 最大128G
R1-ディスティル-ラマ-70B (Q4_K_M) 32K 53.41ギガバイト RTX 4090 24GB x5、A100 80GB x1、MacBook Pro M4 Max 128G
R1-ディスティル-ラマ-70B(Q8_0) 32K 83.15ギガバイト RTX 4090 24GB x5、MacBook Pro M4 最大128G
R1-ディスティル-ラマ-70B(FP16) 32K 143.83ギガバイト A100 80GB x2、Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_S) 32K 225.27ギガバイト A100 80GB x4、Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_M) 32K 251.99ギガバイト A100 80GB x4、Mac Studio M2 Ultra 192G x2
R1-671B (UD-IQ2_xxs) 32K 277.36ギガバイト A100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(UD-Q2_K_XL) 32K 305.71ギガバイト A100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(Q2_K_XS) 32K 300.73ギガバイト A100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(Q2_K/Q2_K_L) 32K 322.14ギガバイト A100 80GB x6、Mac Studio M2 Ultra 192G x2
R1-671B(Q3_K_M) 32K 392.06ギガバイト A100 80GB x7
R1-671B(Q4_K_M) 32K 471.33ギガバイト A100 80GB x8
R1-671B (Q5_K_M) 32K 537.31ギガバイト A100 80GB x9
R1-671B (Q6_K) 32K 607.42 GB A100 80GB x11
R1-671B(Q8_0) 32K 758.54 GiB A100 80GB x13
R1-671B (FP8) 32K 805.2 GB H200 141GB x8

結語

ディープシーク R1 ローカライズされた展開には、非常に高いハードウェア投資と技術的しきい値が必要となるため、個人ユーザーは慎重に、企業ユーザーはニーズとコストを十分に見極める必要がある。ローカライズされた適応とクラウドサービスによって、リスクを大幅に軽減し、効率を向上させることができる。テクノロジーに限界はなく、合理的な計画によってコストを削減し、効率を高めることができる!

グローバル・エンタープライズ・パーソナル・チャンネル・スケジュール

  1. シークレット・タワー捜索
  2. 360ナノAI検索
  3. シリコンベースのフロー
  4. バイトジャンプ火山エンジン
  5. バイドゥ・クラウド・チファン、バーチャル・バーチャル・リアリティ・サイト
  6. エヌビディア・ニム
  7. グロック
  8. 花火
  9. シュート
  10. ギズブ
  11. POE
  12. カーソル
  13. モニカ
  14. ラムダ
  15. セレブラ
  16. 当惑
  17. Alibaba Cloud 100 リファインメント

魔法または外国企業のインターネットアクセスが必要な環境向け

チップ事業サポートスケジュール

表 1: DeepSeek-R1 をサポートするクラウドベンダー

日付 氏名/ウェブサイト 関連情報の公開
1月28日 天空のコア・ドームを知らず 異種クラウドの素晴らしい組み合わせ
1月28日 PPIO パイオクラウド DeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始!
1 2月 シリコンベースのモビリティ×ファーウェイ 初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドをベースとしたDeepSeekR1&V3推論サービスを共同で提供開始
2 2月 Zスターク(クラウド・アクシス・テクノロジー) ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている。
3 2月 バイドゥ インテリジェント クラウド 知帆 百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応
3 2月 スーパーコンピューティング・インターネット スーパーコンピューティング・インターネット、スーパーインテリジェントな核融合演算をサポートするDeepSeekシリーズを発表
4 2月 ファーウェイ(ライズ・コミュニティ) ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。
4 2月 ルーチェン×ファーウェイ・ライズ LU Chen × Huawei Rise、国産演算力をベースにしたDeepSeekR1シリーズの推論APIとクラウドミラーリングサービスを共同で発表
4 2月 グリーンクラウド・テクノロジーズ 期間限定無料、ワンクリック展開!Keystone Wise Computing、DeepSeek-R1シリーズを正式発表
4 2月 テネシー・インテリジェント・コア(TIC)、コンピューティング技術 一日適応!DeepseekR1モデルサービス、GiteeAiで正式スタート!
4 2月 分子生物学 ディープシークに捧ぐ:国産GPUで中国のアル・エコロジーに火をつける
4 2月 海広情報 DeepSeekV3とR1、トレーニングはSeaLight DCUの適応を完了し、ライブに入る
5 2月 初日の出 DeepSeek-V3本格版が国内初の無錫GPU体験で稼働開始
5 2月 海広情報 Haidu Ang DcCU Chen GongによるDeepSeek-Janus-proマルチモーダル・マクロモデルの適応
5 2月 中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれ ワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動
5 2月 小節 DeepSeekR1壁連国内Ai演算プラットフォームをリリースし、モデルの完全な範囲は、ワンストップの開発者に力を与える
5 2月 ユニコム・クラウド(中国聯通) "海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続!
5 2月 モバイルクラウド(チャイナモバイル) フルバージョン、フルサイズ、フル機能!モバイルクラウドがDeepSeekで本格稼動
5 2月 ユーコテックス UXTECH、国産チップをベースにDeepSeekの全機種に対応
5 2月 台湾系アメリカ人作家エイサー Taichu T100アクセラレータカードに基づいて2時間DeepSeek-R1シリーズモデル、ワンクリックの経験、無料のAPIサービスを適応させるために
5 2月 リード・ユン・ティエンフェイ(1931-)台湾の政治家、2008年より中華民国総統 DeepEdge10はDeepSeek-R1シリーズのモデル化を完了しました。
6 2月 スカイクラウド(チャイナテレコム) 国産アル生態系に新機軸!"ハイビスカス"+ディープシーク、キングボム!
6 2月 水原テクノロジー 独自技術、全国のスマートコンピューティングセンターでDeepSeekの推論サービスの本格展開を実現
6 2月 崑崙山脈(カラコルム)、新疆で使われる山脈 国内アルカDeepseekトレーニング推論フルバージョン適応、優れたパフォーマンス、ワンクリック展開などあなたに!
2月7日 ウェーブクラウド 671BDeepSeekビッグモデル・オールインワン・ソリューションをWave Cloudが初めてリリース
2月7日 北京スーパーコンピューター 北京スーパーコンピューティング xDeepSeek:デュアルエンジンが炎上、1000億アル・イノベーションの嵐が吹き荒れる
2月8日 中国Eクラウド 中国eクラウド、DeepSeek-R1/V3フルボリュームモデルで本番稼動 プライベート展開の新章を開く
2月8日 キングソフトクラウド キングソフトクラウドがDeepSeek-R1/V3をサポート
2月8日 シャン・タンの大仕掛け Shangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つDeepSeekシリーズのモデルを棚に並べる!

表 2: DeepSeek-R1 をサポートしている企業

日付 氏名/ウェブサイト 関連情報の公開
1月30日 360ナノAI検索 ナノAI検索、大型モデル「DeepSeek-R1」本格始動
2月3日 シークレット・タワー AI検索 シークレットタワーAIがDeepSeekR1推論モデルの完全版にアクセス
5 2月 シャオイ・アシスタント(ファーウェイ) Huawei CloudがRise Cloudサービスに基づいてDeepSeekR1/V3推論サービスを開始すると発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。
5 2月 作家アシスタント(読書会) 業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ補助機能をアップグレード
5 2月 万興科技株式会社 万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる
6 2月 アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相 DeepSeekを代表的な推論ビッグモデルとして採用し、NetEaseはAI教育の着地を加速させた
6 2月 クラウドスクール DeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード
2月7日 ステープル ネイルAIアシスタントがDeepSeekにアクセス、ディープシンキングをサポート
2月7日 買う価値があるもの 購入する価値:DeepSeekモデル製品へのアクセス
2月7日 フラッシュ(株取引) フラッシュアスクマネー2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資意思決定アシスタントを作成する。
2月8日 スカイワークスAI(崑崙万偉) 崑崙万威の天宮AIがDeepSeekR1+コネクテッドサーチを正式発表
2月8日 ファントム・オブ・ザ・スターズ FlymeAIOSがDeepSeek-R1のビッグモデルアクセスを完了しました!
2月8日 讃える プライドはDeepSeekにアクセスできる

表 3: DeepSeek-R1 をサポートする企業の概要

氏名/ウェブサイト 関連情報の公開
ディープシーク DeepSeek-R1がリリースされ、OpenAI o1リリースとの性能ベンチマークが行われた。
天空のコア・ドームを知らず Infini-Alヘテロジニアス・クラウドは、DeepSeek-R1-Distillで利用可能になりました。
PPIO パイオクラウド DeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始!
シリコンベースのフロー・ファーウェイ 初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドを活用したDeepSeekR1&V3推論サービスを共同で提供開始!
Zスターク(クラウド・アクシス・テクノロジー) ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている!
バイドゥ インテリジェント クラウド 知帆 百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応
スーパーコンピューティング・インターネット スーパーコンピューティング・インターネットがDeepSeekシリーズを稼動、スーパーインテリジェントな核融合演算をサポート
ファーウェイ(ライズ・コミュニティ) ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。
ルーチェン×ファーウェイ・ライズ LU Chen×Huawei Rise、国産演算力をベースにした推論API「DeepSeekR1」シリーズとクラウド配信サービスを開始
グリーンクラウド・テクノロジーズ 期間限定無料、ワンクリック展開!コーナーストーンコンピューティングがDeepSeek-R1シリーズを発表!
中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれ ワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動
ユニコム・クラウド(中国聯通) "海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続!
モバイルクラウド(チャイナモバイル) フルバージョン、フルサイズ、フル機能!モバイルクラウドが本格稼動 DeepSeek
ユーコテックス UQD、国産チップをベースにDeepSeekの全モデルに対応
スカイクラウド(チャイナテレコム) 国内AIエコシステムに新機軸!"ハイバネート"+DeepSeek、王者の爆弾!
デジタル・チャイナ 高性能AIモデル「DeepSeek」を3分で導入、デジタルチャイナが企業の知的変革を支援
カプラン Cape Cloud Enlightened大規模モデルアプリケーションとエンドサイドオールインワンがDeepSeekに完全対応
金蝶雲ドーム Kingdeeは、DeepSeekビッグモデルへのフルアクセスにより、企業のAIアプリケーションの高速化を支援します!
パラレルテクノロジー サーバーが混雑していますか?パラレルテクノロジーがDeepSeekの自由をサポートします!
キャピタル・オンライン(CAPITAL) キャピタル・オンライン・クラウド・プラットフォームがDeepSeek-R1ファミリーを搭載して稼動開始
ウェーブクラウド 671Bディープシーク・ビッグモデル・オールインワン・ソリューションをウェーブクラウドが初めてリリース
北京スーパーコンピューター 北京スーパーコンピューティング×DeepSeek:2つのエンジンが爆発、数千億規模のAIイノベーションを牽引する
ライノセラス・イネーブルメント(紫光) Ziguang社: Rhinocerosイネーブルメント・プラットフォームがDeepSeekV3/R1モデルのナノチューブとシェルビングを実現
中国Eクラウド China eCloudがDeepSeek-R1/V3フルボリュームモデルで稼動、プライベートデプロイメントの新章を開く
キングソフトクラウド キングソフトクラウドサポート DeepSeek-R1/V3
シャン・タンの大仕掛け Shangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つモデルのDeepSeekシリーズを棚に並べる!
360ナノAI検索 ナノAIサーチ、大型モデル全血バージョン「DeepSeek-R1」を公開
シークレット・タワー AI検索 ミナレット AIは、DeepSeek R1推論モデルの完全版にアクセスできる。
シャオイ・アシスタント(ファーウェイ) Huawei CloudがRise Cloudサービスに基づくDeepSeek R1/V3推論サービスの開始を発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。
作家アシスタント(読書会) 業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ支援機能をアップグレード
万興科技株式会社 万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる
アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相 DeepSeekの大きな推論モデルを取り入れ、NetEaseYouDaoはAI教育の着地を加速する
クラウドスクール DeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード
ステープル ネイルAIアシスタント「DeepSeek」にアクセス、ディープシンキングをサポート
買う価値があるもの 購入する価値:DeepSeekモデル製品へのアクセス
Flybook×DeepSeek(公開版)に関連するAI機能の概要
フラッシュ(株取引) フラッシュQ&C 2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資判断アシスタントを作る
天職 AI(クンルン・ワンウェイ) 崑崙MSI傘下の天宮AIがディープシークR1+ネットワーク検索を正式発表
ファントム・オブ・ザ・スターズ Flyme AI OSはDeepSeek-R1のビッグモデルアクセスを完了した!
讃える プライドはDeepSeekにアクセスできる
無断転載を禁じます:チーフAIシェアリングサークル " Deepseek R1エンタープライズ・ローカル展開完全マニュアル
ja日本語