AIパーソナル・ラーニング
と実践的なガイダンス

DeepSeek+Difyのプライベート展開:セキュアで制御可能なローカルAIアシスタントシステムの構築

中抜き

ディープシーク は、その高度なアルゴリズム・アーキテクチャとリフレクティブ・チェイニング機能により、AIとの対話に革命的な体験をもたらす画期的なオープンソースのビッグ言語モデルです。プライベートデプロイメントでは、データセキュリティと利用セキュリティを完全に制御できます。また、展開スキームを柔軟に調整し、便利なカスタムシステムを実装することができます。

ダイファイ 同じオープンソースのAIアプリケーション開発プラットフォームとして、完全なプライベートデプロイメントソリューションを提供します。ローカルに展開されたDeepSeekサービスをDifyプラットフォームにシームレスに統合することで、組織はデータのプライバシーを確保しながら、ローカルサーバー環境内で強力なAIアプリケーションを構築することができます。


プライベート・デプロイメント・オプションの利点は以下の通りである:

  • 優れた性能 ビジネスモデルに匹敵する対話体験の提供
  • 環境隔離 完全なオフライン運用により、データ漏洩のリスクを排除。
  • データ制御性 コンプライアンス要件を満たすためのデータ資産の完全管理

 

プレ・ポジショニング

ハードウェア環境:

  • CPU >= 2コア
  • ビデオメモリ/RAM ≥ 16 GiB(推奨)

ソフトウェア環境:

 

配備開始

1.オッラマの設置

Ollamaは、DeepSeek、Llama、Mistralなどの大規模言語モデル(LLM)をシームレスにデプロイするために設計された、クロスプラットフォームの大規模モデル管理クライアント(MacOS、Windows、Linux)です。を提供します。

Ollamaのウェブサイトにアクセスし、画面の指示に従ってOllamaクライアントをダウンロード、インストールしてください。インストール後 オラマV コマンドはバージョン番号を出力する。

➜~ollama-v
ollamaversionis0.5.5

実際の環境構成に基づいて、導入に適した DeepSeek のサイズモデルを選択します。初期導入には、7B サイズのモデルをお勧めします。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

コマンド実行 オラマ・ラン・ディープシーク R1:7B 取り付け ディープシークR1 モデル

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

2.Difyコミュニティ版をインストールする

DifyのGitHubプロジェクトのアドレスにアクセスし、以下のコマンドを実行して、コードリポジトリのプルおよびインストールプロセスを完了します。

gitclonehttps://github.com/langgenius/dify.git
cddify/ドッカー
cp.env.example.env
dockercomposeup-d# バージョンがDocker Compose V1の場合は、次のコマンドを使用します: docker-compose up -d

コマンドを実行すると、すべてのコンテナのステータスとポートマッピングが表示されるはずだ。詳しい手順については Docker Composeのデプロイメント.

Dify Community Editionは、デフォルトでポート80を使用します。 http://your_server_ip プライベート化されたDifyプラットフォームにアクセスしてください。

3.DeepSeekとDifyの接続

Difyプラットフォームの右上をクリックしてください。 アバター → 設定 → モデルサプライヤー Ollamaを選択し、Add Modelをタップします。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

モデル・プロバイダ内の DeepSeek がオンライン API サービスに対応し、ローカルに配置された DeepSeek モデルが Ollama クライアントに対応します。DeepSeek モデルが Ollama クライアントによって正常にデプロイされていることを確認してください。

LLMモデルタイプを選択する。

  • Model Nameには、配置したモデルのモデル名を記入します。上記でデプロイしたモデルはdeepseek-r1 7bなので ディープシーク-R1:7B
  • ベースURL、Ollamaクライアントが動作しているアドレス。 http://your_server_ip:11434.接続に問題がある場合は一般的な問題.
  • その他のオプションはデフォルト値のまま。オプションによって DeepSeekモデルの説明生成されるトークンの最大長は32,768トークンである。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

 

AIアプリケーションの構築

DeepSeek AIチャットボット(シンプルなアプリケーション)

  • Difyプラットフォームトップページの左側にある「Create a Blank App」をタップし、「Chat Assistant」タイプのアプリを選択し、簡単な名前を付けます。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

  • 右上の「アプリケーションの種類」で、Ollamaフレームワークを選択します。 ディープシーク-R1:7B モデル

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

  • プレビューダイアログボックスに内容を入力して、AIアプリケーションが動作することを確認します。応答が返ってくるということは、AIアプリケーションのビルドが完了したことを意味します。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

  • アプリの右上にある「公開」ボタンをタップすると、AIアプリへのリンクが表示され、他の人と共有したり、他のウェブサイトに埋め込むことができます。

DeepSeek AIチャットフロー/ワークフロー(高度なアプリケーション)

チャットフロー ワークフロー アプリは、文書認識、画像認識、音声認識など、より複雑な機能を持つAIアプリケーションを構築するのに役立ちます。詳しい手順についてはワークフロー・ドキュメント.

  • Difyプラットフォームのトップページ左側にある「Create a Blank App」をタップし、「Chatflow」または「Workflow」タイプのアプリを選択し、簡単な名前を付けます。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

  • LLMノードを追加するには、Ollamaフレームワークを選択します。 ディープシーク-R1:7B モデルを作成し {{#sys.query#}} 変数を使用して開始ノードを接続する。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

  • エンドノードを追加して設定を完了します。テスト用のプレビュー・ボックスにコンテンツを入力できます。応答が生成されると、AIアプリケーションのビルドが完了したことになります。

DeepSeek+Difyのプライベート展開:安全で制御可能なローカルAIアシスタントシステムの構築-1

 

一般的な問題

1.Dockerデプロイ時の接続エラー

DockerでDifyとOllamaをデプロイする際、以下のエラーが発生する場合があります:

httpconnectionpool(host=127.0.0.1,port=11434): url:/cpi/chat で最大再試行回数を超えました。
(CausedbyNewConnectionError(': 新しい接続の確立に失敗しました:[Errr3.connection.HTTPConnection object at 0x7f8562812c20>.
新しい接続の確立に失敗しました:[Errno 111] 接続が拒否されました'))
httpconnectionpool(host=localhost,port=11434): url:/cpi/chat で最大再試行回数を超えました。
(CausedbyNewConnectionError(': 新しい接続の確立に失敗しました:[urllib3.connection.
新しい接続の確立に失敗しました:[Errno 111] 接続が拒否されました'))

エラーの原因 localhostは通常、ホストや別のコンテナではなく、コンテナ自体を指しています。この問題を解決するには、Ollamaサービスをネットワークに公開する必要があります。

macOSの環境設定方法:

OllamaがmacOSアプリケーションとして実行されている場合、launchctlを使って環境変数を設定する必要があります:

  1. これは launchctl setenv 環境変数の設定:
launchctlsetenvOLLAMA_HOST "0.0.0.0"
  1. Ollamaアプリケーションを再起動します。
  2. 上記の手順でうまくいかない場合は、以下の方法を使うことができる:

問題は、ドッカー内で host.docker.internalドッカーのホストにアクセスするために ローカルホスト と置き換える。 host.docker.internal サービス開始の準備が整いました:

http://host.docker.internal:11434

Linuxの環境設定方法:

Ollamaがsystemdサービスとして動作している場合は、次のようにします。 システムctl 環境変数の設定:

  1. これは systemctl ollama.serviceを編集する systemdサービスを編集する。エディターが開きます。
  2. 各環境変数に対して [サービス] セクションの下に 環境::
[サービス]
環境="OLLAMA_HOST=0.0.0.0"
  1. 保存して終了する。
  2. におも システムディー そしてオラマを再起動させる:
システムctldaemon-reload
システムctlrestartollama

Windowsの環境設定方法:

Windowsでは、Ollamaはあなたのユーザー環境変数とシステム環境変数を継承します。

  1. まず、タスクバーのOllamaをクリックしてプログラムを終了する。
  2. コントロールパネルからシステム環境変数を編集する
  3. 以下のようなユーザーアカウントの変数を編集または新規作成します。 OLLAMA_HOSTそしてOLLAMA_MODELS その他
  4. OK/適用をクリックして保存する
  5. 新しいターミナルウィンドウで実行する オラマ

2.Ollamaサービスのアドレスとポート番号を変更したいのですが。

Ollamaデフォルトバインディング 127.0.0.1 ポート11434でアクセスできます。 OLLAMA_HOST 環境変数はバインディングアドレスを変更する。

無断転載を禁じます:チーフAIシェアリングサークル " DeepSeek+Difyのプライベート展開:セキュアで制御可能なローカルAIアシスタントシステムの構築

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語