AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

Model Context Provider CLI: クロードに依存しない、あらゆる大規模モデルでMCPサービスを使用するためのコマンドラインツール。

はじめに

モデルコンテキストプロバイダCLI(mcp-cli)は、モデルコンテキストプロバイダサーバとやりとりするためのプロトコルレベルのコマンドラインツールです。mcp-cliはOpenAIとOllamaを含むいくつかのプロバイダーとモデルをサポートしており、デフォルトのモデルはそれぞれgpt-4o-miniとqwen2.5-coderです。 このツールにはPython 3.8以上と適切な依存関係が必要です。GitHubのリポジトリをクローンし、必要な依存関係をインストールすることでツールを使用できる。

Model Context Provider CLI:任意打模型中使用MCP服务的命令行工具,不依赖Claude-1


 

機能一覧

  • モデルコンテキスト・プロビジョニング・サーバーとのプロトコルレベルの通信のサポート
  • ダイナミックなツールとリソース
  • 複数のプロバイダーとモデルをサポート(OpenAIとOllama)
  • ユーザーが動的にコマンドを実行できるインタラクティブ・モードを提供する。
  • 対応コマンド:ping、list-tools、list-resources、list-prompts、chat、clear、help、quit/exit
  • サポートされているコマンドラインパラメータは次のとおり:-server、-config-file、-provider、-model。

 

ヘルプの使用

設置プロセス

  1. クローン倉庫
复制复制复制复制复制复制复制复制复制
复制
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. UVをインストールする:
复制复制复制复制复制复制复制复制
复制
   pip install uv
  1. 依存関係を同期させる:
复制复制复制复制复制复制复制
复制
   uv sync --reinstall

使用方法

  1. クライアントを起動し、SQLiteサーバと対話します:
复制复制复制复制复制复制
复制
   uv run main.py --server sqlite
  1. デフォルトの OpenAI プロバイダとモデルでクライアントを実行します:
复制复制复制复制复制
复制
   uv run main.py --server sqlite
  1. 特定のコンフィギュレーションと オーラマ プロバイダーはクライアントを運営する:
复制复制复制复制
复制
   uv run main.py --server sqlite --provider ollama --model llama3.2

対話モード

インタラクティブモードに入り、サーバーと対話する:

复制复制复制
复制
uv run main.py --server sqlite

対話モードでは、ツールを使用してサーバーと対話することができます。起動時に指定されたプロバイダとモデルは、以下のように表示されます:

复制复制
复制
Entering chat mode using provider 'ollama' and model 'llama3.2'...

対応コマンド

  • pingサーバーが応答しているかチェックする
  • list-tools利用可能なツールを表示
  • list-resources利用可能なリソースを表示
  • list-prompts利用可能なヒントを表示
  • chatインタラクティブチャットモード
  • clear端末画面を消去する
  • help対応コマンドの一覧を表示します。
  • quit / exitクライアント終了

OpenAIプロバイダーの利用

OpenAIのモデルを使用したい場合は、次のように設定します。 OPENAI_API_KEY 環境変数は .env ファイルまたは環境変数として設定する。

無断転載を禁じます:チーフAIシェアリングサークル " Model Context Provider CLI: クロードに依存しない、あらゆる大規模モデルでMCPサービスを使用するためのコマンドラインツール。
ja日本語