はじめに
モデルコンテキストプロバイダCLI(mcp-cli)は、モデルコンテキストプロバイダサーバとやりとりするためのプロトコルレベルのコマンドラインツールです。mcp-cliはOpenAIとOllamaを含むいくつかのプロバイダーとモデルをサポートしており、デフォルトのモデルはそれぞれgpt-4o-miniとqwen2.5-coderです。 このツールにはPython 3.8以上と適切な依存関係が必要です。GitHubのリポジトリをクローンし、必要な依存関係をインストールすることでツールを使用できる。
機能一覧
- モデルコンテキスト・プロビジョニング・サーバーとのプロトコルレベルの通信のサポート
- ダイナミックなツールとリソース
- 複数のプロバイダーとモデルをサポート(OpenAIとOllama)
- ユーザーが動的にコマンドを実行できるインタラクティブ・モードを提供する。
- 対応コマンド:ping、list-tools、list-resources、list-prompts、chat、clear、help、quit/exit
- サポートされているコマンドラインパラメータは次のとおり:-server、-config-file、-provider、-model。
ヘルプの使用
設置プロセス
- クローン倉庫
复制复制复制复制复制复制复制复制复制
复制
git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
- UVをインストールする:
复制复制复制复制复制复制复制复制
复制
pip install uv
- 依存関係を同期させる:
使用方法
- クライアントを起動し、SQLiteサーバと対話します:
复制复制复制复制复制复制
复制
uv run main.py --server sqlite
- デフォルトの OpenAI プロバイダとモデルでクライアントを実行します:
复制复制复制复制复制
复制
uv run main.py --server sqlite
- 特定のコンフィギュレーションと オーラマ プロバイダーはクライアントを運営する:
复制复制复制复制
复制
uv run main.py --server sqlite --provider ollama --model llama3.2
対話モード
インタラクティブモードに入り、サーバーと対話する:
复制复制复制
复制
uv run main.py --server sqlite
対話モードでは、ツールを使用してサーバーと対話することができます。起動時に指定されたプロバイダとモデルは、以下のように表示されます:
复制复制
复制
Entering chat mode using provider 'ollama' and model 'llama3.2'...
対応コマンド
ping
サーバーが応答しているかチェックするlist-tools
利用可能なツールを表示list-resources
利用可能なリソースを表示list-prompts
利用可能なヒントを表示chat
インタラクティブチャットモードclear
端末画面を消去するhelp
対応コマンドの一覧を表示します。quit
/exit
クライアント終了
OpenAIプロバイダーの利用
OpenAIのモデルを使用したい場合は、次のように設定します。 OPENAI_API_KEY
環境変数は .env
ファイルまたは環境変数として設定する。