はじめに
モデルコンテキストプロバイダCLI(mcp-cli)は、モデルコンテキストプロバイダサーバとやりとりするためのプロトコルレベルのコマンドラインツールです。mcp-cliはOpenAIとOllamaを含むいくつかのプロバイダーとモデルをサポートしており、デフォルトのモデルはそれぞれgpt-4o-miniとqwen2.5-coderです。 このツールにはPython 3.8以上と適切な依存関係が必要です。GitHubのリポジトリをクローンし、必要な依存関係をインストールすることでツールを使用できる。
機能一覧
- モデルコンテキスト・プロビジョニング・サーバーとのプロトコルレベルの通信のサポート
- ダイナミックなツールとリソース
- 複数のプロバイダーとモデルをサポート(OpenAIとOllama)
- ユーザーが動的にコマンドを実行できるインタラクティブ・モードを提供する。
- 対応コマンド:ping、list-tools、list-resources、list-prompts、chat、clear、help、quit/exit
- サポートされているコマンドラインパラメータは次のとおり:-server、-config-file、-provider、-model。
ヘルプの使用
設置プロセス
- クローン倉庫
git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
- UVをインストールする:
pip install uv
- 依存関係を同期させる:
紫外線 同期 --再インストール
使用方法
- クライアントを起動し、SQLiteサーバと対話します:
uv run main.py --server sqlite
- デフォルトの OpenAI プロバイダとモデルでクライアントを実行します:
uv run main.py --server sqlite
- 特定のコンフィギュレーションと オーラマ プロバイダーはクライアントを運営する:
uv run main.py --server sqlite --provider ollama --model llama3.2
対話モード
インタラクティブモードに入り、サーバーと対話する:
uv run main.py --server sqlite
対話モードでは、ツールを使用してサーバーと対話することができます。起動時に指定されたプロバイダとモデルは、以下のように表示されます:
プロバイダー'ollama'とモデル'ollama3.2'を使ってチャット・モードに入る...
対応コマンド
ピン
サーバーが応答しているかチェックするリストツール
利用可能なツールを表示リスト・リソース
利用可能なリソースを表示リストプロンプト
利用可能なヒントを表示おしゃべり
インタラクティブチャットモードクリア
端末画面を消去するヘルプ
対応コマンドの一覧を表示します。やめる
/出口
クライアント終了
OpenAIプロバイダーの利用
OpenAIのモデルを使用したい場合は、次のように設定します。 OPENAI_API_KEY
環境変数は 環境
ファイルまたは環境変数として設定する。