AIパーソナル・ラーニング
と実践的なガイダンス

Model Context Provider CLI: クロードに依存しない、あらゆる大規模モデルでMCPサービスを使用するためのコマンドラインツール。

はじめに

モデルコンテキストプロバイダCLI(mcp-cli)は、モデルコンテキストプロバイダサーバとやりとりするためのプロトコルレベルのコマンドラインツールです。mcp-cliはOpenAIとOllamaを含むいくつかのプロバイダーとモデルをサポートしており、デフォルトのモデルはそれぞれgpt-4o-miniとqwen2.5-coderです。 このツールにはPython 3.8以上と適切な依存関係が必要です。GitHubのリポジトリをクローンし、必要な依存関係をインストールすることでツールを使用できる。

Model Context Provider CLI: あらゆるヒットモデルでMCPサービスを使用するためのコマンドラインツール。


 

機能一覧

  • モデルコンテキスト・プロビジョニング・サーバーとのプロトコルレベルの通信のサポート
  • ダイナミックなツールとリソース
  • 複数のプロバイダーとモデルをサポート(OpenAIとOllama)
  • ユーザーが動的にコマンドを実行できるインタラクティブ・モードを提供する。
  • 対応コマンド:ping、list-tools、list-resources、list-prompts、chat、clear、help、quit/exit
  • サポートされているコマンドラインパラメータは次のとおり:-server、-config-file、-provider、-model。

 

ヘルプの使用

設置プロセス

  1. クローン倉庫
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. UVをインストールする:
   pip install uv
  1. 依存関係を同期させる:
   紫外線 同期 --再インストール

使用方法

  1. クライアントを起動し、SQLiteサーバと対話します:
   uv run main.py --server sqlite
  1. デフォルトの OpenAI プロバイダとモデルでクライアントを実行します:
   uv run main.py --server sqlite
  1. 特定のコンフィギュレーションと オーラマ プロバイダーはクライアントを運営する:
   uv run main.py --server sqlite --provider ollama --model llama3.2

対話モード

インタラクティブモードに入り、サーバーと対話する:

uv run main.py --server sqlite

対話モードでは、ツールを使用してサーバーと対話することができます。起動時に指定されたプロバイダとモデルは、以下のように表示されます:

プロバイダー'ollama'とモデル'ollama3.2'を使ってチャット・モードに入る...

対応コマンド

  • ピンサーバーが応答しているかチェックする
  • リストツール利用可能なツールを表示
  • リスト・リソース利用可能なリソースを表示
  • リストプロンプト利用可能なヒントを表示
  • おしゃべりインタラクティブチャットモード
  • クリア端末画面を消去する
  • ヘルプ対応コマンドの一覧を表示します。
  • やめる / 出口クライアント終了

OpenAIプロバイダーの利用

OpenAIのモデルを使用したい場合は、次のように設定します。 OPENAI_API_KEY 環境変数は 環境 ファイルまたは環境変数として設定する。

無断転載を禁じます:チーフAIシェアリングサークル " Model Context Provider CLI: クロードに依存しない、あらゆる大規模モデルでMCPサービスを使用するためのコマンドラインツール。

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語