AIパーソナル・ラーニング
と実践的なガイダンス

Model Context Provider CLI:任意大模型中使用MCP服务的命令行工具,不依赖Claude

はじめに

Model Context Provider CLI(mcp-cli)是一个用于与模型上下文提供服务器交互的协议级命令行工具。该工具允许用户发送命令、查询数据并与服务器提供的各种资源进行交互。mcp-cli 支持多个提供商和模型,包括 OpenAI 和 Ollama,默认模型分别为 gpt-4o-mini 和 qwen2.5-coder。该工具需要 Python 3.8 或更高版本,并且需要安装相应的依赖项。用户可以通过克隆 GitHub 仓库并安装必要的依赖项来使用该工具。

Model Context Provider CLI:任意打模型中使用MCP服务的命令行工具,不依赖Claude-1


 

機能一覧

  • 支持与模型上下文提供服务器进行协议级通信
  • 动态工具和资源探索
  • 支持多个提供商和模型(OpenAI 和 Ollama)
  • 提供交互模式,允许用户动态执行命令
  • 支持的命令包括:ping、list-tools、list-resources、list-prompts、chat、clear、help、quit/exit
  • 支持的命令行参数包括:--server、--config-file、--provider、--model

 

ヘルプの使用

設置プロセス

  1. クローン倉庫
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. 安装 UV:
   pip install uv
  1. 同步依赖项:
   紫外線 同期 --reinstall

使用方法

  1. 启动客户端并与 SQLite 服务器交互:
   uv run main.py --server sqlite
  1. 使用默认的 OpenAI 提供商和模型运行客户端:
   uv run main.py --server sqlite
  1. 使用特定配置和 オーラマ 提供商运行客户端:
   uv run main.py --server sqlite --provider ollama --model llama3.2

交互模式

进入交互模式并与服务器交互:

uv run main.py --server sqlite

在交互模式下,您可以使用工具并与服务器进行交互。启动时指定的提供商和模型将显示如下:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

支持的命令

  • ping:检查服务器是否响应
  • list-tools:显示可用工具
  • list-resources:显示可用资源
  • list-prompts:显示可用提示
  • おしゃべり:进入交互聊天模式
  • clear:清除终端屏幕
  • ヘルプ:显示支持的命令列表
  • quit / exit:退出客户端

使用 OpenAI 提供商

如果您希望使用 OpenAI 模型,您应该在运行客户端之前设置 OPENAI_API_KEY 环境变量,可以在 環境 文件中或作为环境变量设置。

AIイージー・ラーニング

AIを始めるための素人ガイド

AIツールの活用方法を、低コスト・ゼロベースから学ぶことができます。AIはオフィスソフトと同様、誰にとっても必須のスキルです。 AIをマスターすれば、就職活動で有利になり、今後の仕事や勉強の労力も半減します。

詳細を見る
無断転載を禁じます:チーフAIシェアリングサークル " Model Context Provider CLI:任意大模型中使用MCP服务的命令行工具,不依赖Claude

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語