Model Context Provider CLI: инструмент командной строки для использования сервисов MCP в любой крупной модели, не зависит от Claude.

Общее введение

Model Context Provider CLI (mcp-cli) - это инструмент командной строки на уровне протокола для взаимодействия с серверами провайдеров контекста модели. Инструмент позволяет пользователям отправлять команды, запрашивать данные и взаимодействовать с различными ресурсами, предоставляемыми сервером. mcp-cli поддерживает несколько провайдеров и моделей, включая OpenAI и Ollama, при этом по умолчанию используются модели gpt-4o-mini и qwen2.5-coder, соответственно. Для работы инструмента требуется Python 3.8 или выше, а также соответствующие зависимости. Вы можете использовать инструмент, клонировав репозиторий GitHub и установив необходимые зависимости.

Model Context Provider CLI:任意大模型中使用MCP服务的命令行工具,不依赖Claude

 

Список функций

  • Поддержка взаимодействия на уровне протокола с серверами предоставления контекста модели
  • Динамические инструменты и ресурсы для изучения
  • Поддержка нескольких провайдеров и моделей (OpenAI и Ollama)
  • Обеспечивает интерактивный режим, позволяющий пользователям динамически выполнять команды
  • Поддерживаемые команды: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Поддерживаемые параметры командной строки включают: --server, --config-file, --provider, --model

 

Использование помощи

Процесс установки

  1. Хранилище клонирования:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Установите ультрафиолет:
   pip install uv
  1. Синхронизация зависимостей:
   uv sync --reinstall

Использование

  1. Запустите клиент и взаимодействуйте с сервером SQLite:
   uv run main.py --server sqlite
  1. Запустите клиент с провайдером и моделью OpenAI по умолчанию:
   uv run main.py --server sqlite
  1. Использование специальных конфигураций и Оллама Провайдер управляет клиентом:
   uv run main.py --server sqlite --provider ollama --model llama3.2

интерактивный режим

Войдите в интерактивный режим и взаимодействуйте с сервером:

uv run main.py --server sqlite

В интерактивном режиме вы можете использовать инструмент и взаимодействовать с сервером. Провайдер и модель, указанные при запуске, будут отображаться следующим образом:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Поддерживаемые команды

  • ping: Проверьте, отвечает ли сервер.
  • list-tools: Показать доступные инструменты
  • list-resources: Показать доступные ресурсы
  • list-prompts: Показать доступные советы
  • chat: Войти в режим интерактивного чата
  • clear: Очистить экран терминала
  • help: Отображает список поддерживаемых команд.
  • quit / exit: Выход из клиента

Использование провайдеров OpenAI

Если вы хотите использовать модель OpenAI, вам следует задать OPENAI_API_KEY переменная окружения, которую можно найти в .env файле или задается в качестве переменной окружения.

© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...