Model Context Provider CLI: Herramienta de línea de comandos para utilizar los servicios de MCP en cualquier modelo grande, no depende de Claude.

Introducción general

La CLI del proveedor de contexto de modelo (mcp-cli) es una herramienta de línea de comandos a nivel de protocolo para interactuar con servidores de proveedores de contexto de modelo. La herramienta permite a los usuarios enviar comandos, consultar datos e interactuar con una variedad de recursos proporcionados por el servidor. mcp-cli es compatible con varios proveedores y modelos, incluidos OpenAI y Ollama, siendo los modelos predeterminados gpt-4o-mini y qwen2.5-coder, respectivamente. La herramienta requiere Python 3.8 o superior y las dependencias apropiadas. apropiadas. Puede utilizar la herramienta clonando el repositorio de GitHub e instalando las dependencias necesarias.

Model Context Provider CLI:任意大模型中使用MCP服务的命令行工具,不依赖Claude

 

Lista de funciones

  • Soporte para la comunicación a nivel de protocolo con servidores de aprovisionamiento de contexto de modelo
  • Herramientas y recursos dinámicos para explorar
  • Soporte para múltiples proveedores y modelos (OpenAI y Ollama)
  • Ofrece un modo interactivo que permite a los usuarios ejecutar comandos de forma dinámica.
  • Comandos soportados: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Los parámetros de línea de comandos admitidos son: --server, --config-file, --provider, --model

 

Utilizar la ayuda

Proceso de instalación

  1. Almacén de clonación:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Instalar UV:
   pip install uv
  1. Sincronización de dependencias:
   uv sync --reinstall

Utilización

  1. Inicie el cliente e interactúe con el servidor SQLite:
   uv run main.py --server sqlite
  1. Ejecuta el cliente con el proveedor y modelo OpenAI por defecto:
   uv run main.py --server sqlite
  1. Utilizando configuraciones específicas y Ollama El proveedor dirige al cliente:
   uv run main.py --server sqlite --provider ollama --model llama3.2

modo interactivo

Entra en modo interactivo e interactúa con el servidor:

uv run main.py --server sqlite

En modo interactivo, puede utilizar la herramienta e interactuar con el servidor. El proveedor y el modelo especificados al inicio se mostrarán de la siguiente manera:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Comandos compatibles

  • pingComprobar si el servidor responde
  • list-tools: Mostrar herramientas disponibles
  • list-resources: Mostrar recursos disponibles
  • list-prompts: Mostrar consejos disponibles
  • chat: Entra en el modo de chat interactivo
  • clearBorrar la pantalla del terminal
  • helpMuestra una lista de los comandos admitidos.
  • quit / exit: Salir del cliente

Uso de proveedores de OpenAI

Si desea utilizar un modelo OpenAI, debe establecer el parámetro OPENAI_API_KEY que se encuentra en el archivo .env o como variable de entorno.

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...