Model Context Provider CLI: Herramienta de línea de comandos para utilizar los servicios de MCP en cualquier modelo grande, no depende de Claude.

堆友AI

Introducción general

La CLI del proveedor de contexto de modelo (mcp-cli) es una herramienta de línea de comandos a nivel de protocolo para interactuar con servidores de proveedores de contexto de modelo. La herramienta permite a los usuarios enviar comandos, consultar datos e interactuar con una variedad de recursos proporcionados por el servidor. mcp-cli es compatible con varios proveedores y modelos, incluidos OpenAI y Ollama, siendo los modelos predeterminados gpt-4o-mini y qwen2.5-coder, respectivamente. La herramienta requiere Python 3.8 o superior y las dependencias apropiadas. apropiadas. Puede utilizar la herramienta clonando el repositorio de GitHub e instalando las dependencias necesarias.

Model Context Provider CLI:任意大模型中使用MCP服务的命令行工具,不依赖Claude

 

Lista de funciones

  • Soporte para la comunicación a nivel de protocolo con servidores de aprovisionamiento de contexto de modelo
  • Herramientas y recursos dinámicos para explorar
  • Soporte para múltiples proveedores y modelos (OpenAI y Ollama)
  • Ofrece un modo interactivo que permite a los usuarios ejecutar comandos de forma dinámica.
  • Comandos soportados: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Los parámetros de línea de comandos admitidos son: --server, --config-file, --provider, --model

 

Utilizar la ayuda

Proceso de instalación

  1. Almacén de clonación:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Instalar UV:
   pip install uv
  1. Sincronización de dependencias:
   uv sync --reinstall

Utilización

  1. Inicie el cliente e interactúe con el servidor SQLite:
   uv run main.py --server sqlite
  1. Ejecuta el cliente con el proveedor y modelo OpenAI por defecto:
   uv run main.py --server sqlite
  1. Utilizando configuraciones específicas y Ollama El proveedor dirige al cliente:
   uv run main.py --server sqlite --provider ollama --model llama3.2

modo interactivo

Entra en modo interactivo e interactúa con el servidor:

uv run main.py --server sqlite

En modo interactivo, puede utilizar la herramienta e interactuar con el servidor. El proveedor y el modelo especificados al inicio se mostrarán de la siguiente manera:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Comandos compatibles

  • pingComprobar si el servidor responde
  • list-tools: Mostrar herramientas disponibles
  • list-resources: Mostrar recursos disponibles
  • list-prompts: Mostrar consejos disponibles
  • chat: Entra en el modo de chat interactivo
  • clearBorrar la pantalla del terminal
  • helpMuestra una lista de los comandos admitidos.
  • quit / exit: Salir del cliente

Uso de proveedores de OpenAI

Si desea utilizar un modelo OpenAI, debe establecer el parámetro OPENAI_API_KEY que se encuentra en el archivo .env o como variable de entorno.

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...