Model Context Provider CLI: Herramienta de línea de comandos para utilizar los servicios de MCP en cualquier modelo grande, no depende de Claude.
Últimos recursos sobre IAActualizado hace 10 meses Círculo de intercambio de inteligencia artificial 40.4K 00
Introducción general
La CLI del proveedor de contexto de modelo (mcp-cli) es una herramienta de línea de comandos a nivel de protocolo para interactuar con servidores de proveedores de contexto de modelo. La herramienta permite a los usuarios enviar comandos, consultar datos e interactuar con una variedad de recursos proporcionados por el servidor. mcp-cli es compatible con varios proveedores y modelos, incluidos OpenAI y Ollama, siendo los modelos predeterminados gpt-4o-mini y qwen2.5-coder, respectivamente. La herramienta requiere Python 3.8 o superior y las dependencias apropiadas. apropiadas. Puede utilizar la herramienta clonando el repositorio de GitHub e instalando las dependencias necesarias.

Lista de funciones
- Soporte para la comunicación a nivel de protocolo con servidores de aprovisionamiento de contexto de modelo
- Herramientas y recursos dinámicos para explorar
- Soporte para múltiples proveedores y modelos (OpenAI y Ollama)
- Ofrece un modo interactivo que permite a los usuarios ejecutar comandos de forma dinámica.
- Comandos soportados: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
- Los parámetros de línea de comandos admitidos son: --server, --config-file, --provider, --model
Utilizar la ayuda
Proceso de instalación
- Almacén de clonación:
git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
- Instalar UV:
pip install uv
- Sincronización de dependencias:
uv sync --reinstall
Utilización
- Inicie el cliente e interactúe con el servidor SQLite:
uv run main.py --server sqlite
- Ejecuta el cliente con el proveedor y modelo OpenAI por defecto:
uv run main.py --server sqlite
- Utilizando configuraciones específicas y Ollama El proveedor dirige al cliente:
uv run main.py --server sqlite --provider ollama --model llama3.2
modo interactivo
Entra en modo interactivo e interactúa con el servidor:
uv run main.py --server sqlite
En modo interactivo, puede utilizar la herramienta e interactuar con el servidor. El proveedor y el modelo especificados al inicio se mostrarán de la siguiente manera:
Entering chat mode using provider 'ollama' and model 'llama3.2'...
Comandos compatibles
pingComprobar si el servidor respondelist-tools: Mostrar herramientas disponibleslist-resources: Mostrar recursos disponibleslist-prompts: Mostrar consejos disponibleschat: Entra en el modo de chat interactivoclearBorrar la pantalla del terminalhelpMuestra una lista de los comandos admitidos.quit/exit: Salir del cliente
Uso de proveedores de OpenAI
Si desea utilizar un modelo OpenAI, debe establecer el parámetro OPENAI_API_KEY que se encuentra en el archivo .env o como variable de entorno.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...




