Model Context Provider CLI: Herramienta de línea de comandos para utilizar los servicios de MCP en cualquier modelo grande, no depende de Claude.
Últimos recursos sobre IAActualizado hace 5 meses Círculo de intercambio de inteligencia artificial 3.7K 00
Introducción general
La CLI del proveedor de contexto de modelo (mcp-cli) es una herramienta de línea de comandos a nivel de protocolo para interactuar con servidores de proveedores de contexto de modelo. La herramienta permite a los usuarios enviar comandos, consultar datos e interactuar con una variedad de recursos proporcionados por el servidor. mcp-cli es compatible con varios proveedores y modelos, incluidos OpenAI y Ollama, siendo los modelos predeterminados gpt-4o-mini y qwen2.5-coder, respectivamente. La herramienta requiere Python 3.8 o superior y las dependencias apropiadas. apropiadas. Puede utilizar la herramienta clonando el repositorio de GitHub e instalando las dependencias necesarias.

Lista de funciones
- Soporte para la comunicación a nivel de protocolo con servidores de aprovisionamiento de contexto de modelo
- Herramientas y recursos dinámicos para explorar
- Soporte para múltiples proveedores y modelos (OpenAI y Ollama)
- Ofrece un modo interactivo que permite a los usuarios ejecutar comandos de forma dinámica.
- Comandos soportados: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
- Los parámetros de línea de comandos admitidos son: --server, --config-file, --provider, --model
Utilizar la ayuda
Proceso de instalación
- Almacén de clonación:
git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
- Instalar UV:
pip install uv
- Sincronización de dependencias:
uv sync --reinstall
Utilización
- Inicie el cliente e interactúe con el servidor SQLite:
uv run main.py --server sqlite
- Ejecuta el cliente con el proveedor y modelo OpenAI por defecto:
uv run main.py --server sqlite
- Utilizando configuraciones específicas y Ollama El proveedor dirige al cliente:
uv run main.py --server sqlite --provider ollama --model llama3.2
modo interactivo
Entra en modo interactivo e interactúa con el servidor:
uv run main.py --server sqlite
En modo interactivo, puede utilizar la herramienta e interactuar con el servidor. El proveedor y el modelo especificados al inicio se mostrarán de la siguiente manera:
Entering chat mode using provider 'ollama' and model 'llama3.2'...
Comandos compatibles
ping
Comprobar si el servidor respondelist-tools
: Mostrar herramientas disponibleslist-resources
: Mostrar recursos disponibleslist-prompts
: Mostrar consejos disponibleschat
: Entra en el modo de chat interactivoclear
Borrar la pantalla del terminalhelp
Muestra una lista de los comandos admitidos.quit
/exit
: Salir del cliente
Uso de proveedores de OpenAI
Si desea utilizar un modelo OpenAI, debe establecer el parámetro OPENAI_API_KEY
que se encuentra en el archivo .env
o como variable de entorno.
© declaración de copyright
Derechos de autor del artículo Círculo de intercambio de inteligencia artificial Todos, por favor no reproducir sin permiso.
Artículos relacionados
Sin comentarios...