Aprendizagem pessoal com IA
e orientação prática
讯飞绘镜

Model Context Provider CLI: ferramenta de linha de comando para usar os serviços do MCP em qualquer modelo grande, não depende do Claude.

Introdução geral

A CLI do provedor de contexto de modelo (mcp-cli) é uma ferramenta de linha de comando em nível de protocolo para interagir com servidores de provedores de contexto de modelo. A ferramenta permite que os usuários enviem comandos, consultem dados e interajam com uma variedade de recursos fornecidos pelo servidor. A mcp-cli oferece suporte a vários provedores e modelos, incluindo OpenAI e Ollama, com os modelos padrão sendo gpt-4o-mini e qwen2.5-coder, respectivamente. A ferramenta requer Python 3.8 ou superior e as dependências dependências apropriadas. Você pode usar a ferramenta clonando o repositório do GitHub e instalando as dependências necessárias.

Model Context Provider CLI:任意打模型中使用MCP服务的命令行工具,不依赖Claude-1


 

Lista de funções

  • Suporte para comunicação em nível de protocolo com servidores de provisionamento de contexto de modelo
  • Ferramentas e recursos dinâmicos para explorar
  • Suporte a vários provedores e modelos (OpenAI e Ollama)
  • Fornece um modo interativo que permite aos usuários executar comandos dinamicamente
  • Os comandos suportados incluem: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Os parâmetros de linha de comando compatíveis incluem: --server, --config-file, --provider, --model

 

Usando a Ajuda

Processo de instalação

  1. Armazém de Clonagem:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Instalar UV:
   pip install uv
  1. Sincronização de dependências:
   uv sync --reinstall

Uso

  1. Inicie o cliente e interaja com o servidor SQLite:
   uv run main.py --server sqlite
  1. Execute o cliente com o provedor e o modelo padrão da OpenAI:
   uv run main.py --server sqlite
  1. Usando configurações específicas e Ollama O provedor executa o cliente:
   uv run main.py --server sqlite --provider ollama --model llama3.2

modo interativo

Entre no modo interativo e interaja com o servidor:

uv run main.py --server sqlite

No modo interativo, você pode usar a ferramenta e interagir com o servidor. O provedor e o modelo especificados na inicialização serão exibidos da seguinte forma:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Comandos suportados

  • pingVerificar se o servidor está respondendo
  • list-toolsMostrar ferramentas disponíveis
  • list-resourcesMostrar recursos disponíveis
  • list-promptsMostrar dicas disponíveis
  • chatBate-papo interativo: Entre no modo de bate-papo interativo
  • clearLimpar a tela do terminal
  • helpExibe uma lista de comandos suportados
  • quit / exitSair do cliente

Uso de provedores OpenAI

Se quiser usar um modelo OpenAI, você deve definir o parâmetro OPENAI_API_KEY que pode ser encontrada na variável de ambiente .env ou definido como uma variável de ambiente.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Model Context Provider CLI: ferramenta de linha de comando para usar os serviços do MCP em qualquer modelo grande, não depende do Claude.
pt_BRPortuguês do Brasil