Aprendizagem pessoal com IA
e orientação prática

Model Context Provider CLI: ferramenta de linha de comando para usar os serviços do MCP em qualquer modelo grande, não depende do Claude.

Introdução geral

A CLI do provedor de contexto de modelo (mcp-cli) é uma ferramenta de linha de comando em nível de protocolo para interagir com servidores de provedores de contexto de modelo. A ferramenta permite que os usuários enviem comandos, consultem dados e interajam com uma variedade de recursos fornecidos pelo servidor. A mcp-cli oferece suporte a vários provedores e modelos, incluindo OpenAI e Ollama, com os modelos padrão sendo gpt-4o-mini e qwen2.5-coder, respectivamente. A ferramenta requer Python 3.8 ou superior e as dependências dependências apropriadas. Você pode usar a ferramenta clonando o repositório do GitHub e instalando as dependências necessárias.

CLI do provedor de contexto de modelo: ferramenta de linha de comando para usar os serviços do MCP em qualquer modelo de acerto, não depende do Claude-1


 

Lista de funções

  • Suporte para comunicação em nível de protocolo com servidores de provisionamento de contexto de modelo
  • Ferramentas e recursos dinâmicos para explorar
  • Suporte a vários provedores e modelos (OpenAI e Ollama)
  • Fornece um modo interativo que permite aos usuários executar comandos dinamicamente
  • Os comandos suportados incluem: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Os parâmetros de linha de comando compatíveis incluem: --server, --config-file, --provider, --model

 

Usando a Ajuda

Processo de instalação

  1. Armazém de Clonagem:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. Instalar UV:
   pip install uv
  1. Sincronização de dependências:
   uv sincronização --reinstalação

Uso

  1. Inicie o cliente e interaja com o servidor SQLite:
   uv run main.py --server sqlite
  1. Execute o cliente com o provedor e o modelo padrão da OpenAI:
   uv run main.py --server sqlite
  1. Usando configurações específicas e Ollama O provedor executa o cliente:
   uv run main.py --server sqlite --provider ollama --model llama3.2

modo interativo

Entre no modo interativo e interaja com o servidor:

uv run main.py --server sqlite

No modo interativo, você pode usar a ferramenta e interagir com o servidor. O provedor e o modelo especificados na inicialização serão exibidos da seguinte forma:

Entrando no modo de bate-papo usando o provedor 'ollama' e o modelo 'ollama3.2'...

Comandos suportados

  • ping (computação)Verificar se o servidor está respondendo
  • Ferramentas de listaMostrar ferramentas disponíveis
  • lista de recursosMostrar recursos disponíveis
  • lista-promptsMostrar dicas disponíveis
  • bate-papoBate-papo interativo: Entre no modo de bate-papo interativo
  • claroLimpar a tela do terminal
  • ajudaExibe uma lista de comandos suportados
  • sair / saídaSair do cliente

Uso de provedores OpenAI

Se quiser usar um modelo OpenAI, você deve definir o parâmetro OPENAI_API_KEY que pode ser encontrada na variável de ambiente .env ou definido como uma variável de ambiente.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Model Context Provider CLI: ferramenta de linha de comando para usar os serviços do MCP em qualquer modelo grande, não depende do Claude.

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil