AI Personal Learning
und praktische Anleitung
豆包Marscode1

Model Context Provider CLI: Kommandozeilentool zur Nutzung von MCP-Diensten in jedem großen Modell, unabhängig von Claude.

Allgemeine Einführung

Model Context Provider CLI (mcp-cli) ist ein Befehlszeilenwerkzeug auf Protokollebene für die Interaktion mit Model Context Provider-Servern. Das Tool ermöglicht es Benutzern, Befehle zu senden, Daten abzufragen und mit einer Vielzahl von Ressourcen zu interagieren, die vom Server bereitgestellt werden. mcp-cli unterstützt mehrere Anbieter und Modelle, einschließlich OpenAI und Ollama, wobei die Standardmodelle gpt-4o-mini bzw. qwen2.5-coder sind. Das Tool erfordert Python 3.8 oder höher sowie die entsprechenden Abhängigkeiten. Sie können das Tool verwenden, indem Sie das GitHub-Repository klonen und die erforderlichen Abhängigkeiten installieren.

Model Context Provider CLI:任意打模型中使用MCP服务的命令行工具,不依赖Claude-1


 

Funktionsliste

  • Unterstützung für die Kommunikation auf Protokollebene mit Servern für die Bereitstellung von Modellkontexten
  • Dynamische Tools und Ressourcen zum Erkunden
  • Unterstützung für mehrere Anbieter und Modelle (OpenAI und Ollama)
  • Bietet einen interaktiven Modus, in dem Benutzer dynamisch Befehle ausführen können
  • Unterstützte Befehle sind: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Folgende Befehlszeilenparameter werden unterstützt: --server, --config-file, --provider, --model

 

Hilfe verwenden

Einbauverfahren

  1. Klon-Lagerhaus:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. UV installieren:
   pip install uv
  1. Synchronisierung der Abhängigkeiten:
   uv sync --reinstall

Verwendung

  1. Starten Sie den Client und interagieren Sie mit dem SQLite-Server:
   uv run main.py --server sqlite
  1. Führen Sie den Client mit dem Standard-OpenAI-Anbieter und -Modell aus:
   uv run main.py --server sqlite
  1. Mit spezifischen Konfigurationen und Ollama Der Provider betreibt den Client:
   uv run main.py --server sqlite --provider ollama --model llama3.2

interaktiver Modus

Wechseln Sie in den interaktiven Modus und interagieren Sie mit dem Server:

uv run main.py --server sqlite

Im interaktiven Modus können Sie das Tool verwenden und mit dem Server interagieren. Der Anbieter und das Modell, die beim Start angegeben wurden, werden wie folgt angezeigt:

Entering chat mode using provider 'ollama' and model 'llama3.2'...

Unterstützte Befehle

  • pingPrüfen, ob der Server antwortet
  • list-tools: Verfügbare Tools anzeigen
  • list-resourcesVerfügbare Ressourcen anzeigen
  • list-prompts: Verfügbare Tipps anzeigen
  • chatInteraktiven Chat-Modus aufrufen
  • clearLöschen des Terminalbildschirms
  • helpZeigt eine Liste der unterstützten Befehle an.
  • quit / exitExit Client

Verwendung von OpenAI-Providern

Wenn Sie ein OpenAI-Modell verwenden möchten, sollten Sie die Option OPENAI_API_KEY Umgebungsvariable, die sich in der Datei .env Datei oder als Umgebungsvariable gesetzt.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Model Context Provider CLI: Kommandozeilentool zur Nutzung von MCP-Diensten in jedem großen Modell, unabhängig von Claude.
de_DEDeutsch