AI Personal Learning
und praktische Anleitung

Model Context Provider CLI: Kommandozeilentool zur Nutzung von MCP-Diensten in jedem großen Modell, unabhängig von Claude.

Allgemeine Einführung

Model Context Provider CLI (mcp-cli) ist ein Befehlszeilenwerkzeug auf Protokollebene für die Interaktion mit Model Context Provider-Servern. Das Tool ermöglicht es Benutzern, Befehle zu senden, Daten abzufragen und mit einer Vielzahl von Ressourcen zu interagieren, die vom Server bereitgestellt werden. mcp-cli unterstützt mehrere Anbieter und Modelle, einschließlich OpenAI und Ollama, wobei die Standardmodelle gpt-4o-mini bzw. qwen2.5-coder sind. Das Tool erfordert Python 3.8 oder höher sowie die entsprechenden Abhängigkeiten. Sie können das Tool verwenden, indem Sie das GitHub-Repository klonen und die erforderlichen Abhängigkeiten installieren.

Model Context Provider CLI: Kommandozeilen-Tool zur Nutzung von MCP-Diensten in jedem Hit-Modell, nicht abhängig von Claude-1


 

Funktionsliste

  • Unterstützung für die Kommunikation auf Protokollebene mit Servern für die Bereitstellung von Modellkontexten
  • Dynamische Tools und Ressourcen zum Erkunden
  • Unterstützung für mehrere Anbieter und Modelle (OpenAI und Ollama)
  • Bietet einen interaktiven Modus, in dem Benutzer dynamisch Befehle ausführen können
  • Unterstützte Befehle sind: ping, list-tools, list-resources, list-prompts, chat, clear, help, quit/exit
  • Folgende Befehlszeilenparameter werden unterstützt: --server, --config-file, --provider, --model

 

Hilfe verwenden

Ablauf der Installation

  1. Klon-Lagerhaus:
   git clone https://github.com/chrishayuk/mcp-cli
cd mcp-cli
  1. UV installieren:
   pip installieren uv
  1. Synchronisierung der Abhängigkeiten:
   uv . --Neuinstallation

Verwendung

  1. Starten Sie den Client und interagieren Sie mit dem SQLite-Server:
   uv run main.py --server sqlite
  1. Führen Sie den Client mit dem Standard-OpenAI-Anbieter und -Modell aus:
   uv run main.py --server sqlite
  1. Mit spezifischen Konfigurationen und Ollama Der Provider betreibt den Client:
   uv run main.py --server sqlite --provider ollama --model llama3.2

interaktiver Modus

Wechseln Sie in den interaktiven Modus und interagieren Sie mit dem Server:

uv run main.py --server sqlite

Im interaktiven Modus können Sie das Tool verwenden und mit dem Server interagieren. Der Anbieter und das Modell, die beim Start angegeben wurden, werden wie folgt angezeigt:

Eintritt in den Chat-Modus mit Anbieter 'ollama' und Modell 'ollama3.2'...

Unterstützte Befehle

  • ping (Computertechnik)Prüfen, ob der Server antwortet
  • list-tools: Verfügbare Tools anzeigen
  • Liste-RessourcenVerfügbare Ressourcen anzeigen
  • list-prompts: Verfügbare Tipps anzeigen
  • ChatInteraktiven Chat-Modus aufrufen
  • klarLöschen des Terminalbildschirms
  • HilfeZeigt eine Liste der unterstützten Befehle an.
  • kündigen / AusgangExit Client

Verwendung von OpenAI-Providern

Wenn Sie ein OpenAI-Modell verwenden möchten, sollten Sie die Option OPENAI_API_KEY Umgebungsvariable, die sich in der Datei .env Datei oder als Umgebungsvariable gesetzt.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Model Context Provider CLI: Kommandozeilentool zur Nutzung von MCP-Diensten in jedem großen Modell, unabhängig von Claude.

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)