AI Personal Learning
und praktische Anleitung

ChatMCP: AI-Chat-Client, der das MCP-Protokoll implementiert und mehrere LLM-Modelle unterstützt

Allgemeine Einführung

ChatMCP ist ein quelloffener AI-Chat-Client zur Implementierung des Model Context Protocol (MCP). Das vom GitHub-Benutzer daodao97 entwickelte Projekt unterstützt eine Vielzahl von Large Language Models (LLMs) wie OpenAI, Claude und OLLama usw. ChatMCP bietet nicht nur Chat-Funktionen mit dem MCP-Server, sondern umfasst auch eine Reihe nützlicher Funktionen wie die automatische Installation des MCP-Servers, die Chat-Protokollverwaltung und eine bessere Gestaltung der Benutzeroberfläche. Das Projekt steht unter der GNU General Public Licence v3.0 (GPL-3.0), die es den Benutzern erlaubt, es frei zu benutzen, zu verändern und zu verbreiten.

ChatMCP: AI-Chat-Client, der das MCP-Protokoll implementiert und mehrere LLM-Modelle unterstützt-1


 

ChatMCP: AI-Chat-Client, der das MCP-Protokoll implementiert und mehrere LLM-Modelle unterstützt-1

 

Funktionsliste

  • Unterstützung für das Chatten mit MCP-Servern
  • Automatische Installation des MCP-Servers
  • Unterstützung der SSE MCP-Übertragung
  • Automatische Auswahl des MCP-Servers
  • Chat Records Management
  • Unterstützung für mehrere LLM-Modelle (OpenAI, Claude, OLLama, usw.)
  • Bereitstellung eines MCP-Server-Marktplatzes für die einfache Installation verschiedener MCP-Server
  • Bessere Gestaltung der Benutzeroberfläche
  • Unterstützung mehrerer Plattformen (MacOS, Windows, Linux, usw.)

 

Hilfe verwenden

Ablauf der Installation

  1. Installation von AbhängigkeitenStellen Sie sicher, dass uvx oder npx auf Ihrem System installiert ist.
    • Installieren Sie uvx:brew install uv
    • npx installieren:brew install node
  2. Konfigurieren von LLM-API-Schlüsseln und -EndpunktenKonfigurieren Sie Ihren LLM-API-Schlüssel und die Endpunkte auf der Seite Einstellungen.
  3. Installation des MCP-ServersInstallieren Sie den MCP-Server über die Seite MCP-Server.
  4. Client herunterladenWählen Sie je nach Betriebssystem, ob Sie die MacOS- oder die Windows-Version herunterladen möchten.
  5. Debugging-Protokoll: Die Protokolldatei befindet sich im Verzeichnis~/Library/Anwendungsunterstützung/run.daodao.chatmcp/logs.
  6. Datenbank und Konfigurationsdateien::
    • Chat-Protokoll-Datenbank:~/Dokumente/chatmcp.db
    • MCP-Server-Konfigurationsdatei:~/Dokumente/mcp_server.json
  7. Anwendung zurücksetzen: Verwenden Sie den folgenden Befehl, um die Anwendung zurückzusetzen:
   rm -rf ~/Library/Application\ Support/run.daodao.chatmcp
rm -rf ~/Dokumente/chatmcp.db
rm -rf ~/Dokumente/mcp_server.json

Verwendungsfunktionen

  1. Chatten mit MCP-Server::
    • Öffnen Sie den ChatMCP-Client und wählen Sie den konfigurierten MCP-Server aus.
    • Geben Sie den Chat-Inhalt ein und klicken Sie auf die Schaltfläche Senden, um mit dem MCP-Server zu kommunizieren.
  2. Chatprotokolle verwalten::
    • Chatprotokolle werden automatisch gespeichert in~/Dokumente/chatmcp.db.
    • Historische Chats können im Client eingesehen und verwaltet werden.
  3. Installation und Auswahl des MCP-Servers::
    • Besuchen Sie den MCP-Server-Marktplatz und wählen Sie den gewünschten MCP-Server für die Installation aus.
    • Nach Abschluss der Installation können Sie auf der Seite Einstellungen zwischen verschiedenen MCP-Servern wählen und wechseln.
  4. Konfigurieren und Verwenden des LLM-Modells::
    • Konfigurieren Sie das gewünschte LLM-Modell (z.B. OpenAI, Claude, OLLama, etc.) auf der Seite Einstellungen.
    • Sobald die Konfiguration abgeschlossen ist, können Sie während des Chats ein anderes LLM-Modell für die Konversation verwenden.
  5. Benutzer::
    • ChatMCP bietet eine einfache und intuitive Benutzeroberfläche, die verschiedene Operationen erleichtert.
    • Durch die Unterstützung mehrerer Plattformen kann das Programm auf Betriebssystemen wie MacOS, Windows und Linux verwendet werden.

Mit diesen Schritten können Benutzer ChatMCP einfach installieren und verwenden, um einen effizienten AI-Chat mit MCP-Servern zu ermöglichen.

Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " ChatMCP: AI-Chat-Client, der das MCP-Protokoll implementiert und mehrere LLM-Modelle unterstützt

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)