AI Personal Learning
und praktische Anleitung

Minima: lokales Datei-RAG-Chat-Tool mit Zugang zu ChatGPT & MCP (Anthropic Claude)

Allgemeine Einführung

Minima ist ein Open-Source-Projekt, das darauf abzielt, ein vollständig lokalisiertes Retrieval Augmentation Generation (RAG) Tool bereitzustellen. Benutzer können Minima verwenden, um mit lokalen Dateien zu kommunizieren. Es unterstützt zwei Modi: vollständig lokale Installation und benutzerdefinierter GPT-Modus. Das Projekt wird mit Docker bereitgestellt und unterstützt die Indizierung und Abfrage einer breiten Palette von Dateiformaten, einschließlich PDF, XLS, DOCX, TXT, MD und CSV. Minima wird unter der Mozilla Public Licence v2.0 (MPLv2) veröffentlicht, die sicherstellt, dass die Benutzer die Freiheit haben, den Code zu verwenden und zu ändern.

Minima: lokales Datei-RAG-Chat-Tool mit Zugang zu ChatGPT & MCP (Anthropic Claude) -1


 

Funktionsliste

  • Dialog über lokale DokumenteDialog mit lokalen Dateien über die lokale Installation.
  • Benutzerdefinierte GPT-ModiAbfrage lokaler Dateien unter Verwendung eines benutzerdefinierten GPT-Modells.
  • Unterstützung mehrerer DateiformateUnterstützt die Indizierung und Abfrage von PDF-, XLS-, DOCX-, TXT-, MD- und CSV-Dateien.
  • Docker-BereitstellungSchnelle Bereitstellung und Verwaltung über Docker.
  • Konfiguration der UmgebungsvariablenKonfigurieren Sie Umgebungsvariablen über die .env-Datei, um Dateipfade und Modellparameter flexibel festzulegen.
  • rekursiver IndexUnterstützt die rekursive Indizierung aller Unterordner und Dateien innerhalb eines Ordners.

 

Hilfe verwenden

Ablauf der Installation

  1. KlonprojektKlonen Sie das Minima-Projekt lokal von GitHub.
   git clone https://github.com/dmayboroda/minima.git
cd minima
  1. Umgebungsvariablen konfigurieren: Erstellen Sie eine .env-Datei im Stammverzeichnis des Projekts und kopieren Sie den Inhalt der Datei .env.sample in die .env-Datei und setzen Sie die entsprechenden Variablen.
   cp .env.sample .env

Zu den zu konfigurierenden Variablen gehören:

  • LOKALE_DATEIEN_PFADPfad: Gibt den Pfad zu dem Ordner an, der indiziert werden soll.
  • EINBETTEN_MODEL_IDEinbettungsmodell: Gibt das zu verwendende Einbettungsmodell an.
  • EMBEDDING_SIZEEinbettungsdimension: Legen Sie die Einbettungsdimension fest.
  • START_INDEXINGStart: Erstes Starten auf wahr um die Indizierung zu starten.
  • BENUTZER_ID im Gesang antworten PASSWORTBenutzerauthentifizierung für den benutzerdefinierten GPT-Modus.
  1. Starten des Docker-Containers::
    • Vollständig lokale Installation: bash
      docker compose -f docker-compose-ollama.yml --env-file .env up --build
    • Passen Sie den GPT-Modus an: bash
      docker compose --env-file .env up --build

Verwendung Prozess

  1. Dialog über lokale Dokumente::
    • Verbinden Sie sich mit dem lokalen Server:
     ws://localhost:8003/llm/
    
    • Startet einen Dialog mit der lokalen Datei, um den Inhalt der Datei abzufragen.
  2. Benutzerdefinierte GPT-Modi::
    • Nach dem Start des Docker-Containers kopieren Sie das OTP aus dem Terminal und fragen es mit Minima GPT ab.
    • Stellen Sie eine Frage, und Minima gibt Ihnen eine Antwort auf der Grundlage des Inhalts der lokalen Datei.

Detaillierte Funktionsweise

  • Indizierung von DokumentenNach dem Start des Containers indiziert Minima automatisch alle Dateien im angegebenen Ordner. Der Indizierungsprozess ist rekursiv und alle Dateien in Unterordnern werden ebenfalls indiziert.
  • Abfrage des DokumenteninhaltsBenutzer können über WebSocket eine Verbindung zu einem lokalen Server herstellen, eine Abfrage senden, und Minima wird eine Antwort auf der Grundlage des Inhalts der Datei zurückgeben.
  • Konfiguration der UmgebungsvariablenBenutzer können die Konfiguration von Minima flexibel anpassen, indem sie die Variablen in der .env-Datei ändern, z. B. Dateipfade ändern, Modelle einbetten usw.
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Minima: lokales Datei-RAG-Chat-Tool mit Zugang zu ChatGPT & MCP (Anthropic Claude)

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)