Allgemeine Einführung
Minima ist ein Open-Source-Projekt, das darauf abzielt, ein vollständig lokalisiertes Retrieval Augmentation Generation (RAG) Tool bereitzustellen. Benutzer können Minima verwenden, um mit lokalen Dateien zu kommunizieren. Es unterstützt zwei Modi: vollständig lokale Installation und benutzerdefinierter GPT-Modus. Das Projekt wird mit Docker bereitgestellt und unterstützt die Indizierung und Abfrage einer breiten Palette von Dateiformaten, einschließlich PDF, XLS, DOCX, TXT, MD und CSV. Minima wird unter der Mozilla Public Licence v2.0 (MPLv2) veröffentlicht, die sicherstellt, dass die Benutzer die Freiheit haben, den Code zu verwenden und zu ändern.
Funktionsliste
- Dialog über lokale DokumenteDialog mit lokalen Dateien über die lokale Installation.
- Benutzerdefinierte GPT-ModiAbfrage lokaler Dateien unter Verwendung eines benutzerdefinierten GPT-Modells.
- Unterstützung mehrerer DateiformateUnterstützt die Indizierung und Abfrage von PDF-, XLS-, DOCX-, TXT-, MD- und CSV-Dateien.
- Docker-BereitstellungSchnelle Bereitstellung und Verwaltung über Docker.
- Konfiguration der UmgebungsvariablenKonfigurieren Sie Umgebungsvariablen über die .env-Datei, um Dateipfade und Modellparameter flexibel festzulegen.
- rekursiver IndexUnterstützt die rekursive Indizierung aller Unterordner und Dateien innerhalb eines Ordners.
Hilfe verwenden
Ablauf der Installation
- KlonprojektKlonen Sie das Minima-Projekt lokal von GitHub.
git clone https://github.com/dmayboroda/minima.git
cd minima
- Umgebungsvariablen konfigurieren: Erstellen Sie eine .env-Datei im Stammverzeichnis des Projekts und kopieren Sie den Inhalt der Datei .env.sample in die .env-Datei und setzen Sie die entsprechenden Variablen.
cp .env.sample .env
Zu den zu konfigurierenden Variablen gehören:
LOKALE_DATEIEN_PFAD
Pfad: Gibt den Pfad zu dem Ordner an, der indiziert werden soll.EINBETTEN_MODEL_ID
Einbettungsmodell: Gibt das zu verwendende Einbettungsmodell an.EMBEDDING_SIZE
Einbettungsdimension: Legen Sie die Einbettungsdimension fest.START_INDEXING
Start: Erstes Starten aufwahr
um die Indizierung zu starten.BENUTZER_ID
im Gesang antwortenPASSWORT
Benutzerauthentifizierung für den benutzerdefinierten GPT-Modus.
- Starten des Docker-Containers::
- Vollständig lokale Installation:
bash
docker compose -f docker-compose-ollama.yml --env-file .env up --build
- Passen Sie den GPT-Modus an:
bash
docker compose --env-file .env up --build
- Vollständig lokale Installation:
Verwendung Prozess
- Dialog über lokale Dokumente::
- Verbinden Sie sich mit dem lokalen Server:
ws://localhost:8003/llm/
- Startet einen Dialog mit der lokalen Datei, um den Inhalt der Datei abzufragen.
- Benutzerdefinierte GPT-Modi::
- Nach dem Start des Docker-Containers kopieren Sie das OTP aus dem Terminal und fragen es mit Minima GPT ab.
- Stellen Sie eine Frage, und Minima gibt Ihnen eine Antwort auf der Grundlage des Inhalts der lokalen Datei.
Detaillierte Funktionsweise
- Indizierung von DokumentenNach dem Start des Containers indiziert Minima automatisch alle Dateien im angegebenen Ordner. Der Indizierungsprozess ist rekursiv und alle Dateien in Unterordnern werden ebenfalls indiziert.
- Abfrage des DokumenteninhaltsBenutzer können über WebSocket eine Verbindung zu einem lokalen Server herstellen, eine Abfrage senden, und Minima wird eine Antwort auf der Grundlage des Inhalts der Datei zurückgeben.
- Konfiguration der UmgebungsvariablenBenutzer können die Konfiguration von Minima flexibel anpassen, indem sie die Variablen in der .env-Datei ändern, z. B. Dateipfade ändern, Modelle einbetten usw.