Allgemeine Einführung
RLAMA ist ein von DonTizi entwickeltes und auf GitHub gehostetes RAG-System (Retrieval Augmentation Generation) für Document Intelligence, dessen Hauptmerkmal die Funktionalität durch Kommandozeilenoperationen ist. Benutzer können eine Verbindung zu lokalen Ollama Modell, das Dokumente in Ordnern schnell in eine interaktive Wissensdatenbank mit intelligenten Fragen und Antworten indexiert. Ganz gleich, ob es sich um eine Code-Datei, ein technisches Dokument oder ein Office-Dokument handelt, RLAMA ist der Aufgabe gewachsen und läuft vollständig lokal, wodurch die Notwendigkeit von Cloud-Diensten entfällt und der Datenschutz gewahrt bleibt. Durch die Unterstützung mehrerer Dateiformate und die einfache Installation ist RLAMA eine leistungsstarke Wahl für lokalisiertes Dokumentenmanagement, insbesondere für Entwickler und Technologie-Enthusiasten, die an Befehlszeilenoperationen gewöhnt sind.
Funktionsliste
- Erstellen eines RAG-Systems auf der KommandozeileGenerieren Sie eine Wissensdatenbank mit intelligenten Quizzen, indem Sie Ordnerdokumente mit Befehlen indizieren.
- Fragen und Antworten zur Interaktion mit der Befehlszeile: Verwenden Sie die Terminalsitzung zur Abfrage vorhandener RAG Der Inhalt des Dokuments im System.
- RAG-SystemverwaltungEinfaches Pflegen der Wissensbasis durch Auflisten und Löschen von RAG-Systemen mit Befehlen.
- Integration des lokalen ModellsNahtlose Verbindung zu lokalen Ollama-Modellen unter Beibehaltung der vollständigen Lokalisierung.
- Versions- und Update-VerwaltungMit diesem Befehl können Sie die Version überprüfen oder das System auf den neuesten Stand bringen.
- Unterstützung mehrerer FormateKompatibel mit einer Vielzahl von Formaten wie Text, Code und Office-Dokumenten.
- Deinstallation über die BefehlszeileBietet Tools und Daten zur Befehlsbereinigung.
Hilfe verwenden
Einbauverfahren
RLAMA ist eine Kommandozeilen-Implementierung von Document Intelligence Quiz für macOS, Linux und Windows, und die folgenden Schritte werden detailliert beschrieben:
1. voraussetzungen
- Ollama installierenOllama: Das Ollama-Modell muss lokal ausgeführt werden. Besuchen Sie die Ollama-Website, um es herunterzuladen und zu installieren, führen Sie das
ollama run llama3
(oder andere Modelle) zur Bestätigung der Verfügbarkeit, Standardadressehttp://localhost:11434
. - NetzanschlussInstallation: Für den Download von Skripten oder Abhängigkeiten ist eine Internetverbindung erforderlich.
- Optionale AbhängigkeitenUm mehr Formate (z.B. .pdf, .docx) zu unterstützen, wird empfohlen, das Programm
install_deps.sh
Installationswerkzeuge (z. B.pdftotext
).
2. die Installation über ein Befehlszeilenskript (empfohlen)
Geben Sie ihn in das Terminal ein:
curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
- Das Skript schließt den Download und die Konfiguration automatisch ab und führt anschließend das
rlama --version
Überprüfen Sie die Version (z.B.v0.1.0
) Bestätigung des Erfolgs.
3. manuelle Installation des Quellcodes (optional)
Falls eine individuelle Anpassung erforderlich ist:
- Klon-Lagerhaus:
git clone https://github.com/DonTizi/rlama.git cd rlama
- Kompilieren und installieren (Go-Umgebung erforderlich):
go build go install
- Verschieben Sie die ausführbare Datei in den PATH (z. B.
/usr/local/bin
), laufenrlama --help
Validierung.
4. die Überprüfung der Installation
Laufen:
rlama --help
Die Anzeige einer Liste von Befehlen gilt als erfolgreich.
Hauptfunktionen
Erstellen eines RAG-Systems über die Kommandozeile
Konvertieren Sie Dokumente in eine intelligente Quiz-Wissensbasis. Zum Beispiel, der Ordner ./docs
einbeziehen. readme.md
im Gesang antworten guide.pdf
::
- Stellen Sie sicher, dass das Ollama-Modell läuft (z. B.
ollama run llama3
). - Geben Sie den Befehl ein:
rlama rag llama3 mydocs ./docs
llama3
: Modellbezeichnung.mydocs
RAG-Systemname../docs
: Dokumentenpfad.
- Beispielhafte Ausgabe:
Indexing documents in ./docs... Processed: readme.md Processed: guide.pdf RAG system "mydocs" created successfully!
Interaktive Fragen und Antworten über die Befehlszeile
Erkundigen Sie sich nach bestehenden RAG-Systemen:
- Starten Sie die Sitzung:
rlama run mydocs
- Geben Sie die Frage ein:
如何安装 rlama?
- Antworten erhalten:
可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
- Einfuhr
exit
Ausstieg.
Verwaltung des RAG-Systems
- Auflistungssystem::
rlama list
Beispielhafte Ausgabe:
Available RAG systems: - mydocs
- Löschung des Systems::
rlama delete mydocs
oder überspringen Sie die Bestätigung:
rlama delete mydocs --force
Versionen und Aktualisierungen
- Version prüfen::
rlama --version
vielleicht
rlama -v
Die Anzeige sieht folgendermaßen ausv0.1.0
. - Aktualisierung des Systems::
rlama update
(Botanik) coca (Lehnwort)
--force
Obligatorische Aktualisierungen.
Deinstallation des Systems
- Werkzeuge zum Entfernen::
rlama uninstall
- Bereinigung von Daten: Die Daten werden in der
~/.rlama
Laufen:rm -rf ~/.rlama
Ausgewählte Funktionen
1. die Befehlszeilenoperationen
Alle Funktionen von rlama werden über die Kommandozeile implementiert, was einfach und effizient ist. Zum Beispiel kann eine Kommandozeile rlama rag mistral docs ./project
Indiziert sofort ganze Ordner, geeignet für befehlszeilenbewanderte Benutzer.
2. die Unterstützung von Dokumenten in mehreren Formaten
Es werden mehrere Dateitypen unterstützt:
- Text:
.txt
und.md
und.html
und.json
und.csv
usw. - Code:
.go
und.py
und.js
und.java
und.cpp
usw. - Dokumentation:
.pdf
und.docx
und.pptx
und.xlsx
usw.
in Bewegung sein./scripts/install_deps.sh
Verbesserte Unterstützung. Beispiel:
rlama rag gemma code-docs ./src
3. örtlich begrenzter Einsatz
Die Daten werden durchgängig lokal verarbeitet, die Cloud wird nicht benötigt, geeignet für sensible Dokumente. Zum Beispiel für die Indizierung vertraulicher Unternehmensdokumente:
rlama rag llama3 contracts ./legal
Tipps und Fehlerbehebung
- Präzisionskommando: Geben Sie den vollständigen Parameter ein, z. B.
rlama run mydocs
und nicht die Kurzschrift, um die Genauigkeit zu gewährleisten. - Ollama-AusgabeWenn die Verbindung fehlschlägt, überprüfen Sie die
http://localhost:11434
Laufenollama ps
Status anzeigen. - Format-UnterstützungWenn die Extraktion fehlschlägt, führen Sie
install_deps.sh
Installieren Sie die Abhängigkeit. - Schlechte AntwortBestätigen Sie, dass das Dokument indiziert ist, und versuchen Sie, das Problem genauer zu beschreiben.
- Appell (um Hilfe)Issues können auf GitHub Issues mit Befehlen und Versionen eingereicht werden.
Mit den oben genannten Befehlen können Benutzer rlama schnell beherrschen, lokale Dokumente verwalten und intelligente Fragen und Antworten implementieren.