Allgemeine Einführung
RLAMA ist ein von DonTizi entwickeltes und auf GitHub gehostetes RAG-System (Retrieval Augmentation Generation) für Document Intelligence, dessen Hauptmerkmal die Funktionalität durch Kommandozeilenoperationen ist. Benutzer können eine Verbindung zu lokalen Ollama Modell, das Dokumente in Ordnern schnell in eine interaktive Wissensdatenbank mit intelligenten Fragen und Antworten indexiert. Ganz gleich, ob es sich um eine Code-Datei, ein technisches Dokument oder ein Office-Dokument handelt, RLAMA ist der Aufgabe gewachsen und läuft vollständig lokal, wodurch die Notwendigkeit von Cloud-Diensten entfällt und der Datenschutz gewahrt bleibt. Durch die Unterstützung mehrerer Dateiformate und die einfache Installation ist RLAMA eine leistungsstarke Wahl für lokalisiertes Dokumentenmanagement, insbesondere für Entwickler und Technikbegeisterte, die an Kommandozeilenoperationen gewöhnt sind.
Funktionsliste
- Erstellen eines RAG-Systems auf der KommandozeileGenerieren Sie eine Wissensdatenbank mit intelligenten Quizzen, indem Sie Ordnerdokumente mit Befehlen indizieren.
- Fragen und Antworten zur Interaktion mit der Befehlszeile: Verwenden Sie die Terminalsitzung zur Abfrage vorhandener RAG Der Inhalt des Dokuments im System.
- RAG-SystemverwaltungEinfaches Pflegen der Wissensbasis durch Auflisten und Löschen von RAG-Systemen mit Befehlen.
- Integration des lokalen ModellsNahtlose Verbindung zu lokalen Ollama-Modellen unter Beibehaltung der vollständigen Lokalisierung.
- Versions- und Update-VerwaltungMit diesem Befehl können Sie die Version überprüfen oder das System auf den neuesten Stand bringen.
- Unterstützung mehrerer FormateKompatibel mit einer Vielzahl von Formaten wie Text, Code und Office-Dokumenten.
- Deinstallation über die BefehlszeileBietet Tools und Daten zur Befehlsbereinigung.
Hilfe verwenden
Ablauf der Installation
RLAMA ist eine Kommandozeilen-Implementierung von Document Intelligence Quiz für macOS, Linux und Windows, und die folgenden Schritte werden detailliert beschrieben:
1. voraussetzungen
- Ollama installierenOllama: Das Ollama-Modell muss lokal ausgeführt werden. Besuchen Sie die Ollama-Website, um es herunterzuladen und zu installieren, führen Sie das
ollama run llama3
(oder andere Modelle) zur Bestätigung der Verfügbarkeit, Standardadressehttp://localhost:11434
. - NetzanschlussInstallation: Für das Herunterladen von Skripten oder Abhängigkeiten ist eine Internetverbindung erforderlich.
- Optionale AbhängigkeitenUm mehr Formate (z.B. .pdf, .docx) zu unterstützen, wird empfohlen, das Programm
install_deps.sh
Installationswerkzeuge (z. B.pdftotext
).
2. die Installation über ein Befehlszeilenskript (empfohlen)
Geben Sie ihn in das Terminal ein:
curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
- Das Skript schließt den Download und die Konfiguration automatisch ab und führt anschließend die
rlama --version
Überprüfen Sie die Version (z.B.v0.1.0
) Bestätigung des Erfolgs.
3. manuelle Installation des Quellcodes (optional)
Falls eine individuelle Anpassung erforderlich ist:
- Klon-Lagerhaus:
git clone https://github.com/DonTizi/rlama.git cd rlama
- Kompilieren und installieren (Go-Umgebung erforderlich):
bauen gehen Installieren gehen
- Verschieben Sie die ausführbare Datei in den PATH (z.B.
/usr/local/bin
), laufenrlama --help
Validierung.
4. die Überprüfung der Installation
Laufen:
rlama --help
Die Anzeige einer Liste von Befehlen wird als erfolgreich angesehen.
Hauptfunktionen
Erstellen eines RAG-Systems über die Kommandozeile
Konvertieren Sie Dokumente in eine intelligente Quiz-Wissensbasis. Zum Beispiel, der Ordner . /docs
einbeziehen. readme.md
im Gesang antworten leitfaden.pdf
::
- Stellen Sie sicher, dass das Ollama-Modell läuft (z. B.
ollama run llama3
). - Geben Sie den Befehl ein:
rlama rag llama3 mydocs . /docs
Lama3
: Modellbezeichnung.mydocs
RAG-Systemname.. /docs
: Dokumentenpfad.
- Beispielhafte Ausgabe:
Indizierung von Dokumenten in. /docs... Verarbeitet: readme.md Verarbeitet: guide.pdf RAG-System "mydocs" erfolgreich erstellt!
Interaktive Fragen und Antworten über die Befehlszeile
Abfrage des bestehenden RAG-Systems:
- Starten Sie die Sitzung:
rlama mydocs ausführen
- Geben Sie die Frage ein:
Wie installiert man rlama?
- Antworten erhalten:
Dies kann durch Ausführen von "curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh" von einem Terminal aus installiert werden.
- Einfuhr
Ausgang
Ausstieg.
Verwaltung des RAG-Systems
- Auflistungssystem::
rlama-Liste
Beispielhafte Ausgabe:
Verfügbare RAG-Systeme: mydocs - mydocs
- Löschung des Systems::
rlama mydocs löschen
oder überspringen Sie die Bestätigung:
rlama delete mydocs --force
Versionen und Aktualisierungen
- Version prüfen::
rlama --version
vielleicht
rlama-v.
Die Anzeige sieht folgendermaßen ausv0.1.0
. - Aktualisierung des Systems::
rlama update
(Botanik) coca (Lehnwort)
--zwingen
Obligatorische Aktualisierungen.
Deinstallation des Systems
- Werkzeuge zum Entfernen::
rlama deinstallieren
- Bereinigung von Daten: Die Daten werden in der
~/.rlama
Laufen:rm -rf ~/.rlama
Ausgewählte Funktionen
1. die Befehlszeilenoperationen
Alle Funktionen von rlama werden über die Kommandozeile implementiert, was einfach und effizient ist. Zum Beispiel kann eine Kommandozeile Lumpensammler Mistral docs . /Projekt
Indiziert sofort ganze Ordner, geeignet für befehlszeilenbewanderte Benutzer.
2. die Unterstützung von Dokumenten in mehreren Formaten
Es werden mehrere Dateitypen unterstützt:
- Text:
.txt
, und.md
, und.html
, und.json
, und.csv
usw. - Code:
.gehen
, und.py
, und.js
, und.java
, und.cpp
usw. - Dokumentation:
.pdf
, und.docx
, und.pptx
, und.xlsx
usw.
in Bewegung sein. /scripts/install_deps.sh
Verbesserte Unterstützung. Beispiel:
rlama rag gemma code-docs . /src
3. örtlich begrenzter Einsatz
Die Daten werden durchgängig lokal verarbeitet, die Cloud wird nicht benötigt, geeignet für sensible Dokumente. Zum Beispiel für die Indizierung vertraulicher Unternehmensdokumente:
rlama rag llama3 Verträge . /gesetzlich
Tipps und Fehlerbehebung
- Präzisionskommando: Geben Sie den vollständigen Parameter ein, z. B.
rlama mydocs ausführen
und nicht die Kurzschrift, um die Genauigkeit zu gewährleisten. - Ollama-AusgabeWenn die Verbindung fehlschlägt, überprüfen Sie die
http://localhost:11434
Laufenollama ps
Status anzeigen. - Format-UnterstützungWenn die Extraktion fehlschlägt, führen Sie
install_deps.sh
Installieren Sie die Abhängigkeit. - Schlechte AntwortBestätigen Sie, dass das Dokument indiziert ist, und versuchen Sie, das Problem genauer zu beschreiben.
- Appell (um Hilfe)Issues können auf GitHub Issues mit Befehlen und Versionen eingereicht werden.
Mit den oben genannten Befehlen können Benutzer rlama schnell beherrschen, lokale Dokumente verwalten und intelligente Fragen und Antworten implementieren.