AI Personal Learning
und praktische Anleitung
CyberKnife-Zeichenspiegel

RLAMA: Ein RAG-System für intelligentes Quizzen lokaler Dokumente, das von der Kommandozeile aus bedient wird

Allgemeine Einführung

RLAMA ist ein von DonTizi entwickeltes und auf GitHub gehostetes RAG-System (Retrieval Augmentation Generation) für Document Intelligence, dessen Hauptmerkmal die Funktionalität durch Kommandozeilenoperationen ist. Benutzer können eine Verbindung zu lokalen Ollama Modell, das Dokumente in Ordnern schnell in eine interaktive Wissensdatenbank mit intelligenten Fragen und Antworten indexiert. Ganz gleich, ob es sich um eine Code-Datei, ein technisches Dokument oder ein Office-Dokument handelt, RLAMA ist der Aufgabe gewachsen und läuft vollständig lokal, wodurch die Notwendigkeit von Cloud-Diensten entfällt und der Datenschutz gewahrt bleibt. Durch die Unterstützung mehrerer Dateiformate und die einfache Installation ist RLAMA eine leistungsstarke Wahl für lokalisiertes Dokumentenmanagement, insbesondere für Entwickler und Technologie-Enthusiasten, die an Befehlszeilenoperationen gewöhnt sind.

RLAMA: Intelligente Abfrage lokaler Dokumente für Kommandozeilenoperationen RAG System-1


 

Funktionsliste

  • Erstellen eines RAG-Systems auf der KommandozeileGenerieren Sie eine Wissensdatenbank mit intelligenten Quizzen, indem Sie Ordnerdokumente mit Befehlen indizieren.
  • Fragen und Antworten zur Interaktion mit der Befehlszeile: Verwenden Sie die Terminalsitzung zur Abfrage vorhandener RAG Der Inhalt des Dokuments im System.
  • RAG-SystemverwaltungEinfaches Pflegen der Wissensbasis durch Auflisten und Löschen von RAG-Systemen mit Befehlen.
  • Integration des lokalen ModellsNahtlose Verbindung zu lokalen Ollama-Modellen unter Beibehaltung der vollständigen Lokalisierung.
  • Versions- und Update-VerwaltungMit diesem Befehl können Sie die Version überprüfen oder das System auf den neuesten Stand bringen.
  • Unterstützung mehrerer FormateKompatibel mit einer Vielzahl von Formaten wie Text, Code und Office-Dokumenten.
  • Deinstallation über die BefehlszeileBietet Tools und Daten zur Befehlsbereinigung.

 

Hilfe verwenden

Einbauverfahren

RLAMA ist eine Kommandozeilen-Implementierung von Document Intelligence Quiz für macOS, Linux und Windows, und die folgenden Schritte werden detailliert beschrieben:

1. voraussetzungen

  • Ollama installierenOllama: Das Ollama-Modell muss lokal ausgeführt werden. Besuchen Sie die Ollama-Website, um es herunterzuladen und zu installieren, führen Sie das ollama run llama3(oder andere Modelle) zur Bestätigung der Verfügbarkeit, Standardadresse http://localhost:11434.
  • NetzanschlussInstallation: Für den Download von Skripten oder Abhängigkeiten ist eine Internetverbindung erforderlich.
  • Optionale AbhängigkeitenUm mehr Formate (z.B. .pdf, .docx) zu unterstützen, wird empfohlen, das Programm install_deps.sh Installationswerkzeuge (z. B. pdftotext).

2. die Installation über ein Befehlszeilenskript (empfohlen)

Geben Sie ihn in das Terminal ein:

curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
  • Das Skript schließt den Download und die Konfiguration automatisch ab und führt anschließend das rlama --version Überprüfen Sie die Version (z.B. v0.1.0) Bestätigung des Erfolgs.

3. manuelle Installation des Quellcodes (optional)

Falls eine individuelle Anpassung erforderlich ist:

  • Klon-Lagerhaus:
    git clone https://github.com/DonTizi/rlama.git  
    cd rlama
    
  • Kompilieren und installieren (Go-Umgebung erforderlich):
    go build  
    go install
    
  • Verschieben Sie die ausführbare Datei in den PATH (z. B. /usr/local/bin), laufen rlama --help Validierung.

4. die Überprüfung der Installation

Laufen:

rlama --help

Die Anzeige einer Liste von Befehlen gilt als erfolgreich.

Hauptfunktionen

Erstellen eines RAG-Systems über die Kommandozeile

Konvertieren Sie Dokumente in eine intelligente Quiz-Wissensbasis. Zum Beispiel, der Ordner ./docs einbeziehen. readme.md im Gesang antworten guide.pdf::

  1. Stellen Sie sicher, dass das Ollama-Modell läuft (z. B. ollama run llama3).
  2. Geben Sie den Befehl ein:
    rlama rag llama3 mydocs ./docs
    
    • llama3: Modellbezeichnung.
    • mydocsRAG-Systemname.
    • ./docs: Dokumentenpfad.
  3. Beispielhafte Ausgabe:
    Indexing documents in ./docs...  
    Processed: readme.md  
    Processed: guide.pdf  
    RAG system "mydocs" created successfully!
    

Interaktive Fragen und Antworten über die Befehlszeile

Erkundigen Sie sich nach bestehenden RAG-Systemen:

  1. Starten Sie die Sitzung:
    rlama run mydocs
    
  2. Geben Sie die Frage ein:
    如何安装 rlama?
    
  3. Antworten erhalten:
    可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
    
  4. Einfuhr exit Ausstieg.

Verwaltung des RAG-Systems

  • Auflistungssystem::
    rlama list
    

    Beispielhafte Ausgabe:

    Available RAG systems:  
    - mydocs
    
  • Löschung des Systems::
    rlama delete mydocs
    

    oder überspringen Sie die Bestätigung:

    rlama delete mydocs --force
    

Versionen und Aktualisierungen

  • Version prüfen::
    rlama --version
    

    vielleicht rlama -vDie Anzeige sieht folgendermaßen aus v0.1.0.

  • Aktualisierung des Systems::
    rlama update
    

    (Botanik) coca (Lehnwort) --force Obligatorische Aktualisierungen.

Deinstallation des Systems

  • Werkzeuge zum Entfernen::
    rlama uninstall
    
  • Bereinigung von Daten: Die Daten werden in der ~/.rlamaLaufen:
    rm -rf ~/.rlama
    

Ausgewählte Funktionen

1. die Befehlszeilenoperationen

Alle Funktionen von rlama werden über die Kommandozeile implementiert, was einfach und effizient ist. Zum Beispiel kann eine Kommandozeile rlama rag mistral docs ./project Indiziert sofort ganze Ordner, geeignet für befehlszeilenbewanderte Benutzer.

2. die Unterstützung von Dokumenten in mehreren Formaten

Es werden mehrere Dateitypen unterstützt:

  • Text:.txtund.mdund.htmlund.jsonund.csv usw.
  • Code:.gound.pyund.jsund.javaund.cpp usw.
  • Dokumentation:.pdfund.docxund.pptxund.xlsx usw.
    in Bewegung sein ./scripts/install_deps.sh Verbesserte Unterstützung. Beispiel:
rlama rag gemma code-docs ./src

3. örtlich begrenzter Einsatz

Die Daten werden durchgängig lokal verarbeitet, die Cloud wird nicht benötigt, geeignet für sensible Dokumente. Zum Beispiel für die Indizierung vertraulicher Unternehmensdokumente:

rlama rag llama3 contracts ./legal

Tipps und Fehlerbehebung

  • Präzisionskommando: Geben Sie den vollständigen Parameter ein, z. B. rlama run mydocs und nicht die Kurzschrift, um die Genauigkeit zu gewährleisten.
  • Ollama-AusgabeWenn die Verbindung fehlschlägt, überprüfen Sie die http://localhost:11434Laufen ollama ps Status anzeigen.
  • Format-UnterstützungWenn die Extraktion fehlschlägt, führen Sie install_deps.sh Installieren Sie die Abhängigkeit.
  • Schlechte AntwortBestätigen Sie, dass das Dokument indiziert ist, und versuchen Sie, das Problem genauer zu beschreiben.
  • Appell (um Hilfe)Issues können auf GitHub Issues mit Befehlen und Versionen eingereicht werden.

Mit den oben genannten Befehlen können Benutzer rlama schnell beherrschen, lokale Dokumente verwalten und intelligente Fragen und Antworten implementieren.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " RLAMA: Ein RAG-System für intelligentes Quizzen lokaler Dokumente, das von der Kommandozeile aus bedient wird
de_DEDeutsch