RLAMA : Un système RAG pour l'interrogation intelligente de documents locaux opérée à partir de la ligne de commande

Introduction générale

RLAMA est un système RAG (Retrieval Augmentation Generation) pour l'intelligence documentaire développé par DonTizi et hébergé sur GitHub, dont la caractéristique principale est la fonctionnalité par le biais d'opérations en ligne de commande. Les utilisateurs peuvent se connecter à des Ollama qui indexe rapidement les documents dans des dossiers pour en faire une base de connaissances interactive avec des questions-réponses intelligentes. Qu'il s'agisse d'un fichier de code, d'un document technique ou d'un document bureautique, RLAMA est à la hauteur de la tâche et fonctionne entièrement en local, ce qui élimine le besoin de services en nuage et préserve la confidentialité des données. Grâce à la prise en charge de plusieurs formats de fichiers et à une installation facile, RLAMA est un choix puissant pour la gestion de documents localisés, en particulier pour les développeurs et les passionnés de technologie qui sont habitués aux opérations en ligne de commande.

RLAMA:命令行操作的本地文档智能问答 RAG 系统

 

Liste des fonctions

  • Création d'un système RAG en ligne de commandeLes commandes : Générer une base de connaissances de quiz intelligents en indexant les documents d'un dossier avec des commandes.
  • Interaction en ligne de commande Q&R: Utiliser la session du terminal pour interroger les RAG Le contenu du document dans le système.
  • Administration du système RAGLes systèmes RAG peuvent être facilement mis à jour en listant et en supprimant les systèmes RAG à l'aide de commandes.
  • Intégration du modèle localLe système de gestion de l'information : Il se connecte de manière transparente aux modèles locaux d'Ollama, tout en conservant une localisation complète.
  • Gestion des versions et des mises à jourCommande de vérification de la version : Utilisez la commande pour vérifier la version ou mettre à jour le système à l'état le plus récent.
  • Support multiformatCompatible avec un large éventail de formats, y compris le texte, le code et les documents de bureau.
  • Désinstallation en ligne de commandeLe site de l'Agence européenne pour l'environnement (AEE) : fournit des outils et des données sur le nettoyage des commandes.

 

Utiliser l'aide

Processus d'installation

RLAMA est une implémentation en ligne de commande de Document Intelligence Quiz pour macOS, Linux et Windows, et les étapes suivantes sont détaillées :

1. les conditions préalables

  • Installer OllamaLe modèle Ollama doit être exécuté localement. Visitez le site web d'Ollama pour le télécharger et l'installer, puis exécutez le programme ollama run llama3(ou d'autres modèles) pour confirmer la disponibilité, l'adresse par défaut http://localhost:11434.
  • connexion au réseauL'installation nécessite une connexion internet pour télécharger les scripts ou les dépendances.
  • Dépendances optionnellesPour prendre en charge davantage de formats (par exemple, .pdf, .docx), il est recommandé d'exécuter le programme install_deps.sh Outils d'installation (par exemple pdftotext).

2. installation via un script de ligne de commande (recommandé)

Saisissez-le dans le terminal :

curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
  • Le script achève automatiquement le téléchargement et la configuration et, une fois terminé, exécute la commande rlama --version Vérifiez la version (par exemple v0.1.0) Confirmation du succès.

3. installation manuelle du code source (optionnel)

Si une personnalisation est nécessaire :

  • Entrepôt de clonage :
    git clone https://github.com/DonTizi/rlama.git  
    cd rlama
    
  • Compiler et installer (environnement Go requis) :
    go build  
    go install
    
  • Déplacer l'exécutable dans le PATH (par ex. /usr/local/bin), exécuter rlama --help Validation.

4. vérification de l'installation

La course à pied :

rlama --help

L'affichage d'une liste de commandes est considéré comme réussi.

Principales fonctions

Création d'un système RAG à partir de la ligne de commande

Convertir les documents en une base de connaissances intelligente. Par exemple, le dossier ./docs incorporer readme.md répondre en chantant guide.pdf: :

  1. S'assurer que le modèle Ollama fonctionne (par ex. ollama run llama3).
  2. Entrez la commande :
    rlama rag llama3 mydocs ./docs
    
    • llama3Nom du modèle.
    • mydocsNom du système : nom du système RAG.
    • ./docs: Chemin d'accès au document.
  3. Exemple de sortie :
    Indexing documents in ./docs...  
    Processed: readme.md  
    Processed: guide.pdf  
    RAG system "mydocs" created successfully!
    

Questions et réponses interactives via la ligne de commande

Se renseigner sur les systèmes RAG existants :

  1. Démarrer la session :
    rlama run mydocs
    
  2. Saisissez la question :
    如何安装 rlama?
    
  3. Obtenir des réponses :
    可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
    
  4. importation exit Sortie.

Gestion du système RAG

  • Système d'inscription: :
    rlama list
    

    Exemple de sortie :

    Available RAG systems:  
    - mydocs
    
  • Suppression du système: :
    rlama delete mydocs
    

    ou sauter la confirmation :

    rlama delete mydocs --force
    

Versions et mises à jour

  • Vérifier la version: :
    rlama --version
    

    peut-être rlama -vL'affichage est le suivant v0.1.0.

  • Mise à jour du système: :
    rlama update
    

    (botanique) coca (mot emprunté) --force Mises à jour obligatoires.

Désinstallation du système

  • Outils de suppression: :
    rlama uninstall
    
  • Nettoyage des donnéesLes données sont stockées dans le ~/.rlamaLa course à pied :
    rm -rf ~/.rlama
    

Fonctions vedettes

1. opérations en ligne de commande

Toutes les fonctions de rlama sont implémentées via la ligne de commande, ce qui est simple et efficace. Par exemple, une ligne de commande rlama rag mistral docs ./project Indexation instantanée de dossiers entiers, adaptée aux utilisateurs maîtrisant la ligne de commande.

2. prise en charge des documents multiformats

Plusieurs types de fichiers sont pris en charge :

  • Texte :.txt,.md,.html,.json,.csv etc.
  • Code :.go,.py,.js,.java,.cpp etc.
  • Documentation :.pdf,.docx,.pptx,.xlsx etc.
    être en mouvement ./scripts/install_deps.sh Soutien renforcé. Exemple :
rlama rag gemma code-docs ./src

3. opération localisée

Les données sont traitées localement tout au long du processus, sans avoir recours à l'informatique en nuage, ce qui convient aux documents sensibles. Par exemple, l'indexation de documents d'entreprise confidentiels :

rlama rag llama3 contracts ./legal

Conseils et dépannage

  • Commandement de précision: Saisir le paramètre complet, par exemple rlama run mydocs plutôt qu'une sténographie pour garantir l'exactitude des données.
  • Question d'OllamaSi la connexion échoue, vérifiez le http://localhost:11434La course à pied ollama ps Voir le statut.
  • Support de formatSi l'extraction échoue, lancez install_deps.sh Installer la dépendance.
  • Mauvaise réponse: Confirmez que le document est indexé et essayez d'être plus précis sur le problème.
  • appel (à l'aide)Les problèmes peuvent être soumis à GitHub Issues avec les commandes et les versions.

Grâce aux commandes ci-dessus, les utilisateurs peuvent rapidement maîtriser rlama, gérer les documents locaux et mettre en œuvre des questions-réponses intelligentes.

© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...