Aprendizagem pessoal com IA
e orientação prática
Espelho de desenho CyberKnife

RLAMA: um sistema RAG para questionamento inteligente de documentos locais operado a partir da linha de comando

Introdução geral

O RLAMA é um sistema RAG (Retrieval Augmentation Generation) para inteligência de documentos desenvolvido pela DonTizi e hospedado no GitHub, cujo principal recurso é a funcionalidade por meio de operações de linha de comando. Os usuários podem se conectar a Ollama que indexa rapidamente documentos em pastas em uma base de conhecimento interativa com perguntas e respostas inteligentes. Seja um arquivo de código, um documento técnico ou um documento de escritório, o RLAMA está à altura da tarefa e é executado totalmente localmente, eliminando a necessidade de serviços em nuvem e protegendo a privacidade dos dados. Com suporte a vários formatos de arquivo e fácil instalação, o RLAMA é uma opção poderosa para o gerenciamento de documentos localizados, especialmente para desenvolvedores e entusiastas de tecnologia que estão acostumados a operações de linha de comando.

RLAMA: Questionamento inteligente de documentos locais para operações de linha de comando RAG System-1


 

Lista de funções

  • Criação de um sistema RAG na linha de comandoGeração de uma base de conhecimento de questionários inteligentes por meio da indexação de documentos de pastas com comandos.
  • Perguntas e respostas sobre a interação com a linha de comandoUse a sessão de terminal para consultar os dados existentes RAG O conteúdo do documento no sistema.
  • Administração do sistema RAGManutenção da base de dados de conhecimento com facilidade, listando e excluindo sistemas RAG com comandos.
  • Integração do modelo localConexão perfeita com os modelos locais da Ollama, mantendo a localização completa.
  • Gerenciamento de versões e atualizaçõesUse o comando para verificar a versão ou atualizar o sistema para o estado mais recente.
  • Suporte a vários formatosCompatível com uma ampla variedade de formatos, incluindo texto, código e documentos de escritório.
  • Desinstalação por linha de comandoFerramentas e dados de limpeza de comandos: fornece ferramentas e dados de limpeza de comandos.

 

Usando a Ajuda

Processo de instalação

O RLAMA é uma implementação de linha de comando do Document Intelligence Quiz para macOS, Linux e Windows, e as etapas a seguir são detalhadas:

1. condições prévias

  • Instalar OllamaO modelo Ollama precisa ser executado localmente. Visite o site do Ollama para fazer o download e instalar, execute o programa ollama run llama3(ou outros modelos) para confirmar a disponibilidade, o endereço padrão http://localhost:11434.
  • conexão de redeInstalação: A instalação requer uma conexão com a Internet para baixar scripts ou dependências.
  • Dependências opcionaisPara oferecer suporte a mais formatos (por exemplo, .pdf, .docx), é recomendável que você execute o comando install_deps.sh Ferramentas de instalação (por exemplo pdftotext).

2. instalação por meio de script de linha de comando (recomendado)

Digite-o no terminal:

curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
  • O script conclui automaticamente o download e a configuração e, quando terminar, executa o script rlama --version Verifique a versão (por exemplo v0.1.0) Confirmação de sucesso.

3. instalação manual do código-fonte (opcional)

Se a personalização for necessária:

  • Armazém de Clonagem:
    git clone https://github.com/DonTizi/rlama.git  
    cd rlama
    
  • Compile e instale (é necessário um ambiente Go):
    go build  
    go install
    
  • Mova o executável para o PATH (por exemplo /usr/local/bin), execute rlama --help Validação.

4. verificação da instalação

Em execução:

rlama --help

A exibição de uma lista de comandos é considerada bem-sucedida.

Funções principais

Criação de um sistema RAG a partir da linha de comando

Converta documentos em uma base de conhecimento de questionário inteligente. Por exemplo, a pasta ./docs incorporar readme.md responder cantando guide.pdf::

  1. Certifique-se de que o modelo Ollama seja executado (por exemplo ollama run llama3).
  2. Digite o comando:
    rlama rag llama3 mydocs ./docs
    
    • llama3Nome do modelo.
    • mydocsNome do sistema RAG.
    • ./docsCaminho do documento.
  3. Exemplo de saída:
    Indexing documents in ./docs...  
    Processed: readme.md  
    Processed: guide.pdf  
    RAG system "mydocs" created successfully!
    

Perguntas e respostas interativas por meio da linha de comando

Consultar o sistema RAG existente:

  1. Inicie a sessão:
    rlama run mydocs
    
  2. Digite a pergunta:
    如何安装 rlama?
    
  3. Obter respostas:
    可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
    
  4. importação exit Sair.

Gerenciamento do sistema RAG

  • Sistema de listagem::
    rlama list
    

    Saída de amostra:

    Available RAG systems:  
    - mydocs
    
  • Exclusão do sistema::
    rlama delete mydocs
    

    ou pular a confirmação:

    rlama delete mydocs --force
    

Versões e atualizações

  • Verificar versão::
    rlama --version
    

    talvez rlama -vO visor é o seguinte v0.1.0.

  • Atualização do sistema::
    rlama update
    

    (botânica) coca (palavra emprestada) --force Atualizações obrigatórias.

Desinstalação do sistema

  • Ferramentas de remoção::
    rlama uninstall
    
  • Limpeza de dadosOs dados são armazenados no ~/.rlamaExecutar:
    rm -rf ~/.rlama
    

Funções em destaque

1. operações de linha de comando

Todas as funções do rlama são implementadas por meio da linha de comando, o que é simples e eficiente. Por exemplo, uma linha de comando rlama rag mistral docs ./project Indexa instantaneamente pastas inteiras, adequado para usuários proficientes em linha de comando.

2. suporte a documentos em vários formatos

Há suporte para vários tipos de arquivos:

  • Texto:.txte.mde.htmle.jsone.csv etc.
  • Código:.goe.pye.jse.javae.cpp etc.
  • Documentação:.pdfe.docxe.pptxe.xlsx etc.
    estar em movimento ./scripts/install_deps.sh Suporte aprimorado. Exemplo:
rlama rag gemma code-docs ./src

3. operação localizada

Os dados são processados localmente em todo o processo, sem necessidade de nuvem, o que é adequado para documentos confidenciais. Por exemplo, indexação de documentos confidenciais da empresa:

rlama rag llama3 contracts ./legal

Dicas e solução de problemas

  • Comando de precisãoDigite o parâmetro completo, por exemplo rlama run mydocs em vez de taquigrafia para garantir a precisão.
  • Questão da OllamaSe a conexão falhar, verifique o http://localhost:11434Em execução ollama ps Exibir status.
  • Suporte ao formatoSe a extração falhar, execute install_deps.sh Instale a dependência.
  • Resposta ruimConfirme se o documento está indexado e tente ser mais específico sobre o problema.
  • apelo (por ajuda)Problemas podem ser enviados para os problemas do GitHub com comandos e versões.

Com os comandos acima, os usuários podem dominar rapidamente o rlama, gerenciar documentos locais e implementar perguntas e respostas inteligentes.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " RLAMA: um sistema RAG para questionamento inteligente de documentos locais operado a partir da linha de comando
pt_BRPortuguês do Brasil