RLAMA: RAG-система для интеллектуального опроса локальных документов, управляемая из командной строки

Общее введение

RLAMA - это система RAG (Retrieval Augmentation Generation) для анализа документов, разработанная компанией DonTizi и размещенная на GitHub, основной особенностью которой является функциональность через операции командной строки. Пользователи могут подключаться к локальным Оллама модель, которая быстро индексирует документы в папках в интерактивную базу знаний с интеллектуальными вопросами и ответами. Будь то файл кода, технический или офисный документ, RLAMA справится с этой задачей и будет работать полностью локально, избавляя от необходимости пользоваться облачными сервисами и обеспечивая конфиденциальность данных. Благодаря поддержке множества форматов файлов и простой установке RLAMA является мощным выбором для локализованного управления документами, особенно для разработчиков и энтузиастов технологий, привыкших к работе с командной строкой.

RLAMA:命令行操作的本地文档智能问答 RAG 系统

 

Список функций

  • Создание системы RAG в командной строке: Создание базы знаний интеллектуальных тестов путем индексирования документов папок с командами.
  • Вопросы и ответы по взаимодействию с командной строкой: Используйте терминальную сессию для запроса существующих RAG Содержимое документа в системе.
  • Системное администрирование RAG: Легко поддерживать базу знаний, перечисляя и удаляя системы RAG с помощью команд.
  • Интеграция локальных моделей: Бесшовное подключение к локальным моделям Ollama с сохранением полной локализации.
  • Управление версиями и обновлениями: Используйте команду для проверки версии или обновления системы до последней версии.
  • Поддержка нескольких форматов: Совместимость с широким спектром форматов, включая текст, код и офисные документы.
  • Деинсталляция из командной строки: Предоставляет инструменты и данные по очистке команд.

 

Использование помощи

Процесс установки

RLAMA - это реализация командной строки Document Intelligence Quiz для macOS, Linux и Windows, в которой подробно описаны следующие шаги:

1. предварительные условия

  • Установите Ollama: Модель Ollama должна быть запущена локально. Посетите веб-сайт Ollama для загрузки и установки, запустите программу ollama run llama3(или другие модели), чтобы подтвердить наличие, адрес по умолчанию http://localhost:11434.
  • сетевое подключение: Для установки требуется подключение к Интернету для загрузки скриптов и зависимостей.
  • Необязательные зависимости: Чтобы поддерживать больше форматов (например, .pdf, .docx), рекомендуется запустить программу install_deps.sh Инструменты для установки (например. pdftotext).

2. Установка с помощью сценария командной строки (рекомендуется)

Введите его в терминал:

curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
  • Сценарий автоматически завершает загрузку и настройку, а по окончании запускает программу rlama --version Проверьте версию (например. v0.1.0) Подтверждение успеха.

3. Ручная установка исходного кода (опционально)

Если требуется индивидуальная настройка:

  • Хранилище клонирования:
    git clone https://github.com/DonTizi/rlama.git  
    cd rlama
    
  • Скомпилируйте и установите (требуется среда Go):
    go build  
    go install
    
  • Переместите исполняемый файл в PATH (например. /usr/local/bin), запустить rlama --help Валидация.

4. Проверка установки

Бег:

rlama --help

Отображение списка команд считается успешным.

Основные функции

Создание системы RAG из командной строки

Преобразуйте документы в интеллектуальную базу знаний для викторины. Например, папка ./docs охватывать readme.md ответить пением guide.pdf::

  1. Убедитесь, что модель Ollama работает (например. ollama run llama3).
  2. Введите команду:
    rlama rag llama3 mydocs ./docs
    
    • llama3: Название модели.
    • mydocs: имя системы RAG.
    • ./docs: Путь к документу.
  3. Пример вывода:
    Indexing documents in ./docs...  
    Processed: readme.md  
    Processed: guide.pdf  
    RAG system "mydocs" created successfully!
    

Интерактивные вопросы и ответы через командную строку

Узнайте о существующих системах RAG:

  1. Начните сеанс:
    rlama run mydocs
    
  2. Введите вопрос:
    如何安装 rlama?
    
  3. Получите ответы:
    可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
    
  4. импорт exit Выход.

Управление системой RAG

  • Система листинга::
    rlama list
    

    Образец вывода:

    Available RAG systems:  
    - mydocs
    
  • Удаление системы::
    rlama delete mydocs
    

    или пропустить подтверждение:

    rlama delete mydocs --force
    

Версии и обновления

  • Проверьте версию::
    rlama --version
    

    возможно rlama -vНа дисплее отображается следующая информация v0.1.0.

  • Обновление системы::
    rlama update
    

    (ботаника) кока (заимствованное слово) --force Обязательные обновления.

Деинсталляция системы

  • Инструменты для удаления::
    rlama uninstall
    
  • Очистка данных: Данные хранятся в ~/.rlamaБег:
    rm -rf ~/.rlama
    

Основные функции

1. Операции командной строки

Все функции rlama реализованы через командную строку, что просто и эффективно. Например, командная строка rlama rag mistral docs ./project Мгновенно индексирует целые папки, подходит для пользователей, владеющих командной строкой.

2. Поддержка многоформатных документов

Поддерживаются различные типы файлов:

  • Текст:.txt, и.md, и.html, и.json, и.csv и т.д.
  • Код:.go, и.py, и.js, и.java, и.cpp и т.д.
  • Документация:.pdf, и.docx, и.pptx, и.xlsx и т.д.
    быть в движении ./scripts/install_deps.sh Расширенная поддержка. Пример:
rlama rag gemma code-docs ./src

3. локализованная работа

Данные обрабатываются локально, без необходимости использования "облака", подходят для конфиденциальных документов. Например, индексирование конфиденциальных документов компании:

rlama rag llama3 contracts ./legal

Советы и устранение неполадок

  • Точное командование: Введите полный параметр, например. rlama run mydocs а не сокращением, чтобы обеспечить точность.
  • Проблема Олламы: Если соединение не удается, проверьте http://localhost:11434Бег ollama ps Просмотр статуса.
  • Поддержка форматов: Если извлечение не удалось, выполните install_deps.sh Установите зависимость.
  • Плохой ответ: Убедитесь, что документ проиндексирован, и попробуйте уточнить проблему.
  • обращение (за помощью): Проблемы могут быть представлены на GitHub Issues с командами и версиями.

С помощью вышеперечисленных команд пользователи смогут быстро освоить rlama, управлять локальными документами и реализовывать интеллектуальные вопросы и ответы.

© заявление об авторских правах

Похожие статьи

Devin:自主完成软件开发任务的AI软件工程师,轻松完成复杂编程任务(付费)

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...