Research Rabbit: веб-исследования и написание отчетов с использованием родного LLM, автоматическое изучение заданных пользователем тем и создание резюме.

Общее введение

Research Rabbit - это собственный помощник по поиску и обобщению информации в Интернете на основе LLM (Large Language Model). После того как пользователь задает тему исследования, Research Rabbit формирует поисковый запрос, получает релевантные веб-результаты и обобщает их. Он повторяет этот процесс, восполняя пробелы в знаниях, и в итоге генерирует резюме в формате Markdown, включающее все источники. Инструмент работает полностью локально, обеспечивая конфиденциальность и безопасность данных.

Research Rabbit:使用本地LLM进行网页研究和报告撰写,自动深入用户指定主题并生成总结。

 

Список функций

  • Создание поисковых запросов: Генерирование поисковых запросов на основе заданных пользователем тем.
  • Веб-поиск: Используйте настроенную поисковую систему (например, Tavily) для поиска нужных ресурсов.
  • Краткие результаты: Обобщение результатов веб-поиска с помощью локального LLM.
  • рефлексивное резюме: Выявление пробелов в знаниях и создание новых поисковых запросов.
  • итеративное обновление: Повторяйте поиск и обобщение, чтобы постепенно уточнить результаты исследования.
  • локальная операцияВсе операции выполняются локально для обеспечения конфиденциальности данных.
  • Краткое содержание: Создайте итоговое резюме в формате Markdown со всеми источниками.

 

Использование помощи

Процесс установки

  1. Вытянуть местный LLM: Получите необходимые местные LLM от Ollama, напримерollama pull llama3.2.
  2. Получить ключ API Tavily: Зарегистрируйте Tavily и получите ключ API, установите переменные окружения.export TAVILY_API_KEY=<your_tavily_api_key>.
  3. склад клонов: Бегиgit clone https://github.com/langchain-ai/research-rabbit.gitХранилище клонирования.
  4. Установка зависимостей: Перейдите в каталог проекта и выполните командуuvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph devУстановите зависимость.
  5. Помощник стартапа: Запустите сервер LangGraph и получите доступ кhttp://127.0.0.1:2024Ознакомьтесь с документацией по API и веб-интерфейсом.

Процесс использования

  1. Настройка LLM: Задайте имя локального LLM, которое будет использоваться в веб-интерфейсе LangGraph Studio (по умолчанию).llama3.2).
  2. Установление глубины исследования: Настройка глубины итераций исследования (по умолчанию 3).
  3. Укажите тему исследования: Запустите помощника по исследованиям, введя тему исследования на вкладке Конфигурация.
  4. Процесс просмотра: Ассистент формирует поисковый запрос, выполняет поиск в Интернете, обобщает результаты с помощью LLM и повторяет процесс.
  5. Получение сводки: По завершении исследования помощник генерирует резюме в формате Markdown со всеми источниками, которое пользователь может просматривать и редактировать.

Основные функции

  • Создание поисковых запросов: После ввода темы исследования помощник автоматически сформирует поисковый запрос.
  • Веб-поиск: Ассистент использует настроенную поисковую систему для поиска нужных ресурсов.
  • Краткие результаты: Ассистент использует локальный LLM для обобщения результатов поиска и создания предварительного отчета.
  • рефлексивное резюме: Ассистент выявляет пробелы в знаниях, содержащихся в резюме, и генерирует новые поисковые запросы для продолжения исследования.
  • итеративное обновлениеАссистент будет итеративно проводить поиск и составление резюме, чтобы постепенно уточнить результаты исследования.
  • Создание резюме в формате Markdown: По завершении исследования помощник создает итоговую сводку в формате Markdown со всеми источниками, которую пользователь может просматривать и редактировать.
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...