Местные глубокие исследования: локальный инструмент для создания отчетов о глубоких исследованиях

Общее введение

Local Deep Research - это исследовательский помощник ИИ с открытым исходным кодом, призванный помочь пользователям проводить глубокие исследования и создавать подробные отчеты по сложным проблемам. Он поддерживает локальную работу, позволяя пользователям выполнять исследовательские задачи, не полагаясь на облачные сервисы. Инструмент сочетает локальное моделирование больших языков (LLM) с разнообразными функциями поиска по таким источникам, как академические базы данных, Википедия, веб-контент и другие. Пользователи могут быстро создавать комплексные отчеты с цитатами благодаря простой установке и настройке. Проект делает акцент на защите конфиденциальности и гибкости и подходит для академических исследований, изучения технологий и управления личными знаниями.

Local Deep Research:本地运行的生成深度研究报告工具

 

Список функций

  • Поддержка локальных больших языковых моделей для защиты конфиденциальности данных.
  • Автоматически выбирайте подходящие инструменты поиска, такие как Wikipedia, arXiv, PubMed и т. д.
  • Создавайте подробные отчеты со структурированными разделами и ссылками.
  • Функция быстрых резюме, позволяющая получить краткие ответы за считанные секунды.
  • Поддерживает локальный поиск документов в сочетании с веб-поиском для всестороннего анализа.
  • Для гибкого управления предусмотрены веб-интерфейс и интерфейс командной строки.
  • Поддержка многоязычного поиска для пользователей со всего мира.

 

Использование помощи

Процесс установки

Для работы Local Deep Research требуется установка среды Python и сопутствующих зависимостей. Ниже приведены подробные шаги по установке:

  1. склад клонов
    Выполните следующую команду в терминале, чтобы клонировать проект локально:

    git clone https://github.com/LearningCircuit/local-deep-research.git
    cd local-deep-research
  1. Установка зависимостей
    Используйте средства управления пакетами Python для установки необходимых библиотек:

    pip install -e .
    

    Если вам нужны функции автоматизации браузера, установите Playwright:

    playwright install
    
  2. Установка местных моделей (Оллама)
    Local Deep Research поддерживает принятие Оллама Запустите локальную большую языковую модель. Посетите сайт https://ollama.ai, чтобы загрузить и установить Ollama, а затем запустить рекомендательную модель:

    ollama pull gemma3:12b
    

    Убедитесь, что служба Ollama запущена в фоновом режиме.

  3. Настройка SearXNG (необязательно)
    Для достижения наилучших результатов поиска рекомендуется самостоятельно размещать поисковую службу SearXNG. Выполните следующую команду, чтобы запустить SearXNG:

    docker pull searxng/searxng
    docker run -d -p 8080:8080 --name searxng searxng/searxng
    

    В корневом каталоге проекта .env файл для настройки адреса SearXNG:

    SEARXNG_INSTANCE=http://localhost:8080
    SEARXNG_DELAY=2.0
    
  4. стартовый набор
    • веб-интерфейс: Выполните следующую команду, чтобы запустить веб-версию, посетите сайт http://127.0.0.1:5000:
      ldr-web
      
    • интерфейс командной строки: Выполните следующую команду, чтобы запустить версию командной строки:
      ldr
      

Работа основных функций

1. Создание краткого резюме

Функция Quick Summary предназначена для пользователей, которым нужен быстрый ответ. Откройте веб-интерфейс и введите исследовательский вопрос, например "Последние достижения в области термоядерной энергетики". Нажмите на кнопку "Quick Summary", и инструмент в течение нескольких секунд выдаст краткий ответ с ключевой информацией и источниками. Если вы используете командную строку, запустите ее:

from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])

Результаты будут выведены в виде текста с кратким резюме и ссылками.

2. создание подробных отчетов

Функция подробного отчета подходит для пользователей, которым нужен всесторонний анализ. После ввода вопроса в веб-интерфейсе выберите опцию "Сгенерировать отчет". Инструмент выполняет несколько раундов поиска и анализа и генерирует отчет в формате Markdown с оглавлением, главами и ссылками. Время создания отчета зависит от сложности проблемы и количества раундов поиска (по умолчанию 2). Пример работы с командной строкой:

from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)

Сгенерированный отчет сохраняется локально, обычно в корневом каталоге проекта по пути examples Папка.

3. локальный поиск документов

Пользователи могут загружать частные документы (например, PDF, TXT) в указанную папку для анализа с помощью функции Retrieval Augmented Generation (RAG). Настройте путь к документу:

DOC_PATH=/path/to/your/documents

Выберите "Локальные документы" в качестве источника отчета в веб-интерфейсе, и инструмент сгенерирует отчет, объединяющий локальные документы и веб-поиск. Работа в командной строке:

results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")

4. Многоязычный поиск

Инструмент поддерживает мультиязычный поиск вопросов на неанглийском языке. Введите в веб-интерфейс вопрос на китайском или другом языке, и инструмент автоматически адаптирует поисковый инструмент, чтобы вернуть соответствующие результаты. Например, если вы введете "последние достижения в области квантовых вычислений", инструмент будет искать как в китайских, так и в английских источниках.

Параметры конфигурации

Пользователи могут изменять config.py возможно .env Файл настраивает параметры:

  • search_tool: Выберите инструмент поиска (по умолчанию) auto).
  • iterations: Установите количество раундов исследования (по умолчанию 2).
  • max_results: Максимальное количество результатов за один раунд поиска (по умолчанию 50).
  • max_filtered_results: Количество отфильтрованных результатов (по умолчанию 5).

предостережение

  • Обеспечьте стабильное интернет-соединение для поиска внешних ресурсов.
  • Производительность локальной модели зависит от аппаратного обеспечения, поэтому рекомендуется использовать GPU-ускорение.
  • Регулярно обновляйте Ollama и код проекта, добавляя новейшие функции.

 

сценарий применения

  1. научные исследования
    Студенты и исследователи могут использовать Local Deep Research для быстрого сбора информации из научных статей и веб-страниц и создания цитируемых отчетов. Например, при исследовании темы "Прорывы в квантовых вычислениях" инструмент извлекает последние статьи из arXiv и PubMed и генерирует структурированный отчет.
  2. Исследование технологий
    Любители технологий могут изучить новые технологические тенденции, такие как "Блокчейн в цепочке поставок". Инструмент сочетает в себе локальную документацию и поиск в Интернете, обеспечивая всесторонний анализ.
  3. Управление персональными знаниями
    Пользователи могут загружать личные заметки или документы, чтобы организовать свою базу знаний с помощью внешней информации. Например, личный доклад на тему "Прогнозы развития ИИ на 2025 год".

 

QA

  1. Требует ли локальное исследование глубины сети?
    Локальная модель работает без подключения к Интернету, но функции поиска (например, Wikipedia, arXiv) требуют подключения к Интернету. Пользователи могут выбрать использование только локальных документов.
  2. Какие большие языковые модели поддерживаются?
    По умолчанию поддерживаются модели, размещенные в Ollama, такие как gemma3:12b. Пользователи могут получить доступ к этой информации через config.py Настройте другие модели, такие как vLLM или LMStudio.
  3. Как можно повысить качество отчетности?
    Увеличить количество раундов поиска (iterations) и количество результатов (max_results), или использовать более мощную модель. Четкое описание проблемы также поможет повысить точность.
  4. Поддерживаются ли системы Windows?
    Да, проект предоставляет программу установки Windows в один клик для упрощения процесса настройки. Посетите репозиторий GitHub для загрузки.
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...