Auto-Deep-Research: многоагентное взаимодействие для выполнения запросов к литературе и создания исследовательских отчетов

Общее введение

Auto-Deep-Research - это инструмент искусственного интеллекта с открытым исходным кодом, разработанный Лабораторией интеллектуальных данных Гонконгского университета (HKUDS), чтобы помочь пользователям автоматизировать задачи глубокого исследования. Он построен на базе фреймворка AutoAgent и поддерживает различные большие языковые модели (LLM), такие как OpenAI, Anthropic, Deepseek и Grok и т. д., способные обрабатывать сложные взаимодействия с файловыми данными и веб-поиск. В отличие от дорогостоящих инструментов, требующих подписки, таких как OpenAI's Deep Research, Auto-Deep-Research полностью бесплатен, и для его использования пользователям достаточно предоставить свой ключ LLM API. Известный своей высокой производительностью и гибкостью, инструмент показал отличные результаты в бенчмарках GAIA и подходит для исследователей, разработчиков и пользователей, которым нужно эффективное решение для исследований.

Auto-Deep-Research:多Agent协作执行文献查询并生成研究报告

 

Список функций

  • Автоматизированные углубленные исследования: Автоматический поиск и сопоставление необходимой информации для создания подробных отчетов на основе тем, введенных пользователем.
  • Поддержка нескольких моделей: Совместимость с различными крупными языковыми моделями, пользователи могут выбрать подходящую модель в соответствии со своими потребностями.
  • Взаимодействие с файловыми данными: Поддержка загрузки и обработки изображений, PDF-файлов, текстовых файлов и т. д. для расширения источников данных для исследований.
  • запуск одним нажатием: Нет необходимости в сложной настройке, введите простые команды, чтобы быстро приступить к работе.
  • Возможность веб-поиска: Объедините веб-ресурсы и данные социальных сетей (например, Platform X), чтобы получить более полную информацию.
  • С открытым исходным кодом и бесплатно: Предоставляется полный исходный код, чтобы пользователи могли настроить функциональность или развернуть в локальной среде.

 

Использование помощи

Процесс установки

Установка Auto-Deep-Research проста и интуитивно понятна и в значительной степени опирается на среды Python и Docker. Ниже приведены подробные шаги:

1. Подготовка окружающей среды

  • Установка Python: Убедитесь, что в вашей системе установлен Python 3.10 или более поздней версии. Рекомендуемый conda Создайте виртуальную среду:
    conda create -n auto_deep_research python=3.10  
    conda activate auto_deep_research
  • Установка Docker: Поскольку инструмент использует контейнерную среду выполнения Docker, пожалуйста, сначала скачайте и установите Docker Desktop, не нужно извлекать образы вручную, инструмент сделает это автоматически.

2. Загрузка исходного кода

  • Клонируйте репозиторий GitHub локально:
    git clone https://github.com/HKUDS/Auto-Deep-Research.git  
    cd Auto-Deep-Research
    

3. Установка зависимостей

  • Установите необходимые пакеты Python, выполнив следующую команду в каталоге проекта:
    pip install -e .
    

4. Настройте ключ API

  • В корневом каталоге проекта скопируйте файл шаблона и отредактируйте его:
    cp .env.template .env
    
  • Откройте в текстовом редакторе .env файла, заполните API-ключ LLM, как требуется, например:
    OPENAI_API_KEY=your_openai_key  
    DEEPSEEK_API_KEY=your_deepseek_key  
    XAI_API_KEY=your_xai_key
    

    Примечание: Не все ключи являются обязательными, просто настройте модель ключа, который вы планируете использовать.

5. инструменты для запуска

  • Введите следующую команду, чтобы запустить Auto-Deep-Research:
    auto deep-research
    
  • Необязательные конфигурации параметров, например, указание имени контейнера или модели:
    auto deep-research --container_name myresearch --COMPLETION_MODEL grok
    

Основные функции

Автоматизированные углубленные исследования

  1. Укажите тему исследования: При запуске инструмент предлагает выбрать тему исследования, например "Искусственный интеллект в здравоохранении".
  2. автовыполнение: Инструмент анализирует релевантную информацию с помощью веб-поиска и встроенных моделей без вмешательства пользователя.
  3. Создание отчетов: По окончании работы результаты будут выведены на терминал в формате Markdown или сохранены в виде файла с исходным текстом и подробным анализом.

Взаимодействие с файловыми данными

  1. Загрузка файлов: Укажите путь к файлу в командной строке, например:
    auto deep-research --file_path ./my_paper.pdf
    
  2. Обработка данных: Инструмент анализирует PDF-файл, изображение или текст и включает их в исследование.
  3. комбинированный анализ: Данные загруженных файлов интегрированы с результатами веб-поиска для получения более полных выводов.

Выбор большой языковой модели

  1. Просмотр моделей поддержки: Поддержка OpenAI, Grok, Deepseek и т.д. Названия конкретных моделей см. в документации LiteLLM.
  2. Определение моделей: Добавьте параметры к команде запуска, например:
    auto deep-research --COMPLETION_MODEL deepseek
    
  3. эксплуатационное испытание: Настройте выбор для оптимизации работы с учетом производительности модели и отзывчивости API.

Основные функции

Запуск одним касанием

  • Вместо того чтобы вручную настраивать образ Docker или сложные параметры, просто запустите auto deep-researchИнструмент автоматически подберет необходимое окружение и запустит его.
  • Если требуется настройка, это можно сделать с помощью --container_name Параметрические именованные контейнеры для удобства управления несколькими экземплярами.

Веб-поиск и интеграция с социальными сетями

  • В инструмент встроена функция веб-поиска, которая автоматически просматривает веб-контент. Если вы хотите включить данные с платформы X, вы можете указать ключевые слова в теме исследования, и инструмент попытается найти соответствующие сообщения.
  • Например: введите "последние тенденции в исследованиях ИИ", и в результатах могут появиться ссылки на обсуждения и технологические блоги пользователей X.

предостережение

  • Безопасность ключей API: Не ставьте .env Файл загружается в публичное хранилище, чтобы избежать раскрытия ключа.
  • сетевое окружение: Убедитесь, что Docker и сетевые соединения работают правильно, так как это может повлиять на извлечение образа или функциональность поиска.
  • оптимизация производительности: Если локальное оборудование ограничено, рекомендуется использовать облачный LLM, чтобы избежать запуска больших моделей, вызывающих задержки.

Выполнив эти действия, пользователи смогут легко начать работу с Auto-Deep-Research - инструментом, который обеспечивает эффективную поддержку как академических исследований, так и технических изысканий.

© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...