Auto-Deep-Research : Collaboration multi-agents pour effectuer des recherches documentaires et générer des rapports de recherche
Introduction générale
Auto-Deep-Research est un outil d'IA open source développé par le Hong Kong University Data Intelligence Laboratory (HKUDS) pour aider les utilisateurs à automatiser les tâches de recherche approfondie. Il est construit sur le cadre AutoAgent et prend en charge une variété de grands modèles de langage (LLM) tels que OpenAI, Anthropic, Deepseek et Grok etc., capable de gérer des interactions complexes avec des données de fichiers et des recherches sur le web. Contrairement aux outils coûteux qui nécessitent un abonnement, tels que Deep Research d'OpenAI, Auto-Deep-Research est entièrement gratuit, et les utilisateurs n'ont qu'à fournir leur clé d'API LLM pour l'utiliser. Connu pour ses performances élevées et sa flexibilité, l'outil a obtenu de bons résultats dans les tests GAIA et convient aux chercheurs, aux développeurs ou aux utilisateurs qui ont besoin d'une solution de recherche efficace.

Liste des fonctions
- Études approfondies automatiséesLe système de gestion de l'information : Il recherche et rassemble automatiquement les informations pertinentes pour générer des rapports détaillés sur la base des sujets saisis par l'utilisateur.
- Prise en charge de plusieurs modèlesLes utilisateurs peuvent choisir le modèle approprié en fonction de leurs besoins.
- Interaction fichier-donnéesLes données de la base de données de l'Institut de recherche de l'Union européenne (IRU) : Prise en charge du téléchargement et du traitement d'images, de PDF, de fichiers texte, etc. afin d'enrichir les sources de données pour la recherche.
- démarrage par touche uniqueLes services d'aide à la décision : Pas besoin de configuration complexe, il suffit d'entrer des commandes simples pour être rapidement opérationnel.
- Capacité de recherche sur le webCombiner les ressources web et les données des médias sociaux (par exemple, la plate-forme X) pour fournir des informations plus complètes.
- Open source et gratuitLes utilisateurs peuvent ainsi personnaliser les fonctionnalités ou les déployer dans un environnement local.
Utiliser l'aide
Processus d'installation
L'installation d'Auto-Deep-Research est simple et intuitive, et s'appuie fortement sur les environnements Python et Docker. Voici les étapes en détail :
1. préparation à l'environnement
- Installation de PythonPour plus d'informations, voir : Assurez-vous que Python 3.10 ou une version plus récente est installé sur votre système. Recommandé
conda
Créer un environnement virtuel :conda create -n auto_deep_research python=3.10 conda activate auto_deep_research
- Installation de Docker: Puisque l'outil utilise l'environnement d'exécution conteneurisé Docker, veuillez télécharger et installer Docker Desktop en premier lieu, il n'est pas nécessaire d'extraire les images manuellement, l'outil s'en chargera automatiquement.
2. télécharger le code source
- Cloner localement un dépôt GitHub :
git clone https://github.com/HKUDS/Auto-Deep-Research.git cd Auto-Deep-Research
3. installation des dépendances
- Installez les paquets Python requis en exécutant la commande suivante dans le répertoire du projet :
pip install -e .
4. configurer la clé API
- Dans le répertoire racine du projet, copiez le fichier modèle et modifiez-le :
cp .env.template .env
- Ouvrir avec un éditeur de texte
.env
remplissez la clé API du LLM selon les besoins, par exemple :OPENAI_API_KEY=your_openai_key DEEPSEEK_API_KEY=your_deepseek_key XAI_API_KEY=your_xai_key
Note : Toutes les clés ne sont pas nécessaires, il suffit de configurer le modèle de clé que vous prévoyez d'utiliser.
5. les outils de démarrage
- Entrez la commande suivante pour lancer Auto-Deep-Research :
auto deep-research
- Configurations de paramètres facultatifs, tels que la spécification d'un nom de conteneur ou d'un modèle :
auto deep-research --container_name myresearch --COMPLETION_MODEL grok
Principales fonctions
Études approfondies automatisées
- Entrer un sujet de rechercheL'outil demande au démarrage un sujet de recherche, par exemple "Intelligence artificielle dans le domaine de la santé".
- auto-exécutionL'outil analyse les informations pertinentes à l'aide de recherches sur le web et de modèles intégrés, sans intervention de l'utilisateur.
- Générer des rapportsLorsque les résultats sont terminés, ils sont transmis au terminal au format Markdown ou sauvegardés dans un fichier contenant la source et l'analyse détaillée.
Interaction fichier-données
- Téléchargement de fichiers: Spécifiez le chemin d'accès au fichier sur la ligne de commande, par exemple :
auto deep-research --file_path ./my_paper.pdf
- Traitement des donnéesL'outil analyse le contenu du PDF, de l'image ou du texte et l'incorpore dans l'étude.
- l'analyse combinéeLes données des fichiers téléchargés sont intégrées aux résultats des recherches sur le web afin de fournir des conclusions plus complètes.
Sélection d'un modèle de langue large
- Voir les modèles de soutienSupport pour OpenAI, Grok, Deepseek, etc. Voir la documentation LiteLLM pour les noms de modèles.
- Spécification des modèlesLes paramètres de la commande de démarrage peuvent être ajoutés à la commande de démarrage, par exemple :
auto deep-research --COMPLETION_MODEL deepseek
- test opérationnelLes choix sont ajustés pour optimiser l'expérience en fonction de la performance du modèle et de la réactivité de l'API.
Fonctions vedettes
Une seule touche pour démarrer
- Au lieu de configurer manuellement une image Docker ou des paramètres complexes, il suffit d'exécuter la commande
auto deep-research
L'outil extrait automatiquement l'environnement requis et le lance. - Si une personnalisation est nécessaire, elle peut être effectuée par le biais de l'option
--container_name
Paramétrer des conteneurs nommés pour faciliter la gestion de plusieurs instances.
Recherche sur le web et intégration des médias sociaux
- L'outil dispose d'une fonction intégrée de recherche sur le web qui explore automatiquement le contenu du web. Si vous souhaitez incorporer des données provenant de la plateforme X, vous pouvez mentionner des mots clés dans le sujet de recherche et l'outil essaiera de rechercher des articles pertinents.
- Exemple : tapez "dernières tendances de la recherche en IA" et les résultats peuvent contenir des liens vers des discussions et des blogs techniques d'utilisateurs X.
mise en garde
- Sécurité des clés API: Ne mettez pas
.env
Le fichier est téléchargé sur un dépôt public afin d'éviter la divulgation de la clé. - environnement du réseauPour plus d'informations, veuillez vous référer à la page suivante : Assurez-vous que Docker et les connexions réseau fonctionnent correctement, car cela peut affecter la fonctionnalité de recherche ou d'extraction d'images.
- l'optimisation des performancesSi le matériel local est limité, il est recommandé d'utiliser le LLM en nuage pour éviter d'exécuter de grands modèles qui entraînent un décalage.
Avec ces étapes, les utilisateurs peuvent facilement commencer à utiliser Auto-Deep-Research, un outil qui fournit un support efficace pour la recherche académique et l'exploration technique.
© déclaration de droits d'auteur
L'article est protégé par le droit d'auteur et ne doit pas être reproduit sans autorisation.
Articles connexes
Pas de commentaires...