Local Deep Research : un outil géré localement pour générer des rapports de recherche approfondis

Introduction générale

Local Deep Research est un assistant de recherche IA open source conçu pour aider les utilisateurs à mener des recherches approfondies et à générer des rapports détaillés sur des problèmes complexes. Il prend en charge les opérations locales, ce qui permet aux utilisateurs d'effectuer des tâches de recherche sans dépendre de services en nuage. L'outil combine la modélisation locale du langage large (LLM) avec une variété de fonctions de recherche couvrant des sources telles que les bases de données académiques, Wikipédia, le contenu web et plus encore. Les utilisateurs peuvent rapidement générer des rapports complets avec des citations grâce à une installation et une configuration simples. Le projet met l'accent sur la protection de la vie privée et la flexibilité et convient à la recherche universitaire, à l'exploration technologique ou à la gestion des connaissances personnelles.

Local Deep Research:本地运行的生成深度研究报告工具

 

Liste des fonctions

  • Prise en charge des modèles linguistiques locaux pour protéger la confidentialité des données.
  • Sélectionne automatiquement les outils de recherche appropriés tels que Wikipedia, arXiv, PubMed, etc.
  • Générer des rapports détaillés avec des sections et des citations structurées.
  • Fournit une fonction de résumé rapide qui génère des réponses brèves en quelques secondes.
  • Prise en charge de la recherche locale de documents, combinée à la recherche sur le web pour une analyse complète.
  • Fournit une interface web et une interface de ligne de commande pour un fonctionnement flexible.
  • Prise en charge de la recherche multilingue pour les utilisateurs internationaux.

 

Utiliser l'aide

Processus d'installation

Local Deep Research nécessite l'installation de l'environnement Python et des dépendances associées. Voici les étapes détaillées de l'installation :

  1. entrepôt de clones
    Exécutez la commande suivante dans le terminal pour cloner le projet localement :

    git clone https://github.com/LearningCircuit/local-deep-research.git
    cd local-deep-research
  1. Installation des dépendances
    Utilisez les outils de gestion des paquets de Python pour installer les bibliothèques nécessaires :

    pip install -e .
    

    Si vous avez besoin de fonctions d'automatisation du navigateur, installez Playwright :

    playwright install
    
  2. Installation de modèles locaux (Ollama)
    Local Deep Research soutient l'adoption de Ollama Exécutez un grand modèle linguistique local. Visitez https://ollama.ai pour télécharger et installer Ollama, puis tirez le modèle de recommandation :

    ollama pull gemma3:12b
    

    Assurez-vous que le service Ollama fonctionne en arrière-plan.

  3. Configuration de SearXNG (facultatif)
    Pour obtenir les meilleurs résultats de recherche, il est recommandé d'héberger soi-même le service de recherche SearXNG. Exécutez la commande suivante pour lancer SearXNG :

    docker pull searxng/searxng
    docker run -d -p 8080:8080 --name searxng searxng/searxng
    

    Dans le répertoire racine du projet de l'application .env pour configurer l'adresse SearXNG :

    SEARXNG_INSTANCE=http://localhost:8080
    SEARXNG_DELAY=2.0
    
  4. kit de démarrage
    • interface webPour lancer la version web, visitez le site http://127.0.0.1:5000 :
      ldr-web
      
    • interface de ligne de commandeLa version en ligne de commande : Exécutez la commande suivante pour lancer la version en ligne de commande :
      ldr
      

Fonctionnement des principales fonctions

1. la génération de résumés rapides

La fonction de résumé rapide est destinée aux utilisateurs qui ont besoin d'une réponse rapide. Ouvrez l'interface web et saisissez une question de recherche, telle que "Recent advances in fusion energy" (avancées récentes dans le domaine de l'énergie de fusion). Cliquez sur le bouton "Quick Summary" et l'outil vous renverra en quelques secondes une réponse brève avec des informations clés et des sources. Si vous utilisez la ligne de commande, exécutez-la :

from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])

Les résultats seront présentés sous forme de texte avec un bref résumé et des liens de référence.

2. la production de rapports détaillés

La fonction de rapport détaillé convient aux utilisateurs qui ont besoin d'une analyse complète. Après avoir saisi une question dans l'interface web, sélectionnez l'option "Générer un rapport". L'outil effectue plusieurs cycles de recherche et d'analyse et génère un rapport au format Markdown avec une table des matières, des chapitres et des citations. Le temps de génération du rapport dépend de la complexité du problème et du nombre de tours de recherche (2 par défaut). Exemple d'opération en ligne de commande :

from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)

Le rapport généré est enregistré localement, généralement dans le répertoire racine du projet sous le chemin examples Dossier.

3. recherche de documents locaux

Les utilisateurs peuvent télécharger des documents privés (par exemple PDF, TXT) dans un dossier spécifique afin qu'ils soient analysés par la fonction Retrieval Augmented Generation (RAG). Configurez le chemin d'accès au document :

DOC_PATH=/path/to/your/documents

Sélectionnez "Documents locaux" comme source de rapport dans l'interface web, et l'outil générera un rapport combinant les documents locaux et la recherche sur le web. Fonctionnement en ligne de commande :

results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")

4. recherche multilingue

L'outil permet une recherche multilingue pour les questions qui ne sont pas en anglais. Saisissez une question en chinois ou dans une autre langue dans l'interface web et l'outil adaptera automatiquement l'outil de recherche pour renvoyer des résultats pertinents. Par exemple, si vous tapez "dernières percées en informatique quantique", l'outil effectuera une recherche dans les sources chinoises et anglaises.

Paramètres de configuration

Les utilisateurs peuvent modifier les config.py peut-être .env Le fichier ajuste les paramètres :

  • search_tool: Sélection de l'outil de recherche (par défaut) auto).
  • iterations: Définir le nombre de cycles d'étude (2 par défaut).
  • max_results: Nombre maximal de résultats par cycle de recherche (par défaut 50).
  • max_filtered_results: Nombre de résultats filtrés (par défaut 5).

mise en garde

  • S'assurer d'une connexion internet stable pour la recherche de ressources externes.
  • Les performances du modèle local dépendent du matériel et l'accélération du GPU est recommandée.
  • Mettre régulièrement à jour Ollama et le code du projet pour intégrer les dernières fonctionnalités.

 

scénario d'application

  1. recherche universitaire
    Les étudiants et les chercheurs peuvent utiliser Local Deep Research pour recueillir rapidement des informations à partir d'articles universitaires et de pages web afin de générer des rapports cités. Par exemple, lors d'une recherche sur les "percées de l'informatique quantique", l'outil récupère les derniers articles d'arXiv et de PubMed et génère un rapport structuré.
  2. Exploration technologique
    Les passionnés de technologie peuvent explorer les tendances technologiques émergentes telles que "Blockchain dans la chaîne d'approvisionnement". L'outil combine la documentation locale et les recherches sur le web pour fournir des analyses complètes.
  3. Gestion des connaissances personnelles
    Les utilisateurs peuvent télécharger des notes ou des documents privés pour organiser leur base de connaissances avec des informations externes. Par exemple, un rapport personnel sur les "Prévisions de développement de l'IA en 2025".

 

QA

  1. La recherche approfondie au niveau local nécessite-t-elle un travail en réseau ?
    Le modèle local fonctionne sans connexion internet, mais les fonctions de recherche (par exemple Wikipedia, arXiv) nécessitent une connexion internet. Les utilisateurs peuvent choisir de n'utiliser que les documents locaux.
  2. Quels sont les grands modèles linguistiques pris en charge ?
    Les modèles hébergés par Ollama sont pris en charge par défaut, tels que gemma3:12b. Les utilisateurs peuvent accéder à ces informations par l'intermédiaire de l'application config.py Configurer d'autres modèles tels que vLLM ou LMStudio.
  3. Comment améliorer la qualité des rapports ?
    Augmenter le nombre de tours de recherche (iterations) et le nombre de résultats (max_results), ou utiliser un modèle plus puissant. S'assurer que le problème est clairement décrit peut également contribuer à améliorer la précision.
  4. Les systèmes Windows sont-ils pris en charge ?
    Oui, le projet fournit un programme d'installation en un clic pour Windows afin de simplifier le processus de configuration. Visitez le dépôt GitHub pour télécharger.
© déclaration de droits d'auteur
AiPPT

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...