Deep Searcher : extraction efficace de documents privés d'entreprise et questions-réponses intelligentes

Introduction générale

Deep Searcher est une combinaison de puissants modèles linguistiques de grande taille (tels que le DeepSeek et OpenAI) et les bases de données vectorielles (par exemple Milvus) sont des outils conçus pour rechercher, évaluer et raisonner sur la base de données privées, en fournissant des réponses très précises et des rapports complets. Deep Searcher prend en charge un large éventail de modèles d'intégration et de grands modèles de langage, et est capable de gérer des bases de données vectorielles pour garantir une recherche efficace et une utilisation sécurisée des données.

Deep Searcher:企业私有文档高效检索与智能问答Deep Searcher:企业私有文档高效检索与智能问答

 

Liste des fonctions

  • Recherche de données privéesLes données sont utilisées de manière optimale au sein de l'entreprise et la sécurité des données est garantie.
  • Gestion des bases de données vectoriellesLe système de gestion des données vectorielles : il prend en charge les bases de données vectorielles telles que Milvus, ce qui permet de partitionner les données pour une recherche plus efficace.
  • Options d'intégration flexiblesLes modèles d'encastrement sont compatibles avec une large gamme de modèles d'encastrement, ce qui facilite le choix de la meilleure option.
  • Prise en charge des modèles multilinguesPrise en charge de grands modèles tels que DeepSeek, OpenAI, etc. pour des questions-réponses intelligentes et la génération de contenu.
  • Chargeur de documentsLe chargement de fichiers locaux est pris en charge et l'exploration du web sera ajoutée à l'avenir.

 

Utiliser l'aide

Processus d'installation

  1. Entrepôt de clonage :
   git clone https://github.com/zilliztech/deep-searcher.git
  1. Créer un environnement virtuel Python (recommandé) :
   python3 -m venv .venv
source .venv/bin/activate
  1. Installer la dépendance :
   cd deep-searcher
pip install -e .
  1. Configuration de LLM ou Milvus : Editer examples/example1.py pour configurer LLM ou Milvus selon les besoins.
  2. Préparez les données et exécutez l'exemple :
   python examples/example1.py

Mode d'emploi

  1. Configuration du LLM: En deepsearcher.configuration utiliser le module set_provider_config Méthodes pour configurer le LLM. par exemple, configurer un modèle OpenAI :
   config.set_provider_config("llm", "OpenAI", {"model": "gpt-4o"})
  1. Charger les données locales: Utilisation deepsearcher.offline_loading dans le module load_from_local_files pour charger les données locales :
   load_from_local_files(paths_or_directory="your_local_path")
  1. Interroger les données: Utilisation deepsearcher.online_query dans le module query Les méthodes sont interrogées :
   result = query("Write a report about xxx.")

Fonction détaillée du déroulement des opérations

  1. Recherche de données privées: :
    • Maximisez l'utilisation des données au sein de votre entreprise tout en garantissant la sécurité des données.
    • Le contenu en ligne peut être intégré lorsque des réponses plus précises sont nécessaires.
  2. Gestion des bases de données vectorielles: :
    • Prend en charge les bases de données vectorielles telles que Milvus, ce qui permet de partitionner les données pour une recherche plus efficace.
    • La prise en charge d'autres bases de données vectorielles (par exemple FAISS) est prévue pour l'avenir.
  3. Options d'intégration flexibles: :
    • Compatible avec une large gamme de modèles embarqués pour une sélection aisée de la meilleure solution.
  4. Prise en charge des modèles multilingues: :
    • Prise en charge de grands modèles tels que DeepSeek, OpenAI, etc. pour des questions-réponses intelligentes et la génération de contenu.
  5. Chargeur de documents: :
    • Le chargement de fichiers locaux est pris en charge et l'exploration du web sera ajoutée à l'avenir.
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...