AI Personal Learning
und praktische Anleitung
豆包Marscode1

Auto-Deep-Research: Multi-Agenten-Kollaboration zur Durchführung von Literaturrecherchen und Erstellung von Forschungsberichten

Allgemeine Einführung

Auto-Deep-Research ist ein Open-Source-KI-Tool, das vom Hong Kong University Data Intelligence Laboratory (HKUDS) entwickelt wurde, um Benutzern bei der Automatisierung von Deep-Research-Aufgaben zu helfen. Es basiert auf dem AutoAgent-Framework und unterstützt eine Vielzahl von Large Language Models (LLMs) wie OpenAI, Anthropic, Deepseek und Grok usw., die in der Lage sind, komplexe Dateidateninteraktionen und Websuchen zu verarbeiten. Im Gegensatz zu kostenintensiven Tools, die ein Abonnement erfordern, wie z. B. Deep Research von OpenAI, ist Auto-Deep-Research völlig kostenlos, und die Nutzer müssen nur ihren LLM-API-Schlüssel angeben, um es zu nutzen. Das für seine hohe Leistung und Flexibilität bekannte Tool hat in GAIA-Benchmarks gut abgeschnitten und eignet sich für Forscher, Entwickler oder Nutzer, die eine effiziente Forschungslösung benötigen.

Auto-Deep-Research:自动执行深度研究的AI助手-1


 

Funktionsliste

  • Automatisierte vertiefte StudienAutomatische Suche und Zusammenstellung relevanter Informationen zur Erstellung detaillierter Berichte auf der Grundlage der vom Benutzer eingegebenen Themen.
  • Unterstützung mehrerer ModelleKompatibel mit einer Vielzahl von großen Sprachmodellen, so dass der Benutzer je nach Bedarf das passende Modell auswählen kann.
  • Datei Daten InteraktionUnterstützung für das Hochladen und Verarbeiten von Bildern, PDFs, Textdateien usw. zur Erweiterung der Datenquellen für die Forschung.
  • One-Touch-StartKeine komplizierte Konfiguration erforderlich, einfache Befehle eingeben und schnell einsatzbereit sein.
  • Web-SuchfunktionKombinieren Sie Webressourcen und Daten aus sozialen Medien (z. B. Plattform X), um umfassendere Informationen zu erhalten.
  • Quelloffen und kostenlosVollständiger Quellcode wird zur Verfügung gestellt, so dass die Benutzer die Funktionalität anpassen oder in einer lokalen Umgebung einsetzen können.

 

Hilfe verwenden

Einbauverfahren

Die Installation von Auto-Deep-Research ist einfach und intuitiv und stützt sich stark auf Python und Docker-Umgebungen. Hier sind die Schritte im Detail:

1. die Vorbereitung der Umwelt

  • Installation von PythonStellen Sie sicher, dass Python 3.10 oder höher auf Ihrem System installiert ist. Empfohlen conda Erstellen Sie eine virtuelle Umgebung:
    conda create -n auto_deep_research python=3.10  
    conda activate auto_deep_research
  • Installation von DockerDa das Tool die Container-Laufzeitumgebung von Docker nutzt, laden Sie bitte zuerst Docker Desktop herunter und installieren Sie es. Es ist nicht nötig, Images manuell zu ziehen, das Tool erledigt das automatisch.

2. den Quellcode herunterladen

  • Klonen Sie ein GitHub-Repository lokal:
    git clone https://github.com/HKUDS/Auto-Deep-Research.git  
    cd Auto-Deep-Research
    

3. die Installation von Abhängigkeiten

  • Installieren Sie die erforderlichen Python-Pakete, indem Sie den folgenden Befehl im Projektverzeichnis ausführen:
    pip install -e .
    

4. konfigurieren Sie den API-Schlüssel

  • Kopieren Sie die Vorlagendatei in das Stammverzeichnis des Projekts und bearbeiten Sie sie:
    cp .env.template .env
    
  • Öffnen mit einem Texteditor .env Datei den API-Schlüssel des LLM ein, zum Beispiel:
    OPENAI_API_KEY=your_openai_key  
    DEEPSEEK_API_KEY=your_deepseek_key  
    XAI_API_KEY=your_xai_key
    

    Hinweis: Es sind nicht alle Schlüssel erforderlich, konfigurieren Sie nur das Schlüsselmodell, das Sie verwenden möchten.

5) Start-up-Tools

  • Geben Sie den folgenden Befehl ein, um die automatische Tiefensuche zu starten:
    auto deep-research
    
  • Optionale Parameterkonfigurationen, wie z. B. die Angabe eines Containernamens oder -modells:
    auto deep-research --container_name myresearch --COMPLETION_MODEL grok
    

Hauptfunktionen

Automatisierte vertiefte Studien

  1. Geben Sie ein Forschungsthema einBeim Starten fordert das Tool zur Eingabe eines Forschungsthemas auf, z. B. "Künstliche Intelligenz im Gesundheitswesen".
  2. automatische AusführungDas Tool analysiert relevante Informationen mit Hilfe von Websuchen und integrierten Modellen ohne Benutzereingriff.
  3. Erstellung von BerichtenWenn Sie fertig sind, werden die Ergebnisse im Markdown-Format auf dem Terminal ausgegeben oder als Datei gespeichert, die die Quelle und die detaillierte Analyse enthält.

Datei Daten Interaktion

  1. Hochladen von Dateien: Geben Sie den Dateipfad in der Befehlszeile an, zum Beispiel:
    auto deep-research --file_path ./my_paper.pdf
    
  2. Verarbeitung von DatenDas Tool analysiert den PDF-, Bild- oder Textinhalt und fügt ihn in die Studie ein.
  3. KombinationsanalyseHochgeladene Dateidaten werden mit Websuchergebnissen integriert, um umfassendere Schlussfolgerungen zu ermöglichen.

Auswahl eines großen Sprachmodells

  1. Support-Modelle anzeigenUnterstützung für OpenAI, Grok, Deepseek, usw. Siehe die LiteLLM-Dokumentation für Modellnamen.
  2. Modelle spezifizieren: Fügen Sie dem Startbefehl Parameter hinzu, zum Beispiel:
    auto deep-research --COMPLETION_MODEL deepseek
    
  3. EinsatzprüfungAnpassung der Auswahlmöglichkeiten zur Optimierung der Erfahrung auf der Grundlage der Modellleistung und der API-Reaktionsfähigkeit.

Ausgewählte Funktionen

One Touch Start Erlebnis

  • Anstatt ein Docker-Image oder komplexe Parameter manuell zu konfigurieren, führen Sie einfach die auto deep-researchDas Tool zieht automatisch die erforderliche Umgebung und startet sie.
  • Falls Anpassungen erforderlich sind, können diese über die --container_name Parameter benannte Container für die einfache Verwaltung mehrerer Instanzen.

Websuche und Integration sozialer Medien

  • Das Tool verfügt über eine integrierte Websuchfunktion, die automatisch Webinhalte durchsucht. Wenn Sie Daten aus der X-Plattform einbeziehen möchten, können Sie Schlüsselwörter im Forschungsthema angeben und das Tool wird versuchen, nach relevanten Beiträgen zu suchen.
  • Beispiel: Geben Sie "Neueste KI-Forschungstrends" ein, und die Ergebnisse können Links zu Diskussionen und Tech-Blogs von X-Nutzern enthalten.

caveat

  • API-Schlüssel-Sicherheit: Setzen Sie nicht .env Die Datei wird in ein öffentliches Repository hochgeladen, um die Offenlegung des Schlüssels zu vermeiden.
  • NetzwerkumgebungVergewissern Sie sich, dass die Docker- und Netzwerkverbindungen ordnungsgemäß funktionieren, da dies das Ziehen von Bildern oder die Suchfunktion beeinträchtigen kann.
  • LeistungsoptimierungWenn die lokale Hardware begrenzt ist, wird empfohlen, Cloud-basiertes LLM zu verwenden, um die Ausführung großer Modelle zu vermeiden, die Verzögerungen verursachen.

Mit diesen Schritten können die Benutzer leicht mit Auto-Deep-Research beginnen, einem Werkzeug, das sowohl die akademische Forschung als auch die technische Erkundung effizient unterstützt.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Auto-Deep-Research: Multi-Agenten-Kollaboration zur Durchführung von Literaturrecherchen und Erstellung von Forschungsberichten
de_DEDeutsch