AI Personal Learning
und praktische Anleitung
Ressource Empfehlung 1

Auto-Deep-Research: Multi-Agenten-Kollaboration zur Durchführung von Literaturrecherchen und Erstellung von Forschungsberichten

Allgemeine Einführung

Auto-Deep-Research ist ein Open-Source-KI-Tool, das vom Laboratory of Data Intelligence an der Universität von Hongkong (HKUDS) entwickelt wurde, um Benutzern bei der Automatisierung von Deep-Research-Aufgaben zu helfen. Es basiert auf dem AutoAgent-Framework und unterstützt eine Vielzahl von Large Language Models (LLMs) wie OpenAI, Anthropic, Deepseek und Grok und ist in der Lage, komplexe Dateidateninteraktionen und Websuchen zu verarbeiten. Im Gegensatz zu kostenintensiven Tools, die ein Abonnement erfordern, wie z. B. Deep Research von OpenAI, ist Auto-Deep-Research völlig kostenlos, und die Nutzer müssen nur ihren LLM-API-Schlüssel angeben, um es zu nutzen. Das für seine hohe Leistung und Flexibilität bekannte Tool hat in GAIA-Benchmarks gut abgeschnitten und eignet sich für Forscher, Entwickler oder Nutzer, die eine effiziente Forschungslösung benötigen.

Auto-Deep-Research: ein KI-Assistent, der automatisch tiefgehende Recherchen durchführt-1


 

Funktionsliste

  • Automatisierte vertiefte StudienAutomatische Suche und Zusammenstellung relevanter Informationen zur Erstellung detaillierter Berichte auf der Grundlage der vom Benutzer eingegebenen Themen.
  • Unterstützung mehrerer ModelleKompatibel mit einer Vielzahl von großen Sprachmodellen, so dass der Benutzer je nach Bedarf das passende Modell auswählen kann.
  • Datei Daten InteraktionUnterstützung für das Hochladen und Verarbeiten von Bildern, PDFs, Textdateien usw. zur Erweiterung der Datenquellen für die Forschung.
  • One-Touch-StartEs ist keine komplexe Konfiguration erforderlich, es genügen einfache Befehle, und Sie sind im Handumdrehen startklar.
  • Web-SuchfunktionKombinieren Sie Webressourcen und Daten aus sozialen Medien (z. B. Plattform X), um umfassendere Informationen zu erhalten.
  • Quelloffen und kostenlosVollständiger Quellcode wird zur Verfügung gestellt, so dass die Benutzer die Funktionalität anpassen oder in einer lokalen Umgebung einsetzen können.

 

Hilfe verwenden

Ablauf der Installation

Die Installation von Auto-Deep-Research ist einfach und intuitiv und stützt sich stark auf Python und Docker-Umgebungen. Hier sind die Schritte im Detail:

1. die Vorbereitung der Umwelt

  • Installation von PythonStellen Sie sicher, dass Python 3.10 oder höher auf Ihrem System installiert ist. Empfohlen conda Erstellen Sie eine virtuelle Umgebung:
    conda create -n auto_deep_research python=3.10
    conda activate auto_deep_research
  • Installation von DockerDa das Tool die Container-Laufzeitumgebung von Docker nutzt, laden Sie bitte zuerst Docker Desktop herunter und installieren Sie es. Es ist nicht nötig, Images manuell zu ziehen, das Tool erledigt das automatisch.

2. den Quellcode herunterladen

  • Klonen Sie ein GitHub-Repository lokal:
    git clone https://github.com/HKUDS/Auto-Deep-Research.git
    cd Auto-Deep-Research
    

3. die Installation von Abhängigkeiten

  • Installieren Sie die erforderlichen Python-Pakete, indem Sie den folgenden Befehl im Projektverzeichnis ausführen:
    pip install -e .
    

4. konfigurieren Sie den API-Schlüssel

  • Kopieren Sie die Vorlagendatei in das Stammverzeichnis des Projekts und bearbeiten Sie sie:
    cp .env.template .env
    
  • Öffnen mit einem Texteditor .env Datei den API-Schlüssel des LLM wie erforderlich ein, zum Beispiel:
    OPENAI_API_KEY=Ihr_openai_key
    DEEPSEEK_API_KEY=Ihr_deepseek_key
    XAI_API_KEY=Ihr_xai_schlüssel
    

    Hinweis: Es sind nicht alle Schlüssel erforderlich, konfigurieren Sie nur das Schlüsselmodell, das Sie verwenden möchten.

5) Start-up-Tools

  • Geben Sie den folgenden Befehl ein, um die automatische Tiefensuche zu starten:
    automatische Tiefenrecherche
    
  • Optionale Parameterkonfigurationen, wie z. B. die Angabe eines Containernamens oder -modells:
    auto deep-research --container_name myresearch --COMPLETION_MODEL grok
    

Hauptfunktionen

Automatisierte vertiefte Studien

  1. Geben Sie ein Forschungsthema einBeim Starten fordert das Tool zur Eingabe eines Forschungsthemas auf, z. B. "Künstliche Intelligenz im Gesundheitswesen".
  2. automatische AusführungDas Tool analysiert relevante Informationen mit Hilfe von Websuchen und integrierten Modellen ohne Benutzereingriff.
  3. Erstellung von BerichtenWenn Sie fertig sind, werden die Ergebnisse im Markdown-Format auf dem Terminal ausgegeben oder als Datei gespeichert, die die Quelle und die detaillierte Analyse enthält.

Datei Daten Interaktion

  1. Hochladen von Dateien: Geben Sie den Dateipfad in der Befehlszeile an, zum Beispiel:
    auto deep-research --file_path . /mein_papier.pdf
    
  2. Verarbeitung von DatenDas Tool analysiert den PDF-, Bild- oder Textinhalt und fügt ihn in die Studie ein.
  3. kombinierte AnalyseHochgeladene Dateidaten werden mit Websuchergebnissen integriert, um umfassendere Schlussfolgerungen zu ermöglichen.

Auswahl eines großen Sprachmodells

  1. Support-Modelle anzeigenUnterstützung für OpenAI, Grok, Deepseek, usw. Siehe die LiteLLM-Dokumentation für Modellnamen.
  2. Modelle spezifizieren: Fügen Sie dem Startbefehl Parameter hinzu, zum Beispiel:
    auto deep-research --COMPLETION_MODEL deepseek
    
  3. EinsatzprüfungAnpassung der Auswahlmöglichkeiten zur Optimierung der Erfahrung auf der Grundlage der Modellleistung und der API-Reaktionsfähigkeit.

Ausgewählte Funktionen

One Touch Start Erlebnis

  • Anstatt ein Docker-Image oder komplexe Parameter manuell zu konfigurieren, führen Sie einfach die automatische TiefenrechercheDas Tool zieht automatisch die erforderliche Umgebung und startet sie.
  • Falls Anpassungen erforderlich sind, können diese über die --container_name Parameter benannte Container für die einfache Verwaltung mehrerer Instanzen.

Websuche und Integration sozialer Medien

  • Das Tool verfügt über eine integrierte Websuchfunktion, die automatisch Webinhalte durchsucht. Wenn Sie Daten aus der X-Plattform einbeziehen möchten, können Sie Schlüsselwörter im Forschungsthema angeben und das Tool wird versuchen, nach relevanten Beiträgen zu suchen.
  • Beispiel: Geben Sie "Neueste KI-Forschungstrends" ein, und die Ergebnisse können Links zu Diskussionen und Tech-Blogs von X-Nutzern enthalten.

caveat

  • API-Schlüssel-Sicherheit: Setzen Sie nicht .env Die Datei wird in ein öffentliches Repository hochgeladen, um die Offenlegung des Schlüssels zu vermeiden.
  • NetzwerkumgebungVergewissern Sie sich, dass die Docker- und Netzwerkverbindungen ordnungsgemäß funktionieren, da dies das Ziehen von Bildern oder die Suchfunktion beeinträchtigen kann.
  • LeistungsoptimierungWenn die lokale Hardware begrenzt ist, wird empfohlen, Cloud-basiertes LLM zu verwenden, um die Ausführung großer Modelle zu vermeiden, die Verzögerungen verursachen.

Mit diesen Schritten können die Benutzer leicht mit Auto-Deep-Research beginnen, einem Werkzeug, das sowohl die akademische Forschung als auch die technische Erkundung effizient unterstützt.

Inhalt 1
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Auto-Deep-Research: Multi-Agenten-Kollaboration zur Durchführung von Literaturrecherchen und Erstellung von Forschungsberichten

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)