Allgemeine Einführung
Auto-Deep-Research ist ein Open-Source-KI-Tool, das vom Laboratory of Data Intelligence an der Universität von Hongkong (HKUDS) entwickelt wurde, um Benutzern bei der Automatisierung von Deep-Research-Aufgaben zu helfen. Es basiert auf dem AutoAgent-Framework und unterstützt eine Vielzahl von Large Language Models (LLMs) wie OpenAI, Anthropic, Deepseek und Grok und ist in der Lage, komplexe Dateidateninteraktionen und Websuchen zu verarbeiten. Im Gegensatz zu kostenintensiven Tools, die ein Abonnement erfordern, wie z. B. Deep Research von OpenAI, ist Auto-Deep-Research völlig kostenlos, und die Nutzer müssen nur ihren LLM-API-Schlüssel angeben, um es zu nutzen. Das für seine hohe Leistung und Flexibilität bekannte Tool hat in GAIA-Benchmarks gut abgeschnitten und eignet sich für Forscher, Entwickler oder Nutzer, die eine effiziente Forschungslösung benötigen.
Funktionsliste
- Automatisierte vertiefte StudienAutomatische Suche und Zusammenstellung relevanter Informationen zur Erstellung detaillierter Berichte auf der Grundlage der vom Benutzer eingegebenen Themen.
- Unterstützung mehrerer ModelleKompatibel mit einer Vielzahl von großen Sprachmodellen, so dass der Benutzer je nach Bedarf das passende Modell auswählen kann.
- Datei Daten InteraktionUnterstützung für das Hochladen und Verarbeiten von Bildern, PDFs, Textdateien usw. zur Erweiterung der Datenquellen für die Forschung.
- One-Touch-StartEs ist keine komplexe Konfiguration erforderlich, es genügen einfache Befehle, und Sie sind im Handumdrehen startklar.
- Web-SuchfunktionKombinieren Sie Webressourcen und Daten aus sozialen Medien (z. B. Plattform X), um umfassendere Informationen zu erhalten.
- Quelloffen und kostenlosVollständiger Quellcode wird zur Verfügung gestellt, so dass die Benutzer die Funktionalität anpassen oder in einer lokalen Umgebung einsetzen können.
Hilfe verwenden
Ablauf der Installation
Die Installation von Auto-Deep-Research ist einfach und intuitiv und stützt sich stark auf Python und Docker-Umgebungen. Hier sind die Schritte im Detail:
1. die Vorbereitung der Umwelt
- Installation von PythonStellen Sie sicher, dass Python 3.10 oder höher auf Ihrem System installiert ist. Empfohlen
conda
Erstellen Sie eine virtuelle Umgebung:conda create -n auto_deep_research python=3.10 conda activate auto_deep_research
- Installation von DockerDa das Tool die Container-Laufzeitumgebung von Docker nutzt, laden Sie bitte zuerst Docker Desktop herunter und installieren Sie es. Es ist nicht nötig, Images manuell zu ziehen, das Tool erledigt das automatisch.
2. den Quellcode herunterladen
- Klonen Sie ein GitHub-Repository lokal:
git clone https://github.com/HKUDS/Auto-Deep-Research.git cd Auto-Deep-Research
3. die Installation von Abhängigkeiten
- Installieren Sie die erforderlichen Python-Pakete, indem Sie den folgenden Befehl im Projektverzeichnis ausführen:
pip install -e .
4. konfigurieren Sie den API-Schlüssel
- Kopieren Sie die Vorlagendatei in das Stammverzeichnis des Projekts und bearbeiten Sie sie:
cp .env.template .env
- Öffnen mit einem Texteditor
.env
Datei den API-Schlüssel des LLM wie erforderlich ein, zum Beispiel:OPENAI_API_KEY=Ihr_openai_key DEEPSEEK_API_KEY=Ihr_deepseek_key XAI_API_KEY=Ihr_xai_schlüssel
Hinweis: Es sind nicht alle Schlüssel erforderlich, konfigurieren Sie nur das Schlüsselmodell, das Sie verwenden möchten.
5) Start-up-Tools
- Geben Sie den folgenden Befehl ein, um die automatische Tiefensuche zu starten:
automatische Tiefenrecherche
- Optionale Parameterkonfigurationen, wie z. B. die Angabe eines Containernamens oder -modells:
auto deep-research --container_name myresearch --COMPLETION_MODEL grok
Hauptfunktionen
Automatisierte vertiefte Studien
- Geben Sie ein Forschungsthema einBeim Starten fordert das Tool zur Eingabe eines Forschungsthemas auf, z. B. "Künstliche Intelligenz im Gesundheitswesen".
- automatische AusführungDas Tool analysiert relevante Informationen mit Hilfe von Websuchen und integrierten Modellen ohne Benutzereingriff.
- Erstellung von BerichtenWenn Sie fertig sind, werden die Ergebnisse im Markdown-Format auf dem Terminal ausgegeben oder als Datei gespeichert, die die Quelle und die detaillierte Analyse enthält.
Datei Daten Interaktion
- Hochladen von Dateien: Geben Sie den Dateipfad in der Befehlszeile an, zum Beispiel:
auto deep-research --file_path . /mein_papier.pdf
- Verarbeitung von DatenDas Tool analysiert den PDF-, Bild- oder Textinhalt und fügt ihn in die Studie ein.
- kombinierte AnalyseHochgeladene Dateidaten werden mit Websuchergebnissen integriert, um umfassendere Schlussfolgerungen zu ermöglichen.
Auswahl eines großen Sprachmodells
- Support-Modelle anzeigenUnterstützung für OpenAI, Grok, Deepseek, usw. Siehe die LiteLLM-Dokumentation für Modellnamen.
- Modelle spezifizieren: Fügen Sie dem Startbefehl Parameter hinzu, zum Beispiel:
auto deep-research --COMPLETION_MODEL deepseek
- EinsatzprüfungAnpassung der Auswahlmöglichkeiten zur Optimierung der Erfahrung auf der Grundlage der Modellleistung und der API-Reaktionsfähigkeit.
Ausgewählte Funktionen
One Touch Start Erlebnis
- Anstatt ein Docker-Image oder komplexe Parameter manuell zu konfigurieren, führen Sie einfach die
automatische Tiefenrecherche
Das Tool zieht automatisch die erforderliche Umgebung und startet sie. - Falls Anpassungen erforderlich sind, können diese über die
--container_name
Parameter benannte Container für die einfache Verwaltung mehrerer Instanzen.
Websuche und Integration sozialer Medien
- Das Tool verfügt über eine integrierte Websuchfunktion, die automatisch Webinhalte durchsucht. Wenn Sie Daten aus der X-Plattform einbeziehen möchten, können Sie Schlüsselwörter im Forschungsthema angeben und das Tool wird versuchen, nach relevanten Beiträgen zu suchen.
- Beispiel: Geben Sie "Neueste KI-Forschungstrends" ein, und die Ergebnisse können Links zu Diskussionen und Tech-Blogs von X-Nutzern enthalten.
caveat
- API-Schlüssel-Sicherheit: Setzen Sie nicht
.env
Die Datei wird in ein öffentliches Repository hochgeladen, um die Offenlegung des Schlüssels zu vermeiden. - NetzwerkumgebungVergewissern Sie sich, dass die Docker- und Netzwerkverbindungen ordnungsgemäß funktionieren, da dies das Ziehen von Bildern oder die Suchfunktion beeinträchtigen kann.
- LeistungsoptimierungWenn die lokale Hardware begrenzt ist, wird empfohlen, Cloud-basiertes LLM zu verwenden, um die Ausführung großer Modelle zu vermeiden, die Verzögerungen verursachen.
Mit diesen Schritten können die Benutzer leicht mit Auto-Deep-Research beginnen, einem Werkzeug, das sowohl die akademische Forschung als auch die technische Erkundung effizient unterstützt.