Allgemeine Einführung
Ollama Deep Researcher ist ein vollständig nativ laufender Assistent für Web-Recherche und Berichterstellung, der vom LangChain-Team entwickelt wurde. Er verwendet ein beliebiges Large Language Model (LLM), das von Ollama gehostet wird, um es den Nutzern zu ermöglichen, ein Forschungsthema einzugeben und dann automatisch Web-Suchanfragen zu generieren, Informationen zu sammeln, den Inhalt zusammenzufassen und Markdown-Berichte mit Quellen zu erstellen. Der gesamte Prozess wird ohne Internetverbindung durchgeführt, um ein externes Modell aufzurufen, wodurch die Privatsphäre geschützt wird und keine zusätzlichen Kosten anfallen. Es unterstützt DuckDuckGo, Tavily oder Perplexität und anderen Suchwerkzeugen kann der Nutzer die Anzahl der Recherchezyklen individuell anpassen, geeignet für Nutzer, die tiefgreifende Recherchen benötigen und strukturierte Berichte erstellen. Einfach zu installieren, Open Source und kostenlos.
Funktionsliste
- lokales operatives Sprachmodell (LOLM)Native LLM über Ollama ohne externe APIs verwenden.
- Automatische Generierung von SuchanfragenGenerierung präziser Websuchbegriffe auf der Grundlage von Benutzerthemen.
- Sammlung von Web-InformationenUnterstützt die Suche mit DuckDuckGo (Standard), Tavily oder Perplexity.
- Zusammenfassung und Optimierung der InhalteAnalyse der Suchergebnisse, Ermittlung von Mängeln und Verbesserung der Zusammenfassung.
- Erzeugen von Markdown-BerichtenOutput: Strukturierter Bericht mit allen Quellenangaben.
- Anpassung der Tiefe der ForschungDer Benutzer kann die Anzahl der Zyklen festlegen und den Detaillierungsgrad der Studie steuern.
- Visualisierung von Arbeitsabläufen: durch LangGraph Studio Zeigen Sie jeden Schritt des Vorgangs an.
- Unterstützung für mehrere Modelle: Kompatibel DeepSeek R1, Llama 3.2 und andere Modelle.
Hilfe verwenden
Ablauf der Installation
Ollama Deep Researcher erfordert die Unterstützung einer lokalen Umgebung. Im Folgenden finden Sie detaillierte Schritte für Mac- und Windows-Benutzer.
Mac-Benutzer
- Ollama installieren
- Besuchen Sie die Ollama-Website, um die Mac-Version des Installationsprogramms herunterzuladen.
- Nach der Installation starten Sie das Terminal
ollama --version
Überprüfen Sie die Version.
- Pull-Modell
- Geben Sie ihn in das Terminal ein:
Ollama ziehen Tiefensuche-r1:8b
Empfohlene Modelle herunterladen. - Auch verfügbar
ollama pull llama3.2
.
- Geben Sie ihn in das Terminal ein:
- Klonprojekt
- Führen Sie den folgenden Befehl aus:
git clone https://github.com/langchain-ai/ollama-deep-researcher.git cd ollama-deep-researcher
- Führen Sie den folgenden Befehl aus:
- Erstellen einer virtuellen Umgebung (empfohlen)
- Stellen Sie sicher, dass Python 3.9+ installiert ist. Starten Sie es:
python -m venv .venv Quelle .venv/bin/activate
- Stellen Sie sicher, dass Python 3.9+ installiert ist. Starten Sie es:
- Abhängigkeiten installieren und starten
- Eingabe:
curl -LsSf https://astral.sh/uv/install.sh | sh uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
- Beim Start des Browsers wird LangGraph Studio geöffnet (Standardeinstellung).
http://127.0.0.1:2024
).
- Eingabe:
Windows-Benutzer
- Ollama installieren
- Laden Sie die Windows-Version von der Ollama-Website herunter.
- Nach der Installation führt die Befehlszeile
ollama --version
Validierung.
- Pull-Modell
- Eingabe:
ollama pull deepseek-r1:8b
.
- Eingabe:
- Klonprojekt
- Laufen:
git clone https://github.com/langchain-ai/ollama-deep-researcher.git cd ollama-deep-researcher
- Laufen:
- Erstellen einer virtuellen Umgebung
- Installieren Sie Python 3.11 (mit dem Häkchen bei "Zum PATH hinzufügen") und führen Sie es aus:
python -m venv .venv .venv\Scripts\Activate.ps1
- Installieren Sie Python 3.11 (mit dem Häkchen bei "Zum PATH hinzufügen") und führen Sie es aus:
- Abhängigkeiten installieren und starten
- Eingabe:
pip install -e . pip install -U "langgraph-cli[inmem]" langgraph dev
- Zugang nach der Markteinführung
http://127.0.0.1:2024
.
- Eingabe:
Konfigurations-Suchwerkzeug (optional)
- DuckDuckGo wird standardmäßig verwendet und es ist kein API-Schlüssel erforderlich.
- Wenn Sie Tavily oder Perplexity verwenden:
- eine Kopie machen von
.env.example
wegen.env
. - Compiler
.env
fügen Sie den Schlüssel hinzu:TAVILY_API_KEY=Ihr_tavily_key PERPLEXITY_API_KEY=Ihr_perplexity_key
- Optionale Konfiguration:
OLLAMA_BASE_URL
(Standard)http://localhost:11434
).MAX_WEB_RECHERCHE_SCHLEIFEN
(Voreinstellung 3).
- eine Kopie machen von
Wie zu verwenden
- LangGraph Studio öffnen
- Nachdem Sie den Dienst gestartet haben, rufen Sie die
http://127.0.0.1:2024
. - Die Schnittstelle ist in eine linke und eine rechte Spalte unterteilt: Konfiguration auf der linken Seite und Eingabe und Ergebnisse auf der rechten Seite.
- Nachdem Sie den Dienst gestartet haben, rufen Sie die
- Konfigurationsparameter
- SuchwerkzeugeWählen Sie aus DuckDuckGo, Tavily oder Perplexity.
- Modellierung: Geben Sie den Namen des heruntergeladenen Modells ein (z. B.
deepseek-r1:8b
). - Anzahl der ZyklenLegen Sie die Untersuchungstiefe fest, standardmäßig 3 Mal.
- Speichern Sie die Konfiguration.
- Ein Thema eingeben
- Geben Sie ein Forschungsthema, wie z.B. "Die Zukunft des maschinellen Lernens" in das Eingabefeld auf der rechten Seite ein.
- Klicken Sie auf "Ausführen", um die Studie zu starten.
- Prozess und Ergebnisse anzeigen
- Studio zeigt jeden Schritt an: Erstellen von Abfragen, Suchen, Zusammenfassungen usw.
- Wenn Sie fertig sind, wird der Markdown-Bericht im Diagrammstatus des Projektordners gespeichert.
Featured Function Bedienung
- Anpassung der Tiefe der Forschung
- Änderung der Konfiguration
MAX_WEB_RECHERCHE_SCHLEIFEN
Wenn die Anzahl der Male auf 5 eingestellt wird, sind die Ergebnisse umfassender, aber auch zeitaufwändiger.
- Änderung der Konfiguration
- Umschaltbare Suchfunktion
- DuckDuckGo Kostenlos, aber begrenzte Ergebnisse, Tavily Ausführlicher (Schlüssel erforderlich). Starten Sie den Dienst nach dem Wechsel neu.
- Prüfung der Modellkompatibilität
- Wenn ein Fehler gemeldet wird (z. B.
KeyError: 'Abfrage'
), was bedeutet, dass das Modell keine JSON-Ausgabe unterstützt. Der Wechsel zu DeepSeek R1 (8B) oder Llama 3.2.
- Wenn ein Fehler gemeldet wird (z. B.
caveat
- Hardware-Voraussetzung8 GB Arbeitsspeicher sind für das Modell 8B und 16 GB für das Modell 13B erforderlich.
- Browser-KompatibilitätFirefox wird empfohlen, bei Safari können Sicherheitswarnungen auftreten.
- FehlererkennungWenn Sie nicht weiterkommen, prüfen Sie die Terminalprotokolle. Möglicherweise müssen Sie Abhängigkeiten aktualisieren oder Modelle ändern.
Anwendungsszenario
- akademische Forschung
- Beschreibung der SzeneStudierende geben "Optimierungsmethoden für neuronale Netze" ein und das Tool sucht und erstellt einen Bericht mit Zitaten, was Zeit bei der Suche nach Informationen spart.
- Analyse der Industrie
- Beschreibung der SzeneAI Market Trends to 2025", ein Tool, das eine detaillierte Zusammenfassung als Entscheidungshilfe bietet.
- Technisches Lernen
- Beschreibung der SzeneEntwickler geben "Python Asynchronous Programming" ein und das Tool generiert einen Lernbericht, um das Selbststudium zu erleichtern.
QA
- Muss ich ein Netzwerk aufbauen?
- Für das lokale Modell ist keine Internetverbindung erforderlich, für die Suche im Web jedoch schon. Wenn Sie offline sind, können nur vorhandene Daten verwendet werden.
- Unterstützt es Chinesisch?
- Unterstützung. Geben Sie ein chinesisches Thema ein und das Tool generiert chinesische Ergebnisse, aber die Wirkung variiert je nach Suchtool.
- Kann der Bericht geändert werden?
- Markdown-Dateien können direkt bearbeitet werden.
- Was sollte ich tun, wenn ich einen JSON-Fehler erhalte?
- Dies bedeutet, dass das Modell keine strukturierte Ausgabe unterstützt. Versuchen Sie es erneut mit DeepSeek R1 (8B) oder Llama 3.2.