AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

Ollama+LangGraph Lokal eingesetzter Assistent zur Erstellung akademischer Forschungsberichte

Allgemeine Einführung

Ollama Deep Researcher ist ein vollständig nativ laufender Assistent für Web-Recherche und Berichterstellung, der vom LangChain-Team entwickelt wurde. Er verwendet ein beliebiges Large Language Model (LLM), das von Ollama gehostet wird, um es den Nutzern zu ermöglichen, ein Forschungsthema einzugeben und dann automatisch Web-Suchanfragen zu generieren, Informationen zu sammeln, den Inhalt zusammenzufassen und Markdown-Berichte mit Quellen zu erstellen. Der gesamte Prozess wird ohne Internetverbindung durchgeführt, um ein externes Modell aufzurufen, wodurch die Privatsphäre geschützt wird und keine zusätzlichen Kosten anfallen. Es unterstützt DuckDuckGo, Tavily oder Perplexität und anderen Suchwerkzeugen kann der Nutzer die Anzahl der Recherchezyklen individuell anpassen, geeignet für Nutzer, die tiefgreifende Recherchen benötigen und strukturierte Berichte erstellen. Einfach zu installieren, Open Source und kostenlos.

Ollama Local Simple Deployment Academic Research Report Generation Assistant-1


 

Funktionsliste

  • lokales operatives Sprachmodell (LOLM)Native LLM über Ollama ohne externe APIs verwenden.
  • Automatische Generierung von SuchanfragenGenerierung präziser Websuchbegriffe auf der Grundlage von Benutzerthemen.
  • Sammlung von Web-InformationenUnterstützt die Suche mit DuckDuckGo (Standard), Tavily oder Perplexity.
  • Zusammenfassung und Optimierung der InhalteAnalyse der Suchergebnisse, Ermittlung von Mängeln und Verbesserung der Zusammenfassung.
  • Erzeugen von Markdown-BerichtenOutput: Strukturierter Bericht mit allen Quellenangaben.
  • Anpassung der Tiefe der ForschungDer Benutzer kann die Anzahl der Zyklen festlegen und den Detaillierungsgrad der Studie steuern.
  • Visualisierung von Arbeitsabläufen: durch LangGraph Studio Zeigen Sie jeden Schritt des Vorgangs an.
  • Unterstützung für mehrere Modelle: Kompatibel DeepSeek R1, Llama 3.2 und andere Modelle.

 

Hilfe verwenden

Ablauf der Installation

Ollama Deep Researcher erfordert die Unterstützung einer lokalen Umgebung. Im Folgenden finden Sie detaillierte Schritte für Mac- und Windows-Benutzer.

Mac-Benutzer

  1. Ollama installieren
    • Besuchen Sie die Ollama-Website, um die Mac-Version des Installationsprogramms herunterzuladen.
    • Nach der Installation starten Sie das Terminal ollama --version Überprüfen Sie die Version.
  2. Pull-Modell
    • Geben Sie ihn in das Terminal ein:Ollama ziehen Tiefensuche-r1:8b Empfohlene Modelle herunterladen.
    • Auch verfügbar ollama pull llama3.2.
  3. Klonprojekt
    • Führen Sie den folgenden Befehl aus:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Erstellen einer virtuellen Umgebung (empfohlen)
    • Stellen Sie sicher, dass Python 3.9+ installiert ist. Starten Sie es:
      python -m venv .venv
      Quelle .venv/bin/activate
      
  5. Abhängigkeiten installieren und starten
    • Eingabe:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
      
    • Beim Start des Browsers wird LangGraph Studio geöffnet (Standardeinstellung). http://127.0.0.1:2024).

Windows-Benutzer

  1. Ollama installieren
    • Laden Sie die Windows-Version von der Ollama-Website herunter.
    • Nach der Installation führt die Befehlszeile ollama --version Validierung.
  2. Pull-Modell
    • Eingabe:ollama pull deepseek-r1:8b.
  3. Klonprojekt
    • Laufen:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Erstellen einer virtuellen Umgebung
    • Installieren Sie Python 3.11 (mit dem Häkchen bei "Zum PATH hinzufügen") und führen Sie es aus:
      python -m venv .venv
      .venv\Scripts\Activate.ps1
      
  5. Abhängigkeiten installieren und starten
    • Eingabe:
      pip install -e .
      pip install -U "langgraph-cli[inmem]"
      langgraph dev
      
    • Zugang nach der Markteinführung http://127.0.0.1:2024.

Konfigurations-Suchwerkzeug (optional)

  • DuckDuckGo wird standardmäßig verwendet und es ist kein API-Schlüssel erforderlich.
  • Wenn Sie Tavily oder Perplexity verwenden:
    1. eine Kopie machen von .env.example wegen .env.
    2. Compiler .envfügen Sie den Schlüssel hinzu:
      TAVILY_API_KEY=Ihr_tavily_key
      PERPLEXITY_API_KEY=Ihr_perplexity_key
      
    3. Optionale Konfiguration:
      • OLLAMA_BASE_URL(Standard) http://localhost:11434).
      • MAX_WEB_RECHERCHE_SCHLEIFEN(Voreinstellung 3).

Wie zu verwenden

  1. LangGraph Studio öffnen
    • Nachdem Sie den Dienst gestartet haben, rufen Sie die http://127.0.0.1:2024.
    • Die Schnittstelle ist in eine linke und eine rechte Spalte unterteilt: Konfiguration auf der linken Seite und Eingabe und Ergebnisse auf der rechten Seite.
  2. Konfigurationsparameter
    • SuchwerkzeugeWählen Sie aus DuckDuckGo, Tavily oder Perplexity.
    • Modellierung: Geben Sie den Namen des heruntergeladenen Modells ein (z. B. deepseek-r1:8b).
    • Anzahl der ZyklenLegen Sie die Untersuchungstiefe fest, standardmäßig 3 Mal.
    • Speichern Sie die Konfiguration.
  3. Ein Thema eingeben
    • Geben Sie ein Forschungsthema, wie z.B. "Die Zukunft des maschinellen Lernens" in das Eingabefeld auf der rechten Seite ein.
    • Klicken Sie auf "Ausführen", um die Studie zu starten.
  4. Prozess und Ergebnisse anzeigen
    • Studio zeigt jeden Schritt an: Erstellen von Abfragen, Suchen, Zusammenfassungen usw.
    • Wenn Sie fertig sind, wird der Markdown-Bericht im Diagrammstatus des Projektordners gespeichert.

Featured Function Bedienung

  • Anpassung der Tiefe der Forschung
    • Änderung der Konfiguration MAX_WEB_RECHERCHE_SCHLEIFENWenn die Anzahl der Male auf 5 eingestellt wird, sind die Ergebnisse umfassender, aber auch zeitaufwändiger.
  • Umschaltbare Suchfunktion
    • DuckDuckGo Kostenlos, aber begrenzte Ergebnisse, Tavily Ausführlicher (Schlüssel erforderlich). Starten Sie den Dienst nach dem Wechsel neu.
  • Prüfung der Modellkompatibilität
    • Wenn ein Fehler gemeldet wird (z. B. KeyError: 'Abfrage'), was bedeutet, dass das Modell keine JSON-Ausgabe unterstützt. Der Wechsel zu DeepSeek R1 (8B) oder Llama 3.2.

caveat

  • Hardware-Voraussetzung8 GB Arbeitsspeicher sind für das Modell 8B und 16 GB für das Modell 13B erforderlich.
  • Browser-KompatibilitätFirefox wird empfohlen, bei Safari können Sicherheitswarnungen auftreten.
  • FehlererkennungWenn Sie nicht weiterkommen, prüfen Sie die Terminalprotokolle. Möglicherweise müssen Sie Abhängigkeiten aktualisieren oder Modelle ändern.

 

Anwendungsszenario

  1. akademische Forschung
    • Beschreibung der SzeneStudierende geben "Optimierungsmethoden für neuronale Netze" ein und das Tool sucht und erstellt einen Bericht mit Zitaten, was Zeit bei der Suche nach Informationen spart.
  2. Analyse der Industrie
    • Beschreibung der SzeneAI Market Trends to 2025", ein Tool, das eine detaillierte Zusammenfassung als Entscheidungshilfe bietet.
  3. Technisches Lernen
    • Beschreibung der SzeneEntwickler geben "Python Asynchronous Programming" ein und das Tool generiert einen Lernbericht, um das Selbststudium zu erleichtern.

 

QA

  1. Muss ich ein Netzwerk aufbauen?
    • Für das lokale Modell ist keine Internetverbindung erforderlich, für die Suche im Web jedoch schon. Wenn Sie offline sind, können nur vorhandene Daten verwendet werden.
  2. Unterstützt es Chinesisch?
    • Unterstützung. Geben Sie ein chinesisches Thema ein und das Tool generiert chinesische Ergebnisse, aber die Wirkung variiert je nach Suchtool.
  3. Kann der Bericht geändert werden?
    • Markdown-Dateien können direkt bearbeitet werden.
  4. Was sollte ich tun, wenn ich einen JSON-Fehler erhalte?
    • Dies bedeutet, dass das Modell keine strukturierte Ausgabe unterstützt. Versuchen Sie es erneut mit DeepSeek R1 (8B) oder Llama 3.2.
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Ollama+LangGraph Lokal eingesetzter Assistent zur Erstellung akademischer Forschungsberichte

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)