AI Personal Learning
und praktische Anleitung

Research Rabbit: Web-Recherche und Berichtserstellung unter Verwendung des nativen LLM, das automatisch in benutzerdefinierte Themen eindringt und Zusammenfassungen erstellt.

Allgemeine Einführung

Research Rabbit ist ein nativer LLM (Large Language Model) basierter Assistent für Web-Recherche und Zusammenfassungen. Nachdem der Nutzer ein Forschungsthema angegeben hat, erstellt Research Rabbit eine Suchanfrage, erhält relevante Web-Ergebnisse und fasst diese zusammen. Es wiederholt diesen Prozess, füllt Wissenslücken auf und erstellt schließlich eine Markdown-Zusammenfassung, die alle Quellen enthält. Das Tool läuft vollständig lokal, so dass Datenschutz und Sicherheit gewährleistet sind.

Research Rabbit: Web-Recherche und Berichtserstellung unter Verwendung des nativen LLM, das automatisch in benutzerdefinierte Themen eindringt und Zusammenfassungen erstellt. -1


 

Funktionsliste

  • Suchanfragen generierenGenerierung von Suchanfragen auf der Grundlage der vom Benutzer eingegebenen Themen.
  • Suche im InternetVerwenden Sie eine konfigurierte Suchmaschine (z. B. Tavily), um relevante Ressourcen zu finden.
  • Zusammenfassende ErgebnisseZusammenfassung von Websuchergebnissen unter Verwendung lokaler LLM.
  • reflektierende ZusammenfassungIdentifizieren Sie Wissenslücken und generieren Sie neue Suchanfragen.
  • eine iterative AktualisierungWiederholte Recherchen und Zusammenfassungen zur schrittweisen Verfeinerung der Recherche.
  • lokaler BetriebAlle Vorgänge werden lokal durchgeführt, um den Datenschutz zu gewährleisten.
  • Markdown-ZusammenfassungGenerieren Sie eine endgültige Markdown-Zusammenfassung mit allen Quellen.

 

Hilfe verwenden

Ablauf der Installation

  1. Lokale LLM ziehenLLM: Ziehen Sie die erforderlichen lokalen LLMs aus Ollama, zum Beispielollama Lama3.2 ziehen.
  2. Tavily-API-Schlüssel erhaltenTavily registrieren und API-Schlüssel erhalten, Umgebungsvariablen setzenexport TAVILY_API_KEY=.
  3. Klon-Lager: Laufgit clone https://github.com/langchain-ai/research-rabbit.gitKlon-Lagerhaus.
  4. Installation von Abhängigkeiten: Wechseln Sie in das Projektverzeichnis und führen Sieuvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph devInstallieren Sie die Abhängigkeit.
  5. Startup-Assistent: Starten Sie den LangGraph-Server und rufen Sie diehttp://127.0.0.1:2024Sehen Sie sich die API-Dokumentation und die Web-UI an.

Verwendung Prozess

  1. LLM konfigurierenLLM: Legen Sie den Namen des lokalen LLM fest, der in der LangGraph Studio Web UI verwendet werden soll (Standard).Lama3.2).
  2. Festlegung der Tiefe der ForschungKonfigurieren Sie die Tiefe der Iterationen der Studie (Standardwert 3).
  3. Geben Sie ein Forschungsthema einStarten Sie den Recherche-Assistenten, indem Sie auf der Registerkarte Konfiguration das Recherchethema eingeben.
  4. Ansicht ProzessDer Assistent erstellt eine Suchanfrage, führt eine Websuche durch, fasst die Ergebnisse mit LLM zusammen und wiederholt den Vorgang.
  5. Die Zusammenfassung erhaltenSobald die Recherche abgeschlossen ist, erstellt der Assistent eine Markdown-Zusammenfassung mit allen Quellen, die der Nutzer einsehen und bearbeiten kann.

Hauptfunktionen

  • Suchanfragen generierenNach Eingabe des Themas erstellt der Assistent automatisch eine Suchanfrage.
  • Suche im InternetDer Assistent verwendet die konfigurierte Suchmaschine, um relevante Ressourcen zu finden.
  • Zusammenfassende ErgebnisseDer Assistent verwendet das lokale LLM, um die Suchergebnisse zusammenzufassen und einen vorläufigen Bericht zu erstellen.
  • reflektierende ZusammenfassungDer Assistent identifiziert Wissenslücken in der Zusammenfassung und erstellt neue Suchanfragen, um die Recherche fortzusetzen.
  • eine iterative AktualisierungDer Assistent führt iterativ Recherchen und Zusammenfassungen durch, um die Recherche schrittweise zu verfeinern.
  • Erzeugen von Markdown-ZusammenfassungenSobald die Recherche abgeschlossen ist, erstellt der Assistent eine endgültige Markdown-Zusammenfassung mit allen Quellen, die der Nutzer einsehen und bearbeiten kann.
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Research Rabbit: Web-Recherche und Berichtserstellung unter Verwendung des nativen LLM, das automatisch in benutzerdefinierte Themen eindringt und Zusammenfassungen erstellt.

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)