AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

Diffbot GraphRAG LLM: LLM-Reasoning-Dienst, der sich auf externe Echtzeit-Wissensgraphen-Daten stützt

Allgemeine Einführung

Der Diffbot LLM Reasoning Server ist ein innovatives, großangelegtes Sprachmodellierungssystem mit speziellen Optimierungen und Verbesserungen auf Basis der LLama-Modellarchitektur. Das wichtigste Merkmal des Projekts ist die Integration vonWissensgrafik in Echtzeit(Knowledge Graph) vs.Suche Verbesserte Generation(RAG)-Technologie kombiniert, um das einzigartige GraphRAG-System zu schaffen. Es extrahiert und verarbeitet nicht nur Web-Informationen in Echtzeit, sondern führt auch genaue Faktenzitate und Wissensabfragen durch. Das System bietet zwei Versionen des Modells: ein 8B-Parameter-Modell auf der Grundlage von Llama 3.1 (diffbot-small) und ein 70B-Parameter-Modell auf der Grundlage von Llama 3.3 (diffbot-small-xl). In maßgeblichen Benchmarks wie MMLU-Pro zeigt das System eine hervorragende Leistung, insbesondere bei der Datenverarbeitung in Echtzeit, und übertrifft Mainstream-Modelle wie GPT-4 und ChatGPT. Das Projekt ist vollständig quelloffen und unterstützt die lokale Bereitstellung und Cloud-API-Aufrufe, was Entwicklern eine flexible Nutzung ermöglicht.

Diffbot GraphRAG LLM: LLM-Reasoning-Dienst, der sich auf externe Echtzeit-Wissensgraphen-Daten stützt-1

Erfahrung: https://diffy.chat/


 

Diffbot GraphRAG LLM: LLM-Reasoning-Dienst, der sich auf externe Echtzeit-Wissensgraphen-Daten stützt-1

 

Diffbot GraphRAG LLM: LLM-Reasoning-Dienst, der sich auf externe Echtzeit-Wissensgraphen-Daten stützt-1

 

Funktionsliste

  • Extraktion und Zusammenfassung von URL-Inhalten von Webseiten in Echtzeit
  • Auf Wissensgraphen basierende präzise Suche nach Fakten und Zitaten
  • Unterstützung für Diffbot Knowledge Graph Query Language (DQL)
  • Bildverständnis und beschreibende Fähigkeiten
  • Integration der arithmetischen Funktionen des JavaScript-Interpreters
  • ASCII Art Wettervorhersage Generation
  • Unterstützt den Einsatz von Docker-Containern
  • Bereitstellung eines REST-API-Schnittstellendienstes
  • Unterstützung für benutzerdefinierte Tool-Erweiterungen
  • Unterstützt mehrere Hardware-Konfigurationsoptionen

 

Hilfe verwenden

1. einsatzmöglichkeiten

Das System bietet zwei Möglichkeiten der Nutzung: lokale Bereitstellung und Cloud-API-Aufrufe.

Lokaler Bereitstellungsprozess:

  1. Hardware-Anforderungen bestätigt:
    • diffbot-small Modell: mindestens Nvidia A100 40G Grafikkarte erforderlich
    • Modell diffbot-small-xl: mindestens 2 Nvidia H100 80G Grafikkarten erforderlich (FP8-Format)
  2. Schritte der Docker-Bereitstellung:
# 1. 拉取Docker镜像
docker pull docker.io/diffbot/diffbot-llm-inference:latest
# 2. 运行Docker容器(模型会自动从HuggingFace下载)
docker run --runtime nvidia --gpus all -p 8001:8001 --ipc=host \
-e VLLM_OPTIONS="--model diffbot/Llama-3.1-Diffbot-Small-2412 --served-model-name diffbot-small --enable-prefix-caching" \
docker.io/diffbot/diffbot-llm-inference:latest

Cloud-API-Aufrufe:

  1. Zugangsdaten abrufen:
    • Besuchen Sie https://app.diffbot.com/get-started, um sich zu registrieren und Ihr kostenloses Entwickler-Token zu erhalten!
  2. Beispiel für Python-Code:
from openai import OpenAI
client = OpenAI(
base_url = "https://llm.diffbot.com/rag/v1",
api_key  = "你的diffbot_token"
)
# 创建对话请求
completion = client.chat.completions.create(
model="diffbot-xl-small",
temperature=0,
messages=[
{
"role": "user",
"content": "你的问题"
}
]
)
print(completion)

2. die Beschreibung der Nutzung der Kernfunktionen

  1. Extraktion von Webseiteninhalten:
    • Das System kann jede Web-URL in Echtzeit verarbeiten
    • Automatisches Extrahieren von Schlüsselinformationen und Erstellen von Zusammenfassungen
    • Beibehaltung der Integrität der ursprünglichen Quellenangabe
  2. Abfrage des Wissensgraphen:
    • Präzise Suche mit Diffbot Query Language (DQL)
    • Unterstützt komplexe Abfragen von Wissensbeziehungen
    • Zugang zur Wissensdatenbank mit Echtzeit-Updates
  3. Bildverarbeitungsfunktionen:
    • Unterstützung für Bildverständnis und -beschreibung
    • Kann mit Text kombiniert werden, um relevante Bildanalysen zu erstellen
  4. Funktion der Code-Interpretation:
    • Eingebauter JavaScript-Interpreter
    • Unterstützung für mathematische Berechnungen in Echtzeit
    • Einfache Programmlogik kann verarbeitet werden

3. benutzerdefinierte Tool-Erweiterungen

Um die neue Funktionalität zu erweitern, lesen Sie das Dokument add_tool_to_diffbot_llm_inference.md im Projekt und folgen Sie den Schritten, um ein benutzerdefiniertes Werkzeug hinzuzufügen.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Diffbot GraphRAG LLM: LLM-Reasoning-Dienst, der sich auf externe Echtzeit-Wissensgraphen-Daten stützt
de_DEDeutsch