AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

DeepClaude: Eine Chat-Schnittstelle, die DeepSeek R1 Chain Reasoning mit Claude-Kreativität verbindet

Allgemeine Einführung

DeepClaude ist eine leistungsstarke Large Language Model (LLM) Inferenz-API und Chat-Schnittstelle, die die Chained Reasoning (CoT) Fähigkeiten von DeepSeek R1 mit der Anthropisch Claude Modellkreativität und Fähigkeiten zur Codegenerierung. Dieses Projekt übertrifft die Leistung von OpenAI o1 deutlich, DeepSeek R1 und Claude Sonnet 3.5, bietet eine einheitliche Schnittstelle, die die Stärken beider Modelle nutzt und gleichzeitig die volle Kontrolle über API-Schlüssel und Daten behält. Zu den Merkmalen von DeepClaude gehören eine Antwort mit Null-Latenzzeit, End-to-End-Sicherheit, hohe Konfigurierbarkeit und eine Open-Source-Codebasis. Benutzer können ihre API-Schlüssel mit ihren eigenen verwalten und so den Datenschutz und die Sicherheit ihrer Daten gewährleisten. Und das Beste ist, dass DeepClaude völlig kostenlos und quelloffen ist.

DeepClaude: Leistungsstarke LLM-Inferenz-API mit Chat-Schnittstelle, die R1 und Claude-1 integriert

DeepClaude verwendet R1 für die Inferenz und lässt Claude dann die Ergebnisse ausgeben


 

DeepClaude: Leistungsstarke LLM-Inferenz-API mit Chat-Schnittstelle, die R1 und Claude-1 integriert

DeepClaude bietet auch eine leistungsstarke LLM-Inferenz-API

 

Funktionsliste

  • Antwort ohne LatenzzeitSofortige Antwort durch eine leistungsstarke Rust-API.
  • privat und sicherLokale API-Schlüsselverwaltung zur Gewährleistung des Datenschutzes.
  • Hochgradig konfigurierbarBenutzer können Aspekte der API und der Schnittstelle an ihre Bedürfnisse anpassen.
  • offene QuelleFreie und quelloffene Code-Basis, Benutzer können frei beitragen, ändern und einsetzen.
  • Duale AI-FähigkeitenKombinieren Sie die Kreativität und die Code-Generierungsleistung von Claude Sonnet 3.5 mit der Denkleistung von DeepSeek R1.
  • Gehostete BYOK-APIVerwaltet mit dem eigenen API-Schlüssel des Nutzers, um eine vollständige Kontrolle zu gewährleisten.

 

Hilfe verwenden

Einbauverfahren

  1. Vorbedingungen::
    • Rust 1.75 oder höher
    • DeepSeek API-Schlüssel
    • Anthropischer API-Schlüssel
  2. Klon-Lager::
   git clone https://github.com/getAsterisk/deepclaude.git
cd deepclaude
  1. Erstellen Sie das Projekt::
   cargo build --release
  1. KonfigurationsdateiAnlegen im Stammverzeichnis des Projektsconfig.tomlDokumentation:
   [server]
host = "127.0.0.1"
port = 3000
[pricing]
# 配置定价选项
  1. Operative Dienste::
   cargo run --release

Leitlinien für die Verwendung

  1. API-Verwendung::
    • grundlegendes Beispiel::
     import requests
    url = "http://127.0.0.1:3000/api"
    payload = {
    "model": "claude",
    "prompt": "Hello, how can I help you today?"
    }
    response = requests.post(url, json=payload)
    print(response.json())
    
    • Beispiel für eine Streaming-Antwort::
     import requests
    url = "http://127.0.0.1:3000/api/stream"
    payload = {
    "model": "claude",
    "prompt": "Tell me a story."
    }
    response = requests.post(url, json=payload, stream=True)
    for line in response.iter_lines():
    if line:
    print(line.decode('utf-8'))
    
  2. selbst gehostet::
    • Optionen zur KonfigurationBenutzer können dieconfig.tomlKonfigurationsoptionen in der Dokumentation, um Aspekte der API und der Schnittstelle anzupassen.
  3. Sicherheit::
    • Lokale API-SchlüsselverwaltungGewährleistung des Datenschutzes für API-Schlüssel und Daten.
    • End-to-End-VerschlüsselungSchützt die Sicherheit der Datenübertragung.
  4. einweihen::
    • Leitlinien für BeiträgeBenutzer können Code beitragen und das Projekt verbessern, indem sie Pull Requests einreichen oder Probleme melden.
Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " DeepClaude: Eine Chat-Schnittstelle, die DeepSeek R1 Chain Reasoning mit Claude-Kreativität verbindet
de_DEDeutsch