AI Personal Learning
und praktische Anleitung
讯飞绘镜

simple-one-api: Ein-Klick-Integration mehrerer freier Big Model APIs, einheitliche externe OpenAI-Schnittstellen

Allgemeine Einführung

simple-one-api ist ein Open-Source-Projekt, das die Integration mehrerer Big Model APIs vereinfachen soll. Es unterstützt Modelle, die mit OpenAI-Schnittstellen wie ThousandFans Big Model Platform, Xunfei Starfire Big Model, Tencent Mixed Element sowie MiniMax und Deep-Seek kompatibel sind. Das Projekt erfordert nur eine ausführbare Datei, einfache Konfiguration, Benutzer können einen Schlüssel bereitstellen, out-of-the-Box, sehr geeignet für Entwickler, die schnell eine Vielzahl von großen Modell-API-Entwickler zu integrieren müssen.

 

Funktionsliste

  • Unterstützt die API-Integration mit mehreren großen Modellplattformen
  • Kompatibel mit der OpenAI-Schnittstelle
  • Eine einzige ausführbare Datei zur Vereinfachung der Bereitstellung
  • Einfach zu konfigurieren und benutzerfreundlich
  • Ein-Klick-Bereitstellung, Schnellstart

 

Hilfe verwenden

Einbauverfahren

  1. Interviews simple-one-api GitHub Seite.
  2. Laden Sie die neueste ausführbare Datei herunter.
  3. Legen Sie die ausführbare Datei in Ihrem Arbeitsverzeichnis ab.

Verwendungsschritte

  1. Konfigurationsdatei: Erstellen Sie eine Konfigurationsdatei im Arbeitsverzeichnis (z.B. config.json), und geben Sie bei Bedarf die entsprechenden API-Schlüssel und Konfigurationsparameter ein. Eine Beispielkonfigurationsdatei ist unten abgebildet:
    {
        "openai_api_key": "your_openai_api_key",
        "qianfan_api_key": "your_qianfan_api_key",
        "xunfei_api_key": "your_xunfei_api_key",
        "tencent_api_key": "your_tencent_api_key",
        "minimax_api_key": "your_minimax_api_key",
        "deepseek_api_key": "your_deepseek_api_key"
    }
    
  2. laufendes Programm: Führen Sie die ausführbare Datei über die Befehlszeile aus:
    ./simple-one-api
    
  3. Aufrufen der APISobald die Anwendung gestartet ist, können Sie die integrierten Hauptmodell-APIs über HTTP-Anfragen aufrufen, z. B. durch Aufruf der OpenAI-Schnittstelle:
    curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
    
  4. Ansicht LogDie Anwendung gibt ein Laufzeitprotokoll auf der Konsole aus, damit Sie API-Aufrufe und Fehlermeldungen besser verstehen können.

Detaillierte Vorgehensweise

  1. Details der Konfigurationsdatei::
    • openai_api_keyGeben Sie Ihren OpenAI API-Schlüssel ein.
    • qianfan_api_keyGeben Sie Ihren Chifan Big Model Platform API-Schlüssel ein.
    • xunfei_api_keyGeben Sie Ihren CyberLink Starfire Big Model API-Schlüssel ein.
    • tencent_api_keyGeben Sie Ihren Tencent Hybrid API-Schlüssel ein.
    • minimax_api_keyGeben Sie Ihren MiniMax-API-Schlüssel ein.
    • deepseek_api_keyGeben Sie Ihren Deep-Seek-API-Schlüssel ein.
  2. Beispiel für einen API-Aufruf::
    • OpenAI-Schnittstelle::
      curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
      
    • Chifan Large Model Schnittstelle::
      curl -X POST http://localhost:8000/qianfan -d '{"prompt": "你好,世界!"}'
      
    • Cyberdyne Starfire Schnittstelle::
      curl -X POST http://localhost:8000/xunfei -d '{"prompt": "你好,世界!"}'
      
    • Hybride Schnittstelle von Tencent::
      curl -X POST http://localhost:8000/tencent -d '{"prompt": "你好,世界!"}'
      
    • MiniMax-Schnittstelle::
      curl -X POST http://localhost:8000/minimax -d '{"prompt": "你好,世界!"}'
      
    • Deep-Seek-Schnittstelle::
      curl -X POST http://localhost:8000/deepseek -d '{"prompt": "你好,世界!"}'
      
  3. Fehlerbehandlung::
    • Wenn ein API-Aufruf fehlschlägt, überprüfen Sie, ob der API-Schlüssel in der Konfigurationsdatei korrekt ist.
    • Prüfen Sie das Konsolenprotokoll auf detaillierte Fehlermeldungen.

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " simple-one-api: Ein-Klick-Integration mehrerer freier Big Model APIs, einheitliche externe OpenAI-Schnittstellen
de_DEDeutsch