Allgemeine Einführung
simple-one-api ist ein Open-Source-Projekt, das die Integration mehrerer Big Model APIs vereinfachen soll. Es unterstützt Modelle, die mit OpenAI-Schnittstellen wie ThousandFans Big Model Platform, Xunfei Starfire Big Model, Tencent Mixed Element sowie MiniMax und Deep-Seek kompatibel sind. Das Projekt erfordert nur eine ausführbare Datei, einfache Konfiguration, Benutzer können einen Schlüssel bereitstellen, out-of-the-Box, sehr geeignet für Entwickler, die schnell eine Vielzahl von großen Modell-API-Entwickler zu integrieren müssen.
Funktionsliste
- Unterstützt die API-Integration mit mehreren großen Modellplattformen
- Kompatibel mit der OpenAI-Schnittstelle
- Eine einzige ausführbare Datei zur Vereinfachung der Bereitstellung
- Einfach zu konfigurieren und benutzerfreundlich
- Ein-Klick-Bereitstellung, Schnellstart
Hilfe verwenden
Ablauf der Installation
- Interviews simple-one-api GitHub Seite.
- Laden Sie die neueste ausführbare Datei herunter.
- Legen Sie die ausführbare Datei in Ihrem Arbeitsverzeichnis ab.
Verwendungsschritte
- Konfigurationsdatei: Erstellen Sie eine Konfigurationsdatei im Arbeitsverzeichnis (z.B.
config.json
), und geben Sie bei Bedarf die entsprechenden API-Schlüssel und Konfigurationsparameter ein. Eine Beispielkonfigurationsdatei ist unten abgebildet:{ "openai_api_key": "Ihr_openai_api_Schlüssel", "qianfan_api_key": "Ihr_qianfan_api_key", "xunfei_api_key": "Ihr_xunfei_api_Schlüssel", "tencent_api_key": "ihr_tencent_api_key", "minimax_api_key": "Ihr_minimax_api_key", "deepseek_api_key": "ihr_deepseek_api_schlüssel" }
- laufendes Programm: Führen Sie die ausführbare Datei von der Kommandozeile aus:
. /simple-one-api
- Aufrufen der APISobald die Anwendung gestartet ist, können Sie die integrierten Hauptmodell-APIs über HTTP-Anfragen aufrufen, z. B. die OpenAI-Schnittstelle:
curl -X POST http://localhost:8000/openai -d ' {"prompt": "Hallo, Welt!"}'
- Ansicht LogDie Anwendung gibt ein Laufzeitprotokoll auf der Konsole aus, damit Sie API-Aufrufe und Fehlermeldungen besser verstehen können.
Detaillierte Vorgehensweise
- Details der Konfigurationsdatei::
openai_api_schlüssel
Geben Sie Ihren OpenAI API-Schlüssel ein.qianfan_api_schlüssel
Geben Sie Ihren Chifan Big Model Platform API-Schlüssel ein.xunfei_api_schlüssel
Geben Sie Ihren CyberLink Starfire Big Model API-Schlüssel ein.tencent_api_schlüssel
Geben Sie Ihren Tencent Hybrid API-Schlüssel ein.minimax_api_schlüssel
Geben Sie Ihren MiniMax-API-Schlüssel ein.deepseek_api_schlüssel
Geben Sie Ihren Deep-Seek-API-Schlüssel ein.
- Beispiel für einen API-Aufruf::
- OpenAI-Schnittstelle::
curl -X POST http://localhost:8000/openai -d ' {"prompt": "Hallo, Welt!"}'
- Chifan Large Model Schnittstelle::
curl -X POST http://localhost:8000/qianfan -d ' {"prompt": "Hallo, Welt!"}'
- Cyberdyne Starfire Schnittstelle::
curl -X POST http://localhost:8000/xunfei -d ' {"prompt": "Hallo, Welt!"}'
- Hybride Schnittstelle von Tencent::
curl -X POST http://localhost:8000/tencent -d ' {"prompt": "Hallo, Welt!"}'
- MiniMax-Schnittstelle::
curl -X POST http://localhost:8000/minimax -d ' {"prompt": "Hallo, Welt!"}'
- Deep-Seek-Schnittstelle::
curl -X POST http://localhost:8000/deepseek -d ' {"prompt": "Hallo, Welt!"}'
- OpenAI-Schnittstelle::
- Fehlerbehandlung::
- Wenn ein API-Aufruf fehlschlägt, überprüfen Sie, ob der API-Schlüssel in der Konfigurationsdatei korrekt ist.
- Prüfen Sie das Konsolenprotokoll auf detaillierte Fehlermeldungen.