Allgemeine Einführung
simple-one-api ist ein Open-Source-Projekt, das die Integration mehrerer Big Model APIs vereinfachen soll. Es unterstützt Modelle, die mit OpenAI-Schnittstellen wie ThousandFans Big Model Platform, Xunfei Starfire Big Model, Tencent Mixed Element sowie MiniMax und Deep-Seek kompatibel sind. Das Projekt erfordert nur eine ausführbare Datei, einfache Konfiguration, Benutzer können einen Schlüssel bereitstellen, out-of-the-Box, sehr geeignet für Entwickler, die schnell eine Vielzahl von großen Modell-API-Entwickler zu integrieren müssen.
Funktionsliste
- Unterstützt die API-Integration mit mehreren großen Modellplattformen
- Kompatibel mit der OpenAI-Schnittstelle
- Eine einzige ausführbare Datei zur Vereinfachung der Bereitstellung
- Einfach zu konfigurieren und benutzerfreundlich
- Ein-Klick-Bereitstellung, Schnellstart
Hilfe verwenden
Einbauverfahren
- Interviews simple-one-api GitHub Seite.
- Laden Sie die neueste ausführbare Datei herunter.
- Legen Sie die ausführbare Datei in Ihrem Arbeitsverzeichnis ab.
Verwendungsschritte
- Konfigurationsdatei: Erstellen Sie eine Konfigurationsdatei im Arbeitsverzeichnis (z.B.
config.json
), und geben Sie bei Bedarf die entsprechenden API-Schlüssel und Konfigurationsparameter ein. Eine Beispielkonfigurationsdatei ist unten abgebildet:{ "openai_api_key": "your_openai_api_key", "qianfan_api_key": "your_qianfan_api_key", "xunfei_api_key": "your_xunfei_api_key", "tencent_api_key": "your_tencent_api_key", "minimax_api_key": "your_minimax_api_key", "deepseek_api_key": "your_deepseek_api_key" }
- laufendes Programm: Führen Sie die ausführbare Datei über die Befehlszeile aus:
./simple-one-api
- Aufrufen der APISobald die Anwendung gestartet ist, können Sie die integrierten Hauptmodell-APIs über HTTP-Anfragen aufrufen, z. B. durch Aufruf der OpenAI-Schnittstelle:
curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
- Ansicht LogDie Anwendung gibt ein Laufzeitprotokoll auf der Konsole aus, damit Sie API-Aufrufe und Fehlermeldungen besser verstehen können.
Detaillierte Vorgehensweise
- Details der Konfigurationsdatei::
openai_api_key
Geben Sie Ihren OpenAI API-Schlüssel ein.qianfan_api_key
Geben Sie Ihren Chifan Big Model Platform API-Schlüssel ein.xunfei_api_key
Geben Sie Ihren CyberLink Starfire Big Model API-Schlüssel ein.tencent_api_key
Geben Sie Ihren Tencent Hybrid API-Schlüssel ein.minimax_api_key
Geben Sie Ihren MiniMax-API-Schlüssel ein.deepseek_api_key
Geben Sie Ihren Deep-Seek-API-Schlüssel ein.
- Beispiel für einen API-Aufruf::
- OpenAI-Schnittstelle::
curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
- Chifan Large Model Schnittstelle::
curl -X POST http://localhost:8000/qianfan -d '{"prompt": "你好,世界!"}'
- Cyberdyne Starfire Schnittstelle::
curl -X POST http://localhost:8000/xunfei -d '{"prompt": "你好,世界!"}'
- Hybride Schnittstelle von Tencent::
curl -X POST http://localhost:8000/tencent -d '{"prompt": "你好,世界!"}'
- MiniMax-Schnittstelle::
curl -X POST http://localhost:8000/minimax -d '{"prompt": "你好,世界!"}'
- Deep-Seek-Schnittstelle::
curl -X POST http://localhost:8000/deepseek -d '{"prompt": "你好,世界!"}'
- OpenAI-Schnittstelle::
- Fehlerbehandlung::
- Wenn ein API-Aufruf fehlschlägt, überprüfen Sie, ob der API-Schlüssel in der Konfigurationsdatei korrekt ist.
- Prüfen Sie das Konsolenprotokoll auf detaillierte Fehlermeldungen.