simple-one-api : intégration en un clic d'une variété d'API de grands modèles libres, interface OpenAI externe unifiée

Introduction générale

simple-one-api est un projet open source conçu pour simplifier l'intégration de plusieurs API de grands modèles. Il prend en charge les modèles compatibles avec les interfaces OpenAI tels que ThousandFans Big Model Platform, Xunfei Starfire Big Model, Tencent Mixed Element, ainsi que MiniMax et Deep-Seek. Le projet ne nécessite qu'un fichier exécutable, une configuration simple, les utilisateurs peuvent déployer une clé, prêt à l'emploi, très approprié pour les développeurs qui ont besoin d'intégrer rapidement une variété de développeurs d'API de grands modèles.

 

Liste des fonctions

  • Prise en charge de l'intégration de l'API avec plusieurs plates-formes de grands modèles
  • Compatible avec l'interface OpenAI
  • Un seul exécutable pour simplifier le déploiement
  • Facile à configurer et convivial
  • Déploiement en un clic, démarrage rapide

 

Utiliser l'aide

Processus d'installation

  1. entretiens simple-one-api GitHub Page.
  2. Télécharger le dernier exécutable.
  3. Placez l'exécutable dans votre répertoire de travail.

Étapes d'utilisation

  1. fichier de configurationCréer un fichier de configuration dans le répertoire de travail (par ex. config.json), et remplissez les clés API et les paramètres de configuration pertinents si nécessaire. Un exemple de fichier de configuration est présenté ci-dessous :
    {
        "openai_api_key": "your_openai_api_key",
        "qianfan_api_key": "your_qianfan_api_key",
        "xunfei_api_key": "your_xunfei_api_key",
        "tencent_api_key": "your_tencent_api_key",
        "minimax_api_key": "your_minimax_api_key",
        "deepseek_api_key": "your_deepseek_api_key"
    }
    
  2. programme de courseExécuter l'exécutable à partir de la ligne de commande :
    ./simple-one-api
    
  3. Appeler l'APIUne fois l'application lancée, vous pouvez appeler les API des grands modèles intégrés via des requêtes HTTP, par exemple l'interface OpenAI :
    curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
    
  4. Voir le journalL'application produit un journal d'exécution sur la console pour vous aider à comprendre les appels à l'API et les messages d'erreur.

Procédure d'utilisation détaillée

  1. Détails du fichier de configuration: :
    • openai_api_keyRemplissez votre clé d'API OpenAI.
    • qianfan_api_keySaisissez votre clé d'API pour la Chifan Big Model Platform.
    • xunfei_api_keyPour plus d'informations, consultez le site Web de CyberLink Starfire Big Model : Saisissez votre clé API CyberLink Starfire Big Model.
    • tencent_api_keySaisissez votre clé d'API Tencent Hybrid.
    • minimax_api_keySaisissez votre clé API MiniMax.
    • deepseek_api_keyRemplissez votre clé d'API Deep-Seek.
  2. Exemple d'appel API: :
    • Interface OpenAI: :
      curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
      
    • Interface du grand modèle de Chifan: :
      curl -X POST http://localhost:8000/qianfan -d '{"prompt": "你好,世界!"}'
      
    • Interface Cyberdyne Starfire: :
      curl -X POST http://localhost:8000/xunfei -d '{"prompt": "你好,世界!"}'
      
    • Interface hybride de Tencent: :
      curl -X POST http://localhost:8000/tencent -d '{"prompt": "你好,世界!"}'
      
    • Interface MiniMax: :
      curl -X POST http://localhost:8000/minimax -d '{"prompt": "你好,世界!"}'
      
    • Interface Deep-Seek: :
      curl -X POST http://localhost:8000/deepseek -d '{"prompt": "你好,世界!"}'
      
  3. traitement des erreurs: :
    • Si l'appel à l'API échoue, vérifiez que la clé de l'API figurant dans le fichier de configuration est correcte.
    • Consultez le journal de la console pour obtenir des messages d'erreur détaillés.
© déclaration de droits d'auteur
AiPPT

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...