Introdução geral
O simple-one-api é um projeto de código aberto desenvolvido para simplificar a integração de várias APIs de modelo grande. Ele é compatível com modelos compatíveis com interfaces OpenAI, como ThousandFans Big Model Platform, Xunfei Starfire Big Model, Tencent Mixed Element, bem como MiniMax e Deep-Seek. O projeto requer apenas um arquivo executável, configuração simples, os usuários podem implantar uma chave, pronto para uso, muito adequado para desenvolvedores que precisam integrar rapidamente uma variedade de desenvolvedores de API de modelo grande.
Lista de funções
- Oferece suporte à integração de API com várias plataformas de modelos grandes
- Compatível com a interface OpenAI
- Um único executável para simplificar a implementação
- Fácil de configurar e amigável ao usuário
- Implementação com um clique, início rápido
Usando a Ajuda
Processo de instalação
- entrevistas Página do GitHub da simple-one-api.
- Faça o download do executável mais recente.
- Coloque o executável em seu diretório de trabalho.
Etapas de uso
- arquivo de configuraçãoCrie um arquivo de configuração no diretório de trabalho (por exemplo
config.json
) e preencha as chaves de API e os parâmetros de configuração relevantes, conforme necessário. Um exemplo de arquivo de configuração é mostrado abaixo:{ "openai_api_key": "your_openai_api_key", "qianfan_api_key": "your_qianfan_api_key", "xunfei_api_key": "your_xunfei_api_key", "tencent_api_key": "your_tencent_api_key", "minimax_api_key": "your_minimax_api_key", "deepseek_api_key": "your_deepseek_api_key" }
- programa de corridaExecute o executável na linha de comando:
. /simple-one-api
- Chamando a APIInterface OpenAI: Depois que o aplicativo for iniciado, você poderá chamar as principais APIs de modelo integradas por meio de solicitações HTTP, por exemplo, chamar a interface OpenAI:
curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
- Ver registroLog: O aplicativo gera um log de tempo de execução no console para ajudá-lo a entender as chamadas de API e as mensagens de erro.
Procedimento de operação detalhado
- Detalhes do arquivo de configuração::
openai_api_key
Preencha sua chave de API da OpenAI.qianfan_api_key
Preencha sua chave de API da Chifan Big Model Platform.xunfei_api_key
Preencha sua chave de API do CyberLink Starfire Big Model.tencent_api_key
Preencha sua chave da API híbrida da Tencent.minimax_api_key
Preencha sua chave de API do MiniMax.deepseek_api_key
Preencha sua chave de API do Deep-Seek.
- Exemplo de chamada de API::
- Interface OpenAI::
curl -X POST http://localhost:8000/openai -d '{"prompt": "Hello, world!"}'
- Interface do modelo grande de Chifan::
curl -X POST http://localhost:8000/qianfan -d '{"prompt": "Hello, world!"}'
- Interface Cyberdyne Starfire::
curl -X POST http://localhost:8000/xunfei -d '{"prompt": "Hello, world!"}'
- Interface híbrida da Tencent::
curl -X POST http://localhost:8000/tencent -d '{"prompt": "Hello, world!"}'
- Interface MiniMax::
curl -X POST http://localhost:8000/minimax -d '{"prompt": "Hello, world!"}'
- Interface Deep-Seek::
curl -X POST http://localhost:8000/deepseek -d '{"prompt": "Hello, world!"}'
- Interface OpenAI::
- Tratamento de erros::
- Se você encontrar uma falha na chamada de API, verifique se a chave de API no arquivo de configuração está correta.
- Verifique o registro do console para obter mensagens de erro detalhadas.