Aprendizagem pessoal com IA
e orientação prática
讯飞绘镜

LiteLLM: SDK Python para chamada unificada de várias APIs de Big Model, ferramenta de gerenciamento e chamada de LLM multiplataforma

 

Introdução geral

O LiteLLM é um SDK Python e um servidor proxy desenvolvido pela BerriAI para simplificar e unificar a invocação e o gerenciamento de várias APIs de modelo de linguagem grande (LLM). Ele é compatível com mais de 100 APIs de modelos grandes, incluindo OpenAI, HuggingFace, Azure etc., e as unifica no formato OpenAI, o que facilita para os desenvolvedores alternar e gerenciar entre diferentes serviços de IA. Ele também fornece uma imagem estável do Docker e um guia de migração detalhado. O LiteLLM permite que os usuários chamem mais de 100 APIs LLM no formato OpenAI por meio de um servidor proxy e do Python SDK, o que melhora muito a eficiência e a flexibilidade do desenvolvimento.

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-1

1. criação de chaves

 


LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-2

2. adição de modelos

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-3

3. rastreamento de despesas

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-4

4. configuração do balanceamento de carga

 

Lista de funções

  • Suporte a várias plataformasSuporte a vários provedores de LLM, como OpenAI, Cohere, Anthropic e outros. Oferece suporte a mais de 100 chamadas de API de modelo grande.
  • versão estávelFornecimento de imagens estáveis do Docker que foram testadas em carga por 12 horas. Suporta a definição de limites de orçamento e frequência de solicitação.
  • servidor proxyChamada unificada de várias APIs do LLM por meio de um servidor proxy, conversão unificada do formato da API para o formato OpenAI.
  • SDK do PythonSDK Python: Um SDK Python é fornecido para simplificar o processo de desenvolvimento.
  • resposta de streamingSuporte a respostas de modelos de retorno de streaming para aprimorar a experiência do usuário.
  • função de retorno de chamadaSuporte a vários retornos de chamada para facilitar o registro e o monitoramento.

 

Usando a Ajuda

Instalação e configuração

  1. Instalando o DockerVerifique se o Docker está instalado em seu sistema.
  2. Puxando espelhos: Uso docker pull obtém uma imagem estável do LiteLLM.
  3. Início do servidor proxy::
    cd litellm
    echo 'LITELLM_MASTER_KEY="sk-1234"' > .env
    echo 'LITELLM_SALT_KEY="sk-1234"' > .env
    source .env
    poetry run pytest .
    
  4. Configuração do clienteConfigure o endereço do servidor proxy e a chave de API no código.
    import openai
    client = openai.OpenAI(api_key="your_api_key", base_url="http://0.0.0.0:4000")
    response = client.chat.completions.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello, how are you?"}])
    print(response)
    

Funções de uso

  1. modelo de invocação: através de model=<provider_name>/<model_name> Chamada de modelos de diferentes fornecedores.
  2. resposta de streaming: Configurações stream=True Obter a resposta de streaming.
    response = await acompletion(model="gpt-3.5-turbo", messages=messages, stream=True)
    for part in response:
    print(part.choices.delta.content or "")
    
  3. Definição de retornos de chamadaConfigure funções de retorno de chamada para registrar entradas e saídas.
    litellm.success_callback = ["lunary", "langfuse", "athina", "helicone"]

 

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " LiteLLM: SDK Python para chamada unificada de várias APIs de Big Model, ferramenta de gerenciamento e chamada de LLM multiplataforma
pt_BRPortuguês do Brasil