LiteLLM: SDK de Python para la llamada unificada a múltiples API de Big Model, herramienta multiplataforma de gestión y llamada a LLM

 

Introducción general

LiteLLM es un SDK de Python y un servidor proxy desarrollado por BerriAI para simplificar y unificar la invocación y gestión de múltiples API de modelos de lenguaje de gran tamaño (LLM). Soporta más de 100 APIs de grandes modelos, incluyendo OpenAI, HuggingFace, Azure, etc., y las unifica en formato OpenAI, lo que facilita a los desarrolladores el cambio y la gestión entre diferentes servicios de IA. También proporciona una imagen Docker estable y una guía de migración detallada.LiteLLM permite a los usuarios llamar a más de 100 API LLM en formato OpenAI a través de un servidor proxy y Python SDK, lo que mejora enormemente la eficiencia y la flexibilidad del desarrollo.

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

1. Creación de claves

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

2. Añadir modelos

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

3. Seguimiento de los gastos

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

4. Configuración del equilibrio de carga

 

Lista de funciones

  • Soporte multiplataformaSoporta múltiples proveedores LLM como OpenAI, Cohere, Anthropic, y más. Admite más de 100 llamadas a la API de grandes modelos.
  • versión estableProporciona imágenes Docker estables que han sido sometidas a pruebas de carga durante 12 horas. Admite la configuración de límites de presupuesto y frecuencia de solicitud.
  • servidor proxy: Invocación unificada de múltiples APIs LLM a través de un servidor proxy, conversión unificada del formato API al formato OpenAI.
  • SDK de PythonSe proporciona un SDK de Python para simplificar el proceso de desarrollo.
  • respuesta en tiempo real: Soporte para la transmisión de respuestas del modelo de retorno para mejorar la experiencia del usuario.
  • función callback: Admite múltiples retrollamadas para facilitar el registro y la supervisión.

 

Utilizar la ayuda

Instalación y configuración

  1. Instalación de DockerAsegúrese de que Docker está instalado en su sistema.
  2. Tirar de los espejos: Uso docker pull extrae una imagen estable de LiteLLM.
  3. Iniciar el servidor proxy::
    cd litellm
    echo 'LITELLM_MASTER_KEY="sk-1234"' > .env
    echo 'LITELLM_SALT_KEY="sk-1234"' > .env
    source .env
    poetry run pytest .
    
  4. Configurar el cliente: Establece la dirección del servidor proxy y la clave API en el código.
    import openai
    client = openai.OpenAI(api_key="your_api_key", base_url="http://0.0.0.0:4000")
    response = client.chat.completions.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello, how are you?"}])
    print(response)
    

Funciones de uso

  1. modelo de invocación: a través de model=<provider_name>/<model_name> Modelos de llamada de distintos proveedores.
  2. respuesta en tiempo real: Ajustes stream=True Obtener la respuesta de streaming.
    response = await acompletion(model="gpt-3.5-turbo", messages=messages, stream=True)
    for part in response:
    print(part.choices.delta.content or "")
    
  3. Establecimiento de retrollamadasConfigura funciones de callback para registrar entradas y salidas.
    litellm.success_callback = ["lunary", "langfuse", "athina", "helicone"]

 

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...