LiteLLM: Python SDK для унифицированного вызова нескольких API Big Model, мультиплатформенный инструмент для вызова и управления LLM

 

Общее введение

LiteLLM - это Python SDK и прокси-сервер, разработанный BerriAI для упрощения и унификации вызова и управления несколькими API больших языковых моделей (LLM). Он поддерживает более 100 API больших моделей, включая OpenAI, HuggingFace, Azure и т. д., и унифицирует их в формат OpenAI, что упрощает разработчикам переключение и управление между различными сервисами ИИ. LiteLLM позволяет пользователям вызывать более 100 API LLM в формате OpenAI через прокси-сервер и Python SDK, что значительно повышает эффективность и гибкость разработки.

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

1. Создание ключей

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

2. Добавление моделей

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

3. Отслеживание расходов

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具

4. Настройка балансировки нагрузки

 

Список функций

  • Поддержка нескольких платформ: Поддерживает множество LLM-провайдеров, таких как OpenAI, Cohere, Anthropic и другие. Поддерживает более 100 API-вызовов больших моделей.
  • стабильная версия: Предоставляет стабильные образы Docker, прошедшие нагрузочное тестирование в течение 12 часов. Поддерживает установку ограничений по бюджету и частоте запросов.
  • прокси-сервер: Унифицированный вызов нескольких LLM API через прокси-сервер, унифицированное преобразование формата API в формат OpenAI.
  • Python SDK: Для упрощения процесса разработки предоставляется Python SDK.
  • потоковый ответ: Поддержка потоковой передачи ответов модели возврата для улучшения пользовательского опыта.
  • функция обратного вызова: Поддержка нескольких обратных вызовов для удобного протоколирования и мониторинга.

 

Использование помощи

Установка и настройка

  1. Установка Docker: Убедитесь, что Docker установлен в вашей системе.
  2. Вытягивание зеркал: Использование docker pull Команда извлекает стабильный образ LiteLLM.
  3. Запуск прокси-сервера::
    cd litellm
    echo 'LITELLM_MASTER_KEY="sk-1234"' > .env
    echo 'LITELLM_SALT_KEY="sk-1234"' > .env
    source .env
    poetry run pytest .
    
  4. Настройка клиента: Задайте в коде адрес прокси-сервера и ключ API.
    import openai
    client = openai.OpenAI(api_key="your_api_key", base_url="http://0.0.0.0:4000")
    response = client.chat.completions.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello, how are you?"}])
    print(response)
    

Функции использования

  1. модель вызова: через model=<provider_name>/<model_name> Вызов моделей от разных поставщиков.
  2. потоковый ответ: Настройки stream=True Получите потоковый ответ.
    response = await acompletion(model="gpt-3.5-turbo", messages=messages, stream=True)
    for part in response:
    print(part.choices.delta.content or "")
    
  3. Настройка обратных вызовов: Настройте функции обратного вызова для регистрации входов и выходов.
    litellm.success_callback = ["lunary", "langfuse", "athina", "helicone"]

 

© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...