AI Personal Learning
und praktische Anleitung
讯飞绘镜

LiteLLM: Python SDK für den einheitlichen Aufruf mehrerer Big Model APIs, plattformübergreifendes LLM-Aufruf- und Verwaltungswerkzeug

 

Allgemeine Einführung

LiteLLM ist ein Python-SDK und Proxy-Server, der von BerriAI entwickelt wurde, um den Aufruf und die Verwaltung mehrerer Large Language Model (LLM) APIs zu vereinfachen und zu vereinheitlichen. Es unterstützt mehr als 100 Large-Model-APIs, darunter OpenAI, HuggingFace, Azure usw., und vereinheitlicht sie im OpenAI-Format, was es Entwicklern erleichtert, zwischen verschiedenen KI-Diensten zu wechseln und sie zu verwalten. LiteLLM ermöglicht es Benutzern, mehr als 100 LLM-APIs im OpenAI-Format über einen Proxy-Server und ein Python-SDK aufzurufen, was die Entwicklungseffizienz und -flexibilität erheblich verbessert.

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-1

1. das Erstellen von Schlüsseln

 


LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-2

2) Hinzufügen von Modellen

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-3

3. die Verfolgung der Ausgaben

 

LiteLLM:统一调用多种大模型API的Python SDK,多平台LLM调用与管理工具-4

4. den Lastausgleich konfigurieren

 

Funktionsliste

  • Unterstützung mehrerer PlattformenUnterstützt mehrere LLM-Anbieter wie OpenAI, Cohere, Anthropic und andere. Unterstützt über 100 große Modell-API-Aufrufe.
  • stabile VersionBietet stabile Docker-Images, die 12 Stunden lang unter Last getestet wurden. Unterstützt die Festlegung von Budget- und Anforderungshäufigkeitsgrenzen.
  • ProxyserverEinheitlicher Aufruf mehrerer LLM-APIs über einen Proxy-Server, einheitliche Konvertierung des API-Formats in das OpenAI-Format.
  • Python-SDKEin Python-SDK wird bereitgestellt, um den Entwicklungsprozess zu vereinfachen.
  • Streaming-ReaktionUnterstützung für das Streaming von Rückgabemodellantworten zur Verbesserung der Benutzerfreundlichkeit.
  • RückruffunktionUnterstützt mehrere Rückrufe zur einfachen Protokollierung und Überwachung.

 

Hilfe verwenden

Installation und Einrichtung

  1. Installation von DockerDocker: Stellen Sie sicher, dass Docker auf Ihrem System installiert ist.
  2. Spiegel abziehen: Verwendung docker pull wird ein stabiles Image von LiteLLM erstellt.
  3. Starten des Proxyservers::
    cd litellm
    echo 'LITELLM_MASTER_KEY="sk-1234"' > .env
    echo 'LITELLM_SALT_KEY="sk-1234"' > .env
    source .env
    poetry run pytest .
    
  4. Konfigurieren des Clients: Legen Sie die Adresse des Proxy-Servers und den API-Schlüssel im Code fest.
    import openai
    client = openai.OpenAI(api_key="your_api_key", base_url="http://0.0.0.0:4000")
    response = client.chat.completions.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello, how are you?"}])
    print(response)
    

Verwendungsfunktionen

  1. Aufrufmodell: durch model=<provider_name>/<model_name> Aufrufen von Modellen verschiedener Anbieter.
  2. Streaming-Reaktion: Einstellungen stream=True Abrufen der Streaming-Antwort.
    response = await acompletion(model="gpt-3.5-turbo", messages=messages, stream=True)
    for part in response:
    print(part.choices.delta.content or "")
    
  3. Rückrufe einstellenCallback-Funktionen zur Protokollierung von Eingaben und Ausgaben konfigurieren.
    litellm.success_callback = ["lunary", "langfuse", "athina", "helicone"]

 

Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " LiteLLM: Python SDK für den einheitlichen Aufruf mehrerer Big Model APIs, plattformübergreifendes LLM-Aufruf- und Verwaltungswerkzeug
de_DEDeutsch