GLM Edge : Smart Spectrum lance des modèles de big language et des modèles de compréhension multimodale pour les plates-formes mobiles, automobiles et PC.

Introduction générale

GLM-Edge est une série de grands modèles de langage et de modèles de compréhension multimodale conçus par l'université de Tsinghua (Smart Spectrum Light Language) pour les dispositifs d'extrémité. Ces modèles comprennent GLM-Edge-1.5B-Chat, GLM-Edge-4B-Chat, GLM-Edge-V-2B et GLM-Edge-V-5B pour les téléphones portables, les voitures et les PC, respectivement. La série de modèles GLM-Edge se concentre sur la facilité de déploiement pratique et la vitesse d'inférence tout en maintenant des performances élevées, et excelle dans les plates-formes Qualcomm Snapdragon et Intel en particulier. Les modèles de la série GLM-Edge se concentrent sur la facilité de déploiement et la vitesse d'inférence tout en maintenant des performances efficaces, en particulier sur les plates-formes Qualcomm Snapdragon et Intel. Les utilisateurs peuvent télécharger et utiliser ces modèles via Huggingface, ModelScope, etc., et effectuer l'inférence du modèle via divers backends d'inférence (par exemple, transformateurs, OpenVINO, vLLM).

GLM Edge:智谱发布适用于手机、车机和PC平台的端侧大语言模型和多模态理解模型

GLM Modèle de texte Edge end-side

 

GLM Edge:智谱发布适用于手机、车机和PC平台的端侧大语言模型和多模态理解模型

Modèle visuel GLM Edge end-side

 

Liste des fonctions

  • Plusieurs options de modèles: Fournit des modèles de dialogue et des modèles de compréhension multimodale à différentes échelles de paramètres pour une large gamme d'appareils terminaux.
  • Raisonnement efficaceLes résultats de l'étude de faisabilité ont été présentés à la Commission européenne dans le cadre de l'étude de faisabilité du projet de loi sur l'énergie et les transports.
  • Support multiplateformeLes modèles peuvent être téléchargés à partir de Huggingface, ModelScope et d'autres plateformes, et supportent une large gamme de backends d'inférence.
  • Facile à déployerLes utilisateurs peuvent se procurer un guide d'installation et d'utilisation détaillé pour démarrer rapidement.
  • Aide à la mise au pointLes utilisateurs peuvent ainsi ajuster leurs modèles en fonction de leurs besoins spécifiques.

 

Utiliser l'aide

Installation des dépendances

Assurez-vous d'avoir la version 3.10 de Python ou une version plus récente. Et installez les dépendances comme suit :

pip install -r requirements.txt

raisonnement modélisé

Nous fournissons vLLM, OpenVINO et des transformateurs pour l'inférence en arrière-plan, et vous pouvez exécuter les modèles en lançant les commandes suivantes :

python cli_demo.py --backend transformers --model_path THUDM/glm-edge-1.5b-chat --precision bfloat16
python cli_demo.py --backend vllm --model_path THUDM/glm-edge-1.5b-chat --precision bfloat16
python cli_demo.py --backend ov --model_path THUDM/glm-edge-1.5b-chat-ov --precision int4

Note : Le modèle de version d'OpenVINO doit être converti, veuillez consulter la page correspondante pour exécuter le code de conversion :

python convert_chat.py --model_path THUDM/glm-edge-1.5b-chat --precision int4
python convert.py --model_path THUDM/glm-edge-v-2b --precision int4

Affiner le modèle

Nous fournissons un code pour affiner le modèle, veuillez vous référer au tutoriel sur l'affinage. Voici les étapes de base de la mise au point :

  1. Préparez l'ensemble de données et configurez les paramètres d'apprentissage.
  2. Exécutez le script de mise au point :
OMP_NUM_THREADS=1 torchrun --standalone --nnodes=1 --nproc_per_node=8 finetune.py data/AdvertiseGen/ THUDM/glm-edge-4b-chat configs/lora.yaml
  1. Si vous devez poursuivre le réglage fin à partir du point de sauvegarde, vous pouvez ajouter un quatrième paramètre :
python finetune.py data/AdvertiseGen/ THUDM/glm-edge-4b-chat configs/lora.yaml yes

Lancer la WebUI avec Gradio

Vous pouvez également utiliser Gradio pour lancer l'interface WebUI :

python cli_demo.py --backend transformers --model_path THUDM/glm-edge-1.5b-chat --precision bfloat16

Raisonner avec l'API OpenAI

import openai
client = openai.Client(api_key="your_api_key", base_url="http://<XINFERENCE_HOST>:<XINFERENCE_PORT>/v1")
output = client.chat.completions.create(
model="glm-edge-v",
messages=[
{"role": "user", "content": "describe this image"},
{"role": "image_url", "image_url": {"url": "img.png"}}
],
max_tokens=512,
temperature=0.7
)
print(output)
© déclaration de droits d'auteur

Postes connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...