Bonsai: un modelo lingüístico ponderado de tres valores apto para funcionar en dispositivos de borde

Introducción general

Bonsai es un modelo lingüístico de código abierto desarrollado por deepgrove-ai con un tamaño de parámetros de 500 millones, que utiliza ponderaciones ternarias. Se basa en la arquitectura Llama y Mistral Diseño del divisor con capas lineales adaptadas para soportar pesos de tres valores. El modelo se entrenó principalmente con los conjuntos de datos DCLM-Pro y Fineweb-Edu, que suman menos de 5.000 millones de tokens. A pesar de la escasa cantidad de datos de entrenamiento, Bonsai obtiene buenos resultados y es uno de los primeros modelos ligeros de triple valor en alcanzar niveles competitivos. Los usuarios pueden utilizarlo a través de la biblioteca Huggingface Transformers. El código del proyecto está disponible públicamente en GitHub para los desarrolladores que exploren modelos de IA eficientes.

Bonsai:适合边缘设备运行的三值权重语言模型

 

Lista de funciones

  • Funcionamiento ligero y eficazEl modelo es pequeño, rápido y adecuado para dispositivos con pocos recursos.
  • generación de lenguaje natural: Ayuda para generar textos fluidos que puedan utilizarse en diálogos, preguntas y respuestas y otras tareas.
  • acceso libre: El código completo está disponible en GitHub, lo que permite a los usuarios descargarlo, modificarlo y optimizarlo.
  • Compatible con HuggingfaceIntegración perfecta en la biblioteca de Transformers para facilitar la carga y el despliegue.
  • excelente rendimientoRendimiento comparable al de modelos comparables con una pequeña cantidad de datos de entrenamiento.

 

Utilizar la ayuda

Proceso de instalación

Para utilizar Bonsai, primero tienes que configurar el entorno de ejecución. A continuación se detallan los pasos:

  1. Comprobación del entorno Python
    Asegúrese de que Python 3.8 o superior está instalado en su ordenador. Escriba en el terminal:
python --version

Si no lo tienes, puedes descargarlo del sitio web de Python.

  1. Instalación de la biblioteca de transformadores
    Bonsai se basa en la biblioteca Transformers de Huggingface. Ejecútalo en un terminal:
pip install transformers

Tras la instalación, utilice la función pip show transformers Confirme la versión.

  1. Descargar Modelos de Bonsái
    El modelo está alojado en Huggingface. Se recomienda cargarlos automáticamente mediante código (véase más abajo), o bien descargarlos manualmente.
  2. Instalar dependencias opcionales
    Si se requiere un ajuste fino o una aceleración, instale el torch responder cantando datasets::
pip install torch datasets

Cómo utilizarlo

Bonsai se llama usando un script de Python. Estos son los pasos básicos:

Carga de modelos y divisores

Ejecute el siguiente código en Python:

from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)

Generar texto

Introducir texto y generar resultados:

text = "中国的首都是哪里?"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)

La salida podría ser "La capital de China es Pekín". .

Parámetros de ajuste

Los parámetros de generación pueden modificarse, por ejemplo:

outputs = model.generate(**inputs, max_length=50, temperature=0.7)
  • max_length: Ajusta la longitud de salida.
  • temperature: Controla la aleatoriedad de la salida, cuanto menor sea el valor más estable será.

Función destacada Operación

funcionamiento eficaz

La ponderación de tres valores de Bonsai hace que funcione bien con una precisión de 16 bits. Puede acelerarse automáticamente si se dispone de una GPU:

import torch
print(torch.cuda.is_available())  # 返回 True 表示 GPU 可用

La GPU mejorará notablemente el rendimiento, pero la CPU funcionará perfectamente.

Evaluación del rendimiento

Bonsai obtiene buenos resultados en varias pruebas de referencia. Estas son las cifras oficiales:

modelizaciónARC-cARC-eHS.OBQAPiQAWino.MMLUpuntuación media
MobiLlama 0.5B26.6246.6851.6630.0071.6554.5028.6144.25
Qwen 2 0,5B28.8450.2949.1233.0069.2656.9931.7845.61
MobileLLM 600M29.0156.6555.3534.0071.6559.7531.4048.13
Qwen 2,5 0,5B32.2558.2952.1835.4069.9156.1233.4048.22
Bonsái33.3657.9548.0434.0070.2454.8530.2846.96
Estas pruebas, que incluyen ARC, OBQA, MMLU y otras, demuestran que Bonsai se sitúa entre los mejores modelos ligeros.

Ajuste del modelo

Bonsai no está optimizado para tareas de generación generales. Se puede ajustar si es necesario optimizarlo para usos específicos (por ejemplo, cuestionarios):

  1. Prepare los datos: utilice un fichero de texto o datasets Carga de la biblioteca.
  2. Parámetros de configuración: con TrainingArguments Entorno.
  3. Modelos de formación:
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./bonsai_finetuned",
num_train_epochs=3,
per_device_train_batch_size=4
)
trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset)
trainer.train()

Para más información Documentación sobre Huggingface.

advertencia

  • Límites de precisión: Actualmente sólo se admite el funcionamiento con precisión de 16 bits, y el equipo está desarrollando el soporte de precisión mixta.
  • Sintonización sin mandoEl modelo por defecto no es adecuado para su uso directo en tareas de mando complejas y necesita ser ajustado.
  • requisitos de hardwareCPUs normales pueden ejecutarlo, las GPUs no son necesarias pero se recomiendan.

 

escenario de aplicación

  1. Ayudas educativas
    Los bonsáis pueden responder a preguntas de conocimientos básicos como "¿Cuál es la capital de Francia?". . Las respuestas se generan rápidamente tras teclearlas y son adecuadas para el aprendizaje.
  2. Aplicaciones de dispositivos periféricos
    El modelo es ligero y adecuado para su despliegue en teléfonos móviles o dispositivos integrados para el tratamiento localizado del lenguaje.
  3. Estudios de modelización
    Los investigadores pueden utilizarlo para probar el potencial de las técnicas de ponderación de tres valores y explorar el diseño de modelos de IA eficientes.

 

CONTROL DE CALIDAD

  1. ¿Cuáles son los puntos fuertes de Bonsai?
    Utiliza la técnica de ponderación de tres valores para lograr un peso ligero y una alta eficiencia, con menos datos de entrenamiento pero un fuerte rendimiento, adecuado para escenarios con recursos limitados.
  2. ¿Necesita una GPU?
    La CPU no es necesaria para ejecutarlo, pero la GPU lo acelerará.
  3. ¿Puede utilizarse directamente para dialogar?
    El modelo por defecto no ordena el ajuste y se recomienda afinarlo antes de utilizarlo para una tarea específica.
© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...