Bonsai: un modelo lingüístico ponderado de tres valores apto para funcionar en dispositivos de borde
Últimos recursos sobre IAPublicado hace 5 meses Círculo de intercambio de inteligencia artificial 1.9K 00
Introducción general
Bonsai es un modelo lingüístico de código abierto desarrollado por deepgrove-ai con un tamaño de parámetros de 500 millones, que utiliza ponderaciones ternarias. Se basa en la arquitectura Llama y Mistral Diseño del divisor con capas lineales adaptadas para soportar pesos de tres valores. El modelo se entrenó principalmente con los conjuntos de datos DCLM-Pro y Fineweb-Edu, que suman menos de 5.000 millones de tokens. A pesar de la escasa cantidad de datos de entrenamiento, Bonsai obtiene buenos resultados y es uno de los primeros modelos ligeros de triple valor en alcanzar niveles competitivos. Los usuarios pueden utilizarlo a través de la biblioteca Huggingface Transformers. El código del proyecto está disponible públicamente en GitHub para los desarrolladores que exploren modelos de IA eficientes.

Lista de funciones
- Funcionamiento ligero y eficazEl modelo es pequeño, rápido y adecuado para dispositivos con pocos recursos.
- generación de lenguaje natural: Ayuda para generar textos fluidos que puedan utilizarse en diálogos, preguntas y respuestas y otras tareas.
- acceso libre: El código completo está disponible en GitHub, lo que permite a los usuarios descargarlo, modificarlo y optimizarlo.
- Compatible con HuggingfaceIntegración perfecta en la biblioteca de Transformers para facilitar la carga y el despliegue.
- excelente rendimientoRendimiento comparable al de modelos comparables con una pequeña cantidad de datos de entrenamiento.
Utilizar la ayuda
Proceso de instalación
Para utilizar Bonsai, primero tienes que configurar el entorno de ejecución. A continuación se detallan los pasos:
- Comprobación del entorno Python
Asegúrese de que Python 3.8 o superior está instalado en su ordenador. Escriba en el terminal:
python --version
Si no lo tienes, puedes descargarlo del sitio web de Python.
- Instalación de la biblioteca de transformadores
Bonsai se basa en la biblioteca Transformers de Huggingface. Ejecútalo en un terminal:
pip install transformers
Tras la instalación, utilice la función pip show transformers
Confirme la versión.
- Descargar Modelos de Bonsái
El modelo está alojado en Huggingface. Se recomienda cargarlos automáticamente mediante código (véase más abajo), o bien descargarlos manualmente. - Instalar dependencias opcionales
Si se requiere un ajuste fino o una aceleración, instale eltorch
responder cantandodatasets
::
pip install torch datasets
Cómo utilizarlo
Bonsai se llama usando un script de Python. Estos son los pasos básicos:
Carga de modelos y divisores
Ejecute el siguiente código en Python:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)
Generar texto
Introducir texto y generar resultados:
text = "中国的首都是哪里?"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)
La salida podría ser "La capital de China es Pekín". .
Parámetros de ajuste
Los parámetros de generación pueden modificarse, por ejemplo:
outputs = model.generate(**inputs, max_length=50, temperature=0.7)
max_length
: Ajusta la longitud de salida.temperature
: Controla la aleatoriedad de la salida, cuanto menor sea el valor más estable será.
Función destacada Operación
funcionamiento eficaz
La ponderación de tres valores de Bonsai hace que funcione bien con una precisión de 16 bits. Puede acelerarse automáticamente si se dispone de una GPU:
import torch
print(torch.cuda.is_available()) # 返回 True 表示 GPU 可用
La GPU mejorará notablemente el rendimiento, pero la CPU funcionará perfectamente.
Evaluación del rendimiento
Bonsai obtiene buenos resultados en varias pruebas de referencia. Estas son las cifras oficiales:
modelización | ARC-c | ARC-e | HS. | OBQA | PiQA | Wino. | MMLU | puntuación media |
---|---|---|---|---|---|---|---|---|
MobiLlama 0.5B | 26.62 | 46.68 | 51.66 | 30.00 | 71.65 | 54.50 | 28.61 | 44.25 |
Qwen 2 0,5B | 28.84 | 50.29 | 49.12 | 33.00 | 69.26 | 56.99 | 31.78 | 45.61 |
MobileLLM 600M | 29.01 | 56.65 | 55.35 | 34.00 | 71.65 | 59.75 | 31.40 | 48.13 |
Qwen 2,5 0,5B | 32.25 | 58.29 | 52.18 | 35.40 | 69.91 | 56.12 | 33.40 | 48.22 |
Bonsái | 33.36 | 57.95 | 48.04 | 34.00 | 70.24 | 54.85 | 30.28 | 46.96 |
Estas pruebas, que incluyen ARC, OBQA, MMLU y otras, demuestran que Bonsai se sitúa entre los mejores modelos ligeros. |
Ajuste del modelo
Bonsai no está optimizado para tareas de generación generales. Se puede ajustar si es necesario optimizarlo para usos específicos (por ejemplo, cuestionarios):
- Prepare los datos: utilice un fichero de texto o
datasets
Carga de la biblioteca. - Parámetros de configuración: con
TrainingArguments
Entorno. - Modelos de formación:
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./bonsai_finetuned",
num_train_epochs=3,
per_device_train_batch_size=4
)
trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset)
trainer.train()
Para más información Documentación sobre Huggingface.
advertencia
- Límites de precisión: Actualmente sólo se admite el funcionamiento con precisión de 16 bits, y el equipo está desarrollando el soporte de precisión mixta.
- Sintonización sin mandoEl modelo por defecto no es adecuado para su uso directo en tareas de mando complejas y necesita ser ajustado.
- requisitos de hardwareCPUs normales pueden ejecutarlo, las GPUs no son necesarias pero se recomiendan.
escenario de aplicación
- Ayudas educativas
Los bonsáis pueden responder a preguntas de conocimientos básicos como "¿Cuál es la capital de Francia?". . Las respuestas se generan rápidamente tras teclearlas y son adecuadas para el aprendizaje. - Aplicaciones de dispositivos periféricos
El modelo es ligero y adecuado para su despliegue en teléfonos móviles o dispositivos integrados para el tratamiento localizado del lenguaje. - Estudios de modelización
Los investigadores pueden utilizarlo para probar el potencial de las técnicas de ponderación de tres valores y explorar el diseño de modelos de IA eficientes.
CONTROL DE CALIDAD
- ¿Cuáles son los puntos fuertes de Bonsai?
Utiliza la técnica de ponderación de tres valores para lograr un peso ligero y una alta eficiencia, con menos datos de entrenamiento pero un fuerte rendimiento, adecuado para escenarios con recursos limitados. - ¿Necesita una GPU?
La CPU no es necesaria para ejecutarlo, pero la GPU lo acelerará. - ¿Puede utilizarse directamente para dialogar?
El modelo por defecto no ordena el ajuste y se recomienda afinarlo antes de utilizarlo para una tarea específica.
© declaración de copyright
文章版权归 Círculo de intercambio de inteligencia artificial 所有,未经允许请勿转载。
Artículos relacionados
Sin comentarios...