LLaMA Factory: эффективная тонкая настройка более сотни макромоделей с открытым исходным кодом, легкая настройка моделей

Общее введение

LLaMA-Factory - это унифицированный и эффективный фреймворк для тонкой настройки, который поддерживает гибкую настройку и эффективное обучение более 100 больших языковых моделей (LLM). Встроенный веб-интерфейс LLaMA Board позволяет пользователям настраивать модели без написания кода. В фреймворк интегрированы различные передовые методы обучения и практические советы, позволяющие значительно повысить скорость обучения и эффективность использования памяти GPU.

LLaMA Factory:高效微调百余种开源大模型,轻松实现模型定制

 

Список функций

  • Поддержка нескольких моделей: Поддержка LLaMA, LLaVA, Mistral, Qwen и других многоязычных моделей.
  • Несколько методов обучения: Включает обрезку по всему объему, обрезку по заморозке, LoRA, QLoRA и т.д.
  • эффективный алгоритм: Интеграция GaLore, BAdam, Adam-mini, DoRA и других передовых алгоритмов.
  • практический навык: Поддержка FlashAttention-2, Unsloth, Liger Kernel и др.
  • Экспериментальный мониторинг: Предоставляет инструменты мониторинга, такие как LlamaBoard, TensorBoard, Wandb, MLflow и другие.
  • быстрый вывод: Предоставляет OpenAI-подобные API, Gradio UI и CLI-интерфейсы.
  • Поддержка наборов данных: Поддержка загрузки предварительно обученных моделей и наборов данных с HuggingFace, ModelScope и других платформ.

 

Использование помощи

Процесс установки

  1. Клонируйте код проекта:
   git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
  1. Установите зависимость:
   pip install -e ".[torch,metrics]"

Дополнительные зависимости включают: torch, torch-npu, metrics, deepspeed, liger-kernel, bitsandbytes и другие.

Подготовка данных

пожалуйста, обратитесь к data/README.md Узнайте больше о формате файлов наборов данных. Вы можете использовать наборы данных на узле HuggingFace / ModelScope / Modelers или загрузить наборы данных на локальный диск.

Быстрый старт

Используйте следующие команды, чтобы запустить LoRA для точной настройки, рассуждений и объединения моделей Llama3-8B-Instruct:

llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml

Более подробную информацию об использовании см. examples/README.md.

Использование графического интерфейса платы LLaMA

Тонкая настройка осуществляется через графический интерфейс LLaMA Board, предоставляемый Gradio:

llamafactory-cli webui

Развертывание Docker

Для пользователей CUDA:

cd docker/docker-cuda/
docker compose up -d
docker compose exec llamafactory bash

Для пользователей Ascend NPU:

cd docker/docker-npu/
docker compose up -d
docker compose exec llamafactory bash

Для пользователей AMD ROCm:

cd docker/docker-rocm/
docker compose up -d
docker compose exec llamafactory bash

Развертывание API

Используйте API в стиле OpenAI и vLLM Рассуждения:

API_PORT=8000 llamafactory-cli api examples/inference/llama3_vllm.yaml

Посетите эту страницу, чтобы ознакомиться с документацией по API.

Скачать модели и наборы данных

Если у вас возникли проблемы с загрузкой моделей и наборов данных из Hugging Face, вы можете использовать ModelScope:

export USE_MODELSCOPE_HUB=1

Обучите модель, указав идентификатор модели в ModelScope Hub, например. LLM-Research/Meta-Llama-3-8B-Instruct.

Запись результатов экспериментов с W&B

Чтобы использовать Вес & Biases записывает результаты своих экспериментов с помощью следующих параметров в yaml-файле:

wandb:
project: "your_project_name"
entity: "your_entity_name"
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...