Xinference: простое развертывание и обслуживание распределенных моделей ИИ

Новости ИИОбновлено 6 месяцев назад Круг обмена ИИ
8.3K 00

Общее введение

Xorbits Inference (или сокращенно Xinference) - это мощная и универсальная библиотека, ориентированная на распределенное развертывание и обслуживание языковых моделей, моделей распознавания речи и мультимодальных моделей. С помощью Xorbits Inference пользователи могут легко развернуть и обслуживать свои собственные модели или встроенные расширенные модели с помощью одной команды. В облаке, на локальном сервере или на персональном компьютере Xorbits Inference работает эффективно. Библиотека особенно подходит для исследователей, разработчиков и специалистов по обработке данных, помогая им реализовать весь потенциал передовых моделей ИИ.

Xinference:轻松实现分布式AI模型部署和服务

 

Список функций

  • распределенное развертывание: Поддерживает сценарии распределенного развертывания, позволяя беспрепятственно распределять задачи вывода модели между несколькими устройствами или машинами.
  • услуга моделирования: Упорядочивание процесса обслуживания больших языковых моделей, моделей распознавания речи и мультимодальных моделей.
  • Развертывание под одной командойРазвертывание и обслуживание моделей с помощью одной команды, как для экспериментальных, так и для производственных сред.
  • Использование гетерогенного оборудованияВ системе : Intelligence используется гетерогенное оборудование, включая графические и центральные процессоры, для ускорения задач вывода моделей.
  • Гибкие API и интерфейсы: Предоставление различных интерфейсов для взаимодействия с моделью, поддерживающих RPC, RESTful API (совместимый с OpenAI API), CLI и WebUI.
  • Встроенные усовершенствованные модели: Встроенная поддержка широкого спектра передовых моделей с открытым исходным кодом, которые пользователи могут напрямую использовать для экспериментов.

 

Использование помощи

Процесс установки

  1. Подготовка к защите окружающей среды: Убедитесь, что установлена версия Python 3.7 или более поздняя.
  2. Установка Xorbits Inference::
   pip install xorbits-inference
  1. Проверка установки: После завершения установки вы можете убедиться в том, что установка прошла успешно, с помощью следующей команды:
   xinference --version

Руководство по использованию

модель развертывания

  1. Модели для погрузки: Используйте следующую команду для загрузки предварительно обученной модели:
   xinference load-model --model-name <模型名称>

Пример:

   xinference load-model --model-name gpt-3
  1. Начальные услуги: После загрузки модели запустите сервис:
   xinference serve --model-name <模型名称>

Пример:

   xinference serve --model-name gpt-3
  1. Вызов API: После запуска службы ее можно вызывать через RESTful API:
   curl -X POST http://localhost:8000/predict -d '{"input": "你好"}'

Использование встроенной модели

В Xorbits Inference встроена поддержка широкого спектра продвинутых моделей, которые могут быть использованы непосредственно пользователем для проведения экспериментов. Пример:

  • языковая модель: например, GPT-3, BERT и т.д.
  • модель распознавания речи: например, DeepSpeech и др.
  • мультимодальная модель: например, CLIP и т.д.

распределенное развертывание

Xorbits Inference поддерживает распределенное развертывание, позволяя пользователям легко распределять задачи по выводу моделей между несколькими устройствами или машинами. Шаги описаны ниже:

  1. Настройка распределенной среды: Установите Xorbits Inference на каждом узле и настройте сетевое соединение.
  2. Запуск распределенных служб: Запуск распределенных служб на главном узле:
   xinference serve --distributed --nodes <节点列表>

Пример:

   xinference serve --distributed --nodes "node1,node2,node3"
  1. Вызов распределенного API: Как и при развертывании одного узла, вызывается через RESTful API:
   curl -X POST http://<主节点IP>:8000/predict -d '{"input": "你好"}'

общие проблемы

  • Как обновить модель? Используйте следующую команду для обновления модели:
  xinference update-model --model-name <模型名称>
  • Как я могу просмотреть журналы? Чтобы просмотреть журнал обслуживания, выполните следующую команду:
  xinference logs --model-name <模型名称>
© заявление об авторских правах

Похожие статьи

Нет комментариев

Вы должны войти в систему, чтобы участвовать в комментариях!
Войти сейчас
нет
Нет комментариев...