はじめに
Xorbits Inference(Xinference)は、大規模言語モデル(LLM)、音声認識モデル、マルチモーダルモデルなど、様々なAIモデルの推論をサポートする強力で包括的な分散推論フレームワークです。Xorbits Inferenceでは、クラウド、ローカルサーバー、PCのいずれでも、ワンクリックで簡単に独自のモデルをデプロイしたり、ビルトインの最先端オープンソースモデルを使用したりすることができます。
機能一覧
- 大規模言語モデル、音声認識モデル、マルチモーダルモデルなど、複数のAIモデルによる推論をサポート。
- 実験環境と本番環境のセットアップを簡素化するワンクリック展開とサービスモデル
- クラウド、ローカルサーバー、PCでの実行をサポート
- 最先端のオープンソースモデルを多数内蔵し、ユーザーの利便性を追求
- 豊富なドキュメントとコミュニティ・サポートの提供
ヘルプの使用
設置プロセス
- 環境準備Python 3.7以上がインストールされていることを確認してください。
- Xorbits推論のインストール::
pip install xorbits-inference
- 設定環境必要に応じて環境変数や依存関係を設定する。
使用プロセス
- 積載モデル::
より 推論 インポート 推論エンジン engine = InferenceEngine(model_name=「gpt-3)
- 走り推理::
result = engine.infer()"ハロー、ワールド!") プリント結果
- 配備モデル::
xinference deploy --model gpt-3 --host 0.0.0.0 --port 8080
詳細な機能操作
- モデルの選択ユーザーは、GPT-3、BERTなどの最先端のオープンソースモデルを幅広く内蔵しているほか、独自のモデルをアップロードして推論することもできます。
- パラメータ設定モデルをデプロイする際、バッチサイズやGPU使用量など、モデルのパラメータを必要に応じて設定することができます。
- モニタリングと管理提供される管理インターフェイスを通じて、ユーザーはモデルの運転状態と性能指標をリアルタイムで監視でき、最適化と調整が容易になります。
- 地域支援Xorbits InferenceのSlackコミュニティに参加すると、他のユーザーと経験や質問を共有し、タイムリーなヘルプやサポートを受けることができます。