はじめに
トランスフォーマー.js はHugging Faceが提供するJavaScriptライブラリで、最先端の機械学習モデルをサーバーのサポートなしにブラウザ上で直接実行できるように設計されています。このライブラリは機能的にはHugging FaceのPython用transformersライブラリと同等であり、自然言語処理、コンピュータビジョン、音声処理を含む幅広い事前学習済みモデルやタスクをサポートしています。このプロジェクトの "llama-3.2-reasoning-webgpu "例は、WebGPU上でLLama-3.2モデルの推論能力を実証するように設計されており、ユーザがブラウザで直接効率的な言語モデルの推論を体験できるようになっています。この例は、技術の最先端を示すだけでなく、複雑なAIタスクを処理するために最新のブラウザの計算能力をどのように活用できるかについての洞察を提供します。
機能一覧
- LLama-3.2モデルをブラウザで実行する効率的なモデル推論のためのWebGPU技術の活用。
- WebGPUのパフォーマンスを実証する異なるデバイスでのパフォーマンスを比較することで、WebGPUの優位性を際立たせます。
- インタラクティブなユーザー体験を提供するユーザーはシンプルなインターフェイスを通じてモデルと対話し、テキストを入力してモデルの推論結果を得ることができます。
- コードサンプルとチュートリアル完全なコードサンプルとLLama-3.2モデルのセットアップ方法と実行方法が含まれています。
ヘルプの使用
インストールと設定環境
この例はブラウザ環境で実行されるため、特別なインストール手順は必要ありませんが、ブラウザがWebGPUをサポートしていることを確認する必要があります:
- ブラウザ対応チェック::
- サンプルページを開くと、ブラウザは自動的にWebGPUがサポートされているかどうかをチェックし、サポートされていない場合は適切なプロンプトが表示されます。
- WebGPUは現在、Chrome、Edge、Firefoxの最新バージョンでサポートされています。Safariユーザーの場合、特定の実験的機能を有効にする必要がある場合があります。
- サンプルページを見る::
- GitHubのリンクから直接アクセスできます。
llama-3.2-推論-webgpu
のページ例
- GitHubのリンクから直接アクセスできます。
使用例
- 積載モデル::
- ページがロードされると、自動的にLLama-3.2モデルのロードが開始されます。インターネットの速度や端末の性能によっては、読み込みに数分かかる場合があります。
- 入力テキスト::
- ページが読み込まれると、テキスト入力ボックスが表示されます。そのボックスに理由を書きたいテキストを入力してください。
- 推論過程::
- 推論 "ボタンをクリックすると、モデルがあなたの入力を処理し始めます。テキストの長さや複雑さによっては、推論処理に時間がかかる場合がありますので、ご了承ください。
- 結果を見る::
- LLama-3.2モデルはあなたの入力に基づいて推論結果を生成します。それは質問に対する答えであったり、翻訳であったり、テキストの何らかの処理であったりします。
- デバッグとパフォーマンス監視::
- 推論を実行する際、ページには推論の速度(1 秒あたりのトークン数、TPS)などのパ フォーマンス統計が表示されることがあります。これは、WebGPU の能力と現在のデバイスのパフォーマンスを理解するのに役立ちます。
さらなる研究と探求
- ソースコードの研究GitHubにあるソースコード(特に
ワーカー
ファイル)を参照し、モデルがブラウザでどのように動作するかを知ることができる。 - 修正と貢献もし興味があれば、このプロジェクトをクローンして変更を加えたり、新しい機能に貢献することができます。このプロジェクトは 反応 やViteのビルドに慣れていれば、比較的簡単に開発できる。
ほら
- ブラウザの互換性ブラウザが最新の状態であることをご確認ください。
- パフォーマンス依存推論はクライアント側で行われるため、パフォーマンスはデバイスのハードウェア(特にGPU)に影響される。
- みんかんきぎょうすべてのデータ処理はローカルで行われ、サーバーにアップロードされることはありません。
これらの手順と説明を読めば、このサンプル・プロジェクトを十分に探求し、活用して、あなたのブラウザでAI技術の進歩を体験することができます。