はじめに
TimesFM 2.0 - 500M PyTorchは、Google Researchによって開発され、時系列予測用に設計された学習済みの時系列ベースモデルです。TimesFM 2.0は、いくつかの主要なベンチマークで良好な結果を出しており、前モデルと比較して25%の性能向上が見られます。また、事前学習後のキャリブレーションは行われていませんが、10個の実験的な分位点ヘッダも提供しています。ユーザーは、Hugging Faceプラットフォームを通じて、時系列予測のためにモデルをダウンロードして使用することができます。
TimesFM 2.0は、GIFT-Evalの評価リストで1位を獲得しており、独自のデータによる微調整をサポートしています。最大2048ポイントまでの一変量時系列予測、および任意の予測範囲の長さ、オプションの周波数インジケータを実行します。
機能一覧
- 時系列予測最大2048時点までのコンテキスト長および任意の予測範囲をサポート。
- 十分比予測10個の実験用四分位ヘッドが用意されている。
- モデリングの微調整ユーザー所有のデータでモデルの微調整をサポート。
- ゼロ標本の共変量サポート外部回帰変数を用いたゼロサンプル予測のサポート。
- 高性能複数のベンチマークで25%の性能向上を達成。
ヘルプの使用
設置プロセス
- 依存関係のインストール::
- 利用する
ピエンブ
歌で応えるポエトリー
ローカルインストールを行う。 - Pythonのバージョンが3.10.x(JAXバージョン)または>=3.11.x(PyTorchバージョン)であることを確認してください。
- 以下のコマンドを実行して、依存関係をインストールする:
pyenv install 3.11.x pyenv virtualenv 3.11.x timesfm-env pyenv activate timesfm-env 詩のインストール
- 利用する
- ダウンロードモデル::
- Hugging FaceプラットフォームでTimesFM 2.0 - 500M PyTorchモデルのチェックポイントをダウンロードしてください。
- モデルをダウンロードするには、以下のコマンドを使用します:
バッシュ
git clone https://huggingface.co/google/timesfm-2.0-500m-pytorch
CD timesfm-2.0-500m-pytorch
使用プロセス
- 積載モデル::
- Python環境にモデルをロードする:
from transformers import TimesFMForTimeSeriesForecasting model = TimesFMForTimeSeriesForecasting.from_pretrained("google/timesfm-2.0-500m-pytorch")
- 予測を行う::
- 入力データを準備し、予測を立てる:
インポートトーチ input_data = torch.tensor([...]) # 実際の時系列データに置き換える predictions = model(input_data)
- モデルの微調整::
- 自身のデータを使ったモデルの微調整:
from transformers import Trainer, TrainingArguments training_args = TrainingArguments(output_dir="./results", num_train_epochs=3, per_device_train_batch_size=4) trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset) trainer.train()
- 外部回帰変数の使用::
- ゼロ標本の共変量予測のサポート:
パイソン
外部回帰変数 = torch.tensor([...]) # データを実際の外部回帰変数に置き換える
predictions = model(input_data, external_regressors=external_regressors)
- ゼロ標本の共変量予測のサポート: