TimesFM 2.0 : Google ouvre un modèle pré-entraîné pour la prévision des séries temporelles
Introduction générale
TimesFM 2.0 - 500M PyTorch est un modèle de base de série temporelle pré-entraîné développé par Google Research et conçu pour la prévision de séries temporelles. Le modèle est capable de gérer des longueurs de contexte allant jusqu'à 2048 points dans le temps et prend en charge des plages de prédiction arbitraires.TimesFM 2.0 est performant dans plusieurs points de référence de premier plan, avec une amélioration des performances de 25% par rapport à son prédécesseur.Le modèle fournit également 10 en-têtes de quantile expérimentaux, bien qu'ils n'aient pas été calibrés après le pré-entraînement. Les utilisateurs peuvent télécharger et utiliser le modèle pour les prévisions de séries temporelles via la plateforme Hugging Face.
Ce modèle peut être utilisé dans des scénarios tels que la prévision des ventes au détail, des mouvements boursiers, du trafic sur les sites Web, etc. TimesFM 2.0 est classé numéro 1 sur la liste d'évaluation de GIFT-Eval et permet un réglage fin avec vos propres données. Il effectue des prévisions de séries temporelles univariées jusqu'à 2048 points dans le temps, ainsi que n'importe quelle longueur de plage de prévision, avec un indicateur de fréquence optionnel.

Liste des fonctions
- prévision de séries temporellesLe système de gestion de l'information de l'Union européenne (UE) est le suivant : il prend en charge des contextes allant jusqu'à 2048 points temporels et des plages de prédiction arbitraires.
- prévision du quantileLes résultats de l'étude sont présentés sous la forme d'un tableau : 10 têtes de quartiles expérimentales sont fournies.
- Modélisation de la mise au pointLes données de l'utilisateur sont prises en compte pour l'affinement du modèle.
- Prise en charge des covariables de l'échantillon zéroLes résultats de l'étude sont présentés dans le tableau suivant : support pour la prédiction de l'échantillon zéro en utilisant des variables de régression externes.
- Haute performanceLa nouvelle génération d'ordinateurs portables : surpasse les performances dans de nombreux benchmarks avec une augmentation des performances de 25%.
Utiliser l'aide
Processus d'installation
- Installation des dépendances: :
- utiliser
pyenv
répondre en chantantpoetry
Effectuer une installation locale. - Assurez-vous que la version de Python est 3.10.x (pour les versions JAX) ou >=3.11.x (pour les versions PyTorch).
- Exécutez la commande suivante pour installer les dépendances :
pyenv install 3.11.x pyenv virtualenv 3.11.x timesfm-env pyenv activate timesfm-env poetry install
- utiliser
- Télécharger les modèles: :
- Visitez la plateforme Hugging Face pour télécharger TimesFM 2.0 - 500M PyTorch model checkpoints.
- Utilisez la commande suivante pour télécharger le modèle :
bash
git clone https://huggingface.co/google/timesfm-2.0-500m-pytorch
cd timesfm-2.0-500m-pytorch
Processus d'utilisation
- Modèles de chargement: :
- Charger le modèle dans l'environnement Python :
from transformers import TimesFMForTimeSeriesForecasting model = TimesFMForTimeSeriesForecasting.from_pretrained("google/timesfm-2.0-500m-pytorch")
- effectuer des prévisions: :
- Préparer les données d'entrée et faire des prévisions :
import torch input_data = torch.tensor([...]) # 替换为实际的时间序列数据 predictions = model(input_data)
- Affiner le modèle: :
- Modéliser la mise au point à l'aide de ses propres données :
from transformers import Trainer, TrainingArguments training_args = TrainingArguments(output_dir="./results", num_train_epochs=3, per_device_train_batch_size=4) trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset) trainer.train()
- Utilisation de variables de régression externes: :
- Prise en charge de la prédiction de covariables pour l'échantillon zéro :
python
external_regressors = torch.tensor([...]) # 替换为实际的外部回归变量数据
predictions = model(input_data, external_regressors=external_regressors)
- Prise en charge de la prédiction de covariables pour l'échantillon zéro :
© déclaration de droits d'auteur
Article copyright Cercle de partage de l'IA Tous, prière de ne pas reproduire sans autorisation.
Articles connexes
Pas de commentaires...