Together : une plateforme en nuage pour construire et exécuter des plateformes d'entraînement de modèles d'IA générative

Introduction générale

Together AI est une plate-forme axée sur les modèles génératifs d'IA, qui fournit une gamme complète de services allant de l'entraînement des modèles à l'inférence, en passant par le réglage fin. Les utilisateurs peuvent exploiter le moteur d'inférence hautement efficace de Together AI et les clusters de GPU pour déployer et exécuter rapidement une variété de modèles open source. La plateforme prend en charge plusieurs architectures de modèles pour répondre aux différentes exigences des applications d'IA.

 

Together:云平台构建和运行生成式AI模型训练平台

Interface de démonstration du chat pour les grands modèles

 

 

Liste des fonctions

  • API d'inférenceLe système de gestion de l'information de l'entreprise : Il prend en charge le raisonnement sur plus de 100 modèles open-source et fournit des modèles d'instance dédiés et sans serveur.
  • fonction de réglage finLes utilisateurs peuvent affiner les modèles d'IA générative à l'aide de leurs propres données, tout en conservant la propriété des données.
  • Grappe de GPULe programme de formation à l'utilisation des GPU : Il fournit des grappes de pointe de 16 à plus de 1 000 GPU pour prendre en charge la formation de modèles à grande échelle.
  • Formation à un modèle personnaliséLes services d'assistance technique : Former des modèles de pointe à partir de zéro et prendre en charge de multiples architectures de modèles.
  • modèle multimodalLes logiciels de reconnaissance et d'inférence d'images, de génération d'images et autres sont pris en charge par le système.
  • Moteur d'inférence efficaceLes technologies d'inférence les plus récentes, telles que FlashAttention-3 et Flash-Decoding, sont intégrées afin de fournir des services d'inférence rapides et précis.

Utiliser l'aide

Installation et utilisation

  1. S'inscrire et se connecter: :
    • Visitez le site web de Together AI (https://www.together.ai/) et cliquez sur le bouton "Commencer à construire" pour vous inscrire.
    • Une fois l'inscription terminée, connectez-vous à votre compte et accédez au panneau de contrôle de l'utilisateur.
  2. Sélectionner un service: :
    • Dans le panneau de configuration, sélectionnez le module de service que vous devez utiliser, tel que l'API d'inférence, la fonction de réglage fin ou le cluster GPU.
    • Sélectionnez le mode d'instance sans serveur ou dédié selon les besoins.
  3. Utilisation de l'API d'inférence: :
    • Sélectionnez le modèle open source que vous souhaitez exécuter, tel que Llama-3, RedPajama, etc.
    • Intégrez le modèle dans votre application via l'interface API fournie par Together AI.
    • Créez votre propre application RAG en utilisant les points d'extrémité intégrés de Together AI.
  4. fonction de réglage fin: :
    • Téléchargez votre ensemble de données et sélectionnez les modèles qui doivent être affinés.
    • Configurez les paramètres de réglage fin pour lancer le processus de réglage fin.
    • Une fois la mise au point terminée, téléchargez le modèle mis au point et déployez-le.
  5. Utilisation de la grappe de GPU: :
    • Sélectionnez la taille de la grappe de GPU souhaitée et configurez les paramètres matériels.
    • Téléchargez les données d'entraînement et le code du modèle pour commencer l'entraînement.
    • Une fois la formation terminée, le modèle formé est téléchargé en vue d'une inférence ou d'une mise au point supplémentaire.
  6. Formation à un modèle personnalisé: :
    • Sélectionnez le module Custom Model Training pour configurer l'architecture du modèle et les paramètres de formation.
    • Téléchargez l'ensemble de données et démarrez le processus de formation.
    • Une fois la formation terminée, le modèle est téléchargé pour être déployé et inféré.

flux de travail

  1. Accès au panneau de contrôleAprès s'être connecté, aller dans le panneau de contrôle et sélectionner le module de service désiré.
  2. Paramètres de configurationLes paramètres d'inférence, de réglage fin ou d'entraînement sont configurés en fonction des besoins.
  3. Télécharger les donnéesTélécharger le jeu de données ou le code du modèle requis.
  4. Début de la missionLes tâches de raisonnement, de mise au point ou de formation peuvent être lancées et la progression des tâches est suivie en temps réel.
  5. Télécharger les résultatsLe modèle ou les résultats de l'inférence sont téléchargés une fois la tâche achevée, en vue de l'intégration de l'application.

problèmes courants

  • Comment choisir le bon modèle ?
    • Sélectionnez le modèle open source approprié en fonction du scénario de l'application, comme la génération de texte, la reconnaissance d'images, etc.
  • Que se passe-t-il si je rencontre une erreur lors du réglage fin ?
    • Vérifiez le format du jeu de données et la configuration des paramètres, et reportez-vous à la documentation officielle pour les ajustements.
  • Mauvaises performances lors de l'utilisation d'un cluster GPU ?
    • Confirmez que la configuration matérielle répond aux exigences et ajustez les paramètres de formation pour améliorer l'efficacité.

 

modèle utilisable

Points d'extrémité sans serveurAuteurTypePrix (par 1M) jetons)
Meta Llama 3.2 11B Vision Instruct Turbo
Métachat$0.18
Meta Llama 3.2 90B Vision Instruct Turbo
Métachat$1.20
Qwen2.5 7B Instruct Turbo
Qwenchat$0.30
Qwen2.5 72B Instruct Turbo
Qwenchat$1.20
FLUX.1 [schnell]
Laboratoire de la Forêt NoireimageVoir les tarifs
FLUX 1.1 [pro]
Laboratoire de la Forêt NoireimageVoir les tarifs
FLUX.1 [pro]
Laboratoire de la Forêt NoireimageVoir les tarifs
FLUX.1 [schnell] Gratuit
Laboratoire de la Forêt NoireimageVoir les tarifs
Meta Llama 3.2 3B Instruct Turbo
Métachat$0.06
Meta Llama Vision Gratuit
MétachatGratuit
Meta Llama Guard 3 11B Vision Turbo
Métamodération$0.18
Meta Llama 3.1 8B Instruct Turbo
Métachat$0.18
Mixtral-8x22B Instruct v0.1
mistralaichat$1.20
Diffusion stable XL 1.0
Stabilité AIimageVoir les tarifs
Meta Llama 3.1 70B Instruct Turbo
Métachat$0.88
Meta Llama 3.1 405B Instruct Turbo
Métachat$3.50
Gryphe MythoMax L2 Lite (13B)
Gryphechat$0.10
Rang du lama de Salesforce V1 (8B)
salesforcererank$0.10
Meta Llama Guard 3 8B
Métamodération$0.20
Meta Llama 3 70B Instruct Turbo
Métachat$0.88
Meta Llama 3 70B Instruct Lite
Métachat$0.54
Meta Llama 3 8B Instruct Lite
Métachat$0.10
Meta Llama 3 8B Instruct Turbo
Métachat$0.18
Référence de l'instruction Meta Llama 3 70B
Métachat$0.90
Référence de l'instruction Meta Llama 3 8B
Métachat$0.20
Qwen 2 Instruct (72B)
Qwenchat$0.90
Gemma-2 Instruct (27B)
Google Société Internetchat$0.80
Gemma-2 Instruct (9B)
googlechat$0.30
Mistral (7B) Instruct v0.3
mistralaichat$0.20
Qwen 1.5 Chat (110B)
Qwenchat$1.80
Meta Llama Guard 2 8B
Métamodération$0.20
WizardLM-2 (8x22B)
microsoftchat$1.20
DBRX Instruct
Les banques de donnéeschat$1.20
DeepSeek Chat LLM (67B)
DeepSeekchat$0.90
Gemma Instruct (2B)
Google Société Internetchat$0.10
Mistral (7B) Instruct v0.2
mistralaichat$0.20
Mixtral-8x7B Instruct v0.1
mistralaichat$0.60
Mixtral-8x7B v0.1
mistralailangue$0.60
Qwen 1.5 Chat (72B)
Qwenchat$0.90
Garde de lamas (7B)
Métamodération$0.20
Nous Hermes 2 - Mixtral 8x7B-DPO
NousResearchchat$0.60
Mistral (7B) Instruire
mistralaichat$0.20
Mistral (7B)
mistralailangue$0.20
LLaMA-2 Chat (13B)
Métachat$0.22
LLaMA-2 Chat (7B)
Métachat$0.20
LLaMA-2 (70B)
Métalangue$0.90
Code Llama Instruct (34B)
Métachat$0.78
Upstage SOLAR Instruct v1 (11B)
en amontchat$0.30
M2-BERT-Retrieval-32k
Ensembleintégration$0.01
M2-BERT-Retrieval-8k
Ensembleintégration$0.01
M2-BERT-Retrieval-2K
Ensembleintégration$0.01
EAU-Large-V1
OùIsAIintégration$0.02
BAAI-Bge-Large-1p5
BAAIintégration$0.02
BAAI-Bge-Base-1p5
BAAIintégration$0.01
MythoMax-L2 (13B)
Gryphechat$0.30

 

exemple d'utilisation

Exemples de raisonnement par modèle

import os
import requests

url = "https://api.together.xyz/v1/chat/completions"
payload = {
    "model": "mistralai/Mixtral-8x7B-Instruct-v0.1",
    "max_tokens": 512,
    "temperature": 0.7,
    "top_p": 0.7,
    "top_k": 50,
    "repetition_penalty": 1
}
headers = {
    "accept": "application/json",
    "content-type": "application/json",
    "Authorization": "Bearer TOGETHER_API_KEY"
}

response = requests.post(url, json=payload, headers=headers)
print(response.text)

Exemple de mise au point du modèle

import os
import requests

url = "https://api.together.xyz/v1/fine-tune"
payload = {
    "model": "togethercomputer/llama-2-70b-chat",
    "data": "path/to/your/data",
    "epochs": 3,
    "batch_size": 8
}
headers = {
    "accept": "application/json",
    "content-type": "application/json",
    "Authorization": "Bearer TOGETHER_API_KEY"
}

response = requests.post(url, json=payload, headers=headers)
print(response.text)
© déclaration de droits d'auteur

Articles connexes

Pas de commentaires

Vous devez être connecté pour participer aux commentaires !
S'inscrire maintenant
aucun
Pas de commentaires...