Mise au point d'un grand modèle

Total 28 articles
One Shot LoRA:快速生成视频 LoRA 模型的全能平台

One Shot LoRA : la plateforme tout-en-un pour la génération rapide de modèles vidéo LoRA

Introduction générale One Shot LoRA est une plateforme destinée à générer des modèles LoRA de haute qualité à partir de vidéos. Les utilisateurs peuvent rapidement et facilement former des modèles LoRA de boutique à partir de vidéos sans avoir à se connecter ou à stocker des données privées. La plateforme prend en charge Hunyua...
Il y a 6 mois
03.8K
AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包

AI Toolkit by Ostris : Diffusion stable avec FLUX.1 Model Training Toolkit

Introduction générale AI Toolkit by Ostris est un ensemble d'outils d'IA open source axé sur la prise en charge des modèles Stable Diffusion et FLUX.1 pour les tâches d'entraînement et de génération d'images. La boîte à outils est créée et maintenue par le développeur Ostris, tor...
il y a 5 mois
03.7K
TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架

TPO-LLM-WebUI : un cadre d'intelligence artificielle dans lequel vous pouvez saisir des questions pour entraîner un modèle en temps réel et produire les résultats.

Introduction générale TPO-LLM-WebUI est un projet innovant ouvert par Airmomo sur GitHub qui permet l'optimisation en temps réel de grands modèles de langage (LLM) par le biais d'une interface web intuitive. Il utilise TPO (Test-Time Pr...
Il y a 6 mois
03.7K
LLaMA Factory:高效微调百余种开源大模型,轻松实现模型定制

LLaMA Factory : mise au point efficace de plus d'une centaine de macromodèles open-source, personnalisation aisée des modèles

Introduction générale LLaMA-Factory est un cadre de réglage fin unifié et efficace qui prend en charge la personnalisation flexible et l'entraînement efficace de plus de 100 grands modèles linguistiques (LLM). Grâce à l'interface web intégrée LLaMA Board, les utilisateurs n'ont pas besoin d'écrire du code pour compléter la modélisation...
Il y a 9 mois
03.4K
Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源

Petals : exécution distribuée et partagée de modèles linguistiques de grande taille sur GPU, partageant les ressources GPU comme un réseau BitTorrent.

Introduction générale Petals est un projet open source développé par le BigScience Workshop pour exécuter de grands modèles de langage (LLM) par le biais d'une approche informatique distribuée. Les utilisateurs peuvent exécuter les LLM chez eux en utilisant des GPU grand public ou Google Co...
Il y a 9 mois
03.4K
Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型

Kiln : Outil simple de mise au point de modèles LLM et de synthèse de données, base de code 0 pour mettre au point vos propres mini-modèles !

Introduction complète Kiln est un outil open source axé sur la mise au point de grands modèles linguistiques (LLM), la génération de données synthétiques et la collaboration en matière d'ensembles de données. Il fournit des applications de bureau intuitives prenant en charge les systèmes Windows, MacOS et Linux, permettant aux utilisateurs de réaliser une implémentation en code zéro des modèles Ll...
Il y a 6 mois
03.3K
WeClone:用微信聊天记录和语音训练数字分身

WeClone : former des sosies numériques à l'aide des journaux de conversation et des voix WeChat

Introduction complète WeClone est un projet open source qui utilise les transcriptions de chat et les messages vocaux de WeChat, combinés à de grands modèles de langage et à une technologie de synthèse vocale, pour permettre aux utilisateurs de créer des sosies numériques personnalisés. Le projet peut analyser les habitudes de chat de l'utilisateur pour entraîner le modèle, mais aussi un petit nombre d'échantillons de voix pour générer des sons réalistes...
Il y a 4 mois
03.3K
Second Me:本地训练拥有个人记忆和习惯的AI分身

Second Me : des sosies d'IA formés localement et dotés de souvenirs et d'habitudes personnels

Second Me est un projet open source développé par l'équipe Mindverse qui vous permet de créer une IA sur votre ordinateur qui agit comme un "sosie numérique", apprenant vos schémas d'élocution et vos habitudes à travers vos mots et vos souvenirs, et devenant une personne intelligente qui comprend vos...
il y a 5 mois
03.2K
Forefront AI:机器学习模型调优平台|AI聊天助手

Forefront AI : Plate-forme de mise au point de modèles d'apprentissage automatique | Assistant de chat AI

Introduction complète Forefront AI est une plateforme d'IA avancée qui se concentre sur la personnalisation et le déploiement de modèles open source. Les utilisateurs peuvent sélectionner et affiner une variété de modèles d'IA puissants, tels que GPT-4, GPT-3.5, etc., pour répondre aux différentes exigences des tâches. La plateforme prend en charge le téléchargement de...
Il y a 9 mois
03K
LlamaEdge:本地运行和微调LLM的最快捷方式

LlamaEdge : le moyen le plus rapide d'exécuter et d'affiner LLM localement !

Introduction générale LlamaEdge est un projet open source conçu pour simplifier le processus d'exécution et d'ajustement des grands modèles de langage (LLM) sur les appareils locaux ou périphériques. Le projet prend en charge la famille de modèles Llama2 et fournit des services API compatibles avec l'OpenAI qui permettent aux utilisateurs de créer et d'exécuter...
Il y a 7 mois
02.9K
Bakery:轻松微调和货币化开源AI模型

Bakery : affiner et monétiser facilement les modèles d'IA open source

Introduction générale Bakery est une plateforme conçue pour les startups d'IA, les ingénieurs en apprentissage automatique et les chercheurs afin de fournir des services simples et efficaces de mise au point de modèles d'IA et de monétisation. Les utilisateurs peuvent accéder à des ensembles de données communautaires via Bakery, créer ou télécharger leurs propres ensembles de données, affiner les modèles...
Il y a 7 mois
02.9K
NVIDIA Garak:检测LLM漏洞的开源工具,确保生成式AI的安全性

NVIDIA Garak : outil open-source pour détecter les vulnérabilités LLM et sécuriser l'IA générative

Introduction complète NVIDIA Garak est un outil open source spécialement conçu pour détecter les vulnérabilités dans les grands modèles de langage (LLM). Il vérifie le modèle pour de multiples faiblesses telles que les illusions, les fuites de données, l'injection d'indices, la génération de messages d'erreur, la génération de contenu nuisible, etc. par le biais de sondages statiques, dynamiques et adaptatifs...
Il y a 9 mois
02.9K
中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集

Ensemble de données de distillation DeepSeek-R1 à sang complet basé en Chine, prend en charge l'ensemble de données SFT de distillation R1 en Chine

Introduction complète Le jeu de données chinois DeepSeek-R1 distillation est un jeu de données chinois open source contenant 110 000 pièces de données conçues pour soutenir l'apprentissage automatique et la recherche sur le traitement du langage naturel. Le jeu de données est publié par l'équipe NLP de Cong Liu. Le jeu de données contient non seulement des données mathématiques, mais aussi un grand nombre de types généraux...
Il y a 6 mois
02.9K
Easy Dataset:创建大模型微调数据集的简易工具

Easy Dataset : un outil facile à utiliser pour créer de grands ensembles de données finement réglées.

Introduction complète Easy Dataset est un outil open source conçu spécifiquement pour affiner les grands modèles (LLM), hébergé sur GitHub. Il fournit une interface facile à utiliser qui permet aux utilisateurs de télécharger des fichiers, de segmenter automatiquement le contenu, de générer des questions et des réponses, et finalement de produire un...
il y a 5 mois
02.9K
MM-EUREKA:探索视觉推理的多模态强化学习工具

MM-EUREKA : Un outil d'apprentissage par renforcement multimodal pour explorer le raisonnement visuel

Introduction complète MM-EUREKA est un projet open source développé par le laboratoire d'intelligence artificielle de Shanghai, l'université Jiao Tong de Shanghai et d'autres parties. Il étend les capacités de raisonnement textuel aux scénarios multimodaux grâce à des techniques d'apprentissage par renforcement basées sur des règles afin d'aider les modèles à traiter les images et les informations textuelles. Le cœur de cet outil...
il y a 5 mois
02.8K
Maestro:简化主流开源视觉语言模型微调过程的工具

Maestro : un outil pour simplifier le processus de mise au point des modèles des principaux langages visuels open source

Introduction complète Maestro est un outil développé par Roboflow pour simplifier et accélérer le processus de mise au point de modèles multimodaux, afin que chacun puisse entraîner ses propres macromodèles visuels. Il fournit des recettes prêtes à l'emploi pour affiner les modèles de langage visuel (VLM) populaires tels que F...
Il y a 6 mois
02.8K
Open-Reasoner-Zero:开源大规模推理强化学习训练平台

Open-Reasoner-Zero : Plate-forme de formation à l'apprentissage par renforcement du raisonnement à grande échelle (Open Source Large-Scale Reasoning Reinforcement Learning)

Introduction générale Open-Reasoner-Zero est un projet open source axé sur la recherche en apprentissage par renforcement (RL), développé par l'équipe Open-Reasoner-Zero sur GitHub. Il vise à fournir une formation efficace, évolutive et facile à ...
Il y a 6 mois
02.7K
Search-R1:强化学习训练大模型搜索与推理的工具

Search-R1 : Apprentissage par renforcement pour former de grands modèles de recherche et de raisonnement

Introduction générale Search-R1 est un projet open source, développé par PeterGriffinJin sur GitHub, construit sur le framework veRL. Il forme de grands modèles de langage (LLM) grâce à des techniques d'apprentissage par renforcement (RL), permettant aux modèles d'apprendre de manière autonome....
Il y a 4 mois
02.7K
X-R1:在普通设备中低成本训练0.5B模型

X-R1 : Formation à faible coût de modèles 0,5B dans des appareils courants

Introduction générale X-R1 est un framework d'apprentissage par renforcement ouvert sur GitHub par l'équipe dhcode-cpp, visant à fournir aux développeurs un outil efficace et peu coûteux pour former des modèles basés sur l'apprentissage par renforcement de bout en bout. Le projet est soutenu par DeepSeek...
il y a 5 mois
02.6K
Optexity:用人类演示训练AI执行网页操作的开源项目

Optexity : un projet open source pour entraîner l'IA à effectuer des actions sur le web avec des démonstrations humaines

Introduction générale Optexity est un projet open source sur GitHub, développé par l'équipe Optexity. Son objectif principal est d'utiliser des données de démonstration humaines pour entraîner l'IA à effectuer des tâches informatiques, en particulier des opérations sur des pages web. Le projet contient trois bibliothèques de code : Compute...
Il y a 4 mois
02.6K
GraphGen:利用知识图谱生成合成数据微调语言模型

GraphGen : amélioration des modèles de langage à l'aide de graphes de connaissances pour générer des données synthétiques

Introduction complète GraphGen est un framework open source développé par OpenScienceLab, un laboratoire d'IA à Shanghai, hébergé sur GitHub, axé sur l'optimisation de la mise au point supervisée des grands modèles de langage (LLM) en guidant la génération de données synthétiques par le biais de graphes de connaissances. Il a été développé à partir de ...
Il y a 3 mois
02.3K
MiniMind-V:1小时训练26M参数视觉语言模型

MiniMind-V : 1 heure d'entraînement de 26M modèles paramétriques de langage visuel

Introduction générale MiniMind-V est un projet open source, hébergé sur GitHub, conçu pour aider les utilisateurs à entraîner un modèle de langage visuel léger (VLM) avec seulement 26 millions de paramètres en moins d'une heure. Il est basé sur le modèle de langage MiniMind, avec de nouvelles...
Il y a 4 mois
02.3K
ColossalAI:提供高效大规模AI模型训练解决方案

ColossalAI : des solutions efficaces pour la formation de modèles d'IA à grande échelle

Introduction ColossalAI est une plateforme open-source développée par HPC-AI Technologies, visant à fournir une solution efficace et rentable pour l'entraînement et l'inférence de modèles d'IA à grande échelle. En prenant en charge de multiples stratégies parallèles, une gestion hétérogène de la mémoire et une formation à précision mixte, ColossalAI...
Il y a 6 mois
02.2K