Gran ajuste del modelo

Total 28 artículos
One Shot LoRA:快速生成视频 LoRA 模型的全能平台

One Shot LoRA: la plataforma todo en uno para la generación rápida de modelos LoRA de vídeo

Introducción general One Shot LoRA es una plataforma centrada en la generación de modelos LoRA de vídeo de alta calidad a partir de vídeos. Los usuarios pueden entrenar rápida y fácilmente modelos LoRA boutique a partir de vídeos sin necesidad de iniciar sesión ni almacenar datos privados. La plataforma es compatible con Hunyua...
hace 6 meses
03.8K
AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包

AI Toolkit de Ostris: Difusión estable con FLUX.1 Kit de herramientas de formación de modelos

Introducción general AI Toolkit de Ostris es un conjunto de herramientas de IA de código abierto centrado en el soporte de los modelos Stable Diffusion y FLUX.1 para tareas de entrenamiento y generación de imágenes. El conjunto de herramientas es creado y mantenido por el desarrollador Ostris, tor...
hace 5 meses
03.7K
Petals:分布式共享GPU运行和微调大语言模型,像BitTorrent网络一样共享GPU资源

Pétalos: ejecución y puesta a punto de grandes modelos lingüísticos en la GPU compartida y distribuida, compartiendo los recursos de la GPU como una red BitTorrent.

Introducción general Petals es un proyecto de código abierto desarrollado por BigScience Workshop para ejecutar grandes modelos lingüísticos (LLM) mediante un enfoque de computación distribuida. Los usuarios pueden ejecutar LLMs en casa utilizando GPUs de consumo o Google Co...
hace 9 meses
03.4K
Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型

Kiln: herramienta sencilla de ajuste de modelos LLM y síntesis de datos, ¡código base 0 para ajustar sus propios minimodelos!

Introducción exhaustiva Kiln es una herramienta de código abierto centrada en el ajuste fino de grandes modelos lingüísticos (LLM), la generación de datos sintéticos y la colaboración en conjuntos de datos. Proporciona aplicaciones de escritorio intuitivas compatibles con los sistemas Windows, MacOS y Linux, que permiten a los usuarios lograr una implementación de código cero de Ll...
hace 6 meses
03.3K
WeClone:用微信聊天记录和语音训练数字分身

WeClone: formación de dobles digitales con registros de chat y voces de WeChat

Introducción general WeClone es un proyecto de código abierto que utiliza transcripciones de chats y mensajes de voz de WeChat, combinados con grandes modelos lingüísticos y tecnología de síntesis de voz, para permitir a los usuarios crear dobles digitales personalizados. El proyecto puede analizar los hábitos de chat del usuario para entrenar el modelo , pero también un pequeño número de muestras de voz para generar sonidos realistas...
hace 4 meses
03.3K
OpenManus-RL:微调大模型强化智能体推理与决策能力

OpenManus-RL: ajuste de grandes modelos para mejorar el razonamiento corporal inteligente y la toma de decisiones

Introducción general OpenManus-RL es un proyecto de código abierto desarrollado por UIUC-Ulab junto con el equipo OpenManus de la comunidad MetaGPT, alojado en GitHub. El proyecto mejora el modelado lingüístico a gran escala (LLM) mediante técnicas de aprendizaje por refuerzo (RL)....
hace 5 meses
03.2K
Unsloth:高效微调和训练大语言模型的开源工具

Unsloth: una herramienta de código abierto para ajustar y entrenar modelos lingüísticos de gran tamaño

Introducción Unsloth es un proyecto de código abierto diseñado para proporcionar herramientas eficientes para el ajuste fino y la formación de grandes modelos lingüísticos (LLM). El proyecto soporta una variedad de modelos bien conocidos, incluyendo Llama, Mistral, Phi, y Gemma.Unsloth...
hace 6 meses
03.2K
Second Me:本地训练拥有个人记忆和习惯的AI分身

Second Me: dobles de IA entrenados localmente con recuerdos y hábitos personales.

Second Me es un proyecto de código abierto desarrollado por el equipo Mindverse que te permite crear una IA en tu ordenador que actúa como un "doble digital", aprendiendo tus patrones y hábitos de habla a través de tus palabras y recuerdos, y convirtiéndose en una persona inteligente que entiende tus...
hace 5 meses
03.2K
Forefront AI:机器学习模型调优平台|AI聊天助手

Forefront AI: Plataforma de ajuste de modelos de aprendizaje automático | AI Chat Assistant

Introducción completa Forefront AI es una plataforma de IA avanzada que se centra en la personalización y el despliegue de modelos de código abierto. Los usuarios pueden seleccionar y ajustar una gran variedad de potentes modelos de IA, como GPT-4, GPT-3.5, etc., para satisfacer diferentes requisitos de tareas. La plataforma permite cargar PD...
hace 9 meses
03K
LlamaEdge:本地运行和微调LLM的最快捷方式

LlamaEdge: ¡la forma más rápida de ejecutar y ajustar LLM localmente!

Introducción general LlamaEdge es un proyecto de código abierto diseñado para simplificar el proceso de ejecución y puesta a punto de grandes modelos lingüísticos (LLM) en dispositivos locales o edge. El proyecto es compatible con la familia de modelos Llama2 y proporciona servicios API compatibles con OpenAI que permiten a los usuarios crear y ejecutar fácilmente...
hace 7 meses
02.9K
Bakery:轻松微调和货币化开源AI模型

Bakery: afinar y monetizar fácilmente modelos de IA de código abierto

Introducción general Bakery es una plataforma diseñada para startups de IA, ingenieros de aprendizaje automático e investigadores para proporcionar servicios sencillos y eficientes de ajuste y monetización de modelos de IA. Los usuarios pueden acceder a conjuntos de datos de la comunidad a través de Bakery, crear o cargar sus propios conjuntos de datos,...
hace 7 meses
02.9K
NVIDIA Garak:检测LLM漏洞的开源工具,确保生成式AI的安全性

NVIDIA Garak: herramienta de código abierto para detectar vulnerabilidades LLM y asegurar la IA generativa

Introducción completa NVIDIA Garak es una herramienta de código abierto diseñada específicamente para detectar vulnerabilidades en Large Language Models (LLMs). Comprueba el modelo en busca de múltiples debilidades como ilusiones, fugas de datos, inyección de pistas, generación de mensajes de error, generación de contenido dañino, etc. mediante sondeos estáticos, dinámicos y adaptativos....
hace 9 meses
02.9K
中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集

Conjunto de datos de destilación DeepSeek-R1 basado en China, compatible con el conjunto de datos SFT de destilación R1 chino

Introducción exhaustiva El conjunto de datos chinos de destilación DeepSeek-R1 es un conjunto de datos chinos de código abierto que contiene 110.000 datos diseñados para apoyar el aprendizaje automático y la investigación del procesamiento del lenguaje natural. El conjunto de datos ha sido publicado por el equipo de PNL de Cong Liu. El conjunto de datos no sólo contiene datos matemáticos, sino también un gran número de...
hace 6 meses
02.9K
Easy Dataset:创建大模型微调数据集的简易工具

Easy Dataset: una herramienta sencilla para crear grandes conjuntos de datos de modelos afinados

Introducción exhaustiva Easy Dataset es una herramienta de código abierto diseñada específicamente para el ajuste fino de grandes modelos (LLM), alojada en GitHub. Ofrece una interfaz fácil de usar que permite a los usuarios cargar archivos, segmentar automáticamente el contenido, generar preguntas y respuestas y, en última...
hace 5 meses
02.9K
MM-EUREKA:探索视觉推理的多模态强化学习工具

MM-EUREKA: una herramienta multimodal de aprendizaje por refuerzo para explorar el razonamiento visual

Introducción general MM-EUREKA es un proyecto de código abierto desarrollado por el Laboratorio de Inteligencia Artificial de Shanghai, la Universidad Jiao Tong de Shanghai y otras partes. Amplía las capacidades de razonamiento textual a escenarios multimodales mediante técnicas de aprendizaje por refuerzo basadas en reglas para ayudar a los modelos a procesar información de imágenes y texto. El núcleo de esta herramienta...
hace 5 meses
02.8K
Maestro:简化主流开源视觉语言模型微调过程的工具

Maestro: una herramienta para simplificar el proceso de ajuste de modelos de los principales lenguajes visuales de código abierto

Introducción Maestro es una herramienta desarrollada por Roboflow para simplificar y acelerar el proceso de ajuste fino de modelos multimodales, de modo que todo el mundo pueda entrenar sus propios macromodelos visuales. Proporciona recetas ya preparadas para el ajuste fino de modelos de lenguaje visual (VLM) populares como F...
hace 6 meses
02.8K
Open-Reasoner-Zero:开源大规模推理强化学习训练平台

Open-Reasoner-Zero: plataforma de código abierto para el aprendizaje por refuerzo del razonamiento a gran escala

Introducción general Open-Reasoner-Zero es un proyecto de código abierto centrado en la investigación del aprendizaje por refuerzo (RL), desarrollado por el equipo Open-Reasoner-Zero en GitHub. Su objetivo es proporcionar un entrenamiento eficiente, escalable y fácil de usar...
hace 6 meses
02.7K
X-R1:在普通设备中低成本训练0.5B模型

X-R1: Formación de modelos 0,5B en dispositivos comunes a bajo coste

Introducción general X-R1 es un marco de aprendizaje por refuerzo de código abierto en GitHub por el equipo dhcode-cpp, con el objetivo de proporcionar a los desarrolladores una herramienta eficiente y de bajo coste para el entrenamiento de modelos basados en el aprendizaje por refuerzo de extremo a extremo. El proyecto cuenta con el apoyo de DeepSeek...
hace 5 meses
02.6K
Optexity:用人类演示训练AI执行网页操作的开源项目

Optexity: un proyecto de código abierto para entrenar a la IA a realizar acciones web con demostraciones humanas

Introducción general Optexity es un proyecto de código abierto en GitHub, desarrollado por el equipo de Optexity. Su núcleo es utilizar datos de demostración humana para entrenar a la IA a completar tareas informáticas, especialmente operaciones de páginas web. El proyecto contiene tres bibliotecas de código: Compute...
hace 4 meses
02.6K
GraphGen:利用知识图谱生成合成数据微调语言模型

GraphGen: ajuste de modelos lingüísticos mediante grafos de conocimiento para generar datos sintéticos

Introducción general GraphGen es un marco de código abierto desarrollado por OpenScienceLab, un laboratorio de IA de Shanghái, alojado en GitHub, que se centra en optimizar el ajuste fino supervisado de grandes modelos lingüísticos (LLM) guiando la generación de datos sintéticos a través de grafos de conocimiento. Se desarrolló a partir de ...
hace 3 meses
02.3K
ColossalAI:提供高效大规模AI模型训练解决方案

ColossalAI: soluciones eficaces de formación de modelos de IA a gran escala

Introducción ColossalAI es una plataforma de código abierto desarrollada por HPC-AI Technologies, con el objetivo de proporcionar una solución eficiente y rentable para el entrenamiento y la inferencia de modelos de IA a gran escala. Al soportar múltiples estrategias paralelas, gestión de memoria heterogénea y entrenamiento de precisión mixta, ColossalAI...
hace 6 meses
02.2K