Aprendizagem pessoal com IA
e orientação prática
Beanbag Marscode1
Total de 27 artigos

Tags: grande modelo ajuste fino

MiniMind-V:1小时训练26M参数视觉语言模型-首席AI分享圈

MiniMind-V: treinamento de 1 hora de um modelo de linguagem visual com 26 milhões de parâmetros

Introdução geral O MiniMind-V é um projeto de código aberto, hospedado no GitHub, criado para ajudar os usuários a treinar um modelo de linguagem visual (VLM) leve com apenas 26 milhões de parâmetros em menos de 1 hora. Ele se baseia no modelo de linguagem MiniMind, no novo codificador visual e no módulo de projeção de recursos, no suporte à associação de imagens e textos ...

DeepCoder-14B-Preview:擅长代码生成的的开源模型-首席AI分享圈

DeepCoder-14B-Preview: um modelo de código aberto que se destaca na geração de código

Introdução geral O DeepCoder-14B-Preview é um modelo de geração de código-fonte aberto desenvolvido pela equipe da Agentica e lançado na plataforma Hugging Face. Ele se baseia no DeepSeek-R1-Distilled-Qwen-14B, otimizado por técnicas de aprendizado por reforço distribuído (RL), e é capaz de lidar com até 64 mil tokens de super...

WeClone:用微信聊天记录和语音训练数字分身-首席AI分享圈

WeClone: treinamento de doppelgangers digitais com registros de bate-papo e vozes do WeChat

Introdução abrangente O WeClone é um projeto de código aberto que usa registros de bate-papo e mensagens de voz do WeChat, combinados com grandes modelos de linguagem e tecnologia de síntese de fala, para permitir que os usuários criem doppelgangers digitais personalizados. O projeto pode analisar os hábitos de bate-papo do usuário para treinar o modelo, mas também um pequeno número de amostras de voz para gerar clones de voz realistas ...

Search-R1:强化学习训练大模型搜索与推理的工具-首席AI分享圈

Search-R1: Aprendizado por reforço para treinar modelos grandes para pesquisa e raciocínio

Introdução geral O Search-R1 é um projeto de código aberto desenvolvido por PeterGriffinJin no GitHub e baseado na estrutura veRL. Ele usa técnicas de aprendizagem por reforço (RL) para treinar grandes modelos de linguagem (LLMs), permitindo que os modelos aprendam de forma autônoma a raciocinar e invocar mecanismos de pesquisa para resolver problemas. O projeto é compatível com o Qwen2.5...

Optexity:用人类演示训练AI执行网页操作的开源项目-首席AI分享圈

Optexity: um projeto de código aberto para treinar a IA para realizar ações na Web com demonstrações humanas

Introdução geral O Optexity é um projeto de código aberto no GitHub, desenvolvido pela equipe do Optexity. Sua essência é usar dados de demonstração humana para treinar a IA para concluir tarefas de computador, especialmente operações de páginas da Web. O projeto contém três bibliotecas de código: ComputerGYM, AgentAI e Playwright, e os usuários podem ...

Bonsai:适合边缘设备运行的三值权重语言模型-首席AI分享圈

Bonsai: um modelo de linguagem ponderada de três valores adequado para operação em dispositivos de borda

Introdução geral O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e no classificador Mistral, com camadas lineares adaptadas para suportar pesos ternários. O modelo usa principalmente o DCLM...

Second Me:本地训练拥有个人记忆和习惯的AI分身-首席AI分享圈

Second Me: doppelgangers de IA treinados localmente com memórias e hábitos pessoais

O Second Me é um projeto de código aberto desenvolvido pela equipe Mindverse que permite criar uma IA em seu computador que atua como um "sósia digital", aprendendo sua fala e seus hábitos por meio de suas palavras e memórias e transformando-o em um assistente inteligente que o entende. Seu melhor recurso é que todos os números...

Easy Dataset:创建大模型微调数据集的简易工具-首席AI分享圈

Easy Dataset: uma ferramenta fácil para criar grandes conjuntos de dados com ajuste fino de modelos

Introdução abrangente O Easy Dataset é uma ferramenta de código aberto projetada especificamente para o ajuste fino de modelos grandes (LLMs), hospedada no GitHub. Ela oferece uma interface fácil de usar que permite aos usuários fazer upload de arquivos, dividir automaticamente o conteúdo, gerar perguntas e respostas e, por fim, gerar conjuntos de dados estruturados adequados para o ajuste fino. Abrir ...

MM-EUREKA:探索视觉推理的多模态强化学习工具-首席AI分享圈

MM-EUREKA: uma ferramenta de aprendizagem por reforço multimodal para explorar o raciocínio visual

Introdução abrangente O MM-EUREKA é um projeto de código aberto desenvolvido pelo Shanghai Artificial Intelligence Laboratory, pela Shanghai Jiao Tong University e por outras partes. Ele amplia os recursos de raciocínio textual para cenários multimodais por meio de técnicas de aprendizagem por reforço baseadas em regras para ajudar os modelos a processar informações textuais e de imagem. O objetivo principal dessa ferramenta é aprimorar...

AI Toolkit by Ostris:Stable Diffusion与FLUX.1模型训练工具包-首席AI分享圈

Kit de ferramentas de IA da Ostris: Difusão estável com o kit de ferramentas de treinamento de modelos FLUX.1

Introdução geral O AI Toolkit by Ostris é um conjunto de ferramentas de IA de código aberto focado no suporte aos modelos Stable Diffusion e FLUX.1 para tarefas de treinamento e geração de imagens. Criado e mantido pelo desenvolvedor Ostris e hospedado no GitHub, o kit de ferramentas tem como objetivo fornecer aos pesquisadores e desenvolvedores modelos flexíveis de micro...

X-R1:在普通设备中低成本训练0.5B模型-首席AI分享圈

X-R1: Treinamento de baixo custo de modelos de 0,5B em dispositivos comuns

Introdução geral O X-R1 é uma estrutura de aprendizagem por reforço de código aberto no GitHub pela equipe dhcode-cpp, com o objetivo de fornecer aos desenvolvedores uma ferramenta eficiente e de baixo custo para modelos de treinamento com base na aprendizagem por reforço de ponta a ponta. O projeto é inspirado no DeepSeek-R1 e no open-r1 e se concentra na criação de...

OpenManus-RL:微调大模型强化智能体推理与决策能力-首席AI分享圈

OpenManus-RL: ajuste fino de modelos grandes para aprimorar o raciocínio e a tomada de decisões de corpos inteligentes

Introdução geral O OpenManus-RL é um projeto de código aberto desenvolvido em conjunto pelo UIUC-Ulab e pela equipe do OpenManus da comunidade MetaGPT, hospedado no GitHub. O projeto aprimora os recursos de raciocínio e tomada de decisão das inteligências do Large Language Model (LLM) por meio de técnicas de Aprendizado por Reforço (RL), com base no Deepseek-R1, QwQ-32B ...

TPO-LLM-WebUI:输入问题即可实时训练模型输出结果的AI框架-首席AI分享圈

TPO-LLM-WebUI: uma estrutura de IA em que você pode inserir perguntas para treinar um modelo em tempo real e gerar os resultados.

Introdução abrangente O TPO-LLM-WebUI é um projeto inovador de código aberto da Airmomo no GitHub que permite a otimização em tempo real de LLMs (Large Language Models) por meio de uma interface da Web intuitiva. Ele usa a estrutura TPO (Test-Time Prompt Optimisation) para dizer adeus completamente ao tedioso processo de ajuste fino tradicional...

Open-Reasoner-Zero:开源大规模推理强化学习训练平台-首席AI分享圈

Open-Reasoner-Zero: plataforma de treinamento de aprendizado por reforço de raciocínio em larga escala de código aberto

Introdução geral O Open-Reasoner-Zero é um projeto de código aberto voltado para a pesquisa de aprendizagem por reforço (RL), desenvolvido pela equipe do Open-Reasoner-Zero no GitHub. Seu objetivo é acelerar o processo de pesquisa no campo da inteligência artificial, fornecendo uma estrutura de treinamento eficiente, escalonável e fácil de usar, especialmente para os pass...

中文基于满血 DeepSeek-R1 蒸馏数据集,支持中文R1蒸馏SFT数据集-首席AI分享圈

Conjunto de dados de destilação DeepSeek-R1 de sangue puro baseado na China, compatível com o conjunto de dados SFT de destilação R1 chinês

Introdução abrangente O conjunto de dados chinês de destilação DeepSeek-R1 é um conjunto de dados chinês de código aberto que contém 110 mil itens de dados projetados para dar suporte à pesquisa de aprendizado de máquina e processamento de linguagem natural. O conjunto de dados foi lançado pela equipe de NLP de Cong Liu e contém não apenas dados matemáticos, mas também um grande número de tipos gerais de dados, como raciocínio lógico...

ColossalAI:提供高效大规模AI模型训练解决方案-首席AI分享圈

ColossalAI: fornecendo soluções eficientes de treinamento de modelos de IA em grande escala

Introdução abrangente O ColossalAI é uma plataforma de código aberto desenvolvida pela HPC-AI Technologies para fornecer uma solução eficiente e econômica para treinamento e inferência de modelos de IA em grande escala. Ao oferecer suporte a várias estratégias paralelas, gerenciamento de memória heterogênea e treinamento de precisão mista, o ColossalAI é capaz de reduzir significativamente o treinamento e a inferência de modelos...

One Shot LoRA:快速生成视频 LoRA 模型的全能平台-首席AI分享圈

One Shot LoRA: a plataforma completa para geração rápida de modelos de LoRA em vídeo

Introdução geral O One Shot LoRA é uma plataforma voltada para a geração de modelos de LoRA de vídeo de alta qualidade a partir de vídeos. Os usuários podem treinar de forma rápida e fácil modelos LoRA de alta qualidade a partir de vídeos sem fazer login ou armazenar dados privados. A plataforma é compatível com Hunyuan Video, FLUX e SDXL...

Kiln:简单的LLM模型微调和数据合成工具,0代码基础微调自己的小模型-首席AI分享圈

Kiln: ferramenta simples de síntese de dados e ajuste fino de modelos LLM, base de código 0 para ajustar seus próprios minimodelos!

Introdução abrangente O Kiln é uma ferramenta de código aberto que se concentra no ajuste fino de modelos de linguagem ampla (LLMs), na geração de dados sintéticos e na colaboração de conjuntos de dados. Ele fornece um aplicativo de desktop intuitivo com suporte para Windows, MacOS e Linux, permitindo que os usuários implementem modelos como Llama, GPT4o e Mixtral com código zero...

Maestro:简化主流开源视觉语言模型微调过程的工具-首席AI分享圈

Maestro: uma ferramenta para simplificar o processo de ajuste fino dos modelos das principais linguagens visuais de código aberto

Introdução abrangente O Maestro é uma ferramenta desenvolvida pela Roboflow para simplificar e acelerar o processo de ajuste fino de modelos multimodais, para que todos possam treinar seus próprios macromodelos visuais. Ele fornece receitas prontas para o ajuste fino de modelos populares de linguagem visual (VLMs), como Florence-2, PaliGemma ...

pt_BRPortuguês do Brasil