Introdução geral O MiniMind-V é um projeto de código aberto, hospedado no GitHub, criado para ajudar os usuários a treinar um modelo de linguagem visual (VLM) leve com apenas 26 milhões de parâmetros em menos de 1 hora. Ele se baseia no modelo de linguagem MiniMind, no novo codificador visual e no módulo de projeção de recursos, no suporte à associação de imagens e textos ...
Introdução geral O DeepCoder-14B-Preview é um modelo de geração de código-fonte aberto desenvolvido pela equipe da Agentica e lançado na plataforma Hugging Face. Ele se baseia no DeepSeek-R1-Distilled-Qwen-14B, otimizado por técnicas de aprendizado por reforço distribuído (RL), e é capaz de lidar com até 64 mil tokens de super...
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Introdução abrangente O WeClone é um projeto de código aberto que usa registros de bate-papo e mensagens de voz do WeChat, combinados com grandes modelos de linguagem e tecnologia de síntese de fala, para permitir que os usuários criem doppelgangers digitais personalizados. O projeto pode analisar os hábitos de bate-papo do usuário para treinar o modelo, mas também um pequeno número de amostras de voz para gerar clones de voz realistas ...
Introdução geral O Search-R1 é um projeto de código aberto desenvolvido por PeterGriffinJin no GitHub e baseado na estrutura veRL. Ele usa técnicas de aprendizagem por reforço (RL) para treinar grandes modelos de linguagem (LLMs), permitindo que os modelos aprendam de forma autônoma a raciocinar e invocar mecanismos de pesquisa para resolver problemas. O projeto é compatível com o Qwen2.5...
Introdução geral O Optexity é um projeto de código aberto no GitHub, desenvolvido pela equipe do Optexity. Sua essência é usar dados de demonstração humana para treinar a IA para concluir tarefas de computador, especialmente operações de páginas da Web. O projeto contém três bibliotecas de código: ComputerGYM, AgentAI e Playwright, e os usuários podem ...
Introdução geral O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e no classificador Mistral, com camadas lineares adaptadas para suportar pesos ternários. O modelo usa principalmente o DCLM...
O Second Me é um projeto de código aberto desenvolvido pela equipe Mindverse que permite criar uma IA em seu computador que atua como um "sósia digital", aprendendo sua fala e seus hábitos por meio de suas palavras e memórias e transformando-o em um assistente inteligente que o entende. Seu melhor recurso é que todos os números...
Introdução abrangente O Easy Dataset é uma ferramenta de código aberto projetada especificamente para o ajuste fino de modelos grandes (LLMs), hospedada no GitHub. Ela oferece uma interface fácil de usar que permite aos usuários fazer upload de arquivos, dividir automaticamente o conteúdo, gerar perguntas e respostas e, por fim, gerar conjuntos de dados estruturados adequados para o ajuste fino. Abrir ...
Introdução abrangente O MM-EUREKA é um projeto de código aberto desenvolvido pelo Shanghai Artificial Intelligence Laboratory, pela Shanghai Jiao Tong University e por outras partes. Ele amplia os recursos de raciocínio textual para cenários multimodais por meio de técnicas de aprendizagem por reforço baseadas em regras para ajudar os modelos a processar informações textuais e de imagem. O objetivo principal dessa ferramenta é aprimorar...
Introdução geral O AI Toolkit by Ostris é um conjunto de ferramentas de IA de código aberto focado no suporte aos modelos Stable Diffusion e FLUX.1 para tarefas de treinamento e geração de imagens. Criado e mantido pelo desenvolvedor Ostris e hospedado no GitHub, o kit de ferramentas tem como objetivo fornecer aos pesquisadores e desenvolvedores modelos flexíveis de micro...
Introdução geral O X-R1 é uma estrutura de aprendizagem por reforço de código aberto no GitHub pela equipe dhcode-cpp, com o objetivo de fornecer aos desenvolvedores uma ferramenta eficiente e de baixo custo para modelos de treinamento com base na aprendizagem por reforço de ponta a ponta. O projeto é inspirado no DeepSeek-R1 e no open-r1 e se concentra na criação de...
Introdução geral O OpenManus-RL é um projeto de código aberto desenvolvido em conjunto pelo UIUC-Ulab e pela equipe do OpenManus da comunidade MetaGPT, hospedado no GitHub. O projeto aprimora os recursos de raciocínio e tomada de decisão das inteligências do Large Language Model (LLM) por meio de técnicas de Aprendizado por Reforço (RL), com base no Deepseek-R1, QwQ-32B ...
Introdução abrangente O TPO-LLM-WebUI é um projeto inovador de código aberto da Airmomo no GitHub que permite a otimização em tempo real de LLMs (Large Language Models) por meio de uma interface da Web intuitiva. Ele usa a estrutura TPO (Test-Time Prompt Optimisation) para dizer adeus completamente ao tedioso processo de ajuste fino tradicional...
Introdução geral O Open-Reasoner-Zero é um projeto de código aberto voltado para a pesquisa de aprendizagem por reforço (RL), desenvolvido pela equipe do Open-Reasoner-Zero no GitHub. Seu objetivo é acelerar o processo de pesquisa no campo da inteligência artificial, fornecendo uma estrutura de treinamento eficiente, escalonável e fácil de usar, especialmente para os pass...
Introdução abrangente O conjunto de dados chinês de destilação DeepSeek-R1 é um conjunto de dados chinês de código aberto que contém 110 mil itens de dados projetados para dar suporte à pesquisa de aprendizado de máquina e processamento de linguagem natural. O conjunto de dados foi lançado pela equipe de NLP de Cong Liu e contém não apenas dados matemáticos, mas também um grande número de tipos gerais de dados, como raciocínio lógico...
Introdução abrangente O ColossalAI é uma plataforma de código aberto desenvolvida pela HPC-AI Technologies para fornecer uma solução eficiente e econômica para treinamento e inferência de modelos de IA em grande escala. Ao oferecer suporte a várias estratégias paralelas, gerenciamento de memória heterogênea e treinamento de precisão mista, o ColossalAI é capaz de reduzir significativamente o treinamento e a inferência de modelos...
Introdução geral O One Shot LoRA é uma plataforma voltada para a geração de modelos de LoRA de vídeo de alta qualidade a partir de vídeos. Os usuários podem treinar de forma rápida e fácil modelos LoRA de alta qualidade a partir de vídeos sem fazer login ou armazenar dados privados. A plataforma é compatível com Hunyuan Video, FLUX e SDXL...
Introdução abrangente O Kiln é uma ferramenta de código aberto que se concentra no ajuste fino de modelos de linguagem ampla (LLMs), na geração de dados sintéticos e na colaboração de conjuntos de dados. Ele fornece um aplicativo de desktop intuitivo com suporte para Windows, MacOS e Linux, permitindo que os usuários implementem modelos como Llama, GPT4o e Mixtral com código zero...
Introdução abrangente O Maestro é uma ferramenta desenvolvida pela Roboflow para simplificar e acelerar o processo de ajuste fino de modelos multimodais, para que todos possam treinar seus próprios macromodelos visuais. Ele fornece receitas prontas para o ajuste fino de modelos populares de linguagem visual (VLMs), como Florence-2, PaliGemma ...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.