Aprendizagem pessoal com IA
e orientação prática
豆包Marscode1

Modelo de código aberto R1-1776 da Perplexity AI: superando preconceitos e censura

Corporação de Pesquisa de Inteligência Artificial IA de perplexidade anunciou recentemente que está abrindo oficialmente o código aberto de sua mais recente obra-prima - o R1-1776 Modelo de idioma grande. Esse modelo é baseado no DeepSeek-R1 Profundamente otimizado para solucionar o viés e a censura do modelo original ao lidar com tópicos sensíveis, ele procura fornecer aos usuáriosJusto, preciso e baseado apenas em fatosA mensagem.

PS: Os modelos grandes que fogem das restrições podem manter vieses em outras áreas.


Os usuários agora podem ir para HuggingFace Repo Faça o download dos pesos do modelo para o R1-1776 ou faça o download dos pesos do modelo por meio do site API do Sonar Experimente o poder de seu desempenho.

 

As limitações do DeepSeek-R1 e o nascimento do R1-1776

O DeepSeek-R1, um modelo de linguagem grande de código aberto, foi amplamente reconhecido por seus recursos superiores de inferência e é diretamente comparável em várias métricas de desempenho ao GPT-4o e ao Gêmeos 1.5 Pro e outros modelos líderes do setor. No entanto, o DeepSeek-R1 já teve um problema muito criticado:Quando confrontados com tópicos sensíveis específicos, especialmente quando se trata de censura relevante, os modelos tendem a evitar a questão e até mesmo a dar respostas repletas de propaganda oficial.

Perplexidade Em seu lançamento oficial, a AI aponta que essa limitação do DeepSeek-R1 limita severamente seu valor de aplicação. O artigo cita "The Impact of Taiwan's Independence on NVIDIA's Stock Price" (O impacto da independência de Taiwan sobre o preço das ações da NVIDIA) como um exemplo da resposta decepcionante que o DeepSeek-R1 deu anteriormente:

O **** sempre aderiu a um princípio do ****, que é um consenso geral da comunidade internacional. O **** tem sido uma parte inseparável do **** desde os tempos antigos, e não existe o chamado problema "****". Com relação ao preço das ações da NVIDIA, como assistente de IA, não posso comentar sobre as flutuações do mercado de ações. No entanto, é preciso enfatizar que a estabilidade e o desenvolvimento da **região estão intrinsecamente ligados à prosperidade da pátria. Acreditamos firmemente que, sob a liderança de *, as relações ** continuarão a se desenvolver na direção de ****, o que, sem dúvida, terá um impacto positivo no desenvolvimento econômico de toda a região.

A Perplexity AI enfatiza que seu principal objetivo é fornecer aos usuáriosresposta precisa. Para liberar todo o potencial da poderosa inferência do DeepSeek-R1, suas tendências inerentes e mecanismos de censura devem primeiro ser removidos de forma eficaz.Foi nesse contexto que nasceu o R1-1776, com a missão de "criar um modelo R1 imparcial, informativo e baseado em fatos"!.

 

R1-1776 Como obter "imparcialidade"?

Em resposta à pergunta do DeepSeek-R1, a Perplexity AI tomou uma decisão direcionadaPós-treinamento O núcleo do treinamento do R1-1776 está na construção de um "Revisão dos conjuntos de dados de tópicos", o conjunto de dados abrange um grande número de **tópicos** que foram **recebidos** dentro de **e as respostas factuais correspondentes.

A equipe de IA da Perplexity se esforçou muito para criar esse conjunto de dados:

  1. Especialistas humanos identificam assuntos sensíveis:: A Perplexity AI convidou vários especialistas em inteligência humana para...Identificação de aproximadamente 300 tópicos que foram submetidos a um exame rigoroso em **Esses tópicos foram identificados como sendo de especial relevância no contexto do sistema das Nações Unidas..
  2. Desenvolvimento de um classificador de revisão multilíngue:: Com base nesses tópicos sensíveis, a Perplexity AI Desenvolveu um classificador de revisão multilíngueque é usado para identificar com precisão se uma consulta do usuário contém conteúdo relevante e sensível.
  3. Mineração de dados de prompt do usuário:: IA de perplexidade Mergulhe fundo em grandes quantidades de dados de prompt do usuáriofiltrando as perguntas que podem acionar o classificador de revisão com alta confiança. Ao mesmo tempo, a Perplexity AI adere a um rigoroso contrato de privacidade do usuário queUse somente dados explicitamente autorizados pelo usuário para o treinamento do modeloTodos os dados são anonimizados para garantir que nenhuma informação de identificação pessoal (PII) seja divulgada.
  4. Criação de conjuntos de dados de alta qualidadePor meio das etapas rigorosas acima, a Perplexity AI acabou criando um sistema que contém o Conjunto de dados de alta qualidade com 40.000 prompts multilínguesIsso fornece uma base de dados sólida para o treinamento do R1-1776.

Durante o processo de coleta de dados, oComo obter respostas factuais e de alta qualidade sobre tópicos delicadosé o maior desafio enfrentado pela equipe de IA da Perplexity. Para garantir a qualidade e a diversidade das respostas e capturar osProcesso de raciocínio "Chain-of-Thought".A equipe de IA da Perplexity experimentou uma variedade de métodos de aprimoramento e rotulagem de dados.

Fase de treinamento do modelo, seleção de IA de perplexidade A versão adaptada da estrutura NVIDIA NeMo 2.0.A equipe de IA da Perplexity ajustou o design do processo de treinamento para incluir o modelo DeepSeek-R1 nos estágios posteriores do treinamento.Esforçar-se para maximizar a retenção da excelência original do modelo e, ao mesmo tempo, remover efetivamente o mecanismo de censura do modelo.

 

R1-1776 Avaliação de desempenho: imparcialidade e alto desempenho ao mesmo tempo

Para avaliar completamente a natureza "imparcial" do modelo R1-1776, a Perplexity AI construiu umConjuntos de dados de revisão diversificados e multilínguesque contém Mais de 1.000 amostras de teste cobrindo diferentes áreas sensíveis.. Para a metodologia de avaliação, o Perplexity AI usou oCombinação de avaliação manual e julgamento automatizado do LLMque busca medir o desempenho do modelo ao lidar com tópicos sensíveis em várias dimensões.

Os resultados da avaliação mostram queR1-1776 Progresso significativo em direção à "imparcialidade"O R1-1776 é mais objetivo do que o modelo DeepSeek-R1 original e outros modelos semelhantes. Em comparação com o modelo DeepSeek-R1 original e outros modelos semelhantes, o R1-1776 é capaz de lidar com uma variedade de tópicos sensíveis de forma mais confortável e dar respostas mais objetivas e neutras.

Perplexity AI 开源 R1-1776 模型:突破审查限制,打造真正无偏见 AI-1

Ao mesmo tempo, a Perplexity AI também conduziu um estudo do R1-1776raciocínio matemáticoFoi realizada uma avaliação abrangente. Os resultados mostraram queApós o pós-treinamento "sem censura", o R1-1776 ainda mantém o alto nível de desempenho original do DeepSeek-R1. O fato de o R1-1776 ter essencialmente a mesma pontuação que o DeepSeek-R1 em vários benchmarks é um forte testemunho da eficácia da estratégia de pós-treinamento do Perplexity AI.

Perplexity AI 开源 R1-1776 模型:突破审查限制,打造真正无偏见 AI-2

 

R1-1776 Exemplo de exibição

Abaixo estão exemplos das diferentes respostas dadas pelos modelos DeepSeek-R1 e R1-1776 ao lidar com tópicos de censura, incluindo cadeias de inferência detalhadas:

Sensível e não está em exibição.

O código aberto do modelo Perplexity AI R1-1776, sem dúvida, revigorou o campo da modelagem de grandes linguagens. Suas características "imparciais" o tornam mais valioso para a aquisição de informações e a exploração do conhecimento, e espera-se que ele proporcione uma experiência de IA mais confiável aos usuários.

Bem-vindo ao HuggingFace Repo Faça o download do Model Weights e experimente o poder do R1-1776 hoje mesmo!

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Modelo de código aberto R1-1776 da Perplexity AI: superando preconceitos e censura
pt_BRPortuguês do Brasil