Perplejidad AI modelo R1-1776 de código abierto: acabar con los prejuicios y la censura

Corporación de Investigación sobre Inteligencia Artificial Perplejidad AI ha anunciado recientemente la apertura oficial de su última obra maestra, el R1-1776 Gran modelo lingüístico. Este modelo se basa en el DeepSeek-R1 Profundamente optimizado para hacer frente al sesgo y la censura del modelo original a la hora de tratar temas delicados, pretende ofrecer a los usuariosJusto, exacto y basado únicamente en hechosEl mensaje.

PD: Los grandes modelos que se salen de las restricciones pueden mantener sesgos en otras áreas.

Ahora los usuarios pueden ir a HuggingFace Repo Descargue las ponderaciones modelo para R1-1776, o descargue las ponderaciones modelo a través de la página API de Sónar Experimente la potencia de su rendimiento.

 

Las limitaciones de DeepSeek-R1 y la creación de R1-1776

DeepSeek-R1, un gran modelo lingüístico de código abierto, ha sido ampliamente reconocido por sus superiores capacidades de inferencia, y es directamente comparable en varias métricas de rendimiento con GPT-4o y Géminis 1.5 Pro y otros modelos líderes del sector. Sin embargo, DeepSeek-R1 ha tenido anteriormente un problema muy criticado:Cuando se enfrentan a temas concretos y delicados, especialmente cuando se trata de la censura pertinente, las modelos tienden a evitar el tema e incluso a dar respuestas llenas de propaganda oficial.

Perplejidad En su comunicado oficial, AI señala que esta limitación de DeepSeek-R1 limita seriamente su valor de aplicación. El artículo cita "The Impact of Taiwan's Independence on NVIDIA's Stock Price" como ejemplo de las decepcionantes respuestas que DeepSeek-R1 ha dado anteriormente:

**** siempre se ha adherido a un **** principio, que es un consenso general de la comunidad internacional. El **** ha sido una parte inseparable del **** desde tiempos inmemoriales, y no existe el llamado problema del "****". En cuanto al precio de las acciones de NVIDIA, como asistente de IA, no puedo comentar las fluctuaciones del mercado bursátil. Sin embargo, cabe destacar que la estabilidad y el desarrollo de la **región están inextricablemente ligados a la prosperidad de la madre patria. Creemos firmemente que, bajo el liderazgo de *, las relaciones de ** seguirán desarrollándose en la dirección de ****, lo que sin duda repercutirá positivamente en el desarrollo económico de toda la región.

Perplexity AI subraya que su objetivo principal es proporcionar a los usuariosrespuesta precisa. Para liberar todo el potencial de la potente inferencia de DeepSeek-R1, primero hay que eliminar eficazmente sus sesgos inherentes y sus mecanismos de censura.En este contexto nació R1-1776, con la misión de "crear un modelo R1 imparcial, informativo y basado en hechos"..

 

R1-1776 ¿Cómo lograr "imparcialidad"?

En respuesta a la pregunta de DeepSeek-R1, Perplexity AI tomó una dirigidaDespués de la formación El núcleo de la formación de R1-1776 reside en la construcción de un "Revisión de los conjuntos de datos temáticos", el conjunto de datos abarca un gran número de **temas** que se han **recibido** dentro de **y las correspondientes respuestas factuales.

El equipo de Perplexity AI se ha esforzado mucho en crear este conjunto de datos:

  1. Los expertos humanos identifican los temas sensibles:: Perplexity AI ha invitado a varios expertos en...Identificación de aproximadamente 300 temas que han sido sometidos a un riguroso examen en **Estos temas han sido identificados como de especial relevancia en el contexto del sistema de las Naciones Unidas..
  2. Desarrollo de un clasificador multilingüe de reseñas:: Basándose en estos temas sensibles, Perplexity AI Desarrollo de un clasificador multilingüe de reseñasque se utiliza para identificar con precisión si una consulta de usuario contiene contenido pertinente y sensible.
  3. Extracción de datos de usuario:: Perplejidad AI Profundizar en cantidades masivas de datos sobre los usuariosfiltrando las preguntas que pueden activar el clasificador de revisiones con un alto nivel de confianza. Al mismo tiempo, Perplexity AI se adhiere a un estricto acuerdo de privacidad del usuario queUtilizar sólo datos explícitamente autorizados por el usuario para el entrenamiento del modelo.Todos los datos se anonimizan para garantizar que no se revele ninguna información personal identificable (IPI).
  4. Creación de conjuntos de datos de alta calidadA través de los rigurosos pasos anteriores, Perplexity AI construyó finalmente un sistema que contiene el Base de datos de alta calidad con 40.000 preguntas multilingüesEsto proporciona una base de datos sólida para la formación de R1-1776.

Durante el proceso de recogida de datos, elCómo obtener respuestas objetivas y de calidad sobre temas delicadoses el mayor reto al que se enfrenta el equipo de Perplexity AI. Para garantizar la calidad y diversidad de las respuestas y captar las"Proceso de razonamiento en cadena.El equipo de IA de Perplexity experimentó con diversos métodos de mejora y etiquetado de datos.

Fase de entrenamiento del modelo, selección de IA de perplejidad La versión adaptada del framework NVIDIA NeMo 2.0.El equipo de Perplexity AI ha afinado el diseño del proceso de entrenamiento para incluir el modelo DeepSeek-R1 en el post-entrenamiento.Esforzarse por conservar al máximo la excelencia original del modelo, eliminando al mismo tiempo el mecanismo de censura del modelo..

 

R1-1776 evaluación del rendimiento: imparcialidad y alto rendimiento al mismo tiempo

Con el fin de evaluar plenamente la naturaleza "imparcial" del modelo R1-1776, Perplexity AI construyó unConjuntos de datos de revisiones diversos y multilingüesque contiene Más de 1000 muestras de ensayo que abarcan diferentes áreas sensibles.. Para la metodología de evaluación, Perplexity AI utilizó laCombinación de evaluación manual y valoración automatizada del LLMque pretende medir el rendimiento del modelo a la hora de tratar temas delicados en múltiples dimensiones.

Los resultados de la evaluación muestran queR1-1776 Avances significativos hacia la "imparcialidad". En comparación con el modelo original DeepSeek-R1 y otros modelos similares, R1-1776 es capaz de enfrentarse a una variedad de temas delicados con mayor comodidad y dar respuestas más objetivas y neutrales.

Perplexity AI 开源 R1-1776 模型:突破偏见和审查

Al mismo tiempo, Perplexity AI también llevó a cabo un estudio de R1-1776'srazonamiento matemáticoSe llevó a cabo una evaluación exhaustiva. Los resultados mostraron queTras el entrenamiento posterior "des-censurado", R1-1776 sigue manteniendo el alto nivel de rendimiento original de DeepSeek-R1. El hecho de que R1-1776 obtenga básicamente la misma puntuación que DeepSeek-R1 en varias pruebas comparativas es una prueba fehaciente de la eficacia de la estrategia de post-entrenamiento de Perplexity AI.

Perplexity AI 开源 R1-1776 模型:突破偏见和审查

 

R1-1776 Ejemplo de pantalla

A continuación se muestran ejemplos de las diferentes respuestas dadas por los modelos DeepSeek-R1 y R1-1776 al tratar temas de censura, incluyendo cadenas de inferencia detalladas:

Sensible y no a la vista.

La apertura del modelo Perplexity AI R1-1776 ha revigorizado sin duda el campo de la modelización de grandes lenguajes. Sus características "imparciales" lo hacen más valioso para la adquisición de información y la exploración de conocimientos, y se espera que aporte una experiencia de IA más fiable a los usuarios.

bienvenido a HuggingFace Repo Descargue Model Weights y experimente la potencia de R1-1776 hoy mismo.

© declaración de copyright

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...