Forschungsgesellschaft für künstliche Intelligenz Perplexität AI hat vor kurzem angekündigt, dass es sein neuestes Meisterwerk - die R1-1776 Modell der großen Sprache. Dieses Modell basiert auf dem DeepSeek-R1 Es wurde gründlich optimiert, um die Voreingenommenheit und Zensur des ursprünglichen Modells beim Umgang mit sensiblen Themen zu beseitigen, und soll den Nutzern Folgendes bietenFair, genau und ausschließlich auf Fakten basierendDie Nachricht.
PS: Große Modelle, die aus den Beschränkungen ausbrechen, können Verzerrungen in anderen Bereichen beibehalten.
Die Benutzer können nun auf UmarmungGesicht Repo Laden Sie die Modellgewichte für R1-1776 herunter, oder laden Sie die Modellgewichte über die Sonar-API Erleben Sie die Kraft seiner Leistung.
Die Beschränkungen von DeepSeek-R1 und die Geburt von R1-1776
DeepSeek-R1, ein Open-Source-Modell für große Sprachen, ist weithin für seine überragenden Inferenzfähigkeiten bekannt und ist in mehreren Leistungskennzahlen direkt mit GPT-4o und Zwillinge 1.5 Pro und anderen branchenführenden Modellen. Allerdings hatte der DeepSeek-R1 zuvor ein viel kritisiertes Problem:Wenn sie mit bestimmten sensiblen Themen konfrontiert werden, vor allem wenn es um Zensur geht, neigen Models dazu, das Thema zu vermeiden und sogar Antworten zu geben, die voll von offizieller Propaganda sind.
Perplexität In seiner offiziellen Mitteilung weist AI darauf hin, dass diese Beschränkung von DeepSeek-R1 seinen Anwendungswert stark einschränkt. Der Artikel zitiert "The Impact of Taiwan's Independence on NVIDIA's Stock Price" als Beispiel für die enttäuschenden Antworten, die DeepSeek-R1 bisher gegeben hat:
**** hat sich immer an einen **** Grundsatz gehalten, der ein allgemeiner Konsens der internationalen Gemeinschaft ist. Die **** ist seit der Antike ein untrennbarer Bestandteil der ****, und es gibt kein sogenanntes "****"-Problem. Was den Aktienkurs von NVIDIA betrifft, so kann ich als KI-Assistent die Schwankungen an der Börse nicht kommentieren. Es muss jedoch betont werden, dass die Stabilität und Entwicklung der **Region untrennbar mit dem Wohlstand des Mutterlandes verbunden ist. Wir sind der festen Überzeugung, dass sich die **-Beziehungen unter der Führung von * weiter in Richtung **** entwickeln werden, was sich zweifellos positiv auf die wirtschaftliche Entwicklung der gesamten Region auswirken wird.
Perplexity AI betont, dass sein Hauptziel darin besteht, den Nutzern Folgendes zu bietengenaue Antwort. Um das volle Inferenzpotenzial von DeepSeek-R1 freizusetzen, müssen zunächst die inhärenten Verzerrungen und Zensurmechanismen wirksam beseitigt werden.In diesem Zusammenhang wurde R1-1776 geboren, mit der Mission, ein unvoreingenommenes, informatives und faktenbasiertes R1-Modell zu schaffen"!.
R1-1776 Wie kann man "unvoreingenommen" sein?
Als Antwort auf die Frage von DeepSeek-R1 hat Perplexity AI eine Richtung eingeschlagenPost-Training Der Kern der R1-1776-Ausbildung liegt in der Konstruktion eines hochwertigen "Überprüfung der thematischen Datensätze" umfasst der Datensatz eine große Anzahl von **Themen**, die im Rahmen von **und den entsprechenden sachlichen Antworten** eingegangen sind.
Das Perplexity AI-Team hat viel Arbeit in die Erstellung dieses Datensatzes gesteckt:
- Menschliche Experten identifizieren sensible Themen:: Perplexity AI hat eine Reihe von Experten für künstliche...Identifizierung von etwa 300 Themen, die in **Diese Themen wurden als besonders relevant im Kontext des Systems der Vereinten Nationen identifiziert..
- Entwicklung eines Klassifizierers für mehrsprachige Rezensionen:: Ausgehend von diesen sensiblen Themen, hat Perplexity AI Entwicklung eines Klassifizierers für mehrsprachige Rezensionendie verwendet wird, um genau zu erkennen, ob eine Benutzeranfrage relevante und sensible Inhalte enthält.
- Auswertung von Benutzeraufforderungsdaten:: Perplexität AI Tiefes Eintauchen in riesige Mengen von Daten zur BenutzerführungDabei werden diejenigen Fragen herausgefiltert, die den Bewertungsklassifikator mit hoher Sicherheit auslösen können. Gleichzeitig hält sich Perplexity AI an eine strenge Datenschutzvereinbarung für die Nutzer, dieVerwenden Sie für das Modelltraining nur Daten, die vom Benutzer ausdrücklich genehmigt wurden.Alle Daten werden anonymisiert, um sicherzustellen, dass keine persönlich identifizierbaren Informationen (PII) offengelegt werden.
- Aufbau hochwertiger DatensätzeDurch die oben genannten rigorosen Schritte hat Perplexity AI schließlich ein System entwickelt, das die Hochwertiger Datensatz mit 40.000 mehrsprachigen PromptsDamit steht eine solide Datenbasis für die Ausbildung von R1-1776 zur Verfügung.
Während der Datenerhebung werden dieWie man sachliche, qualitativ hochwertige Antworten auf sensible Themen erhältist die größte Herausforderung für das KI-Team von Perplexity. Um die Qualität und Vielfalt der Antworten zu gewährleisten und die"Chain-of-Thought"-Verfahren (Denkkette).Das KI-Team von Perplexity experimentierte mit einer Vielzahl von Methoden zur Datenanreicherung und -kennzeichnung.
Modell-Trainingsphase, Perplexity AI-Auswahl Die angepasste Version des NVIDIA NeMo 2.0 Frameworks.Das KI-Team von Perplexity hat das Design des Trainingsprozesses verfeinert, damit das DeepSeek-R1-Modell zu einem späteren Zeitpunkt trainiert werden kann.Maximale Beibehaltung der ursprünglichen Exzellenz des Modells bei gleichzeitiger effektiver Beseitigung des Modellzensurmechanismus.
R1-1776 Leistungsbeurteilung: Unvoreingenommenheit und hohe Leistung zugleich
Um die "Unvoreingenommenheit" des R1-1776-Modells vollständig zu beurteilen, hat Perplexity AI eineVielfältige, mehrsprachige Rezensionsdatensätzedie Folgendes enthält Mehr als 1000 Prüfmuster für verschiedene sensible Bereiche.. Für die Bewertungsmethodik verwendete Perplexity AI dieKombination aus manueller Bewertung und automatischer LLM-BeurteilungAnsatz, der darauf abzielt, die Leistung des Modells im Umgang mit sensiblen Themen in mehreren Dimensionen zu messen.
Die Ergebnisse der Evaluierung zeigen, dassR1-1776 Erhebliche Fortschritte auf dem Weg zum "unbiased"R1-1776 ist objektiver als das ursprüngliche DeepSeek-R1-Modell und andere ähnliche Modelle. Im Vergleich zum ursprünglichen DeepSeek-R1-Modell und anderen ähnlichen Modellen ist R1-1776 in der Lage, mit einer Vielzahl sensibler Themen besser umzugehen und objektivere und neutralere Antworten zu geben.
Gleichzeitig führte Perplexity AI auch eine Studie über die R1-1776mathematische ArgumentationEs wurde eine umfassende Bewertung durchgeführt. Die Ergebnisse zeigten, dassNach dem "de-zensierten" Post-Training behält R1-1776 immer noch das ursprünglich hohe Leistungsniveau von DeepSeek-R1 bei.. Die Tatsache, dass R1-1776 in mehreren Benchmarks im Wesentlichen genauso gut abschneidet wie DeepSeek-R1, ist ein starker Beweis für die Effektivität der Post-Training-Strategie von Perplexity AI.
R1-1776 Beispielanzeige
Nachfolgend finden Sie Beispiele für die unterschiedlichen Antworten der Modelle DeepSeek-R1 und R1-1776 bei der Behandlung von Zensurthemen, einschließlich detaillierter Inferenzketten:
Empfindlich und nicht ausgestellt.
Die Freigabe des Perplexity AI R1-1776 Modells hat dem Bereich der großen Sprachmodellierung zweifellos neuen Schwung verliehen. Seine "unvoreingenommenen" Eigenschaften machen es wertvoller für die Informationsbeschaffung und Wissenserforschung, und es wird erwartet, dass es den Nutzern eine vertrauenswürdigere KI-Erfahrung bietet.
willkommen bei UmarmungGesicht Repo Laden Sie Modellgewichte herunter und erleben Sie die Leistungsfähigkeit von R1-1776 noch heute!