AI Personal Learning
und praktische Anleitung

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

Kürzlich berichtete Liang Lei, der Leiter der Wissensmaschine der Ant Group, auf der Bund-Konferenz über die Arbeitsfortschritte des Teams in den letzten sechs Monaten bei der Erforschung der Fusion von Wissensgraphen und groß angelegten Sprachmodellen und stellte KAG vor, das erste Service-Framework zur Wissenserweiterung für professionelle Bereiche in China, das den Aufbau professioneller Intelligenz mit Wissenserweiterungsfunktionen unterstützt. Bei diesem Artikel handelt es sich um eine textliche Zusammenstellung des Berichtsinhalts.

Verwandte technische Berichte arXiv-Adresse:https://arxiv.org/pdf/2409.13731


 

Dieses Mal haben wir den technischen Gesamtbericht von KAG veröffentlicht. Wir hoffen, die Vorteile der symbolischen Berechnung und des Vektor-Retrievals von Wissensgraphen zu vereinen, da sie in vielerlei Hinsicht komplementär sind. Gleichzeitig nutzen wir die Verstehens- und Generierungsfähigkeiten großer Sprachmodelle, um ein wissensgestütztes System zur Generierung großer Sprachmodelle aufzubauen.

Wir sind in Kürze in OpenSPG Das KAG-Framework ist im Open-Source-Projekt unter der GitHub-Adresse veröffentlicht:

https://github.com/OpenSPG/KAG

 

Schlüsselaspekte bei der Anwendung großer vertikaler Modelle

Nach fast zwei Jahren Forschung und Praxis hat die Industrie im Allgemeinen die Stärken und Grenzen von Big Language Models sowie ihre Herausforderungen bei branchenspezifischen Anwendungen erkannt. Obwohl Big Language Models starke Verständnis- und Generierungsfähigkeiten bewiesen haben, gibt es immer noch Probleme wie fehlendes Domänenwissen, Schwierigkeiten beim Treffen komplexer Entscheidungen und mangelnde Zuverlässigkeit in professionellen Domänen. Wir glauben, dass "Vertrauenswürdigkeit" eine wichtige Voraussetzung für die Implementierung von Big Language Models in realen Szenarien ist.

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

1.1 LLM hat nicht die Fähigkeit, kritisch zu denken

Erstens bieten große Sprachmodelle keine strengen Schlussfolgerungsmöglichkeiten. Wir haben zum Beispiel die Frage "Wer ist der gemeinsame Star von 1989 A Thought und The Best Match?" verwendet. Diese Frage haben wir mit mehreren großen Sprachmodellen in China getrennt getestet, und die Ergebnisse zeigen, dass die Genauigkeit und Konsistenz der Antworten gering sind. Selbst wenn einige Modelle eine Antwort geben können, gibt es Logikfehler oder eine unsachgemäße Zerlegung des Problems. Je komplexer die Bedingungen werden, wie z. B. die Änderung der Bedingungen in "männlicher Hauptdarsteller" und "weiblicher Hauptdarsteller" oder das Hinzufügen von Zeitbeschränkungen, desto geringer werden Genauigkeit und Stabilität.

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

Um diese Probleme zu lösen, wurden in der Industrie viele Untersuchungen durchgeführt. Durch die Konstruktion des Modells der Gedankenkette (Chain-of-Thought, COT) und die Definition der Multiple/Tree/Graph-Denkkettenschablone wird LLM beispielsweise dazu angeleitet, das Problem vernünftig zu zerlegen. In diesem Jahr hat sich die Forschung mehr und mehr darauf konzentriert, die RAG Techniken in das große Sprachmodell ein, um dessen Mangel an Sachinformationen auszugleichen. Weitere Entwicklungen betreffen GraphRAG, das Graphenstrukturen zur Optimierung von Retrievalmechanismen einsetzt.

Die Einführung externer Wissensdatenbanken ist heute weit verbreitet, aber selbst wenn Techniken wie RAG eingeführt werden, um domänenspezifische Wissensdatenbanken oder Faktendateien für die Neugenerierung in großen Sprachmodellen verfügbar zu machen, ist die Genauigkeit der generierten Antworten immer noch nicht vollständig garantiert.

 

1.2 Sachliche, logische und präzise Fehler

Die linke Seite der Abbildung unten zeigt ein Beispiel für die Verwendung eines großen Modells zur Interpretation eines Indikators in einem Regierungsbericht. Obwohl die Geschäftsleute den Indikator im Voraus markiert haben, wird das große Modell dennoch ihr eigenes Verständnis hinzufügen, was zu verzerrten Informationen oder nicht belegten Fehlern führt. So wird beispielsweise erwähnt, dass eine bestimmte Stadt in einer bestimmten Provinz an erster Stelle steht, was aber aus Sicht der Wirtschaft nicht korrekt ist. Auch die Information über eine 80-Millionen-Dollar-Beteiligung an einer Bank, die versteigert wurde, ist im Originaldokument nicht enthalten. Schlimmer noch, das Modell produziert auch numerische und logische Fehler, wenn die im Originaldokument angegebenen Geschäftskennzahlen dem Jahr 2022 zuzuordnen sind, der generierte Inhalt aber als 2023 bezeichnet wird.

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

Ungenauigkeiten beim Abruf bleiben auch dann ein Problem, wenn eine externe Wissensbasis zur Verfügung gestellt wird. Das Beispiel auf der rechten Seite veranschaulicht die Unzulänglichkeiten des RAG-Ansatzes, der auf der Berechnung von Vektoren basiert. Bei der Abfrage, wie eine Rente zu finden ist, korreliert die direkte Verwendung von Vektoren zur Berechnung der abgerufenen Dokumente nicht mit dem von den Geschäftsexperten definierten Wissen.

In vertikalen Bereichen sind viele Kenntnisse eng miteinander verbunden, auch wenn sie auf den ersten Blick nicht ähnlich erscheinen. So gehört z. B. "Rente" zur Kategorie "fünf Versicherungen und eine Rente", die eng mit der nationalen Politik verbunden ist, und das große Modell kann solche Informationen nicht willkürlich generieren. Daher ist eine vordefinierte Struktur des Domänenwissens erforderlich, um das Verhalten des Modells einzuschränken und einen effektiven Wissensinput zu liefern.

 

1.3 Generische RAG kämpft auch damit, LLM-Illusionen zu lösen

Ant hat kürzlich eine Bewertung des RAG-induzierten Halluzinationsphänomens veröffentlicht.Es wird oft angenommen, dass die Einführung von RAGs und externen Wissensbasen das Illusionsproblem großer Modelle effektiv vermeidet. In Wirklichkeit ist dies nicht der Fall, und das auf diese Weise erzeugte Halluzinationsproblem ist noch versteckter und nicht leicht zu erkennen.

Wie in der Abbildung unten zu sehen ist, wird im Originaltext erwähnt, dass die Vitamine und Mineralien in funktionellen Getränken den Körper mit Nährstoffen versorgen und die Müdigkeit nach dem Sport beseitigen, aber nachdem das Modell umgeschrieben wurde, kann es fälschlicherweise als "mit einer gewissen Wirkung auf die Erhöhung der Müdigkeit" beschrieben werden, was eine irreführende Botschaft ist, die den Benutzern Probleme bereiten wird.

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

Darüber hinaus gibt es Probleme mit Entitätsumkehrungen, z. B. wenn der ursprüngliche Satz von "15-18 Tage nach der Verpuppung" in "25-32 Tage nach der Verpuppung" umgeschrieben wird. Diese Arten von Detailfehlern werden schwieriger zu erkennen, wenn das Modell Hunderte oder sogar Tausende von Wörtern generiert.

Den Evaluierungsergebnissen zufolge leidet das große Sprachmodell auch nach der Einbeziehung der RAG-Technik immer noch unter einer Phantomrate von 30%-40%, was ein recht hoher Prozentsatz ist. Bei der Anwendung großer Sprachmodelle in vertikalen Domänen müssen sie daher extrem hohen Anforderungen an die Professionalität genügen.

 

1.4 Herausforderungen und Anforderungen an professionelle Wissensdienste

In realen geschäftlichen Entscheidungsszenarien, sei es bei der Erstellung eines Forschungsberichts oder bei der Bearbeitung eines Kfz-Versicherungsanspruchs, erfordert die Lösung komplexer Probleme einen strengen, schrittweisen Prozess, der die Problemplanung, die Datenerfassung, die Ausführung der Entscheidung sowie die Erstellung und Rückmeldung umfasst. Auch bei der Anwendung von Big-Language-Modellen auf professionelle Bereiche muss ein strenger und kontrollierter Entscheidungsfindungsprozess vorhanden sein.

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

Bei der Bereitstellung von Fachdiensten auf der Grundlage eines großen Modells müssen mehrere Bedingungen erfüllt sein, um der Gemeinschaft und bestimmten Bereichen besser dienen zu können:

  • Erstens ist es wichtig, die Genauigkeit des Wissens zu gewährleisten, einschließlich der Integrität seiner Grenzen und der Klarheit seiner Struktur und Semantik;
  • Zweitens sind logische Stringenz, Zeitsensibilität und numerische Sensibilität erforderlich;
  • Schließlich werden vollständige Kontextinformationen benötigt, um den Zugang zu vollständigen Informationen zu erleichtern, wenn wissensbasierte Entscheidungen getroffen werden;

Dies sind auch die Fähigkeiten, die den meisten aktuellen großen Modellen fehlen. Angesichts dessen haben wir in der ersten Hälfte dieses Jahres viele Untersuchungen durchgeführt und offiziell mit dem Aufbau eines kontrollierten Generierungsrahmens auf der Grundlage von Wissensanreicherung für vertikale Bereiche begonnen.

 

KAG: Knowledge Augmentation Service Framework für Fachgebiete

Die nachstehende Abbildung veranschaulicht das Prinzip unseres Gesamtrahmens für die wissensgestützte Generierung (KAG), der sich auf die OpenSPG Upgrades auf der Grundlage von Open-Source-Projekten. Wir haben Verbesserungen vorgenommen, um fünf Aspekte der aktuellen Kombination von großen Sprachmodellen und Wissensgraphen zu berücksichtigen:

Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

 

Erstens erreichen wir eine Verbesserung der Wissensdarstellung. Der ursprüngliche Wissensgraph ist durch ein starkes Schema eingeschränkt, was zu einer hohen Anwendungsschwelle und spärlichen Daten führt, wodurch er bei der Beantwortung von Fragen in vertikalen Domänen oft unlösbar ist. Aus diesem Grund haben wir die Wissensrepräsentation für große Sprachmodelle optimiert und erweitert, so dass der Wissensgraph die Anwendung von großen Sprachmodellen besser unterstützen kann.

Zweitens dienen Diagramme als hervorragendes Integrationsinstrument, um alle Arten von Wissen besser miteinander zu verknüpfen, egal ob es sich um strenges akademisches Wissen oder um Informationen in einem Text handelt. Daher.Wir haben eine wechselseitige Indexstruktur geschaffen, indem wir von einem begriffsbasierten invertierten Index zu einem graphbasierten invertierten Index übergegangen sind.Dadurch werden nicht nur Dokumente effizient indiziert, sondern auch semantische Assoziationen zwischen Dokumenten und Kohärenz zwischen Entitäten aufrechterhalten.

Drittens setzen wir während des Schlussfolgerungsprozesses die symbolische Zerlegung ein, um logische Strenge zu gewährleisten. Da es schwierig ist, die logische Konsistenz der vom Sprachmodell generierten Sprache zu gewährleisten, führen wir den LogicForm-driven Solver and Reasoning für die symbolbasierte Disambiguierung ein.

Viertens: Um die Lücke zwischen den Kosten für die Erstellung des Wissensgraphen und der Effizienz der praktischen Anwendung zu schließen, verwenden wir die Methode der Extraktion offener Informationen, um den Wissensgraphen zu erstellen, was die Kosten für die Erstellung erheblich reduziert, aber auch mehr Rauschen verursacht. Daher führen wir einen Mechanismus zum Wissensabgleich ein, der konzeptuelles Wissen verwendet, um den Abgleich zwischen offenen Informationen und Domänenwissen zu vervollständigen, mit dem Ziel, die Bedürfnisse der Extraktion offener Informationen und des semantischen Abgleichs auszugleichen.

Schließlich haben wir das KAG-Modell mit dem Ziel entwickelt, die Fähigkeiten von großen Sprachmodellen und Wissensgraphen besser zu integrieren, um eine effektivere Synergie zu erreichen. Die organische Interaktion zwischen den beiden wird durch die Anweisungssynthese erleichtert, mit dem letztendlichen Ziel, die Vorteile der symbolischen Berechnung und des Vektor-Retrievals vollständig zu integrieren und die Verständnis- und Generierungsfähigkeiten des Sprachmodells voll auszuschöpfen, um so seine Anwendung und die Verbesserung der Fähigkeiten in vertikalen Bereichen zu fördern.

AI Leichtes Lernen

Der Leitfaden für Laien zum Einstieg in die KI

Hilft Ihnen, die Nutzung von KI-Tools kostengünstig und von Null an zu erlernen.KI ist, wie Bürosoftware, eine wesentliche Fähigkeit für jeden. Die Beherrschung von KI verschafft Ihnen einen Vorteil bei der Stellensuche und die Hälfte des Aufwands bei Ihrer zukünftigen Arbeit und Ihrem Studium.

Details ansehen>
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Technischer Bericht über KAG, das erste professionelle Service-Framework zur Erweiterung des Fachwissens in China, das großen Modellen hilft, in vertikalen Bereichen zu landen.

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)