AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

KI-Wissen Seite 5

如何为RAG应用选择最佳Embedding模型-首席AI分享圈

Wie man das beste Einbettungsmodell für RAG-Anwendungen auswählt

Die Vektoreinbettung ist das Herzstück der aktuellen Retrieval Augmented Generation (RAG) Anwendungen. Sie erfassen semantische Informationen über Datenobjekte (z. B. Text, Bilder usw.) und stellen sie als Zahlenreihen dar. In aktuellen generativen KI-Anwendungen werden diese Vektoreinbettungen normalerweise durch Einbettungsmodelle erzeugt. Wie man sich für die RAG bewirbt ...

万字长文讲透 RAG 在DB-GPT实际落地场景中的优化-首席AI分享圈

Ein 10.000 Wörter umfassender Artikel über die RAG-Optimierung in realen DB-GPT-Szenarien.

Vorwort In den letzten zwei Jahren hat sich die Retrieval-Augmented Generation (RAG, Retrieval-Augmented Generation) Technologie allmählich zu einer Kernkomponente der erweiterten Intelligenz entwickelt. Durch die Kombination der dualen Fähigkeiten von Retrieval und Generation ist RAG in der Lage, externes Wissen einzubringen und damit mehr Anwendungen großer Modelle in komplexen Szenarien zu ermöglichen...

2025年值得入坑的 AI Agent 五大框架-首席AI分享圈

Die 5 besten KI-Agenten-Frameworks, die sich im Jahr 2025 lohnen

Agent Die häufigste Übersetzung, die ich bisher gesehen habe, ist "intelligenter Körper", aber die direkte Übersetzung ist "Agent". Was sollte mit Agentic übersetzt werden? Meiner Meinung nach ist der Begriff "agentic" besser geeignet. Um also die Leser nicht zu verwirren, verwende ich in diesem Artikel direkt das Englische. Mit der Entwicklung von LLM, der Fähigkeit der KI...

朴素、有效的RAG检索策略:稀疏+密集混合检索并重排,并利用“提示缓存”为文本块生成整体文档相关的上下文-首席AI分享圈

Einfache, effektive RAG-Retrieval-Strategie: sparse + dense Hybrid-Suche und -Umordnung sowie Verwendung von "cue caching" zur Generierung von dokumentenrelevantem Gesamtkontext für Textabschnitte.

Damit ein KI-Modell in einem bestimmten Szenario nützlich sein kann, benötigt es in der Regel Zugang zu Hintergrundwissen. So muss beispielsweise ein Chatbot für den Kundensupport das spezifische Geschäft verstehen, das er bedient, während ein Bot für juristische Analysen Zugang zu einer großen Anzahl vergangener Fälle haben muss. Entwickler verwenden oft Retrieval-Augmente...

小白也能看懂的大模型微调知识点-首席AI分享圈

Große Wissenspunkte zur Feinabstimmung des Modells, die auch ein Anfänger verstehen kann

Vollständiger Prozess der Feinabstimmung großer Modelle Es wird empfohlen, sich bei der Feinabstimmung strikt an den oben genannten Prozess zu halten und das Überspringen von Schritten zu vermeiden, was zu ineffektiver Arbeit führen kann. Wenn zum Beispiel der Datensatz nicht vollständig aufgebaut ist und sich am Ende herausstellt, dass die schlechte Wirkung des feinabgestimmten Modells ein Problem der Qualität des Datensatzes ist, dann sind die vorbereitenden Bemühungen umsonst und die Angelegenheit...

Late Chunking×Milvus:如何提高RAG准确率-首席AI分享圈

Late Chunking x Milvus: Wie man die RAG-Genauigkeit verbessert

01.Hintergrund Bei der Entwicklung von RAG-Anwendungen ist der erste Schritt das Chunking des Dokuments. Effizientes Chunking von Dokumenten kann die Genauigkeit des späteren Abrufs von Inhalten effektiv verbessern. Effizientes Chunking von Dokumenten kann die Genauigkeit der nachfolgenden abgerufenen Inhalte effektiv verbessern. Wie man effizient chunking ist ein heißes Thema der Diskussion, gibt es wie feste Größe Chunking, zufällige Größe Chunking, Schiebefenster...

Anthropic总结构建高效智能体简单且有效的方法-首席AI分享圈

Anthropic fasst einfache und effektive Wege zum Aufbau effizienter Intelligenz zusammen

Im vergangenen Jahr haben wir mit Teams zusammengearbeitet, die Large Language Model (LLM)-Agenten in verschiedenen Branchen entwickeln. Dabei haben wir festgestellt, dass die erfolgreichsten Implementierungen keine komplexen Frameworks oder Spezialbibliotheken verwenden, sondern nach einfachen, komponierbaren Mustern aufgebaut sind. In diesem Beitrag erfahren Sie, was wir aus der Zusammenarbeit mit unseren Kunden und aus unseren eigenen Erfahrungen gelernt haben.

多为来自Anthropic的专家关于Prompt Engineering的讨论-首席AI分享圈

Vor allem Experten von Anthropic diskutieren Prompt Engineering

AI Summary Overview Ein detaillierter Blick auf AI Cue Engineering, mit einem Roundtable-Format, in dem mehrere Experten von Anthropic ihr Verständnis und ihre praktischen Erfahrungen mit Cue Engineering aus einer Vielzahl von Perspektiven, einschließlich Forschung, Verbraucher und Unternehmen, teilen. Der Artikel beschreibt die Definition von Cue Engineering, seine Bedeutung und wie...

Scaling Test-Time Compute:向量模型上的思维链-首席AI分享圈

Skalierung der Testzeitberechnung: Gedankenkette über Vektormodelle

Die Skalierung der Testzeitberechnung ist zu einem der heißesten Themen in KI-Kreisen geworden, seit OpenAI das o1-Modell veröffentlicht hat. Einfach ausgedrückt: Anstatt die Rechenleistung in der Pre- oder Post-Trainingsphase aufzustocken, ist es besser, dies in der Inferenzphase zu tun (d. h. wenn das große Sprachmodell die Ausgabe generiert)...

2024年度RAG清单,RAG应用策略100+-首席AI分享圈

2024 RAG-Bestandsaufnahme, RAG-Anwendungsstrategie 100+

  Im Jahr 2024 ändern sich die großen Modelle von Tag zu Tag, und Hunderte von intelligenten Einrichtungen konkurrieren miteinander. Als wichtiger Teil der KI-Anwendungen ist die RAG auch eine "Gruppe von Helden und Vasallen". Zu Beginn des Jahres ModularRAG weiter aufheizen, GraphRAG glänzen, in der Mitte des Jahres Open-Source-Tools in vollem Gange, der Wissensgraph, um eine neue Chance zu schaffen, das Ende des Jahres, grafische Argumentation ...

Best-of-N 越狱法:对输入内容进行简单的随机变形并反复尝试,就能让主流 AI 系统突破安全限制产生有害回应-首席AI分享圈

Best-of-N Jailbreak: ein einfaches zufälliges Morphen von Eingaben und wiederholte Versuche, Mainstream-KI-Systeme dazu zu bringen, Sicherheitsbeschränkungen zu durchbrechen und schädliche Reaktionen zu erzeugen

In den letzten Jahren hat die rasche Entwicklung von generativer KI (GAI) und großen Sprachmodellen (LLM) dazu geführt, dass Fragen der Sicherheit und Zuverlässigkeit viel Aufmerksamkeit auf sich gezogen haben. In einer kürzlich durchgeführten Studie wurde eine einfache, aber effiziente Angriffsmethode namens Best-of-N jailbreak (kurz BoN) entdeckt. Durch die Eingabe von ...

卷起来了!长文本向量模型分块策略大比拼-首席AI分享圈

Aufgerollt! Langtext-Vektor-Modelle Chunking-Strategien Wettbewerb

Das Langtext-Vektormodell kann zehn Seiten Text in einem einzigen Vektor kodieren. Das klingt mächtig, aber ist es auch wirklich praktisch? Viele Leute denken... Nicht unbedingt. Ist es in Ordnung, ihn direkt zu verwenden? Sollte er gechunked werden? Wie teilt man den Text am effizientesten auf? In diesem Artikel werden wir die verschiedenen Chunking-Strategien für Langtext-Vektormodelle eingehend diskutieren und die Vor- und Nachteile analysieren...

如何有效测试 LLM 提示词 - 从理论到实践的完整指南-首席AI分享圈

Wie man LLM-Hinweise effektiv testet - ein vollständiger Leitfaden von der Theorie bis zur Praxis

  I. Die Hauptursache für das Testen von Prompts: LLM reagiert sehr empfindlich auf Prompts, und subtile Änderungen in der Formulierung können zu signifikant unterschiedlichen Ergebnissen führen Ungetestete Prompts können zu folgenden Ergebnissen führen: Sachlich falsche Informationen Irrelevante Antworten Unnötig verschwendete API-Kosten II. Systematische Optimierung von Prompts...

AI College of Engineering: 1. Cue Engineering

Prompt-Engineering Prompt-Engineering, eine Schlüsselqualifikation in der Ära der generativen KI, ist die Kunst und Wissenschaft des Entwurfs effektiver Anweisungen, um Sprachmodelle bei der Generierung der gewünschten Ausgabe anzuleiten. Wie DataCamp berichtet, umfasst diese aufstrebende Disziplin das Entwerfen und Optimieren von Prompts, um die gewünschten Ergebnisse von KI-Modellen zu erzeugen (...

AI工程学院:2.1从零开始实现 RAG-首席AI分享圈

AI Engineering Academy: 2.1 RAG von Grund auf neu implementieren

Übersicht Diese Anleitung führt Sie durch die Erstellung eines einfachen Retrieval Augmented Generation (RAG) Systems mit Python. Wir werden ein Einbettungsmodell und ein großes Sprachmodell (LLM) verwenden, um relevante Dokumente abzurufen und Antworten auf Basis von Benutzeranfragen zu generieren. https://github.com/adithya-s-k/A...

AI工程学院:2.2基本 RAG 实现-首席AI分享圈

AI Engineering Academy: 2.2 Grundlegende RAG-Implementierung

Einleitung Retrieval-enhanced generation (RAG) ist eine leistungsstarke Technik, die die Vorteile großer Sprachmodelle mit der Fähigkeit kombiniert, relevante Informationen aus einer Wissensbasis abzurufen. Dieser Ansatz verbessert die Qualität und Genauigkeit der generierten Antworten, indem sie auf spezifischen abgerufenen Informationen basieren.a Dieses Notebook zielt darauf ab, ...

AI工程学院:2.3BM25 RAG (检索增强生成)-首席AI分享圈

AI Engineering Academy: 2.3BM25 RAG (Retrieval Augmented Generation)

EINLEITUNG BM25 Retrieval Augmented Generation (BM25 RAG) ist eine fortschrittliche Technik, die den BM25-Algorithmus (Best Matching 25) für das Information Retrieval mit einem großen Sprachmodell für die Texterstellung kombiniert. Durch die Verwendung eines validierten probabilistischen Retrievalmodells verbessert diese Methode die Genauigkeit und Relevanz der generierten Antworten....

de_DEDeutsch