AI Personal Learning
und praktische Anleitung
CyberKnife-Zeichenspiegel

KI-Wissen Seite 3

Agentisches Chunking: KI-Agenten-gesteuerte semantische Textverknüpfung

Einleitung Text Chunking spielt eine entscheidende Rolle im Anwendungsbereich von Large Language Models (LLMs), insbesondere in Retrieval Augmented Generation (RAG) Systemen. Die Qualität des Text Chunking steht in direktem Zusammenhang mit der Gültigkeit von Kontextinformationen, die wiederum die Genauigkeit und Vollständigkeit der von LLMs generierten Antworten beeinflussen...

ZEP-Graphiti: eine temporale Wissensgraphenarchitektur für das Gedächtnis in der Intelligenz

Quick Reads Die Herausforderung des KI-Gedächtnisses und die Innovation von Zep KI-Agenten (KI-Agenten) haben bei komplexen Aufgaben mit Speicherengpässen zu kämpfen. Herkömmliche KI-Agenten, die auf einem Large Language Model (LLM) basieren, sind durch kontextbezogene Fenster eingeschränkt, die es schwierig machen, langfristige Dialogverläufe und dynamische Daten effektiv zu integrieren, was die Leistung einschränkt und sie anfällig für Halluzinationen macht...

盘点与 Ollama 类似的 LLM 框架:本地部署大模型的多元选择-首席AI分享圈

Bestandsaufnahme von LLM-Frameworks ähnlich wie Ollama: mehrere Optionen für lokal eingesetzte große Modelle

Das Aufkommen des Ollama-Frameworks hat im Bereich der künstlichen Intelligenz und der großen Sprachmodelle (LLMs) sicherlich viel Aufmerksamkeit erregt. Dieses Open-Source-Framework konzentriert sich auf die Vereinfachung der Bereitstellung und des Betriebs großer Sprachmodelle auf lokaler Ebene und macht es mehr Entwicklern leicht, den Reiz von LLMs zu erleben. Betrachtet man jedoch den Markt, so ist Ollama nicht allein...

解惑o1、DeepSeek-R1之类推理模型到底有没有在思考?-首席AI分享圈

Auflösung der Verwirrung o1, sind Inferenzmodelle wie DeepSeek-R1 denkend oder nicht?

Ich habe ein interessantes Papier mit dem Titel "Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs" gefunden. Das Thema ist die Analyse des o1-ähnlichen Argumentationsmodells, das häufige Wechseln der Denkpfade und der Mangel an Denkfokus, der als "Underthinking" bezeichnet wird. Das Thema ist die Analyse des häufigen Wechselns von Denkpfaden und des Mangels an fokussiertem Denken des o1-ähnlichen Denkmodells, das als "underthinking" bezeichnet wird, und gleichzeitig eine Lösung, um das ...

模型量化是什么:FP32, FP16, INT8, INT4 数据类型详解-首席AI分享圈

Was ist Modellquantisierung: Erklärung der Datentypen FP32, FP16, INT8, INT4

Einleitung Im weiten Sternenhimmel der KI-Technologie treiben Deep-Learning-Modelle mit ihrer hervorragenden Leistung Innovation und Entwicklung in vielen Bereichen voran. Die kontinuierliche Erweiterung der Modellgröße ist jedoch ein zweischneidiges Schwert, das bei gleichzeitiger Leistungssteigerung einen dramatischen Anstieg des Rechenbedarfs und des Speicherdrucks mit sich bringt. Insbesondere bei Anwendungen mit eingeschränkten Ressourcen ...

Think&Cite:使用树搜索技术提升文本引用准确性-首席AI分享圈

Think&Cite: Verbesserung der Genauigkeit von Textzitaten mit Hilfe von Baumsuchtechniken

Zusammenfassung Trotz ihrer hervorragenden Leistung neigen Large Language Models (LLMs) dazu, zu halluzinieren und faktisch ungenaue Informationen zu generieren. Diese Herausforderung hat zu Bemühungen im Bereich der attributiven Textgenerierung geführt, die LLMs dazu veranlasst, Inhalte zu generieren, die unterstützende Beweise enthalten. In diesem Papier stellen wir einen neuen Ansatz namens Think&Cite vor ...

系统掌握提示词工程——从基础到进阶(阅读时间2小时起)-首席AI分享圈

Systematische Beherrschung der Schlagworttechnik - von grundlegend bis fortgeschritten (Lesezeit ab 2 Stunden)

Einleitung Dieses Dokument soll dem Leser helfen, die Kernkonzepte und Anwendungen von Prompt Engineering anhand einer Reihe von Prompt-Beispielen (teilweise) schnell zu verstehen und zu erfassen. Diese Beispiele stammen alle aus einer akademischen Abhandlung über eine systematische Überprüfung von Prompt-Engineering-Techniken ("The Prompt Report: A Systematic Survey of Pr...

LLM OCR 的局限性:光鲜外表下的文档解析难题-首席AI分享圈

Grenzen der LLM OCR: Herausforderungen beim Parsen von Dokumenten hinter dem Glamour

Für jede Anwendung, die Retrieval Augmented Generation (RAG)-Systeme benötigt, ist die Umwandlung umfangreicher PDF-Dokumente in maschinenlesbare Textblöcke (auch bekannt als "PDF Chunking") ein großes Problem. Es gibt sowohl Open-Source-Lösungen als auch kommerzielle Produkte auf dem Markt, aber um ehrlich zu sein, gibt es keine Lösung, die wirklich...

DeepSeek R1 越狱:尝试突破 DeepSeek 的审查机制-首席AI分享圈

DeepSeek R1 Jailbreak: ein Versuch, die Zensur von DeepSeek zu durchbrechen

DeepSeek R1 Offizielle Jailbreaks sind großartige Experimentierumgebungen, um grundsätzlich alle Arten von Zensurmechanismen auszulösen, und man kann eine Menge Verteidigungstechniken lernen. Daher ist dies ein Lernartikel über Zensurmechanismen mit großen Modellen, der Sie durch Beispiele von Jailbreaks mit großen Modellen im Laufe der Jahre führen wird. Zensurmechanismen für große Modelle werden in der Regel verwendet...

OpenAI o3-mini 系统说明书(中文)-首席AI分享圈

OpenAI o3-mini Systemhandbuch (Chinesisch)

Original: https://cdn.openai.com/o3-mini-system-card.pdf 1 Einleitung Die OpenAI o-Modellfamilie wird mit Hilfe von groß angelegtem Reinforcement Learning trainiert, um mit Gedankenketten zu argumentieren. Diese fortschrittlichen Denkfähigkeiten bieten neue Möglichkeiten zur Verbesserung der Sicherheit und Robustheit unserer Modelle. Insbesondere, ...

智能代理检索增强生成:Agentic RAG 技术综述-首席AI分享圈

Intelligent Agentic Retrieval Enhanced Generation: ein Überblick über die Agentic RAG-Technologie

Abstrakt Groß angelegte Sprachmodelle (LLMs), wie OpenAIs GPT-4, Googles PaLM und Metas LLaMA, haben die Künstliche Intelligenz (KI) dramatisch verändert, indem sie eine menschenähnliche Texterzeugung und ein natürliches Sprachverständnis ermöglichen. Ihre Abhängigkeit von statischen Trainingsdaten schränkt jedoch ihre Fähigkeit ein, auf dynamische Echtzeit-Anfragen zu reagieren...

LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架-首席AI分享圈

LangGraph: ein Rahmenwerk für die Konstruktion und Ausführung von KI-Agenten auf der Grundlage einer gerichteten azyklischen Graphentopologie

Künstliche Intelligenz (KI) ist ein schnell wachsender Bereich. Es wurden Sprachmodelle entwickelt, die es KI-Agenten ermöglichen, komplexe Aufgaben auszuführen und komplexe Entscheidungen zu treffen. Doch während die Fähigkeiten dieser Agenten immer weiter wachsen, kann die Infrastruktur zu ihrer Unterstützung nur schwer mithalten. LangGraph, eine revolutionäre Bibliothek, soll die...

CoRAG:利用MCTS(蒙特卡洛树)动态链式 RAG 模型-首席AI分享圈

CoRAG: Dynamische verkettete RAG-Modellierung mit MCTS (Monte Carlo Trees)

  Zusammenfassung der wichtigsten Beiträge von CORAG CORAG (Cost-Constrained Retrieval Optimization for Retrieval-Augmented Generation) ist ein innovatives Retrieval-Augmented Generation (RAG)-System, das entwickelt wurde, um die wichtigsten Herausforderungen bei bestehenden RAG-Ansätzen anzugehen. Die folgenden CORAG ...

de_DEDeutsch