AI Personal Learning
und praktische Anleitung
TRAE

KI-Wissen

评估大语言模型的创造力:超越选择题的 LoTbench 范式-首席AI分享圈

Bewertung der Kreativität großer Sprachmodelle: Jenseits des Multiple-Choice-Paradigmas LoTbench

Im Bereich der Large Language Modelling (LLM)-Forschung ist die Leap-of-Thought-Fähigkeit des Modells, d.h. die Kreativität, nicht weniger wichtig als die Fähigkeit zum logischen Denken, die durch die Chain-of-Thought dargestellt wird. Es gibt jedoch immer noch einen relativen Mangel an eingehenden Diskussionen und validen Bewertungsmethoden für LLM-Kreativität, die in einem ...

GPT-4.1 官方提示工程指南(中文版)-首席AI分享圈

GPT-4.1 Offizielles Handbuch für technische Tipps (chinesische Version)

Die GPT-4.1-Modellfamilie bietet im Vergleich zu GPT-4o erhebliche Verbesserungen bei der Codierung, der Befolgung von Anweisungen und der Verarbeitung langer Kontexte. Insbesondere schneidet sie bei der Codegenerierung und bei Reparaturaufgaben besser ab, versteht und führt komplexe Anweisungen genauer aus und kann längere Eingabetexte effizient verarbeiten. Diese angedeutete Arbeit ...

GTR 框架:基于异构图和分层检索的跨表问答新方法-首席AI分享圈

Der GTR-Rahmen: ein neuer Ansatz für tabellenübergreifende Fragen und Antworten auf der Grundlage heterogener Graphen und hierarchischer Abfragen

1 EINLEITUNG In der heutigen Informationsexplosion wird eine große Menge an Wissen in Form von Tabellen in Webseiten, Wikipedia und relationalen Datenbanken gespeichert. Herkömmliche Frage- und Antwortsysteme haben jedoch oft Schwierigkeiten, komplexe Abfragen über mehrere Tabellen hinweg zu bearbeiten, was zu einer großen Herausforderung im Bereich der künstlichen Intelligenz geworden ist. Um diese Herausforderung zu bewältigen, haben Forscher ...

EQ-Bench 如何评估大型语言模型的情商与创造力-首席AI分享圈

EQ-Bench Wie man emotionale Intelligenz und Kreativität in großen Sprachmodellen bewertet

Da sich die Fähigkeiten von Large Language Models (LLMs) rasch weiterentwickeln, zeigen herkömmliche Benchmark-Tests wie MMLU allmählich ihre Grenzen bei der Unterscheidung von Spitzenmodellen. Wenn man sich nur auf Wissensquizze oder standardisierte Tests verlässt, ist es schwierig geworden, die nuancierten Fähigkeiten von Modellen umfassend zu messen, die in realen Interaktionen entscheidend sind, wie z. B. emotionale Intelligenz,...

大语言模型推理:在“思考不足”与“过度思考”之间寻求平衡-首席AI分享圈

Reasoning mit großen Sprachmodellen: Ausgleich zwischen "Unterdenken" und "Überdenken"

Die Entwicklung von Large Language Models (LLMs) schreitet rasch voran, und ihre Denkfähigkeit ist zu einem Schlüsselindikator für ihren Intelligenzgrad geworden. Insbesondere Modelle mit langen Denkfähigkeiten wie o1, DeepSeek-R1, QwQ-32B und Kimi K1.5 von OpenAI, die den menschlichen Denkprozess durch das Lösen zusammengesetzter Aufgaben simulieren,...

突破工具调用瓶颈:CoTools 框架助力大型语言模型高效利用海量工具-首席AI分享圈

Überwindung des Engpasses beim Aufruf von Werkzeugen: Das CoTools-Framework ermöglicht großen Sprachmodellen die effiziente Nutzung einer großen Anzahl von Werkzeugen

EINLEITUNG In den letzten Jahren haben große Sprachmodelle (Large Language Models, LLMs) beeindruckende Fortschritte im Bereich der Künstlichen Intelligenz (KI) gemacht, und ihre leistungsstarken Sprachverstehens- und -generierungsfähigkeiten haben zu einem breiten Spektrum von Anwendungen in verschiedenen Bereichen geführt. Allerdings stehen LLMs immer noch vor vielen Herausforderungen, wenn sie komplexe Aufgaben bewältigen müssen, die den Einsatz externer Werkzeuge erfordern. Zum Beispiel, ...

gemeinsame uv-Befehle

Im Python-Ökosystem gab es schon immer einen Mangel an Werkzeugen für die Paket- und Umgebungsverwaltung, von den klassischen pip und virtualenv über pip-tools und conda bis hin zu den modernen Poetry und PDM. Jedes dieser Tools hat sein eigenes Fachgebiet, aber sie machen die Toolchain eines Entwicklers oft fragmentiert und komplex. Jetzt, von A...

为何多智能体协作系统更容易出错?-首席AI分享圈

Warum sind kollaborative Systeme mit mehreren Intelligenzen fehleranfälliger?

EINLEITUNG In den letzten Jahren haben multi-intelligente Systeme (MAS) auf dem Gebiet der künstlichen Intelligenz viel Aufmerksamkeit auf sich gezogen. Diese Systeme versuchen, komplexe, mehrstufige Aufgaben durch die Zusammenarbeit mehrerer Large Language Model (LLM) Intelligenzen zu lösen. Trotz der hohen Erwartungen, die an MAS geknüpft werden, ist ihre Leistung in realen Anwendungen noch nicht ...

Anthropic 深度剖析 Claude:揭示大型语言模型的的决策与推理过程-首席AI分享圈

Anthropic Deep Dive Claude: Aufdeckung von Entscheidungsfindungs- und Argumentationsprozessen in großen Sprachmodellen

Große Sprachmodelle (Large Language Models, LLMs) wie Claude werden nicht von Menschen erstellt, die direkten Programmiercode schreiben, sondern sie werden anhand großer Datenmengen trainiert. Dabei lernen die Modelle ihre eigenen Strategien zur Lösung von Problemen. Diese Strategien sind in den Milliarden von Berechnungen versteckt, die das Modell durchführt, um jedes Wort für...

DeepRetrieval:强化学习驱动的高效信息检索查询生成-首席AI分享圈

DeepRetrieval: Effiziente Generierung von Informationsabfragen durch verstärkendes Lernen

Abstrakte Information Retrieval Systeme sind entscheidend für den effizienten Zugang zu großen Dokumentensammlungen. Jüngste Ansätze verwenden Large Language Models (LLMs), um die Suchleistung durch Abfrageerweiterung zu verbessern. Diese beruhen jedoch in der Regel auf teuren überwachten Lern- oder Destillationstechniken, die erhebliche Rechenressourcen und manuell gelabelte Daten erfordern. In ...

OpenAI发布:大型语言模型如何监控自身的不当行为-首席AI分享圈

OpenAI release: Wie große Sprachmodelle sich selbst auf Fehlverhalten überwachen

Large Reasoning Models (LLMs) nutzen Schwachstellen aus, wenn sie die Gelegenheit dazu haben. Die Forschung hat gezeigt, dass diese Schwachstellen aufgedeckt werden können, indem große Sprachmodelle (LLMs) zur Überwachung ihrer Gedankenketten (CoT) eingesetzt werden. Die Bestrafung von Modellen für "schlechte Gedanken" verhindert das meiste Fehlverhalten nicht, sondern bringt sie eher dazu, ihre Absichten zu verbergen. ...

[转载]QwQ-32B 的工具调用能力及 Agentic RAG 应用-首席AI分享圈

[Nachdruck] QwQ-32B's Tool Calling Capability und Agentic RAG Anwendung

Hintergrund Kürzlich hat ein Papier mit dem Titel Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning (arxiv.org/pdf/2503.09516) viel Aufmerksamkeit erregt. Das Papier schlägt einen Weg vor, Reinforcement Learning zu verwenden, um große...

LazyGraphRAG:大幅优化 GraphRAG 的质量与成本-首席AI分享圈

LazyGraphRAG: Drastische Optimierung der Qualität und der Kosten von GraphRAG

Das GraphRAG-Projekt zielt darauf ab, das Spektrum der Fragen zu erweitern, die KI-Systeme in privaten Datensätzen beantworten können, indem sie implizite Beziehungen in unstrukturiertem Text ausnutzen. Ein wesentlicher Vorteil von GraphRAG gegenüber der traditionellen Vektor-RAG (oder "semantischen Suche") ist die Fähigkeit, globale Abfragen über ganze Datensätze zu beantworten, wie z. B....

DeepSearch/DeepResearch中最优文本段选择和URL重排-首席AI分享圈

Optimale Textsegmentauswahl und URL-Umordnung in DeepSearch/DeepResearch

Wenn Sie Jina's letzten klassischen Artikel "Design und Implementierung von DeepSearch/DeepResearch" bereits gelesen haben, dann möchten Sie vielleicht tiefer in einige Details einsteigen, die die Qualität der Antworten erheblich verbessern können. Dieses Mal werden wir uns auf zwei Details konzentrieren: die Extraktion optimaler Textsegmente aus langen Webseiten: wie man Late-Chun...

Gemma 3 技术报告中文版-首席AI分享圈

Gemma 3 Technischer Bericht Chinesische Version

Gemma 3 Zusammenfassung der Schlüsselinformationen I. Schlüsselmetriken Parameter Details Modellgröße 100 Millionen bis 27 Milliarden Parameter in vier Versionen: 1B, 4B, 12B, 27B Architektur Transformator-basierte decoder-spezifische Architektur, die von Gemma 2 mit einer Reihe von Verbesserungen übernommen wurde Multimodale Fähigkeiten Unterstützung für Text und Bild...

IDProtector:保护人像照片免受AI生成技术滥用的方法-首席AI分享圈

IDProtector: ein Weg, um Porträts vor dem Missbrauch von KI-Technologie zu schützen

Mit der rasanten Entwicklung von Technologien der Künstlichen Intelligenz (KI), insbesondere der Weiterentwicklung von Diffusionsmodellen, ist die KI in der Lage, sehr realistische Porträtbilder zu erzeugen. Technologien wie InstantID benötigen beispielsweise nur ein Foto, um mehrere neue Bilder mit denselben Identitätsmerkmalen zu erzeugen. Diese Art von Technologie ist jedoch...

de_DEDeutsch