AI Personal Learning
und praktische Anleitung
讯飞绘镜

KI-Wissen Seite 10

Llama 3:一个多功能、开源的 AI 模型系列-首席AI分享圈

Llama 3: eine vielseitige, quelloffene Familie von KI-Modellen

Zusammenfassung: In diesem Beitrag wird ein neuer Satz von Basismodellen namens Llama 3 vorgestellt. Llama 3 ist eine Gemeinschaft von Sprachmodellen, die Mehrsprachigkeit, das Schreiben von Code, Schlussfolgerungen und die Verwendung von Werkzeugen unterstützt. Unser größtes Modell ist ein dichtes Kontextfenster mit 405 Milliarden Parametern und bis zu 128.000 Token...

如何选择合适的 Embedding 模型?-首席AI分享圈

Wie wählt man das richtige Einbettungsmodell?

Retrieval Augmented Generation (RAG) ist eine Klasse von Anwendungen in der generativen KI (GenAI), die die Verwendung eigener Daten zur Erweiterung des Wissens eines LLM-Modells (z.B. ChatGPT) unterstützt. RAG verwendet typischerweise drei verschiedene KI-Modelle, nämlich das Embedding-Modell, das Rerankear-Modell und das Large Language Model. In diesem Papier, werden wir ...

什么是 Transformer?-首席AI分享圈

Was ist ein Transformator?

  Transformer ist eine Deep-Learning-Modellarchitektur für die Verarbeitung natürlicher Sprache (NLP), die von Vaswani et al. 2017 vorgeschlagen wurde. Es ist vor allem für die Verarbeitung von Sequenz-zu-Sequenz-Aufgaben, wie maschinelle Übersetzung, Texterzeugung, und so weiter verwendet. Kurz gesagt, das ursprüngliche Transformer-Modell für die Texterzeugung...

COT及相关高级提示变种提示词讲解-首席AI分享圈

COT und verwandte fortgeschrittene Stichwortvarianten Stichwortwörter erklärt

Haftungsausschluss: Während grundlegende Hinweistechniken (z.B. null/wenige Beispiele oder imperative Hinweise) sehr effizient sind, können ausgefeiltere Hinweise effektiver sein, wenn man mit einigen komplexen Rätseln konfrontiert wird (z.B. Mathematik/Programmierung oder Probleme, die mehrstufige logische Schlussfolgerungen erfordern). Da Large Language Models (LLMs) solche Probleme behandeln...

ChatGPT Prompts Level 10 Tipps: Vom Anfänger zum Experten

Ich habe viel Zeit in die Erforschung und das Testen verschiedener Hinweise investiert, um die besten Ergebnisse zu erzielen. In diesem Video habe ich all diese Erfahrungen in 10 Stufen von Prompter-Wortgestaltungstechniken zusammengefasst. Wir beginnen mit den Grundlagen und gehen bis hin zu den Experten-Techniken, die den jüngsten Prompter-Design-Wettbewerb in Singapur gewonnen haben. Dann werden wir...

Agentenglossar für häufig verwendete Begriffe

Wie gießt man eine These? Wählen Sie agentenbezogene Thesen, fügen Sie die folgenden Inspirationen zu React hinzu, um zu experimentieren, und arbeiten Sie sich auf der Grundlage der Ergebnisse rückwärts zum Argument vor, was im Allgemeinen zu einigen Ergebnissen führen wird. Information Perception Englisch Chinesisch Chinesisch Erläuterung Perception bezeichnet den Prozess der Informationsbeschaffung über die Umwelt durch die Sinne, der...

提示工程在大语言模型中应用的必要性-首席AI分享圈

Die Notwendigkeit von Cue Engineering bei der Modellierung großer Sprachen

Im Folgenden geht es um die Grundidee des Hint-Engineering und wie es die Leistung des Large Language Model (LLM) verbessern kann... Schnittstellen für LLM: Einer der Hauptgründe, warum Large Language Models so angesagt sind, ist, dass ihre Text-zu-Text-Schnittstellen eine minimalistische Betriebserfahrung ermöglichen. In der Vergangenheit erforderte das Lösen von Aufgaben mit Deep Learning typischerweise...

MemGPT项目:在对话中保持长记忆-首席AI分享圈

Projekt MemGPT: Lange Erinnerungen im Gespräch halten

Open Source Adresse: https://github.com/cpacker/MemGPT Paper Adresse: https://arxiv.org/abs/2310.08560 Offizielle Website: https://memgpt.ai/ MemGPT unterstützt: 1. die Verwaltung des Langzeitgedächtnisses oder des Zustands 2. die Verknüpfung mit RAG-basierten Technologien Externe Datenquellen 3.

SEO für Einsteiger Anleitung

Dieser Leitfaden für Einsteiger besteht aus sieben Kapiteln, die alles enthalten, was Sie brauchen, um die Grundlagen der Suchmaschinenoptimierung zu verstehen und Ihre Rankings zu verbessern. Außerdem finden Sie Links zu hilfreichen Ressourcen in unserem SEO-Blog und auf unserem YouTube-Kanal, damit Sie sich Ihren eigenen Weg zum SEO-Know-how aufbauen können. 1/ Wie Suchmaschinen funktionieren...

Bewertung der Auswirkungen von Large Language Modelling (LLM) auf Wissensarbeiter

Originalartikel: https://www.hbs.edu/ris/PublicationFiles/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf Ziel dieses Beitrags ist es, die Auswirkungen von KI auf die Produktivität und Qualität von Wissensarbeitern anhand von Feldexperimenten zu untersuchen. Ziehen von Schlussfolgerungen. Das Forschungsteam besteht aus Forschern der Ha...

多样本(示例)越狱攻击-首席AI分享圈

Multibook (Beispiel) Jailbreak-Angriff

Forscher haben eine "Jailbreak Attack"-Technik untersucht - eine Methode, mit der die von den Entwicklern großer Sprachmodelle (LLMs) eingerichteten Sicherheitszäune umgangen werden können. Die als "Multisample Jailbreak Attack" bezeichnete Technik funktioniert sowohl bei den Modellen von Anthropic als auch bei denen anderer KI-Unternehmen. Die Forscher prä...

ReAct: 大语言模型中推理和行动协同工作-首席AI分享圈

ReAct: Reasoning und Action arbeiten in einem großen Sprachmodell zusammen

Originalartikel: https://arxiv.org/pdf/2210.03629.pdf Sie verstehen auch nach der Lektüre nicht, wie ReAct funktioniert und angewendet wird? In "ReAct Implementation Logic in Practice" finden Sie eine Erklärung mit Beispielen aus der Praxis. Zusammenfassung Obwohl groß angelegte Sprachmodelle (LLMs) für die Aufgaben des Sprachverständnisses und der interaktiven...

RAG:检索增强-首席AI分享圈

RAG: Retrieval Augmentation

RAG (Retrieve Augmented Generation) ist eine Technik zur Optimierung der Ausgabe von Large Language Models (LLMs) auf der Grundlage von maßgeblichen Informationen der Wissensbasis. Diese Technik erweitert die Funktionalität von LLMs, um auf die interne Wissensbasis eines bestimmten Bereichs oder einer Organisation zu verweisen, wenn sie Antworten auf...

Proposition Retrieval:命题检索-首席AI分享圈

Abruf von Vorschlägen.

Originalartikel : "Dense X Retrieval: What Retrieval Granularity Should We Use?" Hinweis: Diese Methode eignet sich für eine kleine Anzahl von Modellen, wie die OPENAI-Serie, die Claude-Serie, Mixtral, Yi und qwen. Zusammenfassung In offenen Aufgaben der natürlichen Sprachverarbeitung (NLP), ...

一种新的 Prompt 方法——“类推提示法”(Analogical Prompting)-首席AI分享圈

Ein neuer Ansatz für Prompting - Analogical Prompting

Heute habe ich ein interessantes Papier "Large Language Models as Analogical Reasoners" gelesen, in dem ein neuer Ansatz für Prompting erwähnt wird - "Analogical Prompting". Wenn Sie mit Prompt-Engineering vertraut sind, haben Sie sicher schon von "Chain of Thought" (CoT) gehört...

BoT:强化思考:用大型语言模型解决试错问题-首席AI分享圈

BoT: Verbessertes Denken: Lösen von Problemen durch Versuch und Irrtum mit großen Sprachmodellen

Abstrakt Die Denkleistung von Large Language Models (LLMs) bei einer Vielzahl von Problemen hängt stark von verketteten Denkaufforderungen ab, bei denen eine Reihe von verketteten Denkdemonstrationen als Beispiele in den Aufforderungen gegeben werden. Jüngste Forschungen, z.B. zu Denkbäumen, haben auf die Erforschung und Selbsteinschätzung des Denkens bei komplexen Problemlösungen hingewiesen ...

de_DEDeutsch