Aprendizagem pessoal com IA
e orientação prática
讯飞绘镜

Conhecimento de IA Página 10

什么是 Transformer?-首席AI分享圈

O que é Transformer?

  O Transformer é uma arquitetura de modelo de aprendizagem profunda para processamento de linguagem natural (NLP), proposta por Vaswani et al. em 2017. Ele é usado principalmente para processar tarefas de sequência a sequência, como tradução automática, geração de texto e assim por diante. Em resumo, o modelo Transformer original para geração de texto...

COT及相关高级提示变种提示词讲解-首席AI分享圈

COT e variantes de dicas avançadas relacionadas palavras-chave explicadas

Isenção de responsabilidade: embora as técnicas básicas de dicas (por exemplo, zero/poucos exemplos de amostra ou dicas imperativas) sejam muito eficientes, dicas mais sofisticadas podem ser mais eficazes quando se trata de alguns quebra-cabeças complexos (por exemplo, matemática/programação ou problemas que exigem raciocínio lógico em várias etapas). Como os modelos de linguagem grande (LLMs) lidam com esses problemas...

ChatGPT Prompts Dicas de nível 10: De iniciante a especialista

Investi muito tempo pesquisando e testando várias dicas para encontrar os melhores resultados. Neste vídeo, resumi todas essas experiências em 10 níveis de técnicas de design de palavras de prompt. Começaremos com o básico e iremos até as técnicas especializadas que venceram o recente Singapore Prompter Design Competition. Depois...

Glossário de termos comumente usados por agentes

Como regar uma tese? Escolha proposições relacionadas ao agente, adicione as seguintes inspirações ao React para experimentação e trabalhe de trás para frente até o argumento com base nos resultados, o que geralmente produzirá alguns resultados. Information Perception (Percepção de informações) Inglês Chinês Chinês Explicação A percepção refere-se ao processo de aquisição de informações sobre o ambiente por meio dos sentidos, o que engloba...

通向全面智能的智能体AI-首席AI分享圈

IA inteligente do corpo que leva à inteligência total

Título: IA de agente em direção a uma inteligência holística Autor: Qiuyuan Huang, Naoki Wake, Bidipta Sarkar, Zane Durante, Ran Gong, Rohan Taori, Yusuke Noda, Demetri Terzopoulos, Noboru Kuno, Ade Famoti, Ashle...

用于客户服务问答的知识图检索增强生成-首席AI分享圈

Geração aprimorada de aprimoramentos de recuperação de gráficos de conhecimento para questionários de atendimento ao cliente

Endereço do artigo: https://arxiv.org/abs/2404.17723 Os gráficos de conhecimento só podem extrair relações de entidades de forma direcionada, e essas relações de entidades extraíveis de forma estável podem ser entendidas como próximas a dados estruturados. A Figura 1 ilustra uma combinação de Knowledge Graph (KG) e Retrieval Augmented Generation (RAG)...

提示工程在大语言模型中应用的必要性-首席AI分享圈

A necessidade de engenharia de dicas na modelagem de Big Language

A seguir, o foco é a ideia básica da engenharia de dicas e como ela pode melhorar o desempenho do Modelo de Linguagem Grande (LLM)... Interfaces para LLM: um dos principais motivos pelos quais os modelos de linguagem grande são tão populares é que suas interfaces de texto para texto permitem uma experiência operacional minimalista. No passado, a solução de tarefas usando aprendizagem profunda normalmente exigia...

MemGPT项目:在对话中保持长记忆-首席AI分享圈

Projeto MemGPT: Mantendo memórias longas em conversação

Endereço de código aberto: https://github.com/cpacker/MemGPT Endereço do documento: https://arxiv.org/abs/2310.08560 Site oficial: https://memgpt.ai/ MemGPT suporta: 1. gerenciamento de memória ou estado de longo prazo 2. links para tecnologias baseadas em RAG Fontes de dados externas 3.

Guia de SEO para iniciantes

Este guia para iniciantes é composto por sete capítulos que contêm tudo o que você precisa para entender os conceitos básicos de SEO e começar a melhorar suas classificações. Você também encontrará links para recursos úteis em nosso blog de SEO e no canal do YouTube, para que possa construir seu próprio caminho para o conhecimento de SEO. 1/ Como os mecanismos de busca funcionam...

多样本(示例)越狱攻击-首席AI分享圈

Ataque de jailbreak do Multibook (exemplo)

Pesquisadores investigaram uma técnica de "ataque de fuga da prisão" - um método que pode ser usado para contornar as barreiras de segurança estabelecidas por desenvolvedores de modelos de linguagem grandes (LLMs). A técnica, conhecida como "ataque de jailbreak de várias amostras", funciona nos próprios modelos da Anthropic, bem como naqueles produzidos por outras empresas de IA. Os pesquisadores pre...

ReAct: 大语言模型中推理和行动协同工作-首席AI分享圈

ReAct: raciocínio e ação trabalhando juntos em um modelo de linguagem grande

Artigo original: https://arxiv.org/pdf/2210.03629.pdf Não consegue entender como o ReAct funciona e se aplica mesmo depois de lê-lo? Confira a "Lógica de implementação do ReAct na prática" para obter uma explicação com exemplos do mundo real. Resumo Embora os modelos de linguagem em larga escala (LLMs) sejam úteis nas tarefas de compreensão de linguagem e decisão interativa...

RAG:检索增强-首席AI分享圈

RAG: Retrieval Augmentation (aumento da recuperação)

O RAG (Retrieve Augmented Generation) é uma técnica para otimizar a saída de modelos de linguagem grandes (LLMs) com base em informações autorizadas da base de conhecimento. Essa técnica amplia a funcionalidade dos LLMs para fazer referência à base de conhecimento interna de um determinado domínio ou organização ao gerar respostas para...

Proposition Retrieval:命题检索-首席AI分享圈

Recuperação de proposições.

Artigo original: "Dense X Retrieval: What Retrieval Granularity Should We Use?" Observação: esse método é adequado para um pequeno número de modelos, como a série OPENAI, a série Claude, Mixtral, Yi e qwen. Resumo Em tarefas de processamento de linguagem natural (NLP) de domínio aberto, ...

一种新的 Prompt 方法——“类推提示法”(Analogical Prompting)-首席AI分享圈

Uma nova abordagem para o Prompting - Analogical Prompting

Hoje li um artigo interessante, "Large Language Models as Analogical Reasoners", que menciona uma nova abordagem para Prompt - "Analogical Prompting". Se você está familiarizado com a engenharia de prompts, deve ter ouvido falar de "Chain of Thought" (CoT)...

BoT:强化思考:用大型语言模型解决试错问题-首席AI分享圈

BoT: Pensamento aprimorado: solução de problemas de tentativa e erro com modelos de linguagem grandes

Resumo O desempenho do raciocínio de modelos de linguagem grande (LLMs) em uma ampla gama de problemas depende muito de prompts de pensamento encadeado, o que envolve o fornecimento de várias demonstrações de pensamento encadeado como exemplos nos prompts. Pesquisas recentes, por exemplo, árvores de pensamento, apontaram para a exploração e a autoavaliação do raciocínio na resolução de problemas complexos ...

Intenções: a zep explica como fazer com que grandes modelos entendam as intenções dos clientes.

No Processamento de Linguagem Natural (PLN), a intenção refere-se à expressão de um usuário sobre algum propósito, desejo ou vontade. Ao analisar as mensagens enviadas pelo usuário e identificar a intenção por trás delas, podemos responder com conteúdo relevante. Por exemplo, "pedir comida", "checar o clima", "quero ir a Paris" são todas intenções válidas. Para que os chatbots possam...

pt_BRPortuguês do Brasil