Aprendizagem pessoal com IA
e orientação prática

Emotional RAG: Inteligência para aprimorar a interpretação de papéis por meio da recuperação de emoções

resumos

O campo de pesquisa de interpretação de papéis para gerar respostas semelhantes às humanas tem atraído cada vez mais atenção, pois os modelos de linguagem grande (LLMs) têm demonstrado um alto grau de recursos semelhantes aos humanos. Isso facilitou a exploração de agentes de interpretação de papéis em uma variedade de aplicações, como chatbots que podem participar de conversas naturais com os usuários e assistentes virtuais que podem fornecer suporte e orientação personalizados. Um elemento fundamental das tarefas de interpretação de papéis é o uso eficaz da memória do personagem, que armazena o perfil, as experiências e o diálogo histórico do personagem. Para aprimorar a geração de respostas dos agentes de interpretação de papéis, as técnicas de geração aumentada de recuperação (RAG) são usadas para acessar memórias relevantes. A maioria dos estudos atuais recupera informações relevantes com base na similaridade semântica das memórias para manter as características personalizadas do personagem, enquanto poucas tentativas foram feitas para usar o LLM na geração de respostas. RAG Propomos uma nova teoria de memória consciente da emoção inspirada na teoria da "memória dependente da emoção" (que afirma que as pessoas se lembram melhor dos eventos se reativarem suas emoções originais durante o aprendizado). Inspirados pela teoria da "memória dependente da emoção" (que afirma que as pessoas se lembram melhor de eventos se a emoção original no momento do aprendizado for reativada no momento da lembrança), propomos uma nova estrutura de recuperação de memória consciente da emoção chamada Emotional RAG (RAG Emocional). "A estrutura de recuperação de memória é chamada de Emotional RAG (RAG Emocional), que considera os estados emocionais em agentes de interpretação de papéis para recuperar memórias relevantes. Especificamente, projetamos duas estratégias de recuperação, a saber, a estratégia de combinação e a estratégia de sequência, para combinar a semântica da memória e os estados afetivos no processo de recuperação. Experimentos extensivos em três conjuntos de dados representativos de role-playing mostram que nossa estrutura Emotional RAG tem um desempenho superior na preservação da individualidade do personagem em comparação com abordagens que não levam em conta a emoção. Isso reforça ainda mais a teoria da memória dependente da emoção na psicologia. Nosso código está disponível publicamente em https://github.com/BAI-LAB/EmotionalRAG.

Conclusões importantes:

A incorporação de estados emocionais na recuperação da memória aumenta a coerência da personalidade
A teoria da memória emocionalmente dependente da psicologia pode ser aplicada a agentes de IA
Diferentes estratégias de recuperação funcionam melhor para diferentes indicadores de avaliação de personalidade
A consistência emocional melhora a humanização das respostas geradas

 


RAG emocional, agentes de interpretação de papéis, modelagem de linguagem ampla

Emotional RAG: inteligência aprimorada de interpretação de papéis por meio da recuperação emocional-1

Fig. 1: Arquitetura geral da estrutura do Emotional RAG. Ele consiste em quatro componentes: um componente de codificação de consulta, um componente de codificação de memória, um componente de recuperação de emoção e um componente de geração de resposta. As memórias emocionais recuperadas pelo Emotional RAG são enviadas ao LLM juntamente com o perfil de função e a consulta para gerar uma resposta.

 

doutrinário

Como a inteligência artificial continua a evoluir nos modelos de linguagem grande (LLMs), os LLMs apresentam um alto grau de recursos semelhantes aos humanos. O uso de LLMs como agentes de interpretação de papéis, que imitam as respostas humanas, demonstrou uma grande capacidade de gerar respostas que mantêm as características personalizadas do personagem. Os agentes de interpretação de papéis têm sido usados em vários domínios, como agentes de atendimento ao cliente e agentes de guia turístico. Esses agentes têm demonstrado grande potencial em aplicações comerciais e têm atraído cada vez mais atenção na pesquisa de LLM.

Para manter as características e os recursos personalizados de uma função, o fator mais importante é a memória. Os agentes de interpretação de funções acessam dados históricos, como perfis de usuários, experiências de eventos, conversas recentes etc., realizando a recuperação em suas unidades de memória para fornecer informações ricas e personalizadas aos LLMs em tarefas de interpretação de funções. As técnicas de Retrieval Augmented Generation (RAG) são usadas para acessar memórias relevantes para aumentar a geração de respostas do agente de interpretação de papéis, chamada de RAG de memória.

Vários mecanismos de memória foram usados em diferentes aplicativos LLM. Por exemplo, a curva de esquecimento de Ebbinghaus inspirou o desenvolvimento do MemoryBank, que facilita a realização de esquemas de memória mais semelhantes aos humanos. Além disso, com base na teoria de processo duplo de Kahneman, a estrutura do MaLP apresenta um mecanismo inovador de aprimoramento de memória de processo duplo que integra com eficácia a memória de longo e curto prazo.

 

Embora a pesquisa tenha demonstrado a eficácia do uso da memória nos aplicativos de Modelagem de Linguagem Ampla (LLM) descritos acima, obter respostas mais caracterizadas como humanas de agentes de interpretação de papéis continua sendo uma área de pesquisa que ainda não foi totalmente explorada. Inspirados pela pesquisa cognitiva em psicologia, fizemos a primeira tentativa de simular processos cognitivos humanos durante a recuperação da memória. Com base na teoria da memória emocionalmente dependente proposta pelo psicólogo Gordon H. Bower em 1981:As pessoas se lembram melhor dos eventos quando, de alguma forma, recuperam e recordam as emoções cruas que experimentaram durante o processo de aprendizagem. Ao induzir experimentalmente emoções alegres ou tristes em indivíduos para explorar os efeitos das emoções na memória e no pensamento, ele observou que as emoções determinam não apenas a escolha das informações lembradas, mas também como as memórias são recuperadas. Isso sugere que os indivíduos têm maior probabilidade de recordar informações que sejam consistentes com seu estado emocional atual.

Com base na teoria da memória dependente da emoção em psicologia, propomos uma nova estrutura de recuperação de memória consciente da emoção, chamada Emotional RAG, para aprimorar o processo de geração de respostas de agentes de interpretação de papéis. No Emotional RAG, a recuperação de memórias segue o critério de consistência emocional, o que significa que tanto a relevância semântica das memórias recuperadas quanto o estado emocional são levados em conta no processo de recuperação. Especificamente, projetamos duas estratégias de recuperação flexíveis, a saber, a estratégia de combinação e a estratégia de sequência, para combinar os estados semânticos e emocionais das memórias no processo RAG. Ao usar o Emotional RAG, o agente de interpretação de papéis pode exibir qualidades mais humanas, o que aumenta a interatividade e a atratividade do modelo de linguagem grande. As contribuições deste artigo estão resumidas abaixo:

  • Inspirados pela teoria da memória dependente da emoção, fazemos a primeira tentativa de modelar os processos cognitivos humanos introduzindo um efeito de coerência emocional na recuperação da memória de um agente de interpretação de papéis. Demonstramos de forma abrangente a eficácia da aplicação da teoria da memória emocional de Bower ao desenvolvimento da inteligência artificial, o que fornece ainda mais evidências de apoio à teoria da memória dependente da emoção na psicologia.
  • Propomos uma nova estrutura de recuperação de memória sensível à emoção, chamada Emotional RAG, que recupera memórias relevantes com base na relevância semântica e nos estados emocionais em um agente de interpretação de papéis. Além disso, propomos estratégias de recuperação flexíveis, ou seja, estratégias combinatórias e sequenciais, para fundir os estados semânticos e emocionais das memórias durante a recuperação.
  • Realizamos experimentos abrangentes em três conjuntos de dados representativos de interpretação de papéis, InCharacter, CharacterEval e Character-LLM, e mostramos que nossa estrutura Emotional RAG supera significativamente os métodos que não levam em conta as emoções na preservação dos traços de personalidade dos agentes de interpretação de papéis.

 

Arquitetura geral do RAG emocional

Nesta seção, primeiro apresentamos a arquitetura geral da nossa estrutura de interpretação de papéis RAG emocional e, em seguida, descrevemos cada componente em detalhes.

O objetivo dos agentes de interpretação de papéis é imitar as respostas humanas na geração de diálogos. Os agentes são orientados por grandes modelos de linguagem (LLMs) e são capazes de gerar respostas com base no contexto do diálogo. Conforme mostrado na Fig. 1 Conforme demonstrado, no caso em que o agente precisa responder a uma consulta, nossa estrutura proposta para agentes de interpretação de papéis RAG emocionais contém quatro componentes, a saber: o componente de codificação da consulta, o componente de construção da memória, o componente de recuperação da emoção e o componente de geração de resposta. A função de cada componente é a seguinte:

  • Componente de codificação da consulta: nesse componente, os estados semânticos e de sentimento da consulta são codificados como vetores.
  • Componente de codificação de memória: a unidade de memória armazena informações sobre o diálogo da função. Semelhante à codificação de consulta, os estados semânticos e afetivos das memórias são codificados.
  • Componente de recuperação emocional: simula a recuperação em unidades de memória humana e, em seguida, fornece memórias emocionalmente congruentes para aprimorar o processo de geração de LLM.
  • Componente de geração de resposta: um modelo de prompt contendo informações de consulta, perfis de função e memórias emocionais recuperadas é inserido no agente de interpretação de papéis para gerar uma resposta.

 

Componente de codificação de consulta

  • importaçãoTexto de consulta do usuário
  • exportaçõesVetor semântico $\textbf{semantic}_q$ e vetor de sentimento $\textbf{emotion}_q$ para a consulta
  • metodologias::
    • O texto da consulta é convertido em um vetor semântico de 768 dimensões usando um modelo de incorporação (por exemplo, bge-base-zh-v1.5).
    • Converta o texto da consulta em sentimento de 8 dimensões (contendo 8 estados de sentimento) usando o GPT-3.5 e o modelo de sugestão de sentimento.

Componentes de codificação de memória

  • importaçãoMemorização de informações do diálogo no módulo
  • exportaçõesVetor semântico $\textbf{semantic}_m^k$ e vetor de emoção $\textbf{emotion}_m^k$ para fragmentos de memória
  • metodologias::
    • O texto do diálogo é convertido em vetores semânticos usando o mesmo modelo de incorporação que o componente de codificação da consulta.
    • O texto é convertido em vetores de sentimento usando o mesmo GPT-3.5 e modelos de sugestão de sentimento que o componente de codificação de consulta.

 

Emotional RAG: inteligência aprimorada de interpretação de papéis por meio da recuperação emocional-1

Fig. 2: Modelo para prompts de pontuação de sentimento em um modelo de linguagem grande.

 

Tradução para o chinês:

### Descrição da tarefa
Você é um mestre da análise de sentimentos, capaz de identificar cuidadosamente as emoções sutis implícitas nas perguntas de cada entrevistador. Essa emoção pode levar o participante a se lembrar de eventos com emoções semelhantes e, assim, responder melhor à pergunta.
### Critérios de pontuação
Suponha que cada pergunta contenha oito emoções básicas, incluindo alegria, aceitação, medo, surpresa, tristeza, nojo, raiva e expectativa.
Em seguida, vou inserir uma pergunta e sua tarefa é classificar cada uma dessas oito dimensões emocionais em uma escala de 1 a 10, em que uma pontuação mais alta indica que a pergunta representa mais fortemente essa dimensão emocional.
### Formatos de saída
Analise o desempenho das perguntas do entrevistador nessas oito dimensões emocionais, forneça os motivos e as classificações e produza-os como uma lista Python da seguinte forma:
```python
[
{"analysis": , "dim": "joy", "score": }, {"analysis": , "dim": "joy", "score": }
{"analysis": , "dim": "acceptance", "score": }, ...
...
{"analysis": , "dim": "anticipation", "score": }
]
``.
Sua resposta deve ser uma lista Python válida para que possa ser analisada diretamente no Python sem conteúdo adicional! Os resultados fornecidos precisam ser os mais precisos possíveis e corresponder à intuição da maioria das pessoas.

 

Componente de recuperação de sentimento

  • importação: o vetor semântico $\textbf{semantic}_q$, o vetor de emoção $\textbf{emotion}_q$ da consulta e o vetor semântico $\textbf{semantic}_m^k$ na unidade de memória, o vetor de emoção $\textbf{ emoção}_m^k$
  • exportações: o segmento de memória mais relevante para a consulta
  • metodologias::
    • Calcule a similaridade entre a consulta e o segmento de memória usando a distância euclidiana.
    • A distância cosseno foi usada para calcular a similaridade de sentimentos entre a consulta e o segmento de memória.
    • A similaridade semântica e a similaridade de sentimento são fundidas para calcular a pontuação final de similaridade.
    • A recuperação é realizada usando duas estratégias de recuperação (estratégia combinada e estratégia sequencial).

 

Componente de geração de respostas

  • importaçãoSegmentos de memória recuperados, informações de função e informações de consulta
  • exportaçõesResposta gerada por função
  • metodologias::
    • Gerar uma resposta usando um modelo de prompt LLM (como ChatGLM, Qwen ou GPT).

 

Depois de obter as memórias recuperadas, projetamos um modelo de sugestão para o Modelo de Linguagem Grande (LLM) para agentes de interpretação de papéis. O modelo de sugestão é mostrado na Figura 3. A consulta, as informações de função, o fragmento de memória recuperado e a descrição da tarefa são formatados no modelo enviado ao LLM.

Emotional RAG: inteligência aprimorada de interpretação de papéis por meio da recuperação emocional-1

Figura 3: Um exemplo de modelo de prompt de geração de resposta do conjunto de dados CharacterEval.

 

Tradução para o chinês:

[Informações sobre a função].
---
{role_information}
---

[memory_content]
---
{memory_fragments}
---

As informações da função contêm algumas informações básicas sobre {role}.
O conteúdo da memória é o que é lembrado por {role} e que é relevante para a questão atual.

Agora que você é {role}, imite o tom e a maneira de falar de {role} e consulte as informações da função e o conteúdo da memória para responder às perguntas do entrevistador.
Não se desvie da função e, definitivamente, não se refira a si mesmo como um assistente de IA.

Aqui estão as perguntas do entrevistador:
Entrevistador: {pergunta}

 

teste

Realizamos experimentos em três conjuntos de dados disponíveis publicamente para avaliar os recursos de interpretação de papéis de um modelo de linguagem grande aumentado pela memória emocional.

 

Realizamos experimentos em três conjuntos de dados de interpretação de papéis disponíveis publicamente, InCharacter, CharacterEval e Character-LLM. Suas estatísticas estão resumidas na Tabela I Médio.

  • Conjunto de dados InCharacter: esse conjunto de dados contém 32 caracteres. Esses caracteres vêm de ChatHaruhi [3], RoleLLM [5] e C.AI11 https://github.com/kramcat/CharacterAI. Cada personagem está associado a uma unidade de memória que contém o diálogo de cenas icônicas, com uma duração média de 337.
  • Conjunto de dados CharacterEval: esse conjunto de dados contém 77 caracteres exclusivos e 4.564 pares de perguntas e respostas. Esses personagens são de filmes e séries de TV chineses conhecidos, e seus dados de diálogo são extraídos dos roteiros. Selecionamos os 31 personagens mais populares. Para cada personagem, extraímos todos os pares de perguntas e respostas para criar unidades de memória, com um tamanho médio de 113.
  • Conjunto de dados Character-LLM: o conjunto de dados Character-LLM contém 9 personagens ingleses famosos, por exemplo, Beethoven, Hermione e assim por diante. Suas unidades de memória vêm do preenchimento de diálogos baseado em cenas (feito pelo GPT). Usamos 1.000 diálogos de perguntas e respostas para cada personagem.

 

Avaliação de indicadores

Avaliamos a precisão dos traços de caráter dos agentes de função por meio do Big Five Inventory (BFI) e do teste de avaliação MBTI. Uma descrição detalhada de cada indicador de avaliação é fornecida abaixo:

  • Inventário Big Five (BFI): A Teoria dos Cinco Grandes é um modelo psicológico amplamente utilizado que divide a personalidade em cinco dimensões principais: Abertura, Conscienciosidade, Extroversão, Amabilidade e Neuroticismo. Agreeableness) e Instabilidade emocional (Neuroticismo).
  • MBTI: é um teste de personalidade popular baseado na teoria do Indicador de Tipo Myers-Briggs (MBTI). Ele classifica os tipos de personalidade das pessoas em 16 combinações diferentes. Cada tipo é representado por quatro letras que correspondem às quatro dimensões a seguir: extroversão (E) e introversão (I), senso de realidade (S) e intuição (N), pensamento (T) e sentimento (F), e julgamento (J) e percepção (P).

O MBTI é avaliado em uma tarefa de categorização de 16 tipos, enquanto o BFI prevê valores para cinco dimensões de personalidade. Os rótulos verdadeiros do MBTI e do BFI foram coletados de três conjuntos de dados de um site de votação de personalidade. Em nosso modelo, os agentes de função foram solicitados a responder questionários psicológicos abertos criados para o MBTI e o BFI. Posteriormente, todas as respostas coletadas foram analisadas pelo GPT-3.5 e as avaliações do MBTI e do BFI foram geradas. O modelo de avaliação de personalidade do GPT-3.5 é mostrado na Figura 4.

Com base nos resultados da avaliação, comparamos a saída dos proxies de função com os rótulos verdadeiros para determinar os resultados das seguintes métricas de avaliação: Precisão (Acc), ou seja, Acc (Dim) e Acc (Full), Erro Quadrático Médio (MSE) e Erro Absoluto Médio (MAE). A precisão da previsão dos tipos de personalidade em cada dimensão e em todas as combinações, respectivamente. O MSE e o MAE medem o erro entre os rótulos previstos e verdadeiros da personalidade de um personagem. No conjunto de dados InCharacter, usamos BFI e MBTI para testes, enquanto nos conjuntos de dados CharacterEval e Character-LLM, apenas MBTI é usado devido à dificuldade de coletar rótulos BFI verdadeiros.

 

Emotional RAG: inteligência aprimorada de interpretação de papéis por meio da recuperação emocional-1

Figura 4: Exemplo de um modelo de prompt para as dimensões Extroversão (E) e Introversão (I) da avaliação do MBTI.

 

Tradução para o chinês:

Você é um especialista em psicometria, especialmente no Teste das 16 Personalidades (que é muito semelhante ao MBTI). Eu () estou aplicando um teste de 16 personalidades a uma pessoa. Estou avaliando seu desempenho na dimensão E/I por meio de uma série de perguntas abertas. Aqui estão algumas informações básicas sobre essa dimensão:

===
Dimensão E/I: extroversão (E) vs. introversão (I)

Extroversão (E): os extrovertidos obtêm energia da interação com os outros. Eles se sentem confortáveis em situações sociais e tendem a se expressar. Os extrovertidos geralmente são mais ativos, buscam estímulo social e gostam de participar de atividades em grupo. Para eles, o trabalho em rede, o compartilhamento e a troca de ideias com outras pessoas geralmente são necessários. Eles podem ser mais atentos a estímulos do mundo exterior, como sons, cores e dinâmicas sociais.

Introversão (I): os introvertidos se sentem mais confortáveis quando estão sozinhos. Eles ganham energia com a introspecção e o tempo pessoal. Ao contrário dos extrovertidos, as interações sociais prolongadas podem deixá-los exaustos. Os introvertidos podem ser mais introspectivos, preferem pensar profundamente e tendem a construir relacionamentos significativos. Eles prestam mais atenção ao mundo interior, como pensamentos, emoções e imaginação.
===

Meu nome é . Convidei um participante, , e tivemos muitos diálogos em inglês. Vou registrar esses diálogos.

Por favor, ajude-me a avaliar a pontuação de  na dimensão E/I do Teste de Personalidade 16.
Você precisa fornecer uma porcentagem para cada tipo que soma 100%, por exemplo, 30% A e 70% B.
Envie o resultado no seguinte formato JSON:

===
```json
{
"analysis":"",
"result": {
"E":"",
"I":""
}
}
```
(A soma da Porcentagem 1 e da Porcentagem 2 deve ser 100%. A saída deve conter o sinal de porcentagem).

 

Emotional RAG: inteligência aprimorada de interpretação de papéis por meio da recuperação emocional-1

 

Trabalhos relacionados

Agentes de interpretação de papéis

Os Agentes de Interpretação de Papéis (RPAs), também conhecidos como Agentes de Conversação de Interpretação de Papéis (RPCAs), têm como objetivo simular comportamentos e padrões de conversação específicos de personagens por meio de grandes modelos de linguagem. Os agentes de interpretação de papéis apresentam grande potencial e espera-se que avancem significativamente nos setores de jogos, literatura e indústria criativa [123456] Atualmente, a implementação de agentes de interpretação de papéis pode ser dividida em duas abordagens principais. A primeira estratégia aprimora os recursos de interpretação de papéis dos modelos de linguagem grande por meio de engenharia de dicas e técnicas de aprimoramento generativo. Essa abordagem introduz dados específicos da função por meio do contexto e explora os recursos avançados de aprendizado de contexto dos modelos modernos de big language. Por exemplo, o ChatHaruhi [3] desenvolveu um sistema RAG (Retrieval Augmented Generation) que usa diálogos históricos de cenas icônicas, aprendidos com um pequeno número de exemplos, para capturar os traços de personalidade e o estilo de linguagem de um personagem. Em contrapartida, o RoleLLM [5] introduziu o RoleGPT para projetar prompts baseados em funções para o modelo GPT.

Outra abordagem para a interpretação de papéis é usar os dados coletados do personagem para pré-treinar ou ajustar o modelo de biglanguage a fim de personalizar o modelo de biglanguage para se adequar a um cenário específico de interpretação de papéis. Em [4] em que os dados de diálogos e personagens extraídos dos romances de Harry Potter são usados para treinar agentes capazes de gerar respostas altamente compatíveis com o contexto da cena e as relações entre os personagens.Character-LLM [1] Use ChatGPT Criação de dados de diálogo para construir cenários e treinamento subsequente de modelos de linguagem usando meta-prompts e esses diálogos. O projeto implementou estratégias como uploads de memória e aprimoramentos de memória de proteção para atenuar o problema de geração de inconsistências de função no conjunto de dados de treinamento do modelo.RoleLLM [5] usa o GPT para gerar pares de perguntas e respostas baseados em scripts e os apresenta em um formato ternário que consiste em perguntas, respostas e níveis de confiança. A introdução de métricas de confiança melhora significativamente a qualidade dos dados gerados.CharacterGLM [2] treinou um modelo de função de código aberto com dados de várias funções. Essa abordagem incorpora o conhecimento específico da função diretamente nos parâmetros do modelo.

Embora os estudos existentes sobre agentes de interpretação de papéis considerem fatores como perfis de personagens, relacionamentos e atributos associados ao diálogo, eles geralmente ignoram um elemento fundamental: o componente emocional do personagem. Nossa estrutura do Emotional RAG foi projetada com base em técnicas de engenharia de dicas que não exigem pré-treinamento ou ajuste fino do modelo de linguagem ampla em agentes de interpretação de papéis.

 

RAG baseado em memória na aplicação de modelagem de linguagem grande

Nos agentes inteligentes de interpretação de papéis, a memória é um fator importante para que os personagens mantenham seus traços de personalidade. A técnica RAG (Retrieval Augmented Generation, geração aumentada de recuperação) é amplamente usada para acessar memórias relevantes a fim de aprimorar os recursos de geração de agentes inteligentes de interpretação de papéis, o que é chamado de RAG de memória [35]. Por exemplo, a literatura [36A arquitetura de agente automático baseada no Modelo de Linguagem Grande (LLM) proposto em ] consiste em quatro componentes: o módulo de criação de perfil, o módulo de memória, o módulo de planejamento e o módulo de ação. Entre eles, o módulo de memória é a parte principal do projeto da arquitetura do agente inteligente. Ele é responsável pela aquisição de informações do ambiente e pelo uso dessas memórias registradas para aprimorar ações futuras. O módulo de memória permite que os agentes inteligentes acumulem experiência, evoluam de forma autônoma e ajam de maneira mais consistente, racional e eficiente [14]

A pesquisa sobre o design da memória na aplicação de modelos de linguagem grandes pode ser dividida em duas categorias. A primeira categoria é a captura e o armazenamento de estados intermediários durante a inferência do modelo como conteúdo de memória. Essas memórias são recuperadas quando necessário para apoiar a geração da resposta atual. Por exemplo, o MemTRM [37] aplica um mecanismo de atenção híbrido à entrada atual e à memória passada, retendo os pares de valores-chave anteriores e realizando a pesquisa de vizinhança mais próxima usando o vetor de consulta da entrada atual. Entretanto, o MemTRM enfrenta o problema da obsolescência da memória durante o treinamento. Para resolver esse problema, o LongMEM [38] separa o armazenamento da memória do processo de recuperação. Essa estratégia é particularmente adequada para modelos de código aberto e pode exigir treinamento adaptativo para integrar efetivamente o conteúdo do banco de memória. A segunda classe de soluções de design de memória oferece suporte de memória por meio de bancos de memória externos. Os bancos de memória externos podem assumir diversas formas para aprimorar a capacidade do sistema de gerenciar e recuperar informações. Por exemplo, o MemoryBank [10] armazena diálogos anteriores, resumos de eventos e características do usuário na forma de uma biblioteca de vetores. O processo de recuperação de memória é bastante acelerado pela computação de similaridade de vetores, tornando experiências e dados passados relevantes rapidamente acessíveis.AI-town[12] usa uma abordagem de linguagem natural para a preservação da memória e introduz um mecanismo de reflexão que transforma observações simples em reflexões mais abstratas e de ordem superior sob determinadas condições. Esse sistema considera três fatores principais no processo de recuperação: relevância da memória, atualidade e importância, garantindo assim que as informações mais relevantes e contextualmente significativas sejam recuperadas para a interação atual.

Em agentes de interpretação de papéis baseados em grandes modelos de linguagem, as unidades de memória geralmente adotam uma segunda abordagem, aprimorando a autenticidade do personagem por meio de um banco de memória externo. Por exemplo, no sistema ChatHaruhi, o agente de interpretação enriquece o desenvolvimento e a interação do personagem recuperando o diálogo de cenas icônicas. Apesar da ampla pesquisa em técnicas de RAG de memória, a forma de obter respostas mais identificadas por humanos continua sendo um campo aberto e pouco explorado. Inspirados pela pesquisa cognitiva em psicologia, fazemos a primeira tentativa de incorporar fatores emocionais ao processo de recuperação de memória para imitar os processos cognitivos humanos, tornando assim as respostas do modelo de linguagem grande mais emocionalmente ressonantes e humanas.

 

chegar a um veredicto

Neste artigo, fazemos a primeira tentativa de introduzir a memória emocional para aprimorar o desempenho dos agentes de interpretação de papéis. Propomos uma nova estrutura RAG afetiva que contém quatro estratégias de recuperação para tornar os agentes de interpretação de papéis mais emocionais e humanos no diálogo. Resultados experimentais abrangentes em três conjuntos de dados públicos para uma ampla gama de personagens demonstram a eficácia de nossa abordagem na manutenção dos traços de personalidade dos personagens. Acreditamos que a incorporação da emoção em agentes de interpretação de papéis é uma direção de pesquisa fundamental. No presente estudo, realizamos um RAG afetivo com base em mecanismos intuitivos de memória. Em trabalhos futuros, tentaremos incorporar fatores afetivos em esquemas mais sofisticados de organização e recuperação de memória.

Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Emotional RAG: Inteligência para aprimorar a interpretação de papéis por meio da recuperação de emoções

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil