Aprendizagem pessoal com IA
e orientação prática
Recomendação de recursos 1

Research Rabbit: pesquisa na Web e elaboração de relatórios usando o LLM nativo, detalhando automaticamente os tópicos especificados pelo usuário e gerando resumos.

Introdução geral

O Research Rabbit é um assistente nativo de pesquisa e resumo na Web baseado em LLM (Large Language Model). Depois que o usuário fornece um tópico de pesquisa, o Research Rabbit gera uma consulta de pesquisa, obtém resultados relevantes na Web e resume esses resultados. Ele repete esse processo, preenchendo as lacunas de conhecimento e, por fim, gera um resumo Markdown que inclui todas as fontes. A ferramenta é executada totalmente localmente, garantindo a privacidade e a segurança dos dados.

Research Rabbit: pesquisa na Web e elaboração de relatórios usando o LLM nativo, detalhando automaticamente os tópicos especificados pelo usuário e gerando resumos. -1


 

Lista de funções

  • Gerar consultas de pesquisaGeração de consultas de pesquisa com base em tópicos fornecidos pelo usuário.
  • Pesquisa na WebUse um mecanismo de pesquisa configurado (por exemplo, Tavily) para encontrar recursos relevantes.
  • Resumo dos resultadosResumir os resultados da pesquisa na Web usando o LLM local.
  • resumo reflexivoIdentificar lacunas de conhecimento e gerar novas consultas de pesquisa.
  • uma atualização iterativaPesquisa: Realize repetidamente pesquisas e resumos para refinar gradualmente a pesquisa.
  • operação localTodas as operações são realizadas localmente para garantir a privacidade dos dados.
  • Resumo de markdownGerar um resumo final em Markdown com todas as fontes.

 

Usando a Ajuda

Processo de instalação

  1. Puxar o LLM localObter os LLMs locais necessários do Ollama, por exemploollama pull llama3.2.
  2. Obter a chave da API da TavilyRegistre o Tavily e obtenha a chave da API, defina as variáveis de ambienteexportar TAVILY_API_KEY=.
  3. armazém de clones: Executargit clone https://github.com/langchain-ai/research-rabbit.gitArmazém de Clonagem.
  4. Instalação de dependênciasVá para o diretório do projeto e executeuvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langógrafo devInstale a dependência.
  5. Assistente de inicializaçãoIniciar o servidor LangGraph e acessar o arquivohttp://127.0.0.1:2024Veja a documentação da API e a interface do usuário da Web.

Processo de uso

  1. Configuração do LLMNome do LLM local: define o nome do LLM local a ser usado na interface do usuário da Web do LangGraph Studio (padrão)llama3.2).
  2. Definir a profundidade da pesquisaConfigure a profundidade das iterações do estudo (padrão 3).
  3. Insira um tópico de pesquisaInicie o Assistente de pesquisa inserindo o tópico da pesquisa na guia Configuração.
  4. Exibir processoO assistente gera uma consulta de pesquisa, realiza uma pesquisa na Web, resume os resultados usando o LLM e repete o processo.
  5. Obtendo o resumoO assistente gera um resumo Markdown com todas as fontes, que o usuário pode visualizar e editar.

Funções principais

  • Gerar consultas de pesquisaApós inserir um tópico de pesquisa, o assistente gerará automaticamente uma consulta de pesquisa.
  • Pesquisa na WebO assistente usa o mecanismo de pesquisa configurado para encontrar recursos relevantes.
  • Resumo dos resultadosO assistente usa o LLM local para resumir os resultados da pesquisa e gerar um relatório preliminar.
  • resumo reflexivoO assistente identifica lacunas de conhecimento no resumo e gera novas consultas de pesquisa para continuar a pesquisa.
  • uma atualização iterativaO assistente realizará buscas e resumos de forma iterativa para refinar gradualmente a pesquisa.
  • Geração de resumos MarkdownO assistente gera um resumo final em Markdown com todas as fontes, que o usuário pode visualizar e editar.
Conteúdo3
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Research Rabbit: pesquisa na Web e elaboração de relatórios usando o LLM nativo, detalhando automaticamente os tópicos especificados pelo usuário e gerando resumos.

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil