Aprendizagem pessoal com IA
e orientação prática
Beanbag Marscode1

Ollama+LangGraph Assistente de geração de relatórios de pesquisa acadêmica implantado localmente

Introdução geral

Ollama O Deep Researcher é um assistente de geração de relatórios e pesquisa na Web totalmente nativo, desenvolvido pela equipe da LangChain. Ele usa um Large Language Model (LLM) arbitrário hospedado pela Ollama para permitir que os usuários insiram um tópico de pesquisa e, em seguida, gerem automaticamente consultas de pesquisa na Web, coletem informações, resumam o conteúdo e gerem relatórios Markdown com fontes. Todo o processo é feito sem a necessidade de uma conexão com a Internet para chamar um modelo externo, protegendo a privacidade e sem custo adicional. Ele é compatível com DuckDuckGo, Tavily ou Perplexidade Além de outras ferramentas de pesquisa, o usuário pode personalizar o número de ciclos de pesquisa, adequado para usuários que precisam de pesquisa aprofundada e gerar relatórios estruturados. Fácil de instalar, de código aberto e gratuito.

Assistente de geração de relatórios de pesquisa acadêmica de implantação simples local Ollama-1


 

Lista de funções

  • modelo de linguagem operacional local (LOLM)Uso do LLM nativo por meio do Ollama sem APIs externas.
  • Geração automática de consultas de pesquisaGeração de termos de pesquisa precisos na Web com base nos temas do usuário.
  • Coleta de informações da WebSuporte a pesquisas do DuckDuckGo (padrão), Tavily ou Perplexity.
  • Resumo e otimização do conteúdoAnálise dos resultados da pesquisa, identificação de deficiências e aprimoramento do resumo.
  • Gerar relatórios MarkdownRelatório estruturado de saída com todas as citações de fontes.
  • Personalização da profundidade da pesquisaO usuário pode definir o número de ciclos e controlar o nível de detalhes do estudo.
  • Visualização de fluxos de trabalho: através de LangGraph Studio Visualize cada etapa da operação.
  • Suporte para vários modelos: Compatível DeepSeek R1, Llama 3.2 e outros modelos.

 

Usando a Ajuda

Processo de instalação

O Ollama Deep Researcher requer suporte ao ambiente local. Abaixo estão as etapas detalhadas para usuários de Mac e Windows.

Usuários de Mac

  1. Instalar Ollama
    • Visite o site da Ollama para fazer o download da versão do instalador para Mac.
    • Após a instalação, execute o terminal ollama --versão Verifique a versão.
  2. modelo de tração
    • Digite-o no terminal:ollama pull deepseek-r1:8b Download de modelos recomendados.
    • Também disponível ollama pull llama3.2.
  3. projeto de clonagem
    • Execute o seguinte comando:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Criação de um ambiente virtual (recomendado)
    • Certifique-se de que o Python 3.9+ esteja instalado. Execute-o:
      python -m venv .venv
      fonte .venv/bin/activate
      
  5. Instale as dependências e inicie
    • Entrada:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
      
    • Quando iniciado, o navegador abre o LangGraph Studio (o padrão). http://127.0.0.1:2024).

Usuário do Windows

  1. Instalar Ollama
    • Faça o download da versão para Windows no site da Ollama.
    • Após a instalação, a linha de comando executa ollama --versão Validação.
  2. modelo de tração
    • Entrada:ollama pull deepseek-r1:8b.
  3. projeto de clonagem
    • Em execução:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Criação de um ambiente virtual
    • Instale o Python 3.11 (com a opção "Add to PATH" marcada) e execute-o:
      python -m venv .venv
      .venv\Scripts\Activate.ps1
      
  5. Instale as dependências e inicie
    • Entrada:
      pip install -e .
      pip install -U "langgraph-cli[inmem]"
      langgraph dev
      
    • acesso pós-lançamento http://127.0.0.1:2024.

Ferramenta de pesquisa de configuração (opcional)

  • O DuckDuckGo é usado por padrão e nenhuma chave de API é necessária.
  • Se você usar Tavily ou Perplexity:
    1. fazer uma cópia de .env.example por causa de .env.
    2. compilador .env, adicione a chave:
      TAVILY_API_KEY=sua_tavily_key
      PERPLEXITY_API_KEY=sua_chave_de_perplexidade
      
    3. Configuração opcional:
      • OLLAMA_BASE_URL(Padrão) http://localhost:11434).
      • MAX_WEB_RESEARCH_LOOPS(padrão 3).

Como usar

  1. Abrir o LangGraph Studio
    • Depois de iniciar o serviço, acesse o http://127.0.0.1:2024.
    • A interface é dividida em colunas à esquerda e à direita: configuração à esquerda e entrada e resultados à direita.
  2. Parâmetros de configuração
    • Ferramentas de pesquisaEscolha entre DuckDuckGo, Tavily ou Perplexity.
    • modelagemDigite o nome do modelo baixado (por exemplo deepseek-r1:8b).
    • Número de ciclosProfundidade de estudo: Defina a profundidade do estudo, padrão 3 vezes.
    • Salve a configuração.
  3. Insira um tema
    • Digite um tópico de pesquisa, como "O futuro do aprendizado de máquina", na caixa de entrada à direita.
    • Clique em "Run" (Executar) para iniciar o estudo.
  4. Visualizar o processo e os resultados
    • O Studio exibe cada etapa: geração de consultas, pesquisas, resumos e assim por diante.
    • Quando concluído, o relatório Markdown é salvo no estado gráfico da pasta do projeto.

Operação da função em destaque

  • Ajustar a profundidade da pesquisa
    • Alteração na configuração MAX_WEB_RESEARCH_LOOPSSe o número de vezes for definido como 5, os resultados serão mais abrangentes, mas mais demorados.
  • Alternar ferramenta de pesquisa
    • DuckDuckGo Gratuito, mas com resultados limitados, Tavily Mais detalhado (chave necessária). Reinicie o serviço após a troca.
  • Verificação de compatibilidade de modelos
    • Se um erro for relatado (por exemplo KeyError: 'query'), indicando que o modelo não é compatível com a saída JSON. Mudar para DeepSeek R1 (8B) ou Llama 3.2.

advertência

  • Requisitos de hardware: 8 GB de memória são necessários para o modelo 8B e 16 GB para o 13B.
  • Compatibilidade do navegadorFirefox é recomendado, o Safari pode apresentar avisos de segurança.
  • detecção de errosSe tiver problemas, verifique os registros do terminal, pois talvez seja necessário atualizar as dependências ou alterar os modelos.

 

cenário do aplicativo

  1. pesquisa acadêmica
    • Descrição da cenaO que é uma ferramenta de pesquisa: os alunos digitam "métodos de otimização de rede neural" e a ferramenta pesquisa e gera um relatório com citações, economizando tempo na busca de informações.
  2. Análise do setor
    • Descrição da cenaAI Market Trends to 2025", uma ferramenta que fornece um resumo detalhado para auxiliar na tomada de decisões.
  3. Aprendizagem técnica
    • Descrição da cenaOs desenvolvedores inserem "Python Asynchronous Programming" e a ferramenta gera um relatório de tutorial para facilitar o autoestudo.

 

QA

  1. Preciso trabalhar em rede?
    • O modelo local não requer uma conexão com a Internet, mas a pesquisa na Web requer uma. Se estiver off-line, somente os dados existentes poderão ser usados.
  2. Ele é compatível com o idioma chinês?
    • Suporte. Insira um tema chinês e a ferramenta gerará resultados em chinês, mas o efeito varia de acordo com a ferramenta de pesquisa.
  3. O relatório pode ser alterado?
    • Os arquivos Markdown podem ser editados diretamente.
  4. O que devo fazer se receber um erro JSON?
    • Isso significa que o modelo não é compatível com a saída estruturada. Tente novamente com o DeepSeek R1 (8B) ou o Llama 3.2.
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Ollama+LangGraph Assistente de geração de relatórios de pesquisa acadêmica implantado localmente

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil