Ollama+LangGraph Asistente local de generación de informes de investigación académica

Introducción general

Ollama Deep Researcher es un asistente de investigación web y generación de informes totalmente nativo desarrollado por el equipo de LangChain. Utiliza un Large Language Model (LLM) arbitrario alojado en Ollama para permitir a los usuarios introducir un tema de investigación y, a continuación, generar automáticamente consultas de búsqueda web, recopilar información, resumir el contenido y generar informes Markdown con fuentes. Todo el proceso se realiza sin necesidad de conexión a Internet para llamar a un modelo externo, protegiendo la privacidad y sin coste adicional. Es compatible con DuckDuckGo, Tavily o Perplejidad y otras herramientas de búsqueda , el usuario puede personalizar el número de ciclos de investigación , adecuado para usuarios que necesitan una investigación en profundidad y generar informes estructurados . Fácil de instalar, de código abierto y gratuito.

Ollama+LangGraph 本地部署学术研究报告生成助手

 

Lista de funciones

  • modelo lingüístico operativo local (LOLM): Utiliza LLM nativo a través de Ollama sin APIs externas.
  • Generación automática de consultas de búsqueda: Genera términos de búsqueda web precisos basados en los temas de los usuarios.
  • Recopilación de información web: Admite búsquedas en DuckDuckGo (por defecto), Tavily o Perplexity.
  • Resumen y optimización de contenidos: Analizar los resultados de la búsqueda, identificar las deficiencias y mejorar el resumen.
  • Generar informes MarkdownInforme estructurado con todas las citas de las fuentes.
  • Personalizar la profundidad de la investigaciónEl usuario puede establecer el número de ciclos y controlar el nivel de detalle del estudio.
  • Visualización de flujos de trabajo: a través de LangGraph Studio Visualiza cada paso de la operación.
  • Compatibilidad con varios modelos: Compatible DeepSeek R1, Llama 3.2 y otros modelos.

 

Utilizar la ayuda

Proceso de instalación

Ollama Deep Researcher requiere soporte de entorno local. A continuación se detallan los pasos para usuarios de Mac y Windows.

Usuarios de Mac

  1. Instalar Ollama
    • Visite el sitio web de Ollama para descargar la versión para Mac del instalador.
    • Tras la instalación, ejecute el terminal ollama --version Comprueba la versión.
  2. modelo pull
    • Introdúcelo en el terminal:ollama pull deepseek-r1:8b Descargar Modelos recomendados.
    • También disponible ollama pull llama3.2.
  3. proyecto de clonación
    • Ejecute el siguiente comando:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Creación de un entorno virtual (recomendado)
    • Asegúrate de que Python 3.9+ está instalado. Ejecútalo:
      python -m venv .venv
      source .venv/bin/activate
      
  5. Instalar dependencias e iniciar
    • Entrada:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
      
    • Cuando se inicia, el navegador abre LangGraph Studio (por defecto). http://127.0.0.1:2024).

Usuario de Windows

  1. Instalar Ollama
    • Descargue la versión para Windows desde el sitio web de Ollama.
    • Tras la instalación, la línea de comandos se ejecuta ollama --version Validación.
  2. modelo pull
    • Entrada:ollama pull deepseek-r1:8b.
  3. proyecto de clonación
    • Corriendo:
      git clone https://github.com/langchain-ai/ollama-deep-researcher.git
      cd ollama-deep-researcher
      
  4. Creación de un entorno virtual
    • Instala Python 3.11 (con la opción "Añadir a PATH" marcada) y ejecútalo:
      python -m venv .venv
      .venv\Scripts\Activate.ps1
      
  5. Instalar dependencias e iniciar
    • Entrada:
      pip install -e .
      pip install -U "langgraph-cli[inmem]"
      langgraph dev
      
    • acceso posterior al lanzamiento http://127.0.0.1:2024.

Herramienta de búsqueda de configuraciones (opcional)

  • DuckDuckGo se utiliza por defecto y no se requiere clave API.
  • si Tavily o Perplejidad:
    1. haga una copia de .env.example debido a .env.
    2. compilador .envañade la llave:
      TAVILY_API_KEY=your_tavily_key
      PERPLEXITY_API_KEY=your_perplexity_key
      
    3. Configuración opcional:
      • OLLAMA_BASE_URL(Por defecto) http://localhost:11434).
      • MAX_WEB_RESEARCH_LOOPS(por defecto 3).

Cómo utilizarlo

  1. Abrir LangGraph Studio
    • Después de iniciar el servicio, acceda a http://127.0.0.1:2024.
    • La interfaz está dividida en columnas izquierda y derecha: configuración a la izquierda, y entrada y resultados a la derecha.
  2. Parámetros de configuración
    • Herramientas de búsquedaElige entre DuckDuckGo, Tavily o Perplexity.
    • modelizaciónIntroduzca el nombre del modelo descargado (p. ej. deepseek-r1:8b).
    • Número de ciclos: Establece la profundidad de estudio, por defecto 3 veces.
    • Guarda la configuración.
  3. Introduzca un tema
    • Introduzca un tema de investigación, como "El futuro del aprendizaje automático", en el cuadro de entrada de la derecha.
    • Haga clic en "Ejecutar" para iniciar el estudio.
  4. Ver el proceso y los resultados
    • Studio muestra cada paso: generación de consultas, búsquedas, resúmenes, etc.
    • Una vez terminado, el informe Markdown se guarda en el estado gráfico de la carpeta del proyecto.

Función destacada Operación

  • Ajustar la profundidad de la investigación
    • Cambio en la configuración MAX_WEB_RESEARCH_LOOPSSi el número de veces se fija en 5, los resultados serán más completos pero llevarán más tiempo.
  • Alternar herramienta de búsqueda
    • DuckDuckGo Gratuito pero con resultados limitados, Tavily Más detallado (requiere clave). Reinicia el servicio después de cambiar.
  • Comprobación de compatibilidad de modelos
    • Si se notifica un error (por ejemplo KeyError: 'query'), lo que indica que el modelo no admite la salida JSON. Cambiar a DeepSeek R1 (8B) o Llama 3.2.

advertencia

  • requisitos de hardware: se necesitan 8 GB de memoria para el modelo 8B y 16 GB para el 13B.
  • Compatibilidad con navegadoresSe recomienda Firefox, Safari puede tener advertencias de seguridad.
  • detección de erroresSi te quedas atascado, comprueba los registros del terminal, puede que necesites actualizar dependencias o cambiar modelos.

 

escenario de aplicación

  1. investigación académica
    • Descripción de la escenaLos estudiantes teclean "métodos de optimización de redes neuronales" y la herramienta busca y genera un informe con citas, lo que ahorra tiempo en la búsqueda de información.
  2. Análisis del sector
    • Descripción de la escenaAI Market Trends to 2025", una herramienta que ofrece un resumen detallado para ayudar en la toma de decisiones.
  3. Aprendizaje técnico
    • Descripción de la escenaLos desarrolladores introducen "Programación asíncrona en Python" y la herramienta genera un informe tutorial para facilitar el autoaprendizaje.

 

CONTROL DE CALIDAD

  1. ¿Tengo que trabajar en red?
    • El modelo local no requiere conexión a Internet, pero la búsqueda en la web sí. Si no está conectado, solo se pueden utilizar los datos existentes.
  2. ¿Es compatible con el chino?
    • Soporte. Introduzca un tema en chino y la herramienta generará resultados en chino, pero el efecto varía en función de la herramienta de búsqueda.
  3. ¿Puede modificarse el informe?
    • Los archivos Markdown pueden editarse directamente.
  4. ¿Qué debo hacer si obtengo un error JSON?
    • Esto significa que el modelo no soporta salida estructurada. Vuelva a intentarlo con DeepSeek R1 (8B) o Llama 3.2.
© declaración de copyright
AiPPT

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...