오픈 딥 리서치: 심층 연구를 위한 LangChain의 오픈 소스 지능형 비서

최신 AI 리소스4개월 전 업데이트 AI 공유 서클
3.4K 00

일반 소개

오픈 딥 리서치는 모든 주제에 대한 종합적인 리서치 보고서를 생성하는 웹 기반 리서치 도우미입니다. 이 시스템은 사용자가 시간이 많이 소요되는 연구 단계로 넘어가기 전에 보고서 구조를 계획하고 검토할 수 있는 계획 후 실행 워크플로우를 사용합니다. 사용자는 개인의 필요에 따라 다양한 계획 모델, 검색 API, Tavily, Perplexity, Anthropic, OpenAI 등의 작성 모델 중에서 선택할 수 있으며, Open Deep Research는 보고서의 깊이와 정확성을 보장하기 위해 여러 번의 반영 및 검색 반복을 지원합니다. 사용자는 간단한 구성 파일과 명령줄 작업을 통해 도구를 빠르게 배포하고 사용할 수 있습니다.

Open Deep Research:LangChain开源的深度研究智能助手

 

기능 목록

  • 보고서의 구조에 대한 개요를 제공합니다.
  • 계획 모델 설정(예: DeepSeek, OpenAI 추론 모델 등)
  • 보고서의 각 섹션에 대한 계획에 피드백을 주고 사용자가 만족할 때까지 반복합니다.
  • 검색 API(예: 타빌리, 퍼플렉시티) 및 연구 반복당 검색 횟수 설정하기
  • 각 섹션에 대한 검색 깊이(반복 횟수) 설정하기
  • 사용자 지정 글쓰기 모델(예: Anthropic)
  • 로컬에서 LangGraph Studio UI 실행
  • 구조화된 연구 보고서 자동 생성
  • 다중 검색 및 반사적 반복을 지원하여 보고서 품질 향상

 

도움말 사용

빠른 시작

  1. 필요한 도구의 API 키가 설정되었는지 확인합니다.
  2. 웹 검색 도구를 선택합니다(기본적으로 Tavily가 사용됨):
  3. 쓰기 모델 선택(기본적으로 Anthropic이 사용됨) Claude 3.5 소네트):
  4. 플래닝 모델을 선택합니다(기본적으로 OpenAI o3-mini가 사용됨):
    • OpenAI
    • Groq

사용법

가상화 환경

  1. 가상 환경을 만듭니다:
    python -m venv open_deep_research
    source open_deep_research/bin/activate
    

  1. 설치:
    pip install open-deep-research
    

다음에서 주피터 노트북 사용

  1. 차트를 가져와서 컴파일합니다:
    from langgraph.checkpoint.memory import MemorySaver
    from open_deep_research.graph import builder
    memory = MemorySaver()
    graph = builder.compile(checkpointer=memory)
    
  2. 차트 보기:
    from IPython.display import Image, display
    display(Image(graph.get_graph(xray=1).draw_mermaid_png()))
    
  3. 차트를 실행합니다:
    import uuid 
    thread = {"configurable": {"thread_id": str(uuid.uuid4()),
    "search_api": "tavily",
    "planner_provider": "openai",
    "planner_model": "o3-mini",
    "writer_provider": "anthropic",
    "writer_model": "claude-3-5-sonnet-latest",
    "max_search_depth": 1,
    }}
    topic = "Overview of the AI inference market with focus on Fireworks, Together.ai, Groq"
    async for event in graph.astream({"topic":topic,}, thread, stream_mode="updates"):
    print(event)
    print("\n")
    
  4. 보고서 계획을 생성한 후 피드백을 제출하여 보고서 계획을 업데이트합니다:
    from langgraph.types import Command
    async for event in graph.astream(Command(resume="Include a revenue estimate (ARR) in the sections"), thread, stream_mode="updates"):
    print(event)
    print("\n")
    
  5. 보고 체계에 만족할 때 제출True를 클릭하여 보고서를 생성합니다:
    async for event in graph.astream(Command(resume=True), thread, stream_mode="updates"):
    print(event)
    print("\n")
    

로컬에서 LangGraph Studio UI 실행

  1. 복제 창고:
    git clone https://github.com/langchain-ai/open_deep_research.git
    cd open_deep_research
    
  2. 컴파일러.env파일을 사용하여 API 키를 설정합니다:
    cp .env.example .env
    
  3. 환경 변수 설정하기:
    export TAVILY_API_KEY=<your_tavily_api_key>
    export ANTHROPIC_API_KEY=<your_anthropic_api_key>
    export OPENAI_API_KEY=<your_openai_api_key>
    
  4. LangGraph 서버를 시작합니다:
    • Mac:
      curl -LsSf https://astral.sh/uv/install.sh | sh
      uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
      
    • Windows:
      pip install -e .
      pip install langgraph-cli[inmem]
      langgraph dev
      
  5. Studio UI를 엽니다:
    - 🚀 API: http://127.0.0.1:2024
    - 🎨 Studio UI: https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
    - 📚 API Docs: http://127.0.0.1:2024/docs
    

사용자 지정 보고서

  • report_structure:: 사용자 지정 보고서 구조 정의(기본적으로 표준 리서치 보고서 형식이 사용됨)
  • number_of_queries:: 섹션당 생성되는 검색 쿼리 수(기본값: 2)
  • max_search_depth최대 검색 깊이(기본값: 2)
  • planner_provider:: 계획 단계용 모델링 공급자(기본값: "openai", 선택 사항 "groq")
  • planner_model:: 계획에 사용되는 특정 모델(기본값: "o3-mini", 선택적으로 "deepseek-r1-distill-llama-70b").
  • writer_model:: 보고서 작성에 사용된 모델(기본값: "claude-3-5-sonnet-latest")
  • search_api: 검색 API 사용(기본값: Tavily)
© 저작권 정책

관련 문서

댓글 없음

댓글에 참여하려면 로그인해야 합니다!
지금 로그인
없음
댓글 없음...