일반 소개
자동 심층 연구는 사용자가 심층 연구 작업을 자동화할 수 있도록 홍콩대학교 데이터 인텔리전스 연구소(HKUDS)에서 개발한 오픈 소스 AI 툴입니다. AutoAgent 프레임워크를 기반으로 구축되었으며 OpenAI, Anthropic, Deepseek 및 Grok 등 복잡한 파일 데이터 상호 작용과 웹 검색을 처리할 수 있습니다. OpenAI의 딥 리서치와 같이 구독이 필요한 고가의 도구와 달리, 자동 심층 검색은 완전 무료이며 사용자는 LLM API 키만 제공하면 사용할 수 있습니다. 높은 성능과 유연성으로 잘 알려진 이 도구는 GAIA 벤치마크에서 우수한 성적을 거두었으며 효율적인 리서치 솔루션이 필요한 연구자, 개발자 또는 사용자에게 적합합니다.

기능 목록
- 자동화된 심층 연구사용자가 입력한 주제에 따라 관련 정보를 자동으로 검색하고 수집하여 상세 보고서를 생성합니다.
- 다중 모델 지원다양한 대형 언어 모델과 호환되므로 사용자는 필요에 따라 적절한 모델을 선택할 수 있습니다.
- 파일 데이터 상호 작용이미지, PDF, 텍스트 파일 등을 업로드하고 처리하여 연구용 데이터 소스를 향상시킬 수 있도록 지원합니다.
- 원터치 시작복잡한 설정이 필요 없이 간단한 명령어를 입력하여 빠르게 시작하고 실행할 수 있습니다.
- 웹 검색 기능웹 리소스와 소셜 미디어(예: Platform X) 데이터를 결합하여 보다 포괄적인 정보를 제공합니다.
- 오픈 소스 및 무료사용자가 기능을 사용자 지정하거나 로컬 환경에 배포할 수 있도록 전체 소스 코드가 제공됩니다.
도움말 사용
설치 프로세스
자동 심층 조사 설치는 간단하고 직관적이며 Python 및 Docker 환경에 크게 의존합니다. 자세한 단계는 다음과 같습니다:
1. 환경 준비
- Python 설치파이썬 3.10 이상이 시스템에 설치되어 있는지 확인합니다. 권장
conda
가상 환경을 만듭니다:conda create -n auto_deep_research python=3.10 conda activate auto_deep_research
- Docker 설치이 도구는 컨테이너화된 런타임 환경인 Docker를 사용하므로 먼저 Docker Desktop을 다운로드하여 설치해야 하며, 이미지를 수동으로 가져올 필요가 없고 도구에서 자동으로 처리합니다.
2. 소스 코드 다운로드
- 로컬에 GitHub 리포지토리를 복제합니다:
git clone https://github.com/HKUDS/Auto-Deep-Research.git cd Auto-Deep-Research
3. 종속성 설치
- 프로젝트 디렉터리에서 다음 명령을 실행하여 필요한 Python 패키지를 설치합니다:
pip install -e .
4. API 키 구성
- 프로젝트 루트 디렉터리에서 템플릿 파일을 복사하고 편집합니다:
cp .env.template .env
- 텍스트 편집기로 열기
.env
파일에 필요에 따라 LLM의 API 키를 입력합니다:OPENAI_API_KEY=your_openai_key DEEPSEEK_API_KEY=your_deepseek_key XAI_API_KEY=your_xai_key
참고: 모든 키가 필요한 것은 아니며 사용하려는 모델 키를 구성하기만 하면 됩니다.
5. 시작 도구
- 자동 심층 검색을 시작하려면 다음 명령을 입력합니다:
auto deep-research
- 컨테이너 이름 또는 모델 지정과 같은 선택적 매개변수 구성:
auto deep-research --container_name myresearch --COMPLETION_MODEL grok
주요 기능
자동화된 심층 연구
- 연구 주제 입력시작하면 "의료 분야의 인공 지능"과 같은 연구 주제를 묻는 메시지가 표시됩니다.
- 자동 실행이 도구는 사용자 개입 없이 웹 검색 및 기본 제공 모델을 사용하여 관련 정보를 분석합니다.
- 보고서 생성완료되면 결과가 마크다운 형식으로 터미널에 출력되거나 소스 및 상세 분석이 포함된 파일로 저장됩니다.
파일 데이터 상호 작용
- 파일 업로드예를 들어 명령줄에 파일 경로를 지정합니다:
auto deep-research --file_path ./my_paper.pdf
- 데이터 처리이 도구는 PDF, 이미지 또는 텍스트 콘텐츠를 구문 분석하여 학습에 통합합니다.
- 분석 결합업로드된 파일 데이터는 웹 검색 결과와 통합되어 보다 포괄적인 결론을 제공합니다.
대규모 언어 모델 선택
- 지원 모델 보기OpenAI, Grok, Deepseek 등을 지원합니다. 구체적인 모델명은 LiteLLM 설명서를 참조하세요.
- 모델 지정: 시작 명령에 매개 변수를 추가합니다(예: 시작 명령):
auto deep-research --COMPLETION_MODEL deepseek
- 운영 테스트모델 성능 및 API 응답성에 따라 환경을 최적화하도록 선택 사항을 조정합니다.
주요 기능
원터치 시작 경험
- Docker 이미지나 복잡한 매개 변수를 수동으로 구성하는 대신, 간단히
auto deep-research
도구가 필요한 환경을 자동으로 가져와서 실행합니다. - 사용자 정의가 필요한 경우 다음을 통해 수행할 수 있습니다.
--container_name
여러 인스턴스를 쉽게 관리할 수 있도록 매개변수 이름을 컨테이너에 지정합니다.
웹 검색 및 소셜 미디어 통합
- 이 도구에는 웹 콘텐츠를 자동으로 크롤링하는 웹 검색 기능이 내장되어 있습니다. X 플랫폼의 데이터를 통합하려면 연구 주제에 키워드를 언급하면 도구에서 관련 게시물을 검색해 줍니다.
- 예: "최신 AI 연구 동향"을 입력하면 결과에 X 사용자의 토론 및 기술 블로그 링크가 포함될 수 있습니다.
주의
- API 키 보안: 넣지 마세요
.env
파일은 공개 저장소에 업로드되어 키가 노출되지 않도록 합니다. - 네트워크 환경이미지 가져오기 또는 검색 기능에 영향을 줄 수 있으므로 Docker 및 네트워크 연결이 제대로 작동하는지 확인하세요.
- 성능 최적화로컬 하드웨어가 제한되어 있는 경우 클라우드 기반 LLM을 사용하여 지연을 유발하는 대형 모델을 실행하지 않는 것이 좋습니다.
이 단계를 통해 사용자는 학술 연구와 기술 탐색을 효율적으로 지원하는 도구인 자동 심층 연구를 쉽게 시작할 수 있습니다.
© 저작권 정책
이 글은 저작권이 있으며 무단으로 복제해서는 안 됩니다.
관련 문서
댓글 없음...