AIパーソナル・ラーニング
と実践的なガイダンス
資源推薦1

オートディープリサーチ:マルチエージェント連携による文献検索と研究報告書の作成

はじめに

Auto-Deep-Researchは、香港大学(HKUDS)のLaboratory of Data Intelligenceによって開発されたオープンソースのAIツールで、ディープリサーチタスクを自動化するために設計されています。AutoAgentフレームワークをベースに構築されており、OpenAI、Anthropic、Deepseek、Grokといった様々な大規模言語モデル(LLM)をサポートし、複雑なファイルデータのやり取りやウェブ検索を処理することができる。OpenAIのDeep Researchのようなサブスクリプションを必要とする高コストのツールとは対照的に、Auto-Deep-Researchは完全に無料であり、ユーザーはLLMのAPIキーを提供するだけで使用できる。その高いパフォーマンスと柔軟性で知られるこのツールは、GAIAベンチマークで好成績を収めており、効率的なリサーチソリューションを必要とする研究者、開発者、ユーザーに適しています。

Auto-Deep-Research:ディープリサーチを自動で行うAIアシスタント-1


 

機能一覧

  • 綿密な調査の自動化ユーザーが入力したトピックに基づいて、関連情報を自動的に検索・照合し、詳細なレポートを作成します。
  • マルチモデル対応様々な大規模言語モデルに対応しており、ユーザーは必要に応じて適切なモデルを選択することができます。
  • ファイルデータの相互作用画像、PDF、テキストファイルなどのアップロードと加工をサポートし、研究のためのデータソースを強化します。
  • ワンタッチスタート複雑な設定は不要で、簡単なコマンドを入力するだけで、すぐに使い始めることができます。
  • ウェブ検索機能ウェブリソースとソーシャルメディア(プラットフォームXなど)のデータを組み合わせて、より包括的な情報を提供する。
  • オープンソースで無料ユーザーが機能をカスタマイズしたり、ローカル環境にデプロイできるように、完全なソースコードが提供されています。

 

ヘルプの使用

設置プロセス

Auto-Deep-Researchのインストールはシンプルかつ直感的で、PythonとDocker環境に大きく依存している。以下はその詳細な手順である:

1.環境準備

  • PythonのインストールPython 3.10以降がインストールされていることを確認してください。推奨 コンダ 仮想環境を作る:
    conda create -n auto_deep_research python=3.10
    condaはauto_deep_researchをアクティブにする。
  • DockerのインストールこのツールはDockerコンテナ化された実行環境を使用するので、まずDocker Desktopをダウンロードしてインストールしてください。

2.ソースコードのダウンロード

  • GitHub リポジトリをローカルにクローンする:
    git clone https://github.com/HKUDS/Auto-Deep-Research.git
    cd オートディープリサーチ
    

3.依存関係のインストール

  • プロジェクト・ディレクトリで以下のコマンドを実行して、必要なPythonパッケージをインストールする:
    pip install -e .
    

4.APIキーの設定

  • プロジェクトのルート・ディレクトリで、テンプレート・ファイルをコピーし、編集する:
    cp .env.template .env
    
  • テキストエディタで開く 環境 ファイルに、必要に応じてLLMのAPIキーを記入してください:
    OPENAI_API_KEY=your_openai_key
    DEEPSEEK_API_KEY=あなたのディープシークキー
    XAI_API_KEY=あなたのxai_key
    

    注:すべてのキーが必要なわけではなく、使用する予定のモデルキーを設定するだけでよい。

5.スタートアップツール

  • 以下のコマンドを入力し、オートディープリサーチを開始する:
    オートディープリサーチ
    
  • コンテナ名やモデルの指定など、オプションのパラメータ設定:
    auto deep-research -コンテナ名 myresearch --COMPLETION_MODEL grok
    

主な機能

綿密な調査の自動化

  1. 研究テーマを入力する起動すると、「ヘルスケアにおける人工知能」のような研究トピックの入力が求められます。
  2. 自動実行このツールは、ウェブ検索と内蔵モデルを使用して、ユーザーの介入なしに関連情報を分析します。
  3. レポートの作成終了すると、結果はMarkdown形式でターミナルに出力されるか、ソースと詳細な分析結果を含むファイルとして保存されます。

ファイルデータの相互作用

  1. ファイルのアップロードコマンドラインでファイルパスを指定する:
    auto deep-research --file_path ./my_paper.pdf
    
  2. 加工データこのツールは、PDF、画像、またはテキストの内容を解析し、研究に組み込む。
  3. 複合分析アップロードされたファイルデータは、ウェブ検索結果と統合され、より包括的な結論を提供します。

大規模言語モデルの選択

  1. サポートモデルを見るモデル名については、LiteLLMのドキュメントを参照してください。
  2. モデルの指定例えば、起動コマンドにパラメーターを追加する:
    auto deep-research --COMPLETION_MODEL deepseek
    
  3. 動作試験モデルのパフォーマンスとAPIの応答性に基づいて、エクスペリエンスを最適化するための選択肢を調整します。

注目の機能

ワンタッチ・スタート体験

  • Dockerイメージや複雑なパラメータを手動で設定する代わりに、単純に オートディープリサーチツールは自動的に必要な環境を取り出し、起動する。
  • カスタマイズが必要な場合は --コンテナ名 複数のインスタンスを簡単に管理できるように、パラメータ名付きコンテナ。

ウェブ検索とソーシャルメディアの統合

  • このツールには、ウェブコンテンツを自動的にクロールするウェブ検索機能が組み込まれている。Xプラットフォームのデータを取り入れたい場合は、リサーチトピックにキーワードを記載すれば、ツールが関連記事を検索してくれる。
  • 例:「最新のAI研究動向」と入力すると、Xユーザーによる議論や技術ブログへのリンクが表示される。

ほら

  • APIキーのセキュリティを付けないでください。 環境 鍵の公開を避けるため、ファイルは公開リポジトリにアップロードされる。
  • ネットワーク環境Dockerとネットワーク接続が正しく機能していることを確認してください。
  • パフォーマンス最適化ローカルのハードウェアが限られている場合は、ラグを引き起こす大規模なモデルの実行を避けるために、クラウドベースのLLMを使用することをお勧めします。

以上の手順で、ユーザーは簡単にAuto-Deep-Researchを使い始めることができる。Auto-Deep-Researchは、学術研究と技術探求の両方を効率的にサポートするツールである。

コンテンツ1
無断転載を禁じます:チーフAIシェアリングサークル " オートディープリサーチ:マルチエージェント連携による文献検索と研究報告書の作成

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語