AIパーソナル・ラーニング
と実践的なガイダンス
讯飞绘镜

エージェント・サービス・ツールキット:LangGraphに基づくAIインテリジェンス構築のための完全なツールセット

はじめに

AIエージェント・サービス・ツールキットは、LangGraph、FastAPI、Streamlit上に構築された完全なツールセットで、開発者がAIエージェント・サービスを迅速に構築し、実行できるように設計されています。このツールキットは、様々なアプリケーションシナリオのために、ユーザ定義のエージェント機能とインタラクションをサポートする柔軟なフレームワークを提供します。チャットボット、データ分析ツール、その他のAIベースのサービスを開発する場合でも、ユーザーはツールキットを使用して迅速に実装することができます。ツールキットは、使いやすさと拡張性を念頭に設計されており、ユーザーは簡単な設定とコードの修正によって、必要な機能を簡単に統合することができます。

Agent Service Toolkit:基于LangGraph构建AI智能体的完整工具集-1

経験:https://agent-service-toolkit.streamlit.app/


 

Agent Service Toolkit:基于LangGraph构建AI智能体的完整工具集-1

エージェント・サービス・ツールキット・アーキテクチャ

 

機能一覧

  • ラングラフエージェント 使用 ラングラフ フレームワークでカスタマイズ可能なエージェント
  • FastAPI サービス ストリーミングと非ストリーミングのエンドポイントにサービスを提供。
  • 高度なストリーミング処理 トークン・ベースとメッセージ・ベースのストリーミングに対応。
  • コンテンツ監査 コンテンツ監査にLlamaGuardを導入(必須) グロック (APIキー)。
  • ストリームリット・インターフェイス エージェントと対話するためのユーザーフレンドリーなチャットインターフェースを提供します。
  • マルチエージェント対応 サービス内で複数のプロキシを実行し、URLパス経由で呼び出す。
  • 非同期設計 async/awaitで同時リクエストを効率的に処理。
  • フィードバック・メカニズム LangSmithと統合されたスターベースのフィードバックシステム。
  • ダイナミック・メタデータ infoエンドポイントは、サービスや利用可能なエージェントやモデルに関する動的な構成メタデータを提供する。
  • Dockerのサポート : 開発とデプロイを容易にするDockerfileとdocker composeファイルが含まれています。
  • 試験 完全な単体テストと統合テストを含む。

ヘルプの使用

設置プロセス

  1. Pythonで直接実行する ::
    • 少なくとも1つのLLM APIキーがあることを確認してください:
    echo 'OPENAI_API_KEY=your_openai_api_key' >> .env
    
    • 依存関係をインストールし、同期する:
    pip install uv
    uv sync --frozen
    
    • 仮想環境をアクティベートし、サービスを実行する:
    source .venv/bin/activate
    python src/run_service.py
    
    • 別のターミナルで仮想環境を起動し、Streamlit アプリケーションを実行する:
    source .venv/bin/activate
    streamlit run src/streamlit_app.py
    
  2. Dockerで実行する ::
    • 少なくとも1つのLLM APIキーがあることを確認してください:
      bash echo 'OPENAI_API_KEY=your_openai_api_key' >> .env
    • Docker Composeで実行する:
      bash docker compose up

機能 操作の流れ

  1. ラングラフエージェント ::
    • プロキシを定義する src/agents/ 異なる能力を持つエージェントを定義するためのカタログ。
    • プロキシの設定 langgraph.json ファイルは、エージェントの動作と設定を構成します。
  2. FastAPI サービス ::
    • サービスの開始: run src/service/service.py FastAPI サービスを開始します。
    • エンドポイントへのアクセス:経由 /stream 歌で応える /non-stream エンドポイントアクセスプロキシサービス。
  3. ストリームリット・インターフェイス ::
    • 起動画面:実行 src/streamlit_app.py Streamlitアプリケーションを起動する。
    • インタラクティブな使用:ユーザーフレンドリーなチャットインターフェイスを介してエージェントと対話する。
  4. コンテンツ監査 ::
    • LlamaGuardを設定する。 .env ファイルに Groq API キーを追加して、コンテンツ監査を有効にします。
  5. マルチエージェント対応 ::
    • 複数のプロキシを設定する src/agents/ 複数のプロキシを定義し、異なるURLパスで呼び出すためのディレクトリ。
  6. フィードバック・メカニズム ::
    • 統合フィードバックシステム: エージェントサービスにスターベースのフィードバックシステムが統合され、サービスを改善するためにユーザからのフィードバックを収集します。
  7. ダイナミック・メタデータ ::
    • メタデータへのアクセス:経由 /info エンドポイントは、サービスや利用可能なエージェントやモデルに関する動的な設定メタデータを取得します。
  8. 試験 ::
    • テストの実行 tests/ サービスの安定性と信頼性を確保するための単体テストと統合テストを実行するためのカタログ。
無断転載を禁じます:チーフAIシェアリングサークル " エージェント・サービス・ツールキット:LangGraphに基づくAIインテリジェンス構築のための完全なツールセット
ja日本語