AIパーソナル・ラーニング
と実践的なガイダンス

エージェント・サービス・ツールキット:LangGraphに基づくAIインテリジェンス構築のための完全なツールセット

この記事は2025-01-17 10:56に更新されました。内容の一部は一刻を争うものですので、無効な場合はメッセージを残してください!

はじめに

AIエージェント・サービス・ツールキットは、LangGraph、FastAPI、Streamlit上に構築された完全なツールセットで、開発者がAIエージェント・サービスを迅速に構築し、実行できるように設計されています。このツールキットは、様々なアプリケーションシナリオのために、ユーザ定義のエージェント機能とインタラクションをサポートする柔軟なフレームワークを提供します。チャットボット、データ分析ツール、その他のAIベースのサービスを開発する場合でも、ユーザーはツールキットを使用して迅速に実装することができます。ツールキットは、使いやすさと拡張性を念頭に設計されており、ユーザーは簡単な設定とコードの修正によって、必要な機能を簡単に統合することができます。

エージェント・サービス・ツールキット:LangGraph-1に基づくAIインテリジェンス構築のための完全なツールセット

経験:https://agent-service-toolkit.streamlit.app/


 

エージェント・サービス・ツールキット・アーキテクチャ

 

機能一覧

  • ラングラフエージェント LangGraphフレームワークを使用して構築されたカスタマイズ可能なエージェント。
  • FastAPI サービス ストリーミングと非ストリーミングのエンドポイントにサービスを提供。
  • 高度なストリーミング処理 トークン・ベースとメッセージ・ベースのストリーミングに対応。
  • コンテンツ監査 コンテンツ監査にLlamaGuardを導入(必須) グロック (APIキー)。
  • ストリームリット・インターフェイス エージェントと対話するためのユーザーフレンドリーなチャットインターフェースを提供します。
  • マルチエージェント対応 サービス内で複数のプロキシを実行し、URLパス経由で呼び出す。
  • 非同期設計 async/awaitで同時リクエストを効率的に処理。
  • フィードバック・メカニズム LangSmithと統合されたスターベースのフィードバックシステム。
  • ダイナミック・メタデータ infoエンドポイントは、サービスや利用可能なエージェントやモデルに関する動的な構成メタデータを提供する。
  • Dockerのサポート : 開発とデプロイを容易にするDockerfileとdocker composeファイルが含まれています。
  • 試験 完全な単体テストと統合テストを含む。

ヘルプの使用

設置プロセス

  1. Pythonで直接実行する ::
    • 少なくとも1つのLLM APIキーがあることを確認してください:
    echo 'OPENAI_API_KEY=your_openai_api_key' >> .env
    
    • 依存関係をインストールし、同期する:
    pip install uv
    uv 同期 --フローズン
    
    • 仮想環境をアクティベートし、サービスを実行する:
    ソース .venv/bin/activate
    python src/run_service.py
    
    • 別のターミナルで仮想環境を起動し、Streamlit アプリケーションを実行する:
    ソース .venv/bin/activate
    streamlitの実行 src/streamlit_app.py
    
  2. Dockerで実行する ::
    • 少なくとも1つのLLM APIキーがあることを確認してください:
      bash echo 'OPENAI_API_KEY=your_openai_api_key' >> .env
    • Docker Composeで実行する:
      bash docker compose up

機能 操作の流れ

  1. ラングラフエージェント ::
    • プロキシを定義する src/agents/ 異なる能力を持つエージェントを定義するためのカタログ。
    • プロキシの設定 langgraph.json ファイルは、エージェントの動作と設定を構成します。
  2. FastAPI サービス ::
    • サービスの開始: run src/service/service.py FastAPI サービスを開始します。
    • エンドポイントへのアクセス:経由 /ストリーム 歌で応える /ノンストリーム エンドポイントアクセスプロキシサービス。
  3. ストリームリット・インターフェイス ::
    • 起動画面:実行 src/streamlit_app.py Streamlitアプリケーションを起動する。
    • インタラクティブな使用:ユーザーフレンドリーなチャットインターフェイスを介してエージェントと対話する。
  4. コンテンツ監査 ::
    • LlamaGuardを設定する。 環境 ファイルに Groq API キーを追加して、コンテンツ監査を有効にします。
  5. マルチエージェント対応 ::
    • 複数のプロキシを設定する src/agents/ 複数のプロキシを定義し、異なるURLパスで呼び出すためのディレクトリ。
  6. フィードバック・メカニズム ::
    • 統合フィードバックシステム: エージェントサービスにスターベースのフィードバックシステムが統合され、サービスを改善するためにユーザからのフィードバックを収集します。
  7. ダイナミック・メタデータ ::
    • メタデータへのアクセス:経由 /情報 エンドポイントは、サービスや利用可能なエージェントやモデルに関する動的な設定メタデータを取得します。
  8. 試験 ::
    • テストの実行 テスト サービスの安定性と信頼性を確保するための単体テストと統合テストを実行するためのカタログ。
無断転載を禁じます:チーフAIシェアリングサークル " エージェント・サービス・ツールキット:LangGraphに基づくAIインテリジェンス構築のための完全なツールセット

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語