Aprendizagem pessoal com IA
e orientação prática

Agent Service Toolkit: um conjunto completo de ferramentas para a criação de inteligências de IA com base no LangGraph

Este artigo foi atualizado em 2025-01-17 10:56, parte do conteúdo é sensível ao tempo, se for inválido, por favor, deixe uma mensagem!

Introdução geral

O AI Agent Service Toolkit é um conjunto de ferramentas completo baseado em LangGraph, FastAPI e Streamlit, projetado para ajudar os desenvolvedores a criar e executar rapidamente serviços de agentes de IA. O kit de ferramentas oferece uma estrutura flexível que suporta recursos e interações de agentes definidos pelo usuário para uma variedade de cenários de aplicativos. Seja desenvolvendo chatbots, ferramentas de análise de dados ou outros serviços baseados em IA, os usuários podem implementá-los rapidamente usando o kit de ferramentas. O kit de ferramentas foi projetado com a facilidade de uso e a extensibilidade em mente, permitindo que os usuários integrem facilmente a funcionalidade necessária por meio de configuração simples e modificações de código.

Agent Service Toolkit: um conjunto completo de ferramentas para a criação de inteligências de IA com base no LangGraph-1

Experiência: https://agent-service-toolkit.streamlit.app/


 

Arquitetura do kit de ferramentas de serviço de agente

 

Lista de funções

  • Agente LangGraph Agentes personalizáveis criados usando a estrutura LangGraph.
  • Serviços FastAPI Serviços de streaming: fornece serviços para endpoints de streaming e não streaming.
  • Processamento avançado de streaming Suporte a streaming baseado em tokens e mensagens.
  • Auditoria de conteúdo Implementação do LlamaGuard para auditoria de conteúdo (obrigatório) Groq (chave de API).
  • Interface Streamlit Interface de bate-papo: fornece uma interface de bate-papo fácil de usar para interagir com os agentes.
  • Suporte a vários agentes Execute vários proxies no serviço e invoque-os por meio de caminhos de URL.
  • design assíncrono Tratamento eficiente de solicitações simultâneas com async/await.
  • Mecanismos de feedback Inclui um sistema de feedback baseado em estrelas integrado ao LangSmith.
  • Metadados dinâmicos O ponto de extremidade : /info fornece metadados de configuração dinâmica sobre serviços e agentes e modelos disponíveis.
  • Suporte ao Docker Inclui arquivos Dockerfiles e arquivos docker compose para facilitar o desenvolvimento e a implantação.
  • teste (maquinário etc.) Inclui testes completos de unidade e integração.

Usando a Ajuda

Processo de instalação

  1. Execute-o diretamente no Python ::
    • Certifique-se de que você tenha pelo menos uma chave de API do LLM:
    echo 'OPENAI_API_KEY=sua_openai_api_key' >> .env
    
    • Instale as dependências e sincronize:
    pip install uv
    uv sincronização -congelado
    
    • Ative o ambiente virtual e execute o serviço:
    fonte .venv/bin/activate
    python src/run_service.py
    
    • Ative o ambiente virtual em outro terminal e execute o aplicativo Streamlit:
    fonte .venv/bin/activate
    execução do streamlit src/streamlit_app.py
    
  2. Execução com o Docker ::
    • Certifique-se de que você tenha pelo menos uma chave de API do LLM:
      bash echo 'OPENAI_API_KEY=sua_openai_api_key' >> .env
    • Execute-o com o Docker Compose:
      bash docker compose up

Função Fluxo de operação

  1. Agente LangGraph ::
    • Defina o proxy: na seção src/agentes/ Catálogo para definir agentes com diferentes recursos.
    • Configuração do proxy: use a opção langgraph.json define o comportamento e as configurações do agente.
  2. Serviços FastAPI ::
    • Iniciar o serviço: run src/service/service.py Inicie o serviço FastAPI.
    • Acesso aos endpoints: via /stream responder cantando /não fluxo Serviço de proxy de acesso ao terminal.
  3. Interface Streamlit ::
    • Tela inicial: Executar src/streamlit_app.py Inicie o aplicativo Streamlit.
    • Uso interativo: interaja com o agente por meio de uma interface de bate-papo fácil de usar.
  4. Auditoria de conteúdo ::
    • Configuração do LlamaGuard: Na seção .env para adicionar a chave da API do Groq para ativar a auditoria de conteúdo.
  5. Suporte a vários agentes ::
    • Configurar vários proxies: na seção src/agentes/ Diretório para definir vários proxies e invocá-los por meio de diferentes caminhos de URL.
  6. Mecanismos de feedback ::
    • Sistema de feedback integrado: um sistema de feedback baseado em estrelas é integrado ao serviço de agente para coletar feedback do usuário e aprimorar o serviço.
  7. Metadados dinâmicos ::
    • Acesso aos metadados: via /info Os pontos de extremidade obtêm metadados de configuração dinâmica sobre serviços e agentes e modelos disponíveis.
  8. teste (maquinário etc.) ::
    • Execute o teste: na seção testes/ Catálogo para executar testes unitários e de integração para garantir a estabilidade e a confiabilidade do serviço.
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Agent Service Toolkit: um conjunto completo de ferramentas para a criação de inteligências de IA com base no LangGraph

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil