Bambo: un marco ligero y flexible para organismos inteligentes, con una sencilla configuración de roles y herramientas para gestionar múltiples cargas de tareas.

Introducción general

Bambo es un nuevo tipo de framework proxy más ligero y flexible que los frameworks convencionales, capaz de gestionar un amplio abanico de tareas de carga.Bambo consigue una funcionalidad proxy eficiente definiendo todas las herramientas en el catálogo de herramientas y utilizando funciones personalizadas asíncronas. Los usuarios pueden definir el modelo y los parámetros del cliente que necesitan llamar en el archivo llm_client.py y luego crear sus propios scripts de prueba en la carpeta examples.El objetivo de Bambo es proporcionar una solución proxy eficiente y flexible para una gran variedad de escenarios de aplicación.

En el marco del agente tradicional, cada rol es un agente independiente, se necesita un "supervisor" para coordinar el trabajo, el cambio de rol debe pasar por un complejo proceso de traspaso, el número de llamadas LLM es relativamente alto, lo que se traduce en una velocidad de respuesta y fluidez deficientes.

Bambo resuelve este problema mediante el juego de rol. Basado en Bambo, se implementa un efecto similar de notebooklm. No hay TTS en el efecto, por lo que puedes añadir el código correspondiente en el script de prueba si es necesario.

Bambo:轻量灵活的智能体框架,简单配置角色和工具,处理多种负载任务

 

Bambo:轻量灵活的智能体框架,简单配置角色和工具,处理多种负载任务

 

Lista de funciones

  • Marco proxy ligero y flexible
  • Manejar una variedad de cargas
  • Compatibilidad con funciones personalizadas asíncronas
  • Definir e invocar los parámetros necesarios del modelo y del cliente
  • Creación y ejecución de guiones de prueba
  • Compatible con escenarios de varios caracteres
  • Funciones de ejecución y análisis de código

 

Utilizar la ayuda

Proceso de instalación

  1. Almacén de clonación:
    git clone https://github.com/LB-Young/Bambo.git
    cd Bambo
    
  2. Instale la dependencia:
    pip install -r requirements.txt
    
  3. Instale PyTorch manualmente (si es necesario):
    pip3 install torch torchvision torchaudio
    

Instalación y configuración

  1. Defina todas las herramientas en el catálogo de herramientas y asegúrese de que las funciones personalizadas sean asíncronas.
  2. Defina los parámetros del modelo y del cliente para las llamadas necesarias en el archivo llm_client.py.
  3. Cree sus propios guiones de prueba en la carpeta de ejemplos, definiendo las funciones y herramientas necesarias.
  4. Inicializa el objeto Bambo e introduce los parámetros necesarios:
    from src.bambo import Bambo
    from src.llm_client import client, model
    from src.tools.code_execute import code_execute
    roles = {
    "finance_expert": "金融专家",
    "law_expert": "法律专家",
    "medical_expert": "医疗专家",
    "computer_expert": "计算机专家",
    }
    tools = {}
    bambo = Bambo(client=client, bambo_role=None, roles=roles, tools=tools, agents=None, model=model)
    query = "我是高考生,现在想要选专业,但是不知道选什么专业。请你介绍一下金融、法律和计算机三个专业分别有什么优点和缺点。"
    async for item in bambo.execute(query=query):
    print(item, end="", flush=True)
    

Utilizar Bambo

  1. Ejecuta la interfaz de Bambo:
    python examples/notebooklm.py
    
  2. o ejecutar el agente en segundo plano:
    nohup python examples/multi_roles.py &> multi_roles.log &
    
  3. El menú interactivo le guiará a través de las siguientes opciones:
    • Crear/actualizar el conjunto de datos de entrenamiento
    • Modelos de formación
    • Agentes de ejecución
    • Ejecutar un flujo de trabajo completo
    • abortar

configure

Edita config.py para personalizarlo:

  • Selección de modelos
  • Hiperparámetros de entrenamiento
  • Configuración del proxy
  • Plantillas adaptativas
  • Filtrado de tareas

Bambo ofrece diversas formas de filtrar las tareas gestionadas:

  1. Etiquetado (automático)
  2. Lista negra (manual)
© declaración de copyright
AiPPT

Artículos relacionados

Sin comentarios

Debe iniciar sesión para participar en los comentarios.
Acceder ahora
ninguno
Sin comentarios...